私人猎头公司迁移到OpenStack的,因为它采用了自动化

这种转变需要驱动与阿维网络软件定义工具更换硬件ADC

肖像历史

内特Baechtold,在EBSCO信息服务企业架构师说,这将是太辛苦,所以该公司转移到OpenStack的,这本身抽象底层组件很像AWS公司的VMware环境中实现自动化。但是,接下来的关键是如何使负载平衡开发者建立?使用现有的基于硬件的系统,自助服务模型过于复杂,Baechtold告诉网络世界总编辑约翰·迪克斯,而是一个新的软件定义工具适合该法案。足球竞猜app软件

EBSCO信息服务的企业架构师Nate Baechtold说 EBSCO信息服务

EBSCO信息服务的企业架构师Nate Baechtold说

让我们与您的组织的缩略图描述开始。

EBSCO信息服务是许多东西,包括私人刊物,研究数据库,历史档案,医学参考数据库,电子图书和企业学习工具的发现服务提供商。很多这些东西你不能在公共互联网上找到。所以,大学和其他组织订阅我们的服务,我们能够联合搜索在所有这些数据库提供他们正在寻找的信息。在过去的一年,我们在达到峰值接近的地方,每天4次亿的搜索。

它呼吁某些垂直市场,比如法律或医疗保健,或者是它的任何和所有的人?

他们中的任何一个。大量的流量来自图书馆和大学为学生提供的研究服务。

什么技术环境是什么样子?

我们总部设在AWS和三个私有数据中心,二是支持我们的实时应用和一个主要支持开发资源公共云。2020欧洲杯预赛我们的大部分现场运行的应用程序是由我们的设计的OpenStack之上的私有云支持。

主要的数据中心在波2020欧洲杯预赛士顿和伊普斯维奇。为了冗余和创建故障域,我们在它们之间有一个大的光纤连接,但是我们的想法是每个数据中心是自治的,可以在没有其他中心的情况下运行。2020欧洲杯预赛每个数据中心大约有400个物理服务器,我们的大部分工作负载都是虚拟化的,所以我们有50002020欧洲杯预赛 - 6000个vm。从虚拟化的角度来看,我们使用的是VMware和OpenStack的组合,但是我们实际上把所有东西都迁移到了OpenStack上,OpenStack构建在KVM之上。

您构建OpenStack环境有多久了?

我们两年前开始开发它,大约一年前我们开始使用它作为我们的生活资源。从那时起,我们就有很大比例的开发人员将其用于自助配置,并将其应用到一个模型中,在这个模型中,我们开始自动化配置、自动化部署,并试图自动化我们所有的基础设施。

为什么要转向OpenStack?

因为这将是太难自动化我们的VMware平台。当你在一个云平台像AWS,你去弄一个虚拟机,它会自动分配一个IP地址,并接收它需要从云平台上运行的一切。您是从很多其他的底层硬件实现的绝缘。VMware的抽象的一些元素,但最终你还是需要知道什么数据存储穿上它,你需要命名的网络,也许VLAN标识符或其他什么东西,它关系到你的基础设施。有很少的抽象,并试图以此为基础将是非常困难的顶部完全自动化模式。

这就是为什么在VMware上有这么多的管理平台——将您与那个API隔离开来——而OpenStack本身抽象了底层的实现。您创建一个一致的平台同样你在AWS,所以非常类似于Amazon的EC2实例(Elastic Compute Cloud),你有一个在OpenStack,就像一个EBS卷在AWS(弹性块存储)卷,你有负载平衡服务,你有图片和许多其他的事情。它们不兼容API,但它们以非常相似的方式运行,因此很容易为持续集成/持续部署(CI/CD)管道构建基础设施自动化。

我们认为通过该API的OpenStack作为一个简单的匝道用于获得充分的基础设施自动化,也越来越与我们的CI / CD过程的整合。此外,由于它的建成是一个公共云产品,我们没有与权限战斗。使用vSphere你必须处理权限的文件夹,资源组,和许多其他的事情。相反,具有单独的权限打的,我们给开发商一个项目。该项目是逻辑上的所有其他基础设施分开,像他们经营自己私有的数据中心。2020欧洲杯预赛

它使他们很容易编写自动化,因为他们不需要担心破坏东西、破坏整个环境或影响共享资源上的人员。它降低了编写自动化、实验和测试的门槛。这些都是OpenStack提供给我们的核心功能,这也是我们使用它的原因。它主要集中在API和加速我们的开发工作和加速我们的基础设施自动化工作。

此时,OpenStack占您工作负载的百分比是多少?

我们的虚拟化基础设施的,我想说的一半左右。我们的目标是要迁移的一切。

您提到您有一些AWS云资源。使用OpenStack的部分原因是不是因为它将使AWS的溢出能力更容易使用?

由于数据局部性和一大堆其他的问题,实现一个混合云并不容易,在这里你可以透明地来回迁移工作负载。我们,可能像大多数公司一样,正在积极地努力进入AWS和进入公共云,但我们意识到,我们仍然需要一个私有云来同时为我们自己的内部数据中心提供服务。2020欧洲杯预赛

你认为长期你会全在一个公共的IaaS服务,从管理你自己的东西越来越远?

是啊。我会说,是我们的长期目标。需要多长时间才能到那里是另外一个问题,但是这将是我们的长期目标。今天,我们使用AWS的BI处理和托管我们的一些运行时服务。

据我所知,你的虚拟化的另一件事是你的应用交付控制器。是什么引导你走上这条路?

我们创造了这个私有云,用户能提供和推倒虚拟机到他们的心脏的内容,而且他们这样做是非常,非常频繁。变化速度在这种环境下的水平是令人难以置信的。我们已经有420,000虚拟机创建,并在过去的两年中销毁。

不过说真的,直到你给你的开发和运营团队的能力,自我服务,他们需要建立自己的直播应用程序的所有功能云是没有用的。开箱即用的,他们可以建立虚拟机。那很棒。然而,他们无法挂钩起来,以负载平衡或许多他们所需要的其他东西。负载均衡是头号痛点,因为你不能没有负载均衡的一些外表打造一个高度可用的应用程序。

因此,我们首先尝试在现有的基于硬件的负载平衡系统上创建一个自助服务模型,在这个模型中,我们可以让团队提供新的内容规则、新的虚拟ip,以及构建和管理应用程序所需的一切。但出乎意料的是,这很难做到。在我们现有的解决方案中,创建一个完全自动化的系统几乎是不可能的。

难道你的硬件ADC供应商提供其设备的软件版本?

是的,他们做了。他们提供了一个虚拟机版本,但它所作的只是转移问题。它并没有解决问题。它帮助我们唯一的办法是说,“好了队,现在你配置和管理自己的虚拟负载平衡器。”他们不太乐意这么做,因为它增加了复杂性。

它不会是非常有效的利用这个问题,是由一个专门的负载均衡的团队之前得到解决,移动它,这样现在大家都不得不成为一个特定的负载均衡技术主题专家。于是我们看着窃听到的负载平衡器作为OpenStack的服务并使其指向我们现有的供应商,并没有工作得非常好。司机不是很在那个时间点的成熟,它清盘造成的各种问题。这是什么原因造成我们开始寻找替代品。

你能给我们一些关于负载平衡器被要求做什么的观点吗?

我们有一个非常重soa的架构。我们的中、后层中大概有80个左右的服务在互相通信,所以在这个环境中,前端层只是负载平衡器工作的一小部分。

什么解决问题的吗?

我们清盘看到一个名为阿维网络在OpenStack的首脑会议上的公司,他们有一些非常有趣的演示。吸引力是多方面的:

*首先,从接入的角度和API的角度看,他们完全符合的OpenStack的多租户系统对齐。他们所做的就是查看负载均衡器作为一个项目,一个租户,就像OpenStack的创建项目和租客,并表示你对世界的看法。你只能看到你的房客的东西,你只能影响你的房客的东西。如果我给你通过一个租户阿维的逻辑片,就像通过OpenStack的,你只能破坏东西在自己的世界。它可以很容易地用手负载平衡的职责关闭以不同的球队。我们给你访问你的负载平衡器的视图,可以执行所有的你需要建立的功能和从地面自动管理应用程序。这是真的很酷。

*第二件事,结业更吸引我们,是洞察力和与它来分析引擎。我们用来获取来自负载平衡器的一些非常原始指标,但分析我们得到阿维出来是非常难能可贵的;之类的东西更好的终端到终端的性能测试结果,并自动异常检测和跟踪。而一些清盘是非常有用的是显著事件检测。它记录它认为显著的事件,我们已经使用,要找到以前没有发现的网络问题。

我们的开发运营团队可能是最喜欢这个元素的,因为现在他们有了所有这些可视性,所有这些对应用程序性能的洞察,这是他们以前没有的。它产生了迁移到产品的强烈愿望。

阿维怎么解决需要为简单起见,您与其他产品进行了有问题?

安装和AVI的使用是直截了当的。只花了我们20分钟即可到达一个高度可用的情况下部署,配置和集成到我们的OpenStack云计算,这是真棒。

从用户的角度来看,界面非常直观,易于使用。没有任何多余的选项,如果有他们封锁了进入自己的小界上下文区域;网络设置,例如,在网络配置文件部分,除非你在乎的是,你不需要处理它或者知道它的存在。你只是采取一切的标准是。我们可以在它指向开发团队和人民没有负载均衡体验能够快速创建高可用性负载平衡的环境。

Where we used to have a centralized network team do all of our load balancing functions, writing custom rules trying to distill them down for other people to use, now we’re able to distribute these functions to all the operations team because they are so much simpler.

它是如何部署的?

我们点它在我们的OpenStack云,并将其与它集成。它集成了项目,对准其多租户模型,并规定负载均衡器上的OpenStack云使用。他们被称为服务引擎。它会自动向上扩展和按比例缩小基于需求的服务引擎。从我们的角度来看,几乎我们雕刻出一个OpenStack的项目中,我们告诉阿维把负载均衡虚拟机在这里,它autoscales他们进出其认为合适。

您是否担心从硬件到基于软件的产品的潜在性能冲击?

起初,我们担心,但到目前为止,每一个性能测试我们已经完成了,我们每一个转换单活的应用程序,并没有表现出任何性能损失。事实上,在某些情况下,我们结束了因指出效率低下,我们以前没有注意到的洞察力和分析引擎获得更好的性能。

你证明上所承诺的易用性迁移,或者是有成本的因素呢?

相关:
12 第1页
第1页共2页
IT薪资调查:结果在