1. Trang chủ
  2. » Luận Văn - Báo Cáo

Nghiên cứu và triển khai hệ thống private cloud cho các ứng dụng đào tạo và thực hành dựa trên giải pháp mã nguồn mở openstack

77 3 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Nghiên Cứu Và Triển Khai Hệ Thống Private Cloud Cho Các Ứng Dụng Đào Tạo Và Thực Hành Dựa Trên Giải Pháp Mã Nguồn Mở Openstack
Tác giả Trần Anh Tuấn
Người hướng dẫn TS. Hoàng Xuân Tùng
Trường học Đại học Quốc gia Hà Nội
Chuyên ngành Công nghệ thông tin
Thể loại luận văn thạc sĩ
Năm xuất bản 2019
Thành phố Hà Nội
Định dạng
Số trang 77
Dung lượng 1,75 MB

Cấu trúc

  • CHƯƠNG 1. GIỚI THIỆU CHUNG (11)
    • 1. Tổng quan về Cloud computing (11)
    • 2. Tổng quan về Private Cloud (14)
    • 3. Tổng quan về Virtualization (14)
    • 4. Tổng quan về Hypervisor (16)
  • CHƯƠNG 2. GIỚI THIỆU VỀ LIBVIRT- KVM, OPENSTACK, CLOUDSTACK (19)
    • I. LIBVIRT- KVM (19)
      • 1. KVM (19)
      • 2. LIBVIRT (20)
    • II. CLOUDSTACK (21)
    • III. OPENSTACK (22)
      • 1. Tổng quan về Openstack (22)
      • 2. Cấu trúc dịch vụ (26)
      • 3. Các module chính được cung cấp trong Openstack (27)
      • 4. Các thành phần chức năng chính của Openstack (31)
  • CHƯƠNG 3. TRIỂN KHAI CÀI ĐẶT HỆ THỐNG PRIVATE CLOUD CHO CÁC ỨNG DỤNG ĐÀO TẠO VÀ THỰC HÀNH DỰA TRÊN GIẢI PHÁP MÃ NGUỒN MỞ OPENSTACK (32)
    • I. Hệ thống phần cứng hiện có (33)
    • II. Bài toán quy hoạch máy chủ (34)
      • 1. Mô hình triển khai tham chiếu (34)
      • 2. Bài toán quy hoạch máy chủ (36)
    • III. Quy trình triển khai quy hoạch máy chủ theo mô hình PhyComp-VirCon (40)
      • 1. Triển khai Openstack trên nền tảng cơ sở hạ tầng sẵn có (40)
      • 2. Triển khai Controller node theo mô hình PhyComp-VirCon (41)
      • 3. Triển khai Compute node theo mô hình PhyComp-VirCon (44)
  • CHƯƠNG 4. KẾT QUẢ ĐẠT ĐƯỢC VÀ KẾT LUẬN (51)
  • TÀI LIỆU THAM KHẢO (52)

Nội dung

GIỚI THIỆU CHUNG

Tổng quan về Cloud computing

Cloud computing là sự kết hợp của các khái niệm như Web service và Web 2.0, cùng với những xu hướng công nghệ hiện đại, hoạt động trên nền tảng Internet để phục vụ nhu cầu người dùng Chẳng hạn, dịch vụ Google Application Engine và Amazon EC2 cung cấp các ứng dụng mua bán trực tuyến, cho phép truy cập thông qua trình duyệt web, trong khi tất cả phần mềm và dữ liệu được lưu trữ trên các server hoặc datacenter.

Cloud computing là mô hình cung cấp tài nguyên hệ thống máy tính như mạng, máy chủ, lưu trữ, ứng dụng và dịch vụ, cho phép người dùng truy cập mà không cần quản lý trực tiếp Nó cho phép nhiều người dùng sử dụng tài nguyên từ các trung tâm dữ liệu qua Internet, với các tính năng được phân tán tại nhiều vị trí trong các cụm máy chủ.

Hình 1-1 Mô hình Cloud Computing

Cloud computing mang lại hiệu quả kinh tế nhờ vào việc chia sẻ tài nguyên, giúp doanh nghiệp giảm chi phí cơ sở hạ tầng Sự phát triển của mạng công nghệ tốc độ cao, giá thành giảm của máy tính và thiết bị lưu trữ, cùng với việc triển khai rộng rãi ảo hóa phần cứng, kiến trúc dịch vụ và mô hình tự động hóa đã thúc đẩy sự hình thành và phát triển của cloud computing.

Theo NIST, điện toán đám mây có năm đặc tính cơ bản: On-demand self-service cho phép khách hàng tự quản lý dịch vụ mà không cần sự hỗ trợ từ IT hay nhà cung cấp; Broad network access đảm bảo dịch vụ có thể truy cập qua các công nghệ mạng thông thường; Resource pooling cho phép nhiều người dùng chia sẻ hạ tầng trong datacenter; Rapid elasticity cho phép dịch vụ dễ dàng điều chỉnh theo nhu cầu thực tế; và Measured service giúp tối ưu hóa tài nguyên sử dụng và cập nhật thường xuyên.

The NIST service model defines three main categories of cloud computing services: Software as a Service (SaaS), Platform as a Service (PaaS), and Infrastructure as a Service (IaaS) In the SaaS model, software applications run on the provider's data center and are managed by the service provider A prime example of SaaS is Microsoft Office 365.

Platform as a Service (PaaS) là một dịch vụ máy chủ được vận hành và quản lý bởi nhà cung cấp, trong khi người dùng có trách nhiệm quản lý ứng dụng và lưu trữ dữ liệu trên máy chủ Ví dụ tiêu biểu cho PaaS bao gồm Windows Azure và Amazon Web Services (AWS) Ngược lại, Infrastructure as a Service (IaaS) cho phép người dùng quản lý hoàn toàn máy chủ, bao gồm hệ điều hành, ứng dụng và dữ liệu lưu trữ trên máy chủ.

Ngoài ra, NIST cũng liệt kê bốn mô hình triển khai cho Cloud computing bao gồm: Private Cloud, Public Cloud, Community Cloud và Hybrid Cloud Mô hình

Private Cloud là mô hình hạ tầng độc quyền dành riêng cho một khách hàng, có thể được triển khai tại trung tâm dữ liệu của người dùng hoặc của nhà cung cấp dịch vụ.

Private Cloud có thể được quản lý bởi người dùng, nhà cung cấp dịch vụ hoặc bên thứ ba chuyên cung cấp dịch vụ Cloud, nhưng người dùng phải chịu toàn bộ chi phí Ngược lại, Public Cloud là mô hình hạ tầng mở, cho phép mọi người, bao gồm cả cá nhân và doanh nghiệp lớn, dễ dàng sử dụng mà không giới hạn số lượng người dùng Public Cloud ngày càng trở nên phổ biến, với các dịch vụ như Microsoft Office 365 và Microsoft Azure.

Amazon Web Service (AWS) và NTC Cloud Server là những ví dụ tiêu biểu của giải pháp Public Cloud Mô hình Community Cloud cho phép chia sẻ cơ sở hạ tầng giữa nhiều tổ chức hoặc người dùng có cùng mục đích, giúp tối ưu hóa tài nguyên và giảm chi phí Quản lý một Community Cloud đòi hỏi sự hợp tác chặt chẽ giữa các bên liên quan để đảm bảo hiệu quả và an toàn cho dữ liệu.

Cloud có thể do một tổ chức hoặc một đơn vị thứ ba chuyên cung cấp các dịch vụ Cloud

Mô hình Hybrid Cloud kết hợp hạ tầng từ ba mô hình Cloud khác nhau, cho phép lưu trữ mailbox trong datacenter của Microsoft Office 365, đồng thời tích hợp với Exchange Server và các mailbox riêng Sự kết hợp này tạo ra một hệ thống nhắn tin lai, hay còn gọi là hybrid messaging system.

Trong phạm vi triển khai của luận văn, mô hình Private Cloud được sử dụng để triển khai cài đặt

Tổng quan về Private Cloud

Private Cloud là dịch vụ được cung cấp qua Internet hoặc mạng nội bộ, giới hạn người dùng và còn được gọi là Internal Cloud hay Corporate Cloud Nó mang lại cho doanh nghiệp các lợi ích như tự phục vụ, khả năng mở rộng và tính linh hoạt tương tự như Public Cloud Đặc biệt, Private Cloud đảm bảo tính riêng tư và độ bảo mật cao thông qua firewall và hosting nội bộ, giúp bảo vệ các hoạt động và dữ liệu quan trọng khỏi sự truy cập của bên thứ ba.

Hai mô hình dịch vụ được áp dụng trong Private Cloud bao gồm: Platform as a

Service (PaaS) và Infrastructure as a Service (IaaS) Mô hình đầu tiên là Platform as a

Dịch vụ PaaS cho phép tổ chức cung cấp cả ứng dụng miễn phí và ứng dụng trả phí, trong khi mô hình IaaS cho phép tổ chức sử dụng tài nguyên cơ sở hạ tầng như máy tính, hệ thống mạng và thiết bị lưu trữ dưới dạng dịch vụ.

Cloud riêng (Private Cloud) có thể kết hợp với Cloud công cộng (Public Cloud) để hình thành Cloud lai (Hybrid Cloud), giúp doanh nghiệp tận dụng tính năng Cloud Bursting Điều này cho phép tối ưu hóa không gian và quy mô dịch vụ Cloud Computing khi nhu cầu sử dụng của người dùng hoặc tổ chức gia tăng.

Openstack, Cloudstack là một trong những nền tảng phần mềm điển hình cho mô hình Private Cloud.

Tổng quan về Virtualization

Ảo hóa (virtualization) là quá trình triển khai hệ thống máy tính ảo trên nền tảng hệ thống máy tính thật, cho phép giả lập các thiết bị, bao gồm phần cứng, lưu trữ và mạng Kỹ thuật này giúp người dùng chia sẻ một instance vật lý của tài nguyên hoặc ứng dụng giữa nhiều người dùng và tổ chức khác nhau Ý tưởng về ảo hóa đã xuất hiện từ những năm 1960 do IBM giới thiệu, nhằm tối ưu hóa hiệu suất sử dụng của các mainframe, vốn thường không được khai thác hết công suất Ảo hóa trở thành phương pháp hiệu quả trong việc cung cấp tài nguyên hệ thống cho các ứng dụng hoạt động trên nền tảng mainframe.

Hình 1-2 Sự khác biệt về kiến trúc máy tính giữa công nghệ truyền thống với công nghệ ảo hóa

Với sự phát triển của công nghệ như Utility Computing và Cloud Computing, công nghệ ảo hóa ngày càng được chú trọng trong việc phát triển các công nghệ mới Ảo hóa được phân thành nhiều loại khác nhau, mỗi loại đều có những ứng dụng và lợi ích riêng.

Bảng 1-1 Các loại ảo hóa

STT Loại ảo hóa Công nghệ ảo hóa Mức độ quan tâm

1 Phần cứng (Hardware) Server Virtualization Cao

Application virtualization Trung bình Workspace virtualization Trung bình Service virtualization Cao

3 Bộ nhớ (Memory) Memory virtualization Cao

Storage virtualization Cao Distributed file system Trung bình Virtual file system Trung bình

5 Dữ liệu (Data) Data virtualization Cao

Network virtualization Cao Virtual private network Trung bình Nền tảng hypervisor được giới thiệu sau đây cũng sử dụng công nghệ ảo hóa

Tổng quan về Hypervisor

Theo Redhat, hypervisor là phần mềm trừu tượng hóa phần cứng từ một hệ điều hành, cho phép nhiều hệ điều hành hoạt động đồng thời trên cùng một nền tảng phần cứng Hypervisor hoạt động trên hệ thống, cho phép các máy ảo chạy trên nền tảng phần cứng của máy chủ.

Theo VMWare, hypervisor là phần mềm cho phép phân vùng ảo hóa trực tiếp trên phần cứng, tối ưu hóa việc ảo hóa các dịch vụ mạng.

Hypervisor là phần mềm, firmware hoặc phần cứng dùng để tạo và quản lý máy ảo Một máy tính có cài đặt hypervisor có khả năng chạy một hoặc nhiều máy ảo đồng thời.

Host và mỗi máy ảo được gọi là máy Guest [1]

Hypervisor là nền tảng ảo hóa quản lý các hệ điều hành khách (Guest OS), cho phép các instance như Linux, Windows và macOS chia sẻ tài nguyên phần cứng ảo trên một máy tính x86 Khác với ảo hóa hệ điều hành (OS virtualization), nơi tất cả các instance phải chia sẻ cùng một nhân (kernel) thông qua Guest OS, Hypervisor cung cấp khả năng vận hành độc lập cho từng instance.

Hình 1-3 Hai cơ chế ảo hóa phần cứng

Sự phát triển của công nghệ ảo hóa đã dẫn đến những thay đổi trong các nền tảng phần cứng, với Intel và AMD thiết kế các vi xử lý mới dựa trên kiến trúc x86, bao gồm công nghệ Intel VT-x và AMD-V Chipset Intel 80286 đã giới thiệu hai phương thức địa chỉ bộ nhớ: địa chỉ bộ nhớ thực (real mode) và địa chỉ bộ nhớ ảo (protected mode), trong đó địa chỉ bộ nhớ ảo cung cấp tính năng hỗ trợ multicasting thông qua phần cứng hỗ trợ bộ nhớ ảo và các thành phần vi xử lý.

Dựa trên nền tảng đó, Hypervisor được phân thành 2 loại như sau: Native hypervisor (Bare-metal hypervisor), Hosted hypervisor

Hình 1-4 Phân loại hypervisor a Native hypervisor (Bare-metal hypervisor)

Hypervisor là phần mềm chạy trực tiếp trên phần cứng máy chủ, có nhiệm vụ quản lý các hệ điều hành khách (Guest OS) Công nghệ hypervisor được IBM phát triển từ những năm 1960, bao gồm các phần mềm như SIMON, hệ điều hành CP/CMS, cùng với các hệ điều hành hiện đại như Antsle, Xen, XCP-ng và SPARC Oracle VM.

Server, Oracle VM Server x86, Microsoft Hyper-V, Xbox One và VMware ESXi (phiên bản trước đó là VMware ESX) [1]

Hypervisor hoạt động thông qua một chương trình máy tính hoặc hệ điều hành nền, cho phép mỗi hệ điều hành khách (Guest OS) chạy như một vi xử lý của máy chủ (host) Hypervisor quản lý và điều phối các hệ điều hành khách này, đảm bảo hiệu suất và tính tương thích.

OS từ Host OS, bao gồm VMware Workstation, VMware Player, VirtualBox, Parallels Desktop for Mac và QEMU [1]

Tuy nhiên sự khác biệt của 2 loại hypervisor không phải lúc nào cũng rõ ràng

Kernel-based Virtual Machine (KVM) của Linux và Bhyve của FreeBSD là những module nhân hoạt động như hypervisor gốc trên máy chủ Cả hai đều dựa trên nền tảng hệ điều hành chung và cạnh tranh trong việc cung cấp ứng dụng cho tài nguyên ảo, do đó KVM và Bhyve có thể được coi là hypervisor được lưu trữ.

GIỚI THIỆU VỀ LIBVIRT- KVM, OPENSTACK, CLOUDSTACK

LIBVIRT- KVM

KVM (Kernel-based Virtual Machine) là một module ảo hóa trong nhân Linux, hoạt động như một hypervisor Ra mắt vào tháng 10 năm 2006, KVM đã được tích hợp vào nhân Linux từ phiên bản 2.6.20 vào ngày 5 tháng 2 năm 2007 Để hoạt động, KVM yêu cầu vi xử lý hỗ trợ phần cứng ảo hóa mở rộng như Intel VT hoặc AMD-V Ban đầu thiết kế cho bộ xử lý x86, KVM sau đó đã được mở rộng sang các kiến trúc khác như S/390, PowerPC, IA-64 và ARM.

KVM hỗ trợ ảo hóa phần cứng cho nhiều hệ điều hành khách khác nhau, bao gồm Linux, BSD, Solaris, Windows, Haiku, ReactOS, Plan 9, AROS Research Operating System, MacOS, Android 2.2, GNU/Hurd (Debian K16), Minix 3.1.2a, Solaris 10 U3 và Darwin 8.0.1, cùng với các hệ điều hành khác và các thế hệ mới.

KVM chuyển đổi nhân Linux thành hypervisor, sử dụng phần mềm mô phỏng phần cứng QEMU để tối ưu hóa các thành phần hệ thống QEMU mô phỏng vi xử lý và các thiết bị ngoại vi như ổ đĩa, hệ thống mạng, VGA, PCI, USB, cùng các cổng nối tiếp và song song, nhằm thiết lập hệ thống phần cứng ảo hoàn chỉnh để mô phỏng và cài đặt các hệ điều hành khách.

KVM là một hypervisor chính của Openstack compute (Nova) trong Openstack [6]

Libvirt là một API mã nguồn mở và công cụ quản trị nền tảng ảo hóa, được sử dụng để quản lý các công nghệ ảo hóa như KVM, Xen, VMware ESXi và QEMU Với kiến trúc lớp của các hypervisor, Libvirt hỗ trợ phát triển các giải pháp dựa trên đám mây, mang lại hiệu quả cao trong việc quản lý tài nguyên ảo.

Libvirt là một thư viện ngôn ngữ C, hỗ trợ nhiều ngôn ngữ lập trình khác như Python, Perl, OCaml, Ruby, Java, JavaScript (đặc biệt là Node.js) và PHP, đóng vai trò quan trọng trong việc quản lý ảo hóa trong môi trường Hypervisor.

Libvirt cung cấp hỗ trợ cho lập trình viên thông qua các class/package gọi là libvirtmod, cho phép sử dụng nhiều ngôn ngữ lập trình khác nhau Sự triển khai của libvirtmod được kết nối chặt chẽ với các nền tảng kế thừa ngôn ngữ C/C++, đặc biệt về cú pháp và cấu trúc hàm.

Libvirt sử dụng dòng lệnh virsh để thực thi các lệnh giao diện, đồng thời cũng được tích hợp trong các công cụ quản trị như oVirt và virt-manager.

Trong Openstack, libvirt giúp KVM hoạt động một cách tối ưu và hiệu quả [6]

CLOUDSTACK

Cloudstack, hay còn gọi là Apache Cloudstack, là một nền tảng phần mềm mã nguồn mở trong lĩnh vực Cloud Computing Nền tảng này được phát triển theo mô hình Infrastructure as a Service (IaaS) nhằm quản lý tài nguyên hệ thống máy tính hiệu quả.

CloudStack utilizes various hypervisors, including KVM, VMware vSphere, VMware ESXi, VMware vCenter, XenServer/XCP, Oracle VM Server, and Microsoft Hyper-V, to meet virtualization requirements Additionally, CloudStack offers Amazon Web Services (AWS) APIs and adheres to the Open Cloud Computing interface established by the Open Grid Forum (OGF).

Cloudstack là được pháp triển bởi tổ chức Apache Software Foundation dựa theo các điều khoản của Giấy phép Apache [1]

CloudStack, initially developed by Cloud.com and released in May 2010, was acquired by Citrix Systems on July 12, 2011 Following the acquisition, Citrix partnered with the Apache Software Foundation in August 2011 to further develop CloudStack under the Apache License In February 2012, Citrix Systems released CloudStack 3.0.

Người dùng có thể dễ dàng quản lý Cloudstack qua giao diện web, công cụ dòng lệnh hoặc API RESTful Cloudstack cũng cung cấp API tương thích với AWS EC2 và AWS S3, giúp các tổ chức phát triển Hybrid Cloud hiệu quả.

Cloudstack tổ chức phần cứng theo cấu trúc tầng, với tầng thấp nhất là các hypervisor và hệ thống lưu trữ ảo chung, tạo thành một Cluster Tầng thứ hai bao gồm các Cluster được kết nối qua switch layer 2, hình thành nên một Pod Tầng cao nhất, nơi các Pod kết nối với nhau thông qua switch layer 3, liên kết với khối thiết bị trên server.

OPENSTACK

OpenStack là nền tảng phần mềm mã nguồn mở cho Cloud Computing, phát triển theo mô hình Infrastructure as a Service (IaaS), giúp quản lý tài nguyên hệ thống máy tính và cung cấp các server ảo cùng tài nguyên khác cho người dùng Nền tảng này bao gồm nhiều chức năng liên quan, điều khiển và xử lý các nhóm phần cứng, lưu trữ và mạng trong data center Người dùng có thể quản lý thông qua dashboard web, công cụ dòng lệnh hoặc API RESTful.

Openstack.org là đơn vị phát hành Openstack dựa theo các điều khoản của Giấy phép Apache [1]

OpenStack là một dự án chung của Rackspace Hosting và của NASA vào năm

Kể từ năm 2016, OpenStack đã được quản lý bởi OpenStack Foundation, một tổ chức phi lợi nhuận được thành lập vào tháng 9 năm 2012 với mục tiêu quảng bá phần mềm OpenStack và xây dựng cộng đồng người dùng Đến nay, hơn 500 công ty đã tham gia vào dự án này.

Bảng 2-1 Lịch sử hình thành và phát triển của Openstack

Năm Thời gian cụ thể Sự kiện Mục tiêu

Bộ mã nguồn đầu tiên được phát triển từ nền tảng Nebula của NASA và nền tảng Cloud Files của Rackspace, là một mô hình Cloud gốc do quản trị viên website NASA Ames, Megan A Eskey, thiết kế Kiến trúc này mang tên OpenNASA 2.0 và được xây dựng theo tiêu chí mã nguồn mở.

Các module Cloudstack và Openstack được kết hợp và phát hành dưới dạng nguồn mở bởi nhóm NASA Nebula phối hợp với Rackspace

Rackspace Hosting và NASA đã cùng nhau đưa ra một sáng kiến phần mềm Cloud nguồn mở được gọi là OpenStack

Nhiệm vụ của OpenStack là

"nền tảng Cloud Computing nguồn mở phổ biến, đáp ứng nhu cầu của public cloud và private cloud bất kể quy mô,

Năm Thời gian cụ thể Sự kiện Mục tiêu bằng cách đơn giản để thực hiện và có thể mở rộng quy mô"

SUSE đã công bố phiên bản thương mại đầu tiên dành cho các thiết bị hỗ trợ OpenStack, được cấu hình đầy đủ dựa trên bản phát hành OpenStack Diablo.

Vào ngày 21/10, bản phát hành chính thức đầu tiên, có tên gọi Austin, được phát hành

Dự án OpenStack được thiết kế để hỗ trợ các tổ chức cung cấp dịch vụ Cloud Computing trên phần cứng tiêu chuẩn, đồng thời đảm bảo cập nhật phần mềm định kỳ sau mỗi vài tháng.

Các nhà phát triển bản Ubuntu- Linux đã sử dụng OpenStack với phiên bản không được hỗ trợ của Openstack Bexar được phát hành cho Ubuntu 11.04 (Natty Narwhal)

Canonical đã chính thức giới thiệu hỗ trợ toàn diện cho OpenStack Cloud, bắt đầu với phiên bản Cactus của OpenStack.

OpenStack đã được tích hợp vào Debian Sid kể từ phiên bản OpenStack Cactus, và phiên bản đầu tiên của Debian với OpenStack 2012.1 (OpenStack Essex) là Debian 7.0 (Debian Wheezy).

NASA đã quyết định rút khỏi OpenStack và không còn là thành viên đóng góp tích cực Thay vào đó, cơ quan này đã lựa chọn sử dụng dịch vụ đám mây của Amazon Web Services cho các nhu cầu của mình.

Redhat ra mắt bản OpenStack phân tán của họ cũng bắt đầu với phiên bản Openstack Essex

HP bắt đầu triển khai HP Helion Public Cloud trên OpenStack

Năm Thời gian cụ thể Sự kiện Mục tiêu

SUSE đã ra mắt bản OpenStack phân tán dành cho doanh nghiệp được hỗ trợ thương mại dựa trên bản phát hành Openstack Essex

Dịch vụ kỹ thuật số của Chính phủ Vương quốc Anh

(Government Digital Service - GDS) đã phát triển dựa trên phiên bản OpenNASA v2.0 là phiên bản Government as a Platform (GaaP)

NASA đã thực hiện một cuộc kiểm toán nội bộ do thiếu tiến bộ kỹ thuật và các yếu tố khác, dẫn đến quyết định từ bỏ vai trò phát triển tích cực dự án Thay vào đó, cơ quan này sẽ chuyển hướng tập trung vào việc sử dụng các dịch vụ Public Cloud.

Oracle đã chính thức tham gia OpenStack với vai trò là Nhà phát triển, đồng thời dự định tích hợp OpenStack vào các sản phẩm của mình, bao gồm Oracle Solaris và Oracle Linux.

At the Interop and Tech Field Day, Avaya showcased software-defined networking (SDN) by utilizing shortest-path bridging and OpenStack as an automated model that seamlessly scales from the data center to devices, eliminating manual interventions in service provisioning.

HP đã công bố HP Helion và phát hành bản OpenStack HP Helion, bắt đầu với phiên bản IceHouse

Vào ngày 24/9, Oracle cũng phát hành các phiên bản Oracle OpenStack là sự kết hợp Oracle Solaris và Oracle Linux tạo ra Openstack Icehouse

Năm Thời gian cụ thể Sự kiện Mục tiêu

Tính đến thòi điểm này, NASA vẫn sử dụng OpenStack Private Cloud và có RFPs để hỗ trợ OpenStack Public Cloud

2016 OpenStack Foundation là tổ chức quản lý OpenStack b Các phiên bản của Openstack

Bảng 2-2 Các phiên bản của Openstack

Openstack Tình trạng Thời gian phát hành

15 Ocata Hỗ trợ 22/02/2017 Ước tính không xác định

16 Pike Hỗ trợ 30/08/2017 Ước tính không xác định

17 Queens Duy trì 28/02/2018 Hỗ trợ đến

18 Rocky Duy trì 30/08/2018 Hỗ trợ đến

19 Stein Duy trì 10/04/2019 Hỗ trợ đến

20 Train Duy trì 16/10/2019 Hỗ trợ đến

21 Ussuri Phát triển ước tính

Kiến trúc các module của Openstack ứng với các tên gọi của từng dịch vụ được cung cấp: [5]

Bảng 2-3 Các dịch vụ của Openstack

STT Tên dịch vụ Phân loại dịch vụ

8 Application Catalog (Murano) Mở rộng

9 Backup, Restore and Disaster Recovery

10 Bare Metal (Ironic) Mở rộng

14 Data Processing (Sahara) Mở rộng

15 Data Protection Orchestration (Karbor) Mở rộng

18 EC2 API compatibility Mở rộng

20 Infrastructure Optimization (Watcher) Mở rộng

21 Key Manager (Barbican) Mở rộng

22 Load-balancer (Octavia) Mở rộng

25 NFV Orchestration (Tacker) Mở rộng

28 RCA (Root Cause Analysis) (Vitrage) Mở rộng

29 Resource reservation (Blazar) Mở rộng

31 Shared File Systems (Manila) Mở rộng

STT Tên dịch vụ Phân loại dịch vụ

33 Telemetry Alarming (Aodh) Mở rộng

34 Telemetry Data Collection (Ceilometer) Mở rộng

35 Telemetry Event (Panko) Mở rộng

3 Các module chính được cung cấp trong Openstack: a Openstack identity module

OpenStack Identity (Keystone) cung cấp danh mục người dùng được ánh xạ tới các dịch vụ OpenStack, cho phép người dùng truy cập dễ dàng Nó hoạt động như một hệ thống xác thực chung, tích hợp với các dịch vụ phụ trợ như LDAP và PAM OpenStack Identity hỗ trợ nhiều hình thức xác thực, bao gồm thông tin đăng nhập tên người dùng và mật khẩu, hệ thống token, và phương thức truy cập AWS Ngoài ra, nó còn cung cấp danh sách có thể truy vấn tất cả các dịch vụ triển khai trên OpenStack, giúp người dùng và công cụ bên thứ ba xác lập tài nguyên được cấp quyền truy cập.

OpenStack Compute (Nova) là một module quan trọng trong hệ thống OpenStack, được phát triển theo mô hình Infrastructure as a Service (IaaS) Nó được thiết kế để quản lý và tối ưu hóa tự động các tài nguyên máy tính, đồng thời hỗ trợ mở rộng các công nghệ ảo hóa như bare-metal server và siêu máy tính Nova tương thích với nhiều lựa chọn công nghệ ảo hóa, bao gồm KVM, VMware, Xen, Hyper-V và Linux container (LXC).

OpenStack Compute phân tán các tác vụ hoạt động độc lập và riêng biệt như sau:

Bảng 2-4 Các API trong Openstack Compute (Nova)

1 nova-api Tương tác giữa các API của hệ thống với người dùng

Cho phép người dùng có thể tạo và thực thi các VM instance với các API hypervisor (Libvirt KVM, Vmware API của Vmware)

3 nova-network Cho phép người dùng quản lý các tác vụ liên quan đế mạng

4 nova- scheduler Cho phép tối ưu các hoạt động của VM instance

Cho phép người dùng truy nhập vào các node thông qua database c Openstack network module

OpenStack Networking (Neutron) là giải pháp quản lý mạng và địa chỉ IP, giúp đảm bảo mạng không bị tắc nghẽn hoặc thắt cổ chai trong quá trình triển khai Cloud Nó cung cấp cho người dùng khả năng cấu hình mạng nội bộ và cấu hình qua Internet một cách linh hoạt và hiệu quả.

OpenStack Networking cung cấp các mô hình mạng đa dạng, phục vụ cho các ứng dụng và nhóm người dùng khác nhau Các mô hình phổ biến bao gồm mạng phẳng (flat network) và VLAN, giúp phân tách các máy chủ và quản lý lưu lượng truyền tải hiệu quả.

OpenStack Networking quản lý địa chỉ IP, hỗ trợ cả địa chỉ IP tĩnh hoặc địa chỉ

TRIỂN KHAI CÀI ĐẶT HỆ THỐNG PRIVATE CLOUD CHO CÁC ỨNG DỤNG ĐÀO TẠO VÀ THỰC HÀNH DỰA TRÊN GIẢI PHÁP MÃ NGUỒN MỞ OPENSTACK

Hệ thống phần cứng hiện có

Hệ thống phần cứng triển khai OpenStack bao gồm ba server cài đặt hệ điều hành CentOS 7, được cấu hình để kết nối và remote qua SSH Mỗi server được mở cổng để cho phép kết nối Internet, giúp quản trị viên quản lý hệ thống từ xa Để triển khai giải pháp Private Cloud, hệ thống server này là rất cần thiết.

 Bảng các server, và số lượng:

STT Tên server Số lượng

 Bảng cấu hình server (số CPU, RAM, Storage và Card mạng )

STT Tên server CPU Core RAM

Bài toán quy hoạch máy chủ

1 Mô hình triển khai tham chiếu

Theo yêu cầu của giải pháp OpenStack, một mô hình Private Cloud cần có ít nhất một Controller node, nhiều Compute node và có thể bổ sung thêm các Storage node hoặc các thành phần phụ trợ khác Controller node đảm nhiệm việc quản lý và điều phối hoạt động của các Compute node cũng như các thành phần khác để thực hiện các tác vụ quản lý máy ảo như tạo, hủy và cấu hình máy ảo, cũng như quản lý mạng ảo Các Compute node thực hiện việc tạo và lưu trữ máy ảo, đồng thời cung cấp tài nguyên cho các máy ảo hoạt động Ngoài ra, Storage node có nhiệm vụ cấp phát tài nguyên cho việc lưu trữ máy ảo và các file chia sẻ.

Hình 3-1: Mô hình triển khai tham chiếu của Openstack

Các dịch vụ chính được cài đặt trong Controller node gồm:

Bảng 3-1: Các dịch vụ cài đặt trong Controller node

STT Các module Chức năng

Là dịch vụ dùng để quản lý việc xác thực người dùng khi truy cập và sử dụng các dịch vụ của Openstack

Là dịch vụ dùng để quản lý image liên quan đến ổ đĩa ảo và cấu hình cài đặt trên các ổ đĩa ảo khi sử dụng Openstack

3 Dashboard Là dịch vụ dùng để hỗ trợ người dùng quản lý hệ thống Openstack thông qua giao diện đồ họa

Nova (nova-api, nova-scheduler, nova-conductor)

Là dịch vụ dùng để quản lý việc truy xuất cơ sở dữ liệu và phục vụ các tác vụ liên quan tới máy ảo

Neutron (neutron- server, neutron- agent)

Dịch vụ này quản lý kết nối mạng giữa Controller node và các node khác trong OpenStack Các dịch vụ chính được cài đặt trong Compute node bao gồm nhiều thành phần quan trọng để đảm bảo hiệu suất và khả năng mở rộng của hệ thống.

Bảng 3-2: Các dịch vụ trong Compute node

STT Các module Chức năng

Là dịch vụ dùng để quản lý các máy ảo cũng như cập nhật trạng thái của các máy ảo trong hệ thống Openstack

Dịch vụ quản lý kết nối mạng giữa Compute node và các node khác trong OpenStack là một phần quan trọng trong hạ tầng Các dịch vụ chính được cài đặt trong Storage node bao gồm nhiều thành phần thiết yếu để đảm bảo hiệu suất và khả năng mở rộng của hệ thống.

Bảng 3-3: Các dịch vụ trong Storage node

STT Các module Chức năng

Dịch vụ này cho phép quản lý các thiết bị lưu trữ khối hiệu quả, đồng thời cung cấp cho người dùng các API tự phục vụ phù hợp với yêu cầu và nhu cầu sử dụng của họ.

2 Swift Là dịch vụ dùng để lưu trữ dự phòng và truy xuất dữ liệu

Là dịch vụ dùng để quản lý kết nối mạng giữa Storge node với các node khác trong Openstack

Khi triển khai hệ thống OpenStack, Storage node có thể được cài đặt chung với Compute node, trong khi Controller node cung cấp dịch vụ như SQL Database để lưu trữ thông tin hệ thống, MQ (đặc biệt là RabbitMQ) để trao đổi thông tin với Compute node, và NTP (Network Time Protocol) để đồng bộ thời gian giữa các máy ảo và máy host Bên cạnh đó, Compute node cũng cung cấp dịch vụ tường lửa nhằm đảm bảo an toàn cho các máy ảo.

2 Bài toán quy hoạch máy chủ

Việc bố trí cài đặt các thành phần chức năng như controller node và compute node vào các server là một yếu tố quan trọng ảnh hưởng đến năng lực xử lý và hiệu suất sử dụng tài nguyên của hệ thống Dựa trên mô hình triển khai tham chiếu và thông tin về các server, chúng ta sẽ phân tích sự ảnh hưởng của việc bố trí này thông qua các mô hình triển khai thông thường.

Mô hình PhyComp-PhyCon (Physical Compute và Physical Controller) triển khai các nút chức năng trên các máy vật lý tách biệt, với mỗi máy chỉ thực hiện một chức năng duy nhất Cụ thể, trong ba máy vật lý, một máy sẽ đảm nhận vai trò Controller node, trong khi hai máy còn lại sẽ cài đặt Compute node Mô hình này đơn giản và dễ cài đặt, chỉ cần tuân thủ hướng dẫn từ tài liệu OpenStack Việc tách biệt cài đặt trên các máy vật lý giúp quản lý tài nguyên của hệ thống Cloud (do Controller node sử dụng) và tài nguyên cung cấp cho các máy ảo (do Compute node quản lý) hoàn toàn độc lập, không xung đột và ảnh hưởng lẫn nhau, từ đó đảm bảo sự ổn định cho hệ thống.

Triển khai theo mô hình PhyComp-PhyCon có thể dẫn đến lãng phí tài nguyên phần cứng, đặc biệt khi Controller node được cài đặt trên server với cấu hình 64 core và 128GB RAM Mặc dù Controller node có quyền sử dụng toàn bộ 64 core và 128GB RAM, nhưng thực tế chỉ cần 1-2 core và 2-4GB RAM để hoạt động hiệu quả Tương tự, một Compute node cũng được cài đặt trên server với cấu hình tương tự, chiếm 2-4 core và 4-8GB RAM.

60 máy ảo (mỗi máy ảo sử dụng 1 core và 2GB RAM) Thêm nữa, khi cài đặt Controller

Một server tách biệt có thể hỗ trợ tối đa 35 node với yêu cầu tối thiểu 10GB để lưu trữ dữ liệu Trong khi đó, cấu hình hiện tại của server có dung lượng ổ cứng lên tới 20TB.

PhyComp-CoPhyCon (Physical Compute and Colocatable Physical Controller):

Trong mô hình triển khai này, các nút chức năng được cài đặt trên cùng một máy vật lý, trong đó chỉ có một máy được trang bị đầy đủ chức năng Controller node và Compute node, trong khi hai máy còn lại chỉ cài đặt Compute node Mô hình này dễ tiếp cận cho giai đoạn thử nghiệm ban đầu, vì việc cài đặt cả hai nút trên một máy không yêu cầu nhiều tài nguyên Hơn nữa, việc kết hợp các chức năng trên cùng một máy vật lý giúp tối ưu hóa tài nguyên hệ thống (CPU, RAM, Core) và lưu trữ, giảm thiểu lãng phí và nâng cao hiệu suất xử lý.

Mô hình PhyComp-CoPhyCon có cấu hình phức tạp, khi Controller node và Compute node được cài đặt trên cùng một máy vật lý, có thể dẫn đến xung đột tài nguyên Việc không tách biệt giữa tài nguyên quản lý của hệ thống Cloud và tài nguyên cung cấp cho máy ảo có thể ảnh hưởng đến hiệu suất hoạt động Hệ thống ưu tiên cấp phát tài nguyên cho Controller node để đảm bảo hoạt động, nhưng điều này làm giảm tài nguyên CPU và RAM cho các máy ảo trong Compute node, dẫn đến hiệu suất kém hoặc thậm chí treo hệ thống Khi số lượng máy ảo tăng, tài nguyên sẽ được ưu tiên cho chúng, làm giảm tài nguyên cho Controller node và ảnh hưởng đến toàn bộ hiệu suất hệ thống.

Mô hình PhyComp-VirCon được đề xuất nhằm tối ưu hóa việc phân bổ tài nguyên trong hệ thống máy chủ, với Controller node được triển khai trên một máy ảo riêng biệt trên máy vật lý có cài đặt Compute node Việc này giúp tách biệt tài nguyên quản lý hệ thống Cloud và tài nguyên cho các máy ảo người dùng, từ đó nâng cao hiệu suất xử lý và khả năng sử dụng của hệ thống Việc bố trí các thành phần chức năng vào server là một thách thức quan trọng trong quy hoạch máy chủ để đảm bảo hoạt động tối ưu.

Cụ thể mô hình PhyComp-VirCon được mô tả như dưới đây

Mô hình PhyComp-VirCon (Physical Compute and Virtual Controller) sử dụng một máy ảo đặc biệt để tách biệt tài nguyên với ba máy vật lý Trong mô hình này, Compute node được cài đặt trên ba máy vật lý, trong khi Controller node được thiết lập trên máy ảo Việc cài đặt này giúp các nút chức năng hoạt động độc lập, dễ dàng tuân thủ theo hướng dẫn của Openstack Sự tách biệt giữa tài nguyên quản lý của hệ thống Cloud và tài nguyên cung cấp cho máy ảo người dùng đảm bảo không có xung đột, giúp hệ thống hoạt động ổn định Điểm khác biệt chính giữa PhyComp-PhyCon và PhyComp-VirCon là Controller Node được cài đặt trên một server ảo, cho phép cấu hình tài nguyên cho máy ảo một cách nhanh chóng và linh hoạt Quản trị viên có thể dễ dàng cài đặt máy ảo KVM trên CentOS7 với cấu hình tối thiểu 2 core và 4GB RAM, và có thể điều chỉnh tài nguyên khi cần thiết bằng cách sửa file cấu hình và khởi động lại máy ảo Các máy vật lý cũng tận dụng toàn bộ tài nguyên phần cứng hiện có, bao gồm CPU, RAM, Core và Storage.

Mô hình PhyComp-VirCon mặc dù mang lại nhiều lợi ích, nhưng trong quá trình triển khai, chúng tôi nhận thấy một số hạn chế Mô hình này phức tạp, đòi hỏi quản trị viên phải có kinh nghiệm trong quản lý server và hệ thống thực tế Việc cấu hình, kết nối và quản trị giữa server ảo với server vật lý cũng như giữa các máy ảo là những thách thức cần được giải quyết.

Dưới đây là bảng tóm tắt khi triển khai các mô hình quy hoạch máy chủ:

Bảng 3-4 Bảng so sánh các mô hình quy hoạch máy chủ

STT Mô hình Ưu điểm Nhược điêm

- Mô hình đơn giản, dễ cài đặt

- Hệ thống sau khi triển khai hoạt động ổn định

- Gây ra sự lãng phí tài nguyên

- Ban đầu dễ tiếp cận hệ thống

- Khắc phục sự lãng phí và tối ưu tài nguyên so với mô hình PhyComp- PhyCon

- Mô hình khó cấu hình cho các nút

- Các nút chức năng dễ xảy ra xung đột và ảnh hưởng tới nhau làm giảm hiệu suất hoạt động

- Mô hình tách biệt, các nút chức năng hoạt động độc lập

- Hệ thống sau khi triển khai hoạt động ổn định

- Tối ưu tài nguyên hệ thống

- Dễ dàng mở rộng hệ thống

- Mô hình phức tạp, quản trị viên cần có kinh nghiệm về quản trị hệ thống

- Khó khăn trong việc quản trị và kết nối mạng đến từng máy ảo

Quy trình triển khai quy hoạch máy chủ theo mô hình PhyComp-VirCon

1 Triển khai Openstack trên nền tảng cơ sở hạ tầng sẵn có Để thực hiện mô hình PhyComp-VirCon , giải pháp chúng tôi đề xuất là tạo một máy ảo bên trong một máy chủ vật lý Sau đó, triển khai một mạng bridge để kết nối máy ảo ra bên ngoài thông qua máy vật lý chứa nó như minh họa trên Hình 3-3 Cách bố trí như vậy đem lại các lợi ích sau Thứ nhất, máy ảo mặc dù ở bên trong máy vật lý nhưng lại được kết nối mạng ngang hàng với máy vật lý Điều này khiến việc cài đặt và triển khai chức năng Controller node vào máy ảo đơn giản như triển khai Controller node vào một máy chủ vật lý độc lập (mô hình PhyComp-PhyCon ) Thứ hai, tách biệt Controller node vào một máy ảo khiến tài nguyên dành cho điều khiển Private Cloud được tách biệt tối đa với các máy ảo người dùng

Hình 3-3 Triển khai máy ảo cho Controller node theo mô hình PhyComp-VirCon

Mô hình PhyComp-VirCon trong hệ thống thí nghiệm được triển khai trên nền tảng hệ điều hành CentOS7, sử dụng ba server vật lý Một trong ba máy này sẽ được chọn để thiết lập một máy ảo thông qua KVM và libvirt Máy ảo được cấu hình với 2 core, 4GB RAM và 2 card mạng ảo, tạo ra kết nối tương đương với hai máy vật lý Kết nối giữa server ảo và server vật lý được thực hiện qua các switch ảo, cụ thể là Linux bridge trong CentOS7.

A virtual server operates with full functionality and configuration similar to a physical server, comprising an Internet connection known as a Provider network and an internal connection referred to as a LAN network The CentOS 7 operating system is installed on the newly created virtual machine, which will be assigned an IP address to connect to the physical machine.

In the PhyComp-VirCon model, a virtual server is configured as the Controller node, while a physical server is set up as the Compute node The Controller node on the virtual server includes essential modules such as OpenStack Identity (Keystone), OpenStack Compute (Nova), OpenStack Networking (Neutron), OpenStack Image (Glance), and OpenStack Dashboard (Horizon) Meanwhile, the Compute node on the physical servers is equipped with the OpenStack Compute module.

(Nova), OpenStack Networking (Neutron) Dưới đây là chi tiết quy trình triển khai và cài đặt Controller node và Compute node

2 Triển khai Controller node theo mô hình PhyComp-VirCon

Hình 3-4 Sơ đồ quy trình cài đặt Controller node

Để triển khai cài đặt Controller node, trước tiên cần thiết lập các môi trường nền hỗ trợ cho việc triển khai các module của hệ thống Sau khi hoàn tất cài đặt môi trường nền, các module sẽ được cài đặt theo thứ tự: Keystone, Glance, Nova, Neutron và Horizon, theo hướng dẫn của Openstack.

Các module cần thiết cho Controller node trong OpenStack bao gồm Openstack Repository (phiên bản Rocky), Openstack Client, Openstack SELinux, SQL Database (MySQL) và Messenger Queue (RabbitMQ), cùng với Memcached Để cài đặt các module chính của OpenStack, bước đầu tiên là khởi tạo và gán quyền cho các cơ sở dữ liệu của "keystone".

“glance”, “nova”, “neutron” trong Controller node

Trong Controller node, module Keystone được cài đặt qua gói phần mềm openstack-keystone và cấu hình thông qua file keystone.conf để kết nối với database Keystone-manage được sử dụng để khởi tạo và cập nhật dữ liệu, cung cấp dịch vụ định danh cho OpenStack Tiếp theo, Apache HTTP được cấu hình bằng cách cài đặt gói httpd và mod_wsgi, chỉnh sửa file httpd.conf, và khởi động dịch vụ httpd, đồng thời thiết lập tài khoản Admin qua file admin-openrc Dịch vụ định danh của Keystone cung cấp tính năng xác thực cho tất cả dịch vụ trong OpenStack, sử dụng kết hợp với các domain, project, user và role Người dùng có thể khởi tạo domain, từ đó tạo ra các project và user, cùng với việc gán các role tương ứng Cuối cùng, việc kiểm tra và xác thực Keystone là cần thiết để hoàn tất quá trình cài đặt.

Để cài đặt thành công các module trong OpenStack, cần xác minh thông tin lưu trữ trong database so với các bước khởi tạo Đối với module Glance, người dùng cần tạo và cấu hình user Glance, gán các role trong Keystone, khởi tạo service và API endpoint để quản lý image Sau khi cài đặt và tinh chỉnh các file cấu hình, cần kiểm tra hoạt động của Image service Module Nova yêu cầu cấu hình tài khoản admin, khởi tạo user Nova, gán role và thiết lập API endpoint, sau đó cài đặt và khởi động lại các dịch vụ Nova Đối với module Neutron, cũng cần cấu hình tài khoản admin, khởi tạo user Neutron, gán role, cài đặt gói phần mềm và tinh chỉnh các file cấu hình để quản lý Networking API và switch ảo Cuối cùng, cần khởi động lại dịch vụ Neutron để hoàn tất quá trình cài đặt.

Cần kiểm tra và xác thực thông tin lưu trữ trong database so với các bước khởi tạo; nếu kết quả trùng khớp, xác lập việc cài đặt thành công và chuyển sang bước tiếp theo Module cuối cùng là Horizon, với gói phần mềm openstack-dashboard cần được cài đặt và tinh chỉnh các file local_settings.py và openstack-dashboard.conf theo hướng dẫn của Openstack.

Sau khi cài đặt, cần khởi động lại web server và dịch vụ session storage Để hoàn tất quá trình cài đặt, hãy kiểm tra và xác nhận hoạt động của Horizon bằng cách truy cập vào địa chỉ http://controller/dashboard và xác thực người dùng cùng với tên miền mặc định.

Trong các file cấu hình, mã token cần được thiết lập qua cổng 11211, trong khi xác thực với Keystone diễn ra qua cổng 5000 Để thao tác với hình ảnh trong Glance, cần truy cập qua cổng 9292.

3 Triển khai Compute node theo mô hình PhyComp-VirCon

Để triển khai cài đặt Compute node, trước tiên cần thiết lập các môi trường nền cho việc triển khai các module của hệ thống Sau khi hoàn tất cài đặt môi trường nền, tiến hành cài đặt các module theo thứ tự hướng dẫn của Openstack, bắt đầu từ Nova và tiếp theo là Neutron.

Để thiết lập môi trường cho OpenStack, các phần mềm cần được cài đặt bao gồm OpenStack Repository (sử dụng phiên bản OpenStack Rocky), OpenStack Client và OpenStack SELinux.

Trong Compute node, module Nova được cài đặt qua gói phần mềm openstack-nova-compute và cấu hình trong file nova.conf, sau đó khởi động lại các dịch vụ của Nova Việc quản lý máy ảo sau khi cài đặt KVM Hypervisor trên Compute node được thực hiện bởi Controller node OpenStack cho phép người dùng truy cập từ xa bằng công cụ VNC qua port 6080 Module tiếp theo là Neutron, với các API như OpenStack Neutron Linuxbridge dành cho Neutron Agent, giúp quản lý cấu hình các switch ảo (vswitch) để kết nối các máy ảo, được cấu hình trong các file nova.conf, neutron.conf và linuxbridge_agent.ini Cuối cùng, cần khởi động lại dịch vụ Neutron và Nova.

Sau khi hoàn tất cài đặt các module của OpenStack, quản trị viên có thể quản lý hệ thống qua OpenStack Dashboard (Horizon) thông qua địa chỉ website Quản trị viên cần cấu hình địa chỉ IP cho website quản trị để có thể truy cập theo tên miền Internet Sau khi đăng nhập vào hệ thống bằng tài khoản admin, quản trị viên có khả năng tạo ra các máy ảo với hệ điều hành đã được cài sẵn, cho phép người dùng triển khai các ứng dụng liên quan đến đào tạo và thực hành Ngoài ra, quản trị viên còn có thể thiết lập các quy tắc bảo mật và kết nối cho tất cả hoặc từng máy ảo trên OpenStack.

IV Sử dụng Openstack trong quản trị hệ thống Private Cloud cho trường đại học

Ngày đăng: 20/07/2021, 09:31

w