Открытие виртуальной машины. Добавление узлов и лицензий

Видеозапись демонстрации в хорошем качестве - 720p - все отчетливо видно. Для тех, кто не хочет смотреть видео - под катом расшифровка демонстрации и скриншоты.

Дисклеймеры:

1. Стенограмма с небольшой редактурой.
2. Просим помнить о разнице в письменной и устной речи.
3. Скриншоты в большом размере, иначе ничего не разобрать.

Коллеги, добрый день. Мы начинаем демонстрацию VMware NSX. Итак, что бы хотелось сегодня показать. Наша демо-инфраструктура развернута на базе нашего дистрибьютора MUK. Инфраструктура достаточно небольшая - это три сервера, серверы есть ESXI в 6-й версии апдейт 1 v-центр обновленный, то есть самое свежее, что мы можем предложить.

В этой структуре мы до использования NSX получили от сетевых инженеров MUK-а несколько VLan-ов, в которых можно было разместить серверный сегмент, видео-десктопы, сегмент, который имеет доступ в интернет, для того чтобы от видео-десктопа можно было получить доступ в интернет, ну и доступ к транзитным сетям для того, чтобы коллеги из MUK могли из внутренней своей сети подключаться, да? Любые операции, связанные, например, если я захочу для какого-то демо или какого-то пилота создать еще несколько каких-то там сетей порт-груп сделать более сложную конфигурацию, надо обратиться к коллегам из MUK, попросить, чтобы они на оборудовании что-то там наделали.
Если мне нужно взаимодействие между сегментами, то либо опять же договариваться с сетевиками, либо по-простому - маленькую машинку, роутер внутри, два интерфейса, туда-сюда, как все мы привыкли делать.

Соответственно использование NSX 10 преследует две цели: с одной стороны, это показать, как это работает не на виртуалках, на железе, да, что это реально работает и это удобно; второй момент, это действительно упростить определенные свои задачи. Соответственно, что мы видим в данный момент? В данный момент мы видим, какие виртуальные машины появились в этой инфраструктуре после того, как NSX был внедрен. Некоторые из них являются обязательными, без них нельзя. Некоторые появились вследствие определенного сетапа самой инфраструктуры.

Соответственно, обязательными являются NSX-менеджер - это основной сервер, через который мы можем взаимодействовать с NSX, он предоставляет веб-клиент V-центра свой графический интерфейс, он позволяет обращаться к нему через rest api для того, чтобы автоматизировать какие-то действия, которые можно делать с NSX либо какими-то скриптами, либо, например, из различных облачных порталов. Например, VMware vRealize Automation либо порталы других вендоров. Для работы технически NSX-у нужен кластер из NSX-контроллеров, то есть эти серверы выполняют служебную роль. Они определяют, они знают, да, они хранят в себе информацию о том, на каком физическом esxi-сервере, какие ip-адреса и mac-адреса в данный момент присутствуют, какие у нас новые сервера добавились, какие отвалились, распространяют эту информацию на esxi -сервера, то есть фактически, когда у нас есть созданный при помощи NSX, L2 сегмент, который должен быть доступен на нескольких esxi -серверах и виртуальная машина пытается отправить ip-пакет другой виртуальной машине в том же самом L2-сегменте, NSX-контроллеры точно знают, на какой хост на самом деле сетевой пакет нужно доставить. И они эту информацию регулярно хостам отдают. Каждый хост владеет таблицей, какие ip, какие mac-адреса на каких хостах находятся, какие реально, физически пакеты надо передавать.

Если мы откроем конфигурацию какого-либо хоста, то мы можем увидеть тот самый интерфейс, через который пакеты будут по сети передаваться. То есть у нас параметры VMkernel адаптера, данный хост будет, используя этот ip-адрес в сеть VXLan пакеты. Немножко у нас тут маленький монитор, поэтому приходится выкручиваться.

И мы видим, что отдельный TCP/IP stack используется для передачи этих пакетов, то есть может быть отдельный default gateway отличный от обычного VMkernel интерфейса. То есть с точки зрения физики: для того, чтобы в демо это развернуть, мне понадобился один VLan, в который я могу разместить эти интерфейсы; желательно - и я проверил, что этот VLan он не только на эти три сервера распространяется, он растянут немножко дальше, если появится там четвертый-пятый сервер, например, не в том же самом шасси, где эти лезвия стоят, а где-то отдельный, может быть, даже не в этом VLan-е, но который маршрутизируется сюда, я смогу добавить, например, четвертый сервер, который будет в другой сети, но они между собой смогут общаться, я смогу растянуть свои L2-сети, созданные при помощи NSX с этих трех серверов в том числе и на этот новый четвертый.

Ну и собственно теперь переходим к тому, как выглядит сам NSX, то есть: что мы можем с ним сделать мышкой и клавиатурой, да? Мы не говорим сейчас о rest api, когда мы хотим что-либо автоматизировать.

Раздел Installation (сейчас мы туда, я надеюсь, переключимся) позволяет нам посмотреть, кто у нас менеджер, сколько контроллеров, сами контроллеры разворачиваются отсюда. То есть менеджер мы скачиваем с сайта VMware, это template, мы его разворачиваем и внедряем в V-центр. Далее мы настраиваем менеджер, указываем ему логин-пароль для подключения к V-центр серверу, для того чтобы он смог зарегистрировать плагин здесь. После этого мы подключаемся к этому уже интерфейсу, говорим: «Надо внедрить контроллеры».

Минимально, если мы говорим, например, о каком-то тестовом стенде, контроллер может быть даже один, система будет работать, но это не рекомендуется. Рекомендуемая конфигурация - это три контроллера, желательно на разных серверах, на разных хранилках, для того, чтобы выход из строя какого-то компонента не мог привести к потере всех трех контроллеров сразу.

Также мы можем определить, какие хосты и какие кластеры под управлением этого V-центр сервера будут взаимодействовать с NSX. На самом деле, не обязательно вся инфраструктура под управлением одного V-центр сервера будет с этим работать, могут быть некие выборочные кластеры. Выбрав кластеры, мы должны выполнить установку на них дополнительных модулей, которые позволяют esxi серверу делать инкапсуляцию/декапсуляцию VXLan пакетов, делается это, опять же, из этого интерфейса. То есть не надо ходить в SSH, не надо никакие модули вручную копировать, отсюда нажали кнопку, отследили статус «получилось/не получилось».

Далее мы должны выбрать, собственно говоря, каким образом вот эта настройка VMkernel интерфейса будет происходить. То есть мы выбираем распределенный коммутатор, выбираем аплинки, то есть где это произойдет; выбираем параметры балансировки нагрузки, когда линков несколько, в зависимости от этого, когда у нас на один хост только один ip-адрес такого типа, иногда их может быть несколько. Сейчас мы используем в режиме по одному.

Далее мы должны выбрать идентификатор VXLan. То есть VXLan - это технология, напоминающая VLan, но это дополнительные метки, позволяющие в одном реальном сегменте изолировать разные виды трафика. Если VLan идентификаторов - их 4 тыс., VXLan идентификаторов- их 16 млн. Здесь мы фактически выбираем некий диапазон номеров VXLan сегментов, которые при автоматическом создании логических свичей, будут им присваиваться.

Как их выбирать? Собственно говоря, как хотите, из вот этого диапазона, если у вас большая инфраструктура и может быть несколько NSX внедрений так, чтобы они не пересекались. Просто-напросто. Собственно, так же, как и VLan. То есть я использую диапазон с 18001 по 18999.

Далее мы можем создать так называемую транспортную зону. Что такое транспортная зона? Если инфраструктура достаточно большая, представьте себе, у вас есть там порядка сотни esxi-серве ров, примерно по 10 серверов на кластер, у вас есть 10 кластеров. Мы можем не все из них задействовать для работы с NSX. Те из них, которые мы задействовали, мы можем использовать как одну инфраструктуру, а можем разбить, например, на несколько групп. Сказать, что у нас первые три кластера - это один островок, с четвертого по десятый - это некий другой островок. То есть, создав транспортные зоны, мы указываем, как далеко этот VXLan-сегмент может распространяться. У меня здесь три сервера, особо не разживешься, да? Поэтому здесь все по-простому. Просто все хосты у меня попадают в эту зону.

И еще один важный момент. При настройке зоны мы управляем, каким образом будет идти обмен информацией для поиска информации об ip-адресах, mac-адресах. Это может быть Unicast, это может быть Multycast уровня L2, это может быть Unicast, маршрутизируемый через уровень L3. Опять же, в зависимости от сетевой топологии.

Это такие некие предварительные вещи, то есть еще раз повторюсь: все, что потребовалось от сетевой инфраструктуры - это то, чтобы у меня все хосты, на которых должен работать NSX, могли взаимодействовать между собой по ip, используя, если нужно, в том числе и обычную маршрутизацию. И второй момент - это то, чтобы MTU вот в этом сегменте, где они взаимодействуют, был 1600 байт, а не 1500 - как это происходит обычно. Если же я не могу получить 1600 байт, поэтому мне просто придется во всех конструкциях, которые я создаю в NSX-е, явным образом прикручивать MTU, например в 1400, чтобы я в физическим транспорте в 1500 поместился.

Далее. Использую NSX, я могу создать логический коммутатор. Это проще всего в сравнении с традиционной сетью (VLan нарезать). Единственное что, как бы я не знаю, куда подключены мои физические серверы, да, здесь - это одни и те же коммутаторы. Теоретически сеть может быть более сложной. У вас может быть часть серверов подключена к одному коммутатору, часть к другому, где-то L2, где-то L3. В итоге, фактически создавая логический свитч, мы нарезаем VLan сразу на всех коммутаторах, через которые трафик будет ходить. Почему? Потому что на самом деле мы создаем VXLan, а реальный физический трафик, который будут видеть коммутаторы, - это трафик с ip-адреса на одного гипервизора на ip-адрес другого гипервизора, тип udp, внутри VXLan-содержимое.

То есть таким образом нарезка сетей происходит очень легко. Мы просто говорим: «Создать новый сегмент», выбираем тип транспорта unicast, выбираем, через какую транспортную зону, то есть фактически на каких esxi-кластерах этот сегмент будет доступен. Немножко ждем - и сейчас этот сегмент появится. На самом деле, что происходит, когда мы создаем эти сегменты? То есть, как подключить туда виртуальную машину? Для этого есть два варианта.

Вариант номер раз.

Мы прямо отсюда говорим, что подключить к физической сети виртуальную машину. И некоторые наши заказчики сказали: «О, это то, что хотят наши сетевики». Они идут в настройки сети, и говорит, вот у тебе вот, шнурок от машины, включая в порт логического коммутатора, да? И выбираем, здесь - машину, здесь, соответственно, интерфейс.

Либо второй вариант. На самом деле, при создании логического коммутатора NSX-менеджер обращается к V-центру сервера и создает порт-группу на распределенном коммутаторе. Поэтому на самом деле мы можем пойти просто в свойства виртуальной машины, выбрать нужную порт-группу, включить виртуальную машину туда. Поскольку имя генерируется программно, в нем будет включено имя этого логического коммутатора, номер VXLan-сегмента. То есть в принципе из обычного V-центр-клиента достаточно понятно, в камкой логический сегмент вы включите виртуальную машину.

Далее. Еще несколько машинок, которые были видны в самом начале, да? И вот, откуда они взялись. Некоторые функции NSX реализует напрямую на уровне модуля в ядре esxi-я. Это, например, маршрутизация между этими сегментами, это файервол при переходе между этими сегментами, либо даже внутри этого сегмента некоторые функции реализовываются при помощи дополнительных виртуальных машин. Так называемые EDGE gateways или дополнительные сервисы, когда они нужны. Что мы видим здесь? Мы видим, что в моей инфраструктуре их три, один из них называется NSX-dlr, dlr - это distributed logical router. Это служебная виртуальная машина, которая позволяет распределенному маршрутизатору в NSX-е работать, через нее не идет сетевой трафик, она не является дата-плэйном, но если у нас распределенный маршрутизатор участвует, например, в обмене маршрутами по протоколам динамической маршрутизации bgp, ospf, откуда-то эти все маршруты должны попадать, другие маршрутизаторы должны к кому-то обращаться и обмениваться этой информацией. Кто-то должен отвечать за статус «работает распределенный маршрутизатор или нет». То есть это фактически некий менеджмент-модуль распределенного маршрутизатора. При его настройке мы можем указать, что он должен работать надежно, соответственно, будет внедрено две виртуальных машины в HA-паре. Если одна почему-то стала недоступна, то на ее место будет работать вторая. Два других edge, которые имеют тип NSX edge, – это виртуальные машины, через которые роутится или натится трафик, который выходит во внешние сети, которые не управляются NSX-ом. В моем сценарии они используются для двух задач: NSX edge просто подключен ко внутренним сетям дата-центра MUK, то ест, например, мой V-центр – он как был на обычной стандартной порт-группе, он там и работает. Для того, чтобы я мог с какой-то виртуальной машиной на NSX logical свитче добежать до V-центра, мне нужен кто-то, кто их свяжет. Связывает их у меня вот эта виртуальная машина. У нее, действительно, один интерфейс подключен к логическому свитчу, другой интерфейс подключен к обычной порт-группе на standart свитче на esxi, который называется NSX Internet edge. Угадайте, чем отличается? Примерно то же самое, но порт-группа, к которой он подключит - та порт-группа, которая подключеня в DNZ-сеть, в которой работают честные белые интернет-адреса. То есть на нем сейчас, на одном из его интерфейсов, настроен белый ip-адрес и можно подключиться к этой демо-среде, используя уже NSX Networking. Соответственно дополнительные сервисы такие, как распределенная маршрутизация, мы настраиваем здесь в пункте фаервол, если же мы хотим делать фаерволинг, если мы хотим делать нат, если мы хотим делать log balancing либо, например, VPN, при внешнем подключении, для этого мы открываем свойства интернет edge.

Мы немножко закругляемся по времени, поэтому не покажу все, что хотел показать.
Соответственно, в свойствах edge мы можем управлять фаерволом, это фаервол, который будет применятся, когда трафик через эту виртуальную машину проходит, то есть это фактически некий наш периметр фаервол получается. Далее, на нем может быть dhсp-сервер, либо он может делать проброс как ip-helper, так как dhсp-helper. Он может делать NAT - то, что мне нужно здесь для edge, который смотрит одной стороной в честный Интернет, а другой во внутренние сети. На нем есть балансировщик нагрузки. Он может выступать в качестве точки для VPN тоннеля либо в качестве терминатора для клиентских подключений. Вот две закладки: VPN и VPN Plus. VPN - это сайт ту сайт, между edge и другим edge, между edge и нашим облаком, между edge и облаком провайдера, который использует наши технологии VCNS либо NSX. SSL VPN Plus - есть клиент для различных операционных систем, который можно поставить вам на свой ноутбук либо пользователя, они смогут к инфраструктуре подключиться к VPN.

Ну и буквально несколько последних моментов. Распределенный фаервол, то есть фаерволлинг, применяется на каждом хосте, в качестве правил мы можем указывать здесь ip-адреса, номера пакетов, номера портов, имя виртуальных машин, включая маски, например. Сделать правило, что со всех машин, имя которых начинается с up, разрешить ходить по 14:33 на все машины, имя которых начинается с db. разрешить трафик с машинки, которая в папочке V-центра одной, будет ходить в папочке другой, подключиться к active directory, сказать, что если у нас машина входит в определенную группу ad, тогда этот трафик разрешить, если не входит, то трафик запретить. Ну и различные другие варианты.

Плюс опять же, что делать с трафиком? Три действия: разрешить, запретить, отказать. Чем отличается запретить от отказать? И одно, и другое блокирует трафик. Но одно просто делает это тихонечко, а второе присылает обратно сообщение, что ваш трафик убили. И гораздо проще потом в диагностике.

И буквально важное дополнение в конце. То есть такой компонент как service composer. Здесь мы можем интегрировать NSX какими-то дополнительными модулями, например, это внешний балансировщик нагрузки, это антивирус, это какая-либо IDS/IPS-система. То есть мы их можем зарегистрировать. Мы можем увидеть здесь, какие конфиги есть, можем описать те самые секьюрити-группы. Например, группа demoUsers - это группа, включающая себя в машины, на которых залогонился пользователь из группы demoUsers. Что мы видим сейчас? Что сейчас в эту группу попадает одна виртуальная машина. Где она? Вот.

Виртуальный десктоп, пользователь туда подключен. Я могу сделать правило в фаерволе, в котором сказать, что разрешить пользователям одной группы доступ к одним файловым серверам, а пользователям другой группы разрешить доступ к другим файловым серверам. И даже если это два пользователя, которые заходят на один и тот же, например, VDI десктоп, но в разное время, фаервол динамически будет применять разные политики к разным пользователям. Таким образом можно гораздо более гибкую инфраструктуру построить. Нет необходимости выделять отдельные какие-то сетевые сегменты, отдельные машины для разных типов пользователей. То есть сетевые политики могут динамически перенастраиваться в зависимости от того, кто сейчас сетью пользуется.

Дистрибуция решений VMware в

Эра персоналок, с установленными приложениями, судя по всему потихоньку движется к закату, вернулись клиент-серверные технологии. Уже не потребуется мощный ПК, ведь вся обработка данных производится на сервере. Новинка требует наличия структуры, которая усилиями маркетологов получила название облачные вычисления. Индустрия стремительно развивается и за пару лет нам обещают убрать в облака десятую часть приложений. Для всего этого нужны специфические инструменты, и кому как не VMware быть первыми.

Назначение VMware vSphere

Чтобы не бежать впереди поезда вначале давай определимся с назначением и местом продукта. Официально история нового имени началась чуть больше года назад (в конце апреля 2009), когда VMware анонсировала VMware vSphere (vmware.com/products/vsphere). Решение не возникло на пустом месте и пришло на смену платформе виртуализации VMware Virtual Infrastructure, наработки которого и использованы.
Вообщем назначение продукта после переименования не изменилось — объединение виртуальных систем, сетей и хранилищ в единые пулы ресурсов. Хотя над определением видно, что поработали маркетологи, которые чуть подправили формулировку под современные тенденции. Теперь на сайте значится, что “vSphere первая ОС ориентированная для облачных вычислений ”, которая дает возможность быстро и качественно развернуть и управлять виртуальными ресурсами. Но мы то знаем, что “ОС — это на чем Земля вертится”, а вертится vSphere, ну не буду забегать вперед.

Главная идея при переходе на vSphere сделать рабочую среду максимально удобной, устойчивой и управляемой. За счет, конечно же оптимизации — уменьшения числа физических серверов, повышения степени консолидации серверов. К слову если почитать описание микрософтовского System Center Virtual Machine Manager 2008 (SCVMM) натыкаемся на знакомые слова:).
Список возможностей vSphere очень большой, здесь лучше обратиться к официальной документации. Выделю только самые примечательные:

  • VMware vStorage Thin Provisioning — экономия дискового пространства, используется реально только необходимый объем;
  • VMware VMsafe – высоконадежная кластерная файловая система, используемая для хранения виртуальных машин;
  • VMware API vStorage и vCenter Data Recovery — централизованное резервное копирование и восстановление VM из графической консоли;
  • VMware Hot Add — горячее «добавление» устройств без остановки виртуальной машины;
  • VMware Distributed Power Management — управление электропотреблением, позволяет существенно сократить ее расходы;
  • VMware Host Profiles — интерфейс управления позволяющий централизовано настраивать узлы VMware ESX/ESXi и контролировать установки на соответствие политикам.

Плюсуем сюда средства «горячей» миграции VMware VMotion , кластеризации High Availability и высокой доступности Fault Toleranc e, балансировки нагрузки VMware DRS , технология перемещения виртуальных дисков Storage VMotio n и многое другое. Причем экономия при использовании vSphere достигается и тем, что для некоторых операций (например, резервирование) уже не нужно закупать продукт стороннего разработчика. Ранее приходилось докупать, что-то вроде Veeam Backup производимый Veeam Software.
Поддерживается ограничения в потреблении CPU, RAM и для пулов ресурсов (Resource Pool) и отдельных хостов, с возможностью гарантированного выделения ресурсов (Reservation), компонент vNetwork обеспечивает двунаправленный шейпинг и ограничение трафика.
Полный список поддерживаемых ОС для разных продуктов VMware представлен на странице VMware Compatibility Guide, здесь найдешь все популярные сегодня системы – Windows и варианты *nix.
В vSphere по сравнению с Virtual Infrastructure изменился и порядок лицензирования, который стал более гибким, так как теперь лицензии ориентированы не на пару физических процессоров, а по числу процессоров (их количество вбивается в ключ). Причем если количество ядер не превышает 6 (в версиях Advanced и Enterprise Plus — 12), то дополнительная оплата не потребуется. В разгар кризиса такой подход весьма приветствовался, ведь при принятии весьма не простого решения о переходе на виртуальные машины учитываются десятки показателей.
VMware vSphere состоит из следующих компонентов:

  • гипервизоров VMware ESX и/или VMware ESXi – собственно на них все и вертится;
  • VMware vCenter Server Agent обеспечивающий подключение гипервизоров к центру управления VMware vCenter Server (ранее VMware VirtualCenter Server), сам vCenter Server отвечающий за развертывание, централизованный менжемент и обеспечение доступа приобретается отдельно;
  • прочих компонентов обеспечивающих основные возможности, состав которых варьируется в зависимости от выбранной лицензии.

Функционально компоненты разделены на две части: службы инфраструктуры (Infrastructure Services) и службы приложений (Application Services), чем они отличаются отлично расписано на сайте проекта.
Чтобы упростить выбор своего решения, vSphere доступен в трех редакциях: Standard,Advanced и Enterprise. Для небольших организаций предлагаются — Essentials, Essentials Plus, и две версии for Retail and Branch Offices Essentials и Essentials Plus. Причем цена на Essentials достаточно адекватная, обеспечивающая использование продукта на 3 серверах (по 2 CPU), чтобы сделать его интересным и главное, что решения для небольшого офиса является интегрированным all-in-one уже включающим vCenter Server.
В документации на сайте можно найти таблицы сравнения vSphere с другими продуктами виртуализации по стоимости и функциональности.
На момент написания этих строк на сайте VMware появилась версия vSphere4 update 2, хотя в сеть уже просочилась полуофициальная информация о будущей версии 4.1. Основные изменения касаются в основном количественных изменений — VM в кластере, зарегистрированных VM и хостов, и так далее.

Развертывание vSphere

Читая описание, первая мысль, которая приходит в голову новичку – это очень сложно. На самом деле при внимательном подходе и выполнении всех требований процесс развертывания и последующего добавления хостов и VM можно назвать даже простым.
Чтобы установить vSphere потребуется выполнить ряд требований и пройти несколько шагов:

  • оборудование должно соответствовать VMware Hardware Compatibility List (HCL);
  • VMware vSphere ESX/ESXi Server — разворачиваем на физических серверах (2х2 Гц х64бит CPU, 2+ Гб RAM, 2+ Гб HDD);
  • VMware vCenter Server и vSphere Client — устанавливаются в той же сети для управления ESX(i) серверами;
  • развертываем сеть хранения данных SAN;
  • устанавливаем клиентские ОС в виртуальных средах.

Чтобы определить поддержку сервером 64-бит VMware можно при помощи утилиты CPU Identification , размещенной на странице (vmware.com/download/shared_utilities.html).
Выше показаны только основные шаги, каждый этап требует и промежуточных настроек (настройка сети, SAN, если нужно Active Directory и так далее). Некоторые из этих моментов очень подробно описаны в документации, которую можно найти в по адресу vmware.com/support/pubs/vs_pubs.html . Как водится, все доки на английском и часто запутаны, хотя она в любом случае рекомендуема к прочтению (по крайней мере если возникнут проблемы 🙂). Мы же вкратце разберем основные моменты по настройке и управлению vSphere, чтобы наглядно представить с чем имеем дело.
На странице закачки, который будет доступен после регистрации, выбираем для установки гипервизор ESX или VMware ESXi, VMware vCenter Server (в виде ISO образа или zip архива). Плюс здесь же опциональные компоненты — Server Heartbeat, Data Recovery (CD ISO) и vShield Zones.
Для небольших организаций вероятно больше подходит бесплатная платформа VMware ESXi, обладающая всеми необходимыми возможностями. Кроме этого ее рекомендует и сами представители VMware. В начале разворачиваем VMware ESX или ESXi, учитывая, что их основа Linux, хотя и несколько урезанный, то установку можно назвать стандартной и проблем она обычно не вызывает. Просто следуем за указаниями визарда — принимаем лицензию, настраиваем сеть и выбираем диск. На ESX лицензию можно ввести затем на vCenter. После перезагрузки мы можем управлять гипервизором с консоли, через веб-интерфейс или установив vSphere Client. Последний можно скачать с веб-страницы виртуальной машины адрес которой будет доступен после установки ESX(i) или с vCenter.
Кроме этого в контексте можно вспомнить о бесплатном веб-инструменте VMware Go (go.vmware.com ), который позволяет быстро перейти к использованию бесплатного гипервизора VMware ESXi для виртуализации физических серверов в небольшой компании.


Следующий шаг установка VMware vCenter ан компьютер под управлением MS Windows. Упоминаний о версии на сайте найти не удалось, но центр без проблем стал как на Windows XP, так и Windows 2008 R2. Все данные vCenter хранит в базе данных, для небольших сред (5 физических, 50 виртуальных машин) можно использовать Microsoft SQL Server 2005 Express , который идет уже с установочным архивом и предлагается по умолчанию. Иначе в процессе установки нужно будет настроить подключение к СУБД.

Если хостов не много (до 250), то достаточно будет и 32 битной версии иначе только 64 битный вариант. То есть резюмируем для небольшого количества серверов достаточно клиентской 32 битной XP с бесплатным SQL Express, в более мощных конфигурациях придется разворачивать сервер с MS SQL с 64 битной ОСью. Более подробно все остальные требования расписаны в документации. В самом начале следует разрешить прохождение пакетов по портам — 80, 389, 443, 636, 902/903, 8080 и 8443.
Скачиваем ISO образ или zip архив, запускаем установочный файл и в окне мастера выбираем ссылку vCenter Server. К слову архив содержит дистрибутивы и некоторых других продуктов — vSphere Client, vCenter Guided Consolidation, vCenter Update Manager, vCenter Converter, vCenter Orchestrator и VMware Consolidated Backup. Язык инсталлятора — английский. Если весь процесс производится в среде Active Directory, то тебе понадобятся админские права.
Во время инициализации установочного скрипта будут произведены проверки на совместимость и в случае нессответствия выданы рекомендации. Например, так как vCenter использует свой веб-сервер, он будет конфликтовать с установленным IIS по портам. Хотя в процессе можно будет изменить настройки, указав порт по умолчанию для большинства сервисов — http, https, LDAP, SSL, heartbeat. Пакет самодостаточен, если чего-то не будет хватать, все необходимое (.Net, J# и другие) будет доустановлено автоматически.
Возможно, объединять несколько систем с установленным в vCenter в связанную группу (Linked Mode), и управлять с любой системы всеми настройками виртуальных машин. По умолчанию предлагается standalone установка, но выбрав на шаге «vCenter Server Linked Mode Options» переключатель в положение «Join a VMware vCenter Server group …», мы может сразу подключиться к уже существующей группе серверов vCenter. Вообщем это вся установка сервера. Некоторое время ждем пока мастер настроит сервисы, сгенерирует сертификаты и скопирует файлы.
По окончании, аналогично устанавливаем остальные компоненты, доступные в окне vCenter Installer, если конечно в них есть необходимость. Опять же их не обязательно ставить на один и тот же комп, хотя так обычно удобней.
При установке vCenter Update Manager (vCUM) указываем IP сервера vCenter и учетные данные для доступа. В качестве базы данных, к которой необходимо подключиться указываем созданную ранее БД. Внимание, при запросе пароля в окне «Database Information » оставляем его пустым, в этом случае будет использована Windows аутентификация. Каталог в который будут помещаться обновления лучше расположить на отдельном разделе харда, который имеет достаточно свободного места (не менее 20 Гб). Его и указываем на шаге Destination Folder для «Configure the location for downloading patches». Клиентская часть vSphere Client при помощи которой и производится собственно все настройки обычно ставится на компе админа, системные требования не велики (CPU 266, 200 Мб RAM и 1 Гб HDD).

Добавление узлов и лицензий

Установка закончена. Открываем из меню vSphere Client, вводим логин и пароль (флажок Use Windows session credential позволит подключиться с текущими учетными данными), принимаем сертификат.
Появившееся окно клиента выполнено в знакомом стиле Проводника. Слева выбираются компьютеры, справа настройки, внизу панель текущих задач. Обрати внимание на строку адреса. После первой регистрации ты попадаешь во вкладку настроек ОС в Home — Inventory — Host and Clusters, а они нам пока не нужны. Чтобы получить доступ ко всем возможностям vSphere просто переходим в Home.


Область управления разделена визуально на три части по назначению:
  • Inventory — поиск систем, добавление узлов и кластеров, datacenter, управление разрешениями и так далее;
  • Administration — управление ролями, сессиями, лицензиями, настройками vSphere, просмотр журнала и статуса работы сервиса;
  • Management — управление задачами, вывод событий и карты виртуальных машин, создание профилей хостов.

Подпунктов в каждом не так уж много, поэтому времени на знакомство с интерфейсом уйдет не много. Не могу не отметить наличие всяческих подсказок и мастеров, если не выполнен какой нибуть обязательный шаг, то сразу получишь ссылку и рекомендации что делать. Интерфейс задача ориентированный, то есть админ что-то настраивает, а vSphere по мере возможностей последовательно выполняет задачи, главное что нет необходимости ждать пока выполнится одна задача, чтобы настроить следующий пункт. Большинство операций требуют некоторого времени и происходят в фоне, поэтому отслеживай статус внизу окна.


Всплывающее окно сразу же показывает количество дней оставшихся до окончания пробного периода. Если лицензия уже куплена, то самое время ее ввести. Переходим в Administration — Licensing , выбираем систему и в контекстном меню пункт Manage vSphere Licenses . Копируем в окно лицензию, и опционально в поле внизу краткое описание и нажимаем Add License Keys. Чтобы сопоставить ключ, конкретному серверу переходим в Assign Licenses или в контекстном меню выбираем Change License Key .
Теперь самое главное ради чего мы все это устанавливали, подключение ESX(i). Вначале создаем DataCenter, не говорю где искать, так как нужную ссылку подсунут в любом случае, а только потом пустят дальше. Тебе останется только переименовать DataCenter, чтобы было понятней его принадлежность. Щелкаем по DataCenter и выбираем ссылку Add a host .

Появляется очередной визард, в первом окне, которого вводим имя или IP узла и логин/пассворд для управления, подключаемся, принимаем сертификат и получаем информацию о системе. Если требуется, мы можем здесь добавить лицензию и ввести данные об узле. Некоторое время придется подождать пока хост будет добавлен (процесс покажет статус-бар внизу окна).
Далее процесс практически аналогичен, выбираем хост, открываются рекомендации в Add a virtual machine (все рекомендации можно отключить в настройках). В окне Summary выводятся все данные по хосту, перейдя в окно Configuration получаем возможность изменить некоторые настройки — параметры сети (подключение VMotion, iSCSI, NFS и другие), виртуального свича и так далее. После добавления нескольких хостов станет доступна возможность создания кластера. Выбираем в контекстном меню пункт New Cluster, визард попросит ввести имя будущего кластера. При помощи чеккеров устанавливаем поддержку HA и DRS (Distributed Resource Scheduler). Технология DRS представляет собой простой балансировщик, который отслеживает и как можно равномерней распределяет ресурсы в VM (подробнее vmware.com/ru/products/vi/vc/drs_overview.html). Если он активирован, в дальнейшем мастер предложит выбрать один из вариантов миграции VM — Manual, Partially и Full automated, плюс указать метод миграции (от Conservative до Aggressive). Настраиваем управление питание (DPM), активируем мониторинг хостов, активация EVC (Enhanced VMotion Compatibility), место хранения свапфайла. К слову суть EVC очень проста. Как известно, процессоры бывают разные и гостевая ОС, установленная в системе может использовать разные фишки вроде SSE. Но что будет, если эту ОС взять и перенести при помощи VMotion в другую систему, в которой совсем другие технологии? Вот EVC и приводит все к единому знаменателю, просто отключая “лишнее”, в результате перенос VM проходит безболезненно. Доступно два варианта включения EVC — для AMD и Intel хостов. После выбора пунктов будет показан список совместимых процессоров. Хотя если в кластере все сервера одинаковы EVC можно совсем отключить.
Кластер создан, но хосты мы еще в него не добавили. Это очень просто, берем и тащим мышкой. Сразу же стартует новый мастер, в котором можно все оставить по умолчанию, жмем два раза Next и аналогично добавляем остальные хосты.
После всех операций становится доступным пункт Deploy OVF Template, позволяющий добавить шаблоны виртуальных машин в формате Open Virtualization Format как с локального диска так и через интернет. Такой образ можно создать, самостоятельно воспользовавшись VMware OVF Tool (можно найти на сайте поиском) или скачать в из интернет. Процесс добавления упрощает очередной мастер. Добавленую ОСь сразу же можно запустить и проверить в работе. Осталось распространить добавленные образы ОС на хосты, для выбираем в контекстном меню пункт Migrate и в окне мастера указываем хост на который его необходимо скопировать.
Учитывая, что облачные системы будут обслуживаться большим количеством админов с разными правами их нужно как то разделить по возможностям. В vSphere используется ролевая концепция, после установки в Administration — Roles доступно 9 шаблонов ролей позволяющих выбрать и за один клик назначить юзеру его права. Простой мастер дает возможность создать любое количество новых ролей.
В проделах одной статьи нельзя рассказать обо всех возможностях такого мощного продукта как vSphere, за рамками остались функции Fault Tolerance, Storage vMotion, горячее добавление устройств, управление ресурсами, мониторинг и многие другие вопросы.

Сегодня я хотел бы рассказать вам о продуктах, которые раньше выпускались компанией VMware, но по тем или иным причинам были сняты с продаж и перестали развиваться. Список далеко не полный и содержит, по большей части, мое мнение о продуктах по результатам работы с ними.

VMware ESX Server

Начну, пожалуй, с самого значимого продукта, благодаря которому VMware стала лидером на рынке серверной виртуализации.

VMware ESX Server - первый гипервизор типа 1 для процессоров Intel x86. ESX не был первым серверным гипервизором, и даже не был первым продуктом VMware. Однако в нем впервые были реализованы такие функции, как живая миграция ВМ (vMotion), высокая доступность ВМ (High Availability), автоматическая балансировка (Distributed Resource Scheduler), управление питанием (Distributed Power Management) и многое другое.

Кстати, вы никогда не задавались вопросом, что значить аббревиатура ESX? Так вот, ESX - это Elastic Sky X. Что лишний раз доказывает, что еще в далеком 2002 VMware разрабатывала свои продукты с оглядкой на облачные вычисления...

ESX строился на базе монолитной архитектуры, все драйверы, сеть и подсистема ввода-вывода работали на уровне гипервизора. Однако для управления гиперзовиром на каждом хосте устанавливалась небольшая служебная ВМ - Service Console на базе модифицированного дистрибутива Red Hat Linux. С одной стороны, это накладывало ряд ограничений - служебная ВМ отъедала часть вычислительных ресурсов хоста, ее диски, как и любой другой ВМ требовалось размещать на VMFS хранилище, а каждый хост нуждался, по меньшей мере, в двух IP адресах, один - для VMKernel интерфейса, второй - для Service Console. С другой стороны, Service Console предоставляла возможность установки стороннего ПО (агентов, плагинов), которые расширяли возможности по мониторингу и управлению гипервизором. Наличие Service Console породило распространенное заблуждение, что гипервизор ESX является модифицированным Linux"ом.

Стоит упомянуть, что первые версии ESX устанавливались и управлялись по отдельности, однако, начиная ESX 2.0, для централизованного управления несколькими хостами появился VMware VirtualCenter (ныне хорошо известный под именем vCenter Server). Тогда, собственно, и появился Virtual Infrastructure, который представлял собой набор продуктов для виртуализации, состоящий из гипервизора ESX и ПО управления VirtualCenter. К версии 4.0 Virtual Infrastructure был переименован в vSphere.

В 2008 году появился альтернативный гипервизор - ESXi, который не нуждался в Service Console, был гораздо меньше в размере, но не поддерживал многое из того, что умел ESX (у ESXi отсутствовал WEB интерфейс, встроенный брандмауэр, возможность загрузки по SAN, интеграция с Active Directory и пр.). С каждой новой версией VMware постепенно наращивала функционал ESXi. VMware vSphere 4.1 стал последним релизом, включающим гипервизор ESX. Начиная с 5.0 VMware оставила только ESXi.

VMware GSX Server / Server

Долгие годы VMware GSX Server выпускался параллельно с VMware ESX. Ground Storm X (так расшифровывается аббревиатура GSX) представлял собой гипервизор второго типа и устанавливался поверх серверных ОС Microsoft Windows, RedHat или SUSE Linux. Использование гипервизора тип 2 имело свои плюсы. Во-первых, GSX поддерживал гораздо более широкий перечень оборудования и мог работать даже на десктопном железе в отличие от "капризного" ESX. Во-вторых, VMware GSX был крайне прост в установке и настройке, любой, кто работал с VMware Workstation, был способен управиться и с GSX. В-третьих, GSX имел встроенный NAT и DHCP сервер, что позволяло легко настраивать сеть для ВМ.

Как и старший собрат GSX поддерживал централизованное управление через VirtualCenter.

Позже GSX был переименован в VMware Server, получил при этом возможность запускать 64-битные ВМ, а также выделять ВМ несколько виртуальных процессоров. Вышедший в конце 2008 года VMware Server 2.0 стал бесплатным, обзавелся полноценным веб-интерфейсом и возможностью проброса USB устройств внутрь ВМ, однако потерял поддержку VMware VirtualCenter.

К этому времени гипервизоры ESX и ESXi заняли большую часть рынка серверной виртуализации. Выход бесплатных версий VMware ESXi Free и Microsoft Hyper-V Server стали последним гвоздем в крышку гроба VMware Server. VMware и Microsoft забросили свои гипервизоры для серверных ОС.

VMware vCenter Server Heartbeat

Продукт, предназначенный для обеспечения высокой доступности служб vCenter и смежных сервисов (СУБД, SSO, Update Manager), разрабатывался не самой VMware, а сторонней компанией - Neverfail Group .

В основе механизма защиты лежала идея организации двухузлового кластера, работающего в режиме active-passive. Пассивный узел следил за состоянием основного узла, и в случае его недоступности, запускал кластеризованные сервисы. Для работы кластера не требовалось общее хранилище, т.к. изменения, выполненые на активном узле периодически реплицировались на пассивный узел. vCenter Heartbeat обеспечивал защиту как физических, так и виртуальных, и даже смешанных конфигураций vCenter, когда один узел был физическим, а второй - виртуальным.

Хотя какое-то время vCenter Heartbeat и был единственным способом обеспечить защиту vCenter не только от аппаратных, но и от программных сбоев, реализация откровенно хромала. Сложная процедура установки и обслуживания кластера, а также масса багов сделали свое черное дело. В итоге, начиная с vSphere 5.5 U3 / vSphere 6.0 компания VMware отказалась от vCenter Heartbeat и вернулась к более привычному способу кластеризации средствами Microsoft Failover Cluster.

VMware vCenter Protect

Для тех из вас, кто работал с vSphere хотя бы с 4-й версии, должно быть известно, что в то время vCenter Update Manager поддерживал установку обновлений не только для гипервизоров ESX/ESXi, но также гостевых операционных систем и различного ПО. Однако начиная с 5.0 данный функционал был исключен из Update Manager, вместо этого VMware стала предлагать отдельный продукт - VMware vCenter Protect, который был приобретен вместе с компанией Shavlik.


Помимо обновления гостевых ОС, vCenter Protect позволял выполнять инвентаризацию программного и аппаратного обеспечения, запускать различные сценарии по расписанию, выполнять проверку на наличие уязвимостей.

Но, по всей вимости, продажи шли не очень хорошо, кроме того в портфеле VMware был vRealize Configuration Manager, приобретенный в 2010 у EMC, и выполнявший функции патч-менеджмента, инвентаризации и многого другого. Поэтому в 2013 vCenter Protect был продан компании LANDesk.

VMware Virtual Storage Appliance

Virtual Storage Appliance - первая попытка VMware играть на рынке программно-определяемых СХД. VSA предназначался для SMB и позволял создавать общую отказоустойчивую СХД на базе локальных дисков, устанавленных в сервер.


На каждом хосте ESXi развертывался специальный апплайнс VSA. Виртуальные диски VSA размещались на VMFS хранилище, созданном на томах локального RAID контроллера. Половина дискового пространства предназначалась для зеркалирования данных с другого VSA (этакий сетевой аналог RAID 1), расположенного на соседнем хосте, половина оставалась под полезные данные. Затем каждый апплайнс презентовал свое зеркалируемое хранилище по протоколу NFS обратно всем хостам виртуализации. Одна инсталляция поддерживала 2 или 3 хоста виртуализации, при использовании 2 хостов vCenter Server выполнял роль арбитра и должен был разворачиваться на отдельном физическом сервере или хосте ESXi, не входящем в VSA.

Функционал VSA был весьма ограниченным. Так, например, первая версия VSA поддерживала размещение только на VMFS томах с RAID 1 или 10, что приводило к высоким накладным расходам на хранение данных (фактически, полезное пространство составляло менее 1/4 от объема локальных дисков), отсутствовала поддержка VAAI, не было поддержки кэширования или тиринга.

Все это в совокупности с не слишком низкой ценой и невысокой производительностью не позволили VSA вытеснить привычные СХД из SMB сегмента. Поэтому вскоре после выхода первой версии Virtual SAN в 2014, продукт был снят с продаж.

VMware Virsto

Еще одна жертва Virtual SAN, продукт одноименной компании, которую VMware приобрела в 2013 году. Насколько мне известно, после покупки Virsto так и не появился в прайс-листах, а был практически сразу же помножен на ноль.

Перпективная разработка в области программно-определяемых хранилищ данных, Virsto представлял собой виртуальный апплайнс, выполняющий роль виртуализатора СХД, т.е. ресурсы СХД презентовались аплайнсу, а аплайнс, в свою очередь, отдавал дисковое пространство хостам по протоколу NFS. Сердцем Virsto была VirstoFS - специализированная файловая система, позволяющая оптимизировать операции записи и чтения за счет использования механизмов, схожих с теми, что можно видеть в СХД NetApp FAS. Virsto мог аккумулировать случайные операции записи в специальном журнале и затем последовательно записывать данные на СХД, что положительно сказывалось на IOPS и задержках. Кроме того, Virsto поддерживал многоуровневое хранение данных (тиринг) и оптимизировал работу со снапшотами за счет хранения в оперативной памяти метаданных о том, какой блок с данными в каком из снимков находится.


Несмотря на то, что продукт так и не вышел, старания разработчиков не прошли даром - в Virtual SAN 6.0 вместо VMFS-L появился новый формат разметки дисков на базе VirstoFS и поддержка "продвинутых" снапшотов.

VMware Lab Manager

Продукт для автоматизации развертывания и управления жизненным циклом ВМ в тестовых окружениях.

По сути Lab Manager являлся менеджером менеджеров, разворачивался поверх существующей инсталляции VMware ESX/ESXi и vCenter и позволял организовывать многопользовательский (многоарендный) доступ к общей виртуальной инфраструктуре, выделять пользователям необходимый набор вычислительных ресурсов, автоматически выдавать IP адреса ВМ из пулов, создавать изолированные сети для ВМ, указывать срок аренды для ВМ.


С ростом популярности темы облачных вычислений VMware переключилась на другой продукт - vCloud Director, постепенно перенеся из Lab Manager все наработанные фишки и закрыв его.

VMware ACE

Закончить обзор я хочу на достаточно редком звере - VMware ACE. Еще до появления VDI в своем классическом виде и широкого распространения BYOD компания VMware предлагала клиентам ПО для централизованного управления виртуальными рабочими станциями, которые могли запускаться на персональных компьютерах пользователей - VMware ACE.


ACE работал в связке с клиентскими гипервизорами VMware Workstation и Player и позволял управлять ВМ на основании заданных политик. С помощью политик администраторы могли ограничить функционал ВМ (например, отключить проброс USB устройств или контролировать доступ в сеть), принудительно шифровать виртуальные диски, разрешать доступ к ВМ только для авторизованных пользователей, настраивать срок жизни ВМ, по истечении которого ВМ переставала запускаться и т.д. ВМ вместе с политиками и гипервизором VMware Player могли быть экспортированы в виде готово пакета Pocket ACE и переданы пользователю любым удобным способом (на CD-диске, flash-накопителе или по сети). При необходимости, администратор мог развернуть в сети сервер ACE Management Server, к которому подключались клиентские гипервизоры и запрашивали актуальные настройки политик для ВМ.

Не смотря на интересный функционал, продукт не получил широкого распространения, и по словам VMware не отвечал всем требованиям тех немногих заказчиков, что его использовали, поэтому в 2011 он был снят с продажи. Спустя несколько лет на смену ACE пришел VMware Horizon FLEX, имеющий собственный механизм доставки ВМ на компьютеры пользователей, а также поддерживающий гипервизор VMware Fusion Pro для ОС Apple MAC OS X.

Виртуальные машины уже прочно заняли свое место среди инструментов, существенно повышающих эффективность использования серверных платформ и персональных компьютеров. Возможность консолидации нескольких виртуальных серверов на одном физическом позволяет организациям различного уровня существенно экономить на аппаратном обеспечении и обслуживании. Пользователи настольных компьютеров применяют виртуальные машины, как в целях обучения, так и в целях создания защищенных и переносных пользовательских сред. В корпоративной среде виртуальные машины на настольных системах применяются также для целей тестирования программного обеспечения в различных конфигурациях, запуска специализированных виртуальных шаблонов и централизованного хранения виртуальных пользовательских десктопов. При массовом использовании виртуальных систем одними из самых важных мероприятий являются обслуживание и оптимизация производительности виртуальных машин. В то время как большинство производителей платформ виртуализации предоставляют пользователям и системным администраторам множество инструментов и средств для поддержания эффективной виртуальной инфраструктуры, оптимизация производительности, как самих платформ, так и виртуальных машин является более тонким моментом. Применение различных техник оптимизации во многом зависит от используемой платформы, вариантов использования виртуальных машин, доступных средств и квалификации персонала.

В России наиболее популярными средствами виртуализации являются продукты компании VMware. И это не случайно: VMware, являясь одним из старейших участников рынка, на данный момент является его лидером и во многом определяет направления развития сферы виртуализации в целом. На сегодняшний день наибольший интерес для пользователей представляют коммерческие платформы VMware Workstation, VMware ESX Server и бесплатная платформа VMware Server. Несмотря на то, что VMware Server является серверной платформой, многие пользователи успешно применяют ее в качестве настольной платформы ввиду ее бесплатности, хотя практически по всем параметрам функциональность продукта VMware Workstation 6 намного выше.

Вопросы оптимизации виртуальных машин и гостевых систем, запущенных в них, возникают как у домашних пользователей продуктов виртуализации, так и компаний, стремящихся максимально полно использовать аппаратные ресурсы. Особенно это актуально для виртуальных серверов, которые должны обладать свойством высокой доступности из внутренней или внешней сети, и серверов, интенсивно использующих какой-либо из аппаратных ресурсов компьютера (например, жесткий диск серверами баз данных).

Сравнительный обзор VMware Server и VMware Workstation

Продукты VMware Workstation и VMware Server, хотя и предназначены для разных категорий пользователей, тем не менее, используются в схожих ситуациях. VMware Server используется не только для поддержания небольшой инфраструктуры виртуальных серверов в секторе SMB (Small and Medium Business), но и применяется для целей разработки и тестирования программного обеспечения. Также многие домашние пользователи используют VMware Server как бесплатную альтернативу продукту VMware Workstation, хотя последний обладает значительно большими функциональными возможностями именно для конечного пользователя. Из приведенной ниже таблицы можно увидеть, когда нужно использовать VMware Workstation, а когда будет достаточно бесплатного VMware Server.

Возможности Workstation 6.0.0 Server 1.0.3
Запуск в качестве сервиса Нет (но есть возможность сворачивания UI в System Tray) Да
Запуск виртуальной машины при загрузке Нет Да
Локальное управление Толстый клиент, командная строка
Множественный пользовательский доступ Нет Да
Программные интерфейсы C / COM / Perl C / COM / Perl
Удаленное управление хостом Нет Web-консоль
Удаленное управление виртуальными машинами Нет Толстый клиент
Управление множественными установками Нет Нет 1
Соотношение виртуальные машины на ядро 2-4 2-4
Поддержка аппаратной виртуализации Intel VT Intel VT (экспериментально)
Поколение виртуального аппаратного обеспечения 6 5
Виртуальных процессоров через SMP (Symmetric Multi Processing) 2 2 (экспериментально)
Максимум оперативной памяти для одной виртуальной машины до 8 ГБ до 3,6 ГБ
Максимум оперативной памяти для всех виртуальных машин Неограничено 2 До 64 ГБ 2
IDE контроллеров/дисков на них 1/4 1/4
SCSI контроллеров/дисков на них 1/7 4/60
Максимальный размер виртуального диска (IDE/SCSI) до 950 ГБ до 950 ГБ
Виртуальных сетевых адаптеров на одну виртуальную машину 10 4
Виртуальных коммутаторов 10 9
Снапшоты через толстый клиент Да Да (только один)
Снапшоты через командную строку Да Нет
Клонирование виртуальных машин Да Нет 3
Команды виртуальных машин (в одном виртуальном сетевом сегменте) Да Нет
Запись активности виртуальной машины Да Нет
Отладка виртуальных машин Да Да
Общие папки с хостовой системой Да Нет
Запись активности виртуальной машины в видеофайл Да Нет
Интерфейс Drag&Drop между гостевой и хостовой системой Да Нет
Официально неподдерживаемые хостовые системы SuSE Linux 7.3 Windows XP Professional (32/64 бит)
Windows XP Home
Windows 2000 Professional
Red Hat Linux 7.0
Red Hat Linux 7.1
Поддержка 64-битных систем Да Да
Поддержка паравиртуализации Да 4 Нет
Цена $189 (при загрузке с сайта)
$209 (розничные поставки)
Бесплатно 5
  1. Доступно при использовании с продуктом Virtual Center (не бесплатен).
  2. В операционных системах с включенным PAE-режимом.
  3. Доступно при управлении продуктом Virtual Center (не бесплатен).
  4. Доступно при использовании VMware Virtual Machine Interface (VMI) 3.0.
  5. Техническая поддержка не бесплатна, но и не необходима. Пользователи могут купить VMware Gold или Platinum Support and Subscription Services .

Оптимизация производительности VMware Workstation и VMware Server

Оптимизация виртуальных систем под управлением платформ VMware Server и VMware Workstation состоит из четырех ключевых компонентов:

  • правильный выбор аппаратного обеспечения и его оптимизация
  • настройка и оптимизация хостовой платформы
  • настройка и оптимизация платформы виртуализации и виртуальных машин
  • оптимизация гостевой системы

Аппаратное обеспечение

При выборе оборудования для хостовой системы необходимо исследовать среднюю загруженность физической системы, которую необходимо виртуализовать и выбрать так называемый коэффициент виртуализации - количество виртуальных машин, запущенных одновременно на одной физической платформе. Необходимо учитывать не только загруженность процессора, но и всех аппаратных ресурсов, поскольку чрезвычайно интенсивное использование какого-либо ресурса одной виртуальной машины может привести к замедлению работы хоста в целом.

По оценкам экспертов, большинство серверов на данный момент использует приблизительно 10-20 процентов от аппаратных мощностей компьютеров, поэтому, в этом случае, для продукта VMware Server необходимо придерживаться соотношения 2-4 виртуальные машины на ядро процессора, оставив некоторый запас для пиковых нагрузок на какой-либо из серверов. При использовании VMware Workstation пользователи часто создают десятки виртуальных машин, и число одновременно запущенных виртуальных систем может быть различным, в зависимости от применяемых гостевых ОС.

Выбирая аппаратные компоненты для сервера виртуализации или хоста для настольной платформы, нужно учитывать следующие аппаратные ресурсы:

  • Память
    Оцените количество памяти, используемой виртуальными машинами и приложениями, запущенными в них, прибавьте память, необходимую для хостовой ОС (зависит от выбранной платформы) и поддержки платформы виртуализации (обычно не менее 64 МБ).
  • Диски
    Старайтесь использовать высокопроизводительные SCSI диски и RAID-массивы. Помните, что RAID массивы могут быть различного типа, и от его выбора зависит производительность дисковой системы. Следите за тем, чтобы диски хостовой системы не переполнялись, поскольку это сильно действует на производительность виртуальных машин, в особенности при создании снапшотов или работе с Redo-дисками. Используя SAN или NAS устройства хранения, следите за тем, чтобы на них были включены кэши на чтение и запись и правильно выставлены их размеры.
  • Сеть
    При выборе сетевых адаптеров и устройств коммуникации, учитывайте следующие рекомендации:
    • используйте коммутаторы («свичи») вместо концентраторов («хабов»)
    • при использовании Gigabit Ethernet карт на хостах убедитесь, что вы используете кабели и коммутаторы с соответствующей пропускной способностью
    • не используйте большее число физических сетевых интерфейсов, чем необходимо - ненужные адаптеры принимают широковещательные пакеты, что замедляет быстродействие в целом

Хостовая ОС

При выборе хостовой операционной системы для VMware Server или VMware Workstation необходимо учитывать ее требования к оборудованию и заранее планировать ресурсы, выделяемые виртуальным машинам. Наибольшее внимание при оптимизации хостовой ОС нужно уделять памяти, дискам, сетевым интерфейсам и сервисам операционной системы. Само собой, в хостовой системе нельзя устанавливать никакого дополнительного программного обеспечения, которое может отрицательно повлиять на ее быстродействие.


Платформа виртуализации и виртуальные машины

При оптимизации системы виртуализации и виртуальных машин необходимо учитывать множество параметров и различные варианты использования виртуальных машин. В каждом отдельном случае необходимо тщательно изучить, какой из аспектов при настройке хостовой или гостевой ОС может являться «бутылочным горлом» (bottleneck), существенно влияющим на производительность системы. В частности, необходимо придерживаться следующих рекомендаций:

  • Процессор

    В случае если ваш процессор использует технологию hyper-threading для представления двух логических процессоров для одного физического, не включайте виртуальный SMP (два виртуальных процессора) в настройках виртуальной машины при ее создании.

    Вы можете также вручную выставить приоритет для процессов виртуальных машин:

    зайдите в меню «Edit», выберите «Preferences», перейдите на вкладку «Priority» и назначьте приоритет активной виртуальной машине (Input grabbed - когда курсор находится внутри виртуальной машины) и остальным виртуальным машинам в фоне (Input ungrabbed).

    Эти настройки влияют на все виртуальные машины хоста. Вы можете также назначить их для конкретной виртуальной машины (они перекроют глобальные настройки): зайдите в меню «VM», далее «Settings», перейдите на вкладку «Options» и категорию «Advanced».

  • Память

    Если вы используете хостовую ОС не только для запуска виртуальных машин, но и для других задач вы можете задать количество физической оперативной памяти, которое могут использовать виртуальные машины. Для этого зайдите в меню «Edit», выберите «Preferences», перейдите на вкладку «Memory» и выставьте необходимое количество памяти для виртуальных машин.

    Здесь вы можете также определить, как виртуальные машины будут использовать файл подкачки. По умолчанию часть памяти виртуальной машины сбрасывается в файл подкачки. Если же выставить параметр «Allow most virtual machine memory to be swapped», это позволит запустить большее число виртуальных машин одновременно, но отрицательно скажется на их быстродействии. Выбор первого параметра повлечет за собой использование только физической памяти хостовой системы, что ускорит быстродействие, однако, соответственно, уменьшит число одновременно запущенных виртуальных машин.

    VMware Workstation и VMware Server используют процедуры очистки неиспользуемой памяти (Memory Trimming). Вообще говоря, этот параметр не сильно влияет на производительность, однако его отключение может немного повысить производительность при работе с дисками виртуальной машины. Отключить его можно, добавив в vmx-файл строчку MemTrimRate=0 или в настройках виртуальной машины:

    Продукты VMware используют также общий доступ к страницам памяти (Page Sharing), который позволяет виртуальным машинам совместно использовать одну копию страниц памяти, что особенно эффективно при запуске одинаковых гостевых систем, с одинаковыми запущенными в них приложениями. В этом случае, такой подход позволяет экономить до 30 процентов физической памяти, однако снижает скорость операций ввода-вывода. Если на хосте достаточно оперативной памяти, эту технику можно отключить, добавив в vmx-файл строчку: sched.mem.pshare.enable = “FALSE”

  • Диски

    По возможности используйте диски виртуальных машин хранящиеся локально. В случае использования сетевых ресурсов, следите за пропускной способностью сети и ее доступностью. По умолчанию VMware Server и VMware Workstation используют эмуляцию SCSI-дисков. Не меняйте этот параметр, поскольку применение виртуальных IDE-дисков снижает быстродействие. Используйте виртуальные диски типа «preallocated», вместо «growable», хотя вторые и выгодны с точки зрения используемого места (растут по мере наполнения), они работают несколько медленнее. Для задания дисков типа «preallocated» при создании виртуальной машины поставьте галку «Allocate all disk space now». Можно также создавать независимые (Independent) диски для виртуальной машины, которые могут быть постоянными (Persistent) и непостоянными (Nonpersistent). Содержимое этих дисков существует независимо от мгновенных снимков виртуальной машины (снапшотов). Непостоянные диски отличаются тем, что их содержимое сбрасывается при выключении виртуальной машины. Диски типа Independent-persistent обладают наилучшим быстродействием и рекомендуются для большинства вариантов использования. Для того чтобы создать такой диск, выберите меню «VM», «Settings», на вкладке «Hardware» выберите диск и нажмите «Advanced», убедитесь, что галки «Independent» и «Persistent» установлены.

    Помните также, что использование снапшотов замедляет быстродействие дисковой подсистемы, поэтому не используйте их без необходимости.

  • Сеть

    Удалите все неиспользуемые виртуальные сетевые адаптеры для каждой виртуальной машины в меню «VM»->«Settings». При интенсивном обмене трафиком с хостовой ОС наиболее эффективно использовать тип сетевого взаимодействия Bridged, нежели NAT, поскольку в последнем случае присутствуют затраты на поддержание виртуального NAT-устройства.

  • Другое
    • Отключение режима отладки

      По умолчанию VMware Workstation собирает отладочную информацию, что может несколько замедлить производительность виртуальной машины. Эту возможность можно отключить в меню «VM», далее «Settings», вкладка «Options», категория «Advanced», затем выставить комбобокс «Gather debugging information» в значение «None».

    • Отключение логирования

      Для виртуальных машин в VMware Server и VMware Workstation включен режим логирования, который практически не влияет на производительность, но его можно отключить, добавив в vmx-файл строчку logging = «FALSE».

    • Отключение приводов CD/DVD-ROM

      Многие забывают, что некоторые старые операционные системы, такие как Windows 98, постоянно проверяют наличие диска в приводе, что приводит к потере быстродействия. Виртуальный CD/DVD-ROM можно отключить в настройках виртуальной машины:

Гостевая ОС и приложения

Оптимизация гостевой системы является наиболее тонким моментом оптимизации виртуальных систем, поскольку многое зависит от того, для каких целей используется виртуальная машина, какие приложения в ней запущены и к каким компонентам системы предъявляются наиболее высокие требования к быстродействию. Самыми значимыми объектами настройки являются: процессор, память, диски, сетевые адаптеры и программное обеспечение виртуальной машины.

Однако, первым делом, после установки гостевой системы, необходимо установить пакет VMware Tools, который содержит в себе улучшенные драйверы устройств, существенно повышающие быстродействие гостевой системы. Приложение VMware Tools может быть установлено не во всех гостевых ОС. Для установки этого пакета, при запущенной виртуальной машине, после полной загрузки ОС, в меню «VM» выберите пункт «Install VMware Tools».

Заключение

После того, как все четыре перечисленных мероприятия по оптимизации будут проведены, необходимо постоянное наблюдение за производительностью виртуальных машин, особенно если они работают в качестве виртуальных серверов. Целью оптимизации в этом случае должна стать стабильная одновременная работа нескольких виртуальных систем на одном физическом хосте. Регулярно обновляйте программное обеспечение и платформу виртуализации, и тогда вы сможете максимально эффективно использовать виртуальные машины, как на десктопах, так и в качестве гибких серверных элементов ИТ-инфраструктуры предприятия.

VMware Workstation - виртуальная машина для запуска операционных систем, установленная на компьютер. Виртуальная машина VMware эмулирует аппаратное обеспечение компьютера, позволяет создавать виртуальные машины, запускать одну или несколько операционных систем, работающие параллельно с установленной на компьютере Windows.

Программа VMware Workstation Pro эмулирует аппаратную часть компьютера, позволяет выполнять на компьютере запуск программного обеспечения в изолированной среде. На виртуальную машину можно устанавливать операционные системы (например, Linux на Windows, или, наоборот) для работы в виртуальной среде не затрагивая реальную систему.

Проверить незнакомое или подозрительное программное обеспечение, проверить в работе новый антивирус, не устанавливая его на своем компьютере, попробовать работу в другой операционной системе и т. д. При этом реальная операционная система не будет затронута в случае опасных действий, совершаемых на виртуальной машине.

Реальная, установленная на компьютере операционная система называется хост (host), а операционная система, установленная на виртуальной машине, называется гостевая операционная система.

Американская компания Vmware крупнейший производитель ПО для виртуализации, выпускает программы для персональных компьютеров: платную VMware Workstation Pro и бесплатную VMware Player с урезанными возможностями.

VMware Workstation Pro (в статье обзор этой программы) поддерживает установку несколько разных (или одинаковых) операционных систем: различные дистрибутивы Windows, Linux, BSD и т. д.

Обратите внимание на то, что гостевая операционная система потребляет ресурсы компьютера. Поэтому, во время работы виртуальной машины, на реальном компьютере не следует запускать ресурсоемкие приложения, а также одновременно открывать сразу несколько виртуальных машин. Чем мощнее компьютер, тем комфортнее работа на виртуальной машине. На мощных компьютерах без проблем будут работать одновременно несколько виртуальных машин, а на слабом, только одна виртуальная машина.

Установите программу VMware Workstation Pro на свой компьютер. По умолчанию, программа работает на английском языке, в интернете есть хорошая русификация от Loginvovchyk, которую нужно установить после установки программы. После этого, виртуальная машина VMware Workstation Pro будет работать на русском языке.

После запуска откроется главное окно VMware Workstation. В верхней части окна находится меню для управления программой. Слева расположена «Библиотека», в которой будут отображены установленные в VMware виртуальные машины. Во вкладке «Главная» находятся кнопки для выполнения наиболее часто востребованных действий: «Создать новую виртуальную машину», «Открыть виртуальную машину», «Подключение к удаленному серверу», «Подключение к Vmware vCloud Air».

Создание новой виртуальной машины

Для создания виртуальной машины (ВМ) нажмите на кнопку «Создать новую виртуальную машину», или войдите в меню «Файл», выберите «Новая виртуальная машина…».

Откроется Мастер создания новой виртуальной машины. В первом окне выберите тип конфигурации «Обычный (рекомендуется), а затем нажмите на кнопку «Далее».

В следующем окне предлагается выбор типа установки гостевой ОС, доступны три варианта:

  • установка с установочного DVD диска, вставленного в дисковод компьютера;
  • использование для установки файла образа системы в формате ISO с компьютера;
  • установка операционной системы позже.

В случае выбора первых двух вариантов, после выбора настроек, начнется установка операционной системы на виртуальную машину. В третьем случае, установку гостевой ОС можно запустить в любое другое удобное время, после завершения настройки виртуальной машины.

В случае установки позже, выберите гостевую операционную систему. Если ее нет в списке, выберите пункт «Другая». Затем выберите версию ОС. Предлагается большой выбор версий для каждой системы (всего поддерживается более 200 ОС), здесь также есть вариант Other различной разрядности (34-bit и 64-bit).

Если вы устанавливаете гостевую систему в процессе создания виртуальной машины, то тогда откроется окно с информацией о быстрой установке. Ключ продукта Windows и пароль вводить необязательно, следует выбрать только версию Windows.

Если на вашем компьютере более одного логического диска, то я рекомендую поменять расположение места хранения файлов виртуальной машины в профиле пользователя (настройка по умолчанию), на другой диск вашего компьютера.

Для чего это нужно? В случае сбоя Windows, установленной на компьютере, потребуется переустановка системы. После переустановки операционной системы, файл виртуальной машины VMware, сохраненный в профиле пользователя на системном диске, будет потерян. Если виртуальная машина расположена не на системном диске, то переустановка Windows ее не затронет.

Для повторного использования, нужно будет установить программу VMware Workstation, а затем подключить виртуальную машину. Не придется все заново устанавливать и настраивать.

Поэтому на диске «E» (в вашем случае, скорее всего, будет диск «D») своего компьютера я создал папку «Virtual Machines», в которой сохраняются папки c файлами виртуальных машин, установленных на моем компьютере.

Для новой виртуальной машины создайте папку с именем этой ВМ для того, чтобы отделить ее файлы от других ВМ.

Далее необходимо выбрать максимальный размер диска, занимаемого виртуальной машиной (по умолчанию - 60 ГБ, размер можно изменить), тип сохранения виртуального диска: в одном файле, или в нескольких файлах. Этот размер будет взят с жесткого диска вашего компьютера для нужд виртуальной машины.

При сохранении виртуального диска в одном файле, ВМ работает производительнее, чем при разделении на несколько файлов.

В завершающем окне, нажмите на кнопку «Готово». После этого начнется установка гостевой операционной системы.

Подробнее о процессе установки Windows читайте здесь:

Если была выбрана настройка для установки операционной системы позже, то в этом окне не будет пункта «Включить эту виртуальную машину после ее создания», соответственно не начнется установка гостевой системы.

Настройка виртуальной машины VMware

По умолчанию, настройка виртуальной машины выполнена оптимально для большинства случаев. При необходимости, можно изменить некоторые параметры, а также добавить общие папки.

В настройках, во вкладке «Оборудование» можно изменить объем памяти для этой виртуальной машины, количество ядер процессора, объем жесткого диска, занимаемого виртуальной машиной. В разделе «CD/DVD (SATA)» можно выбрать дисковод или файл образ операционной системы для установки (при выборе установки позже), произвести другие настройки.

Во вкладке «Параметры», в разделе «Общие папки» выберите настройку «Всегда включено», активируйте пункт «Подключить как сетевой диск в гостевых Windows».

Далее нажмите на кнопку «Добавить…», в окне Мастера добавления общих папок, создайте общую папку для обмена данными с реальной системой и другими гостевыми системами. Общую папку желательно создать не на системном диске по описанным выше причинам.

На моем компьютере уже есть такая папка (Data Sharing). Я выбрал эту папку для новой виртуальной машины. Далее включите этот ресурс.

При настройках по умолчанию разрешено перетаскивание, вставка и копирование файлов из реальной в виртуальную систему, и в обратном направлении.

Открытие виртуальной машины

После переустановки Windows (мой случай), вы можете открыть ранее созданные виртуальные машины, сохраненные на вашем компьютере. В главном окне VMware Workstation нажмите на кнопку «Открыть виртуальную машину», или в меню «Файл» выберите пункт «Открыть…».

Выберите файл (на моем компьютере виртуальные машины находятся в папке «Virtual Machines») виртуальной машины, а затем нажмите на кнопку «Открыть».

На своем компьютере я открыл ранее сохраненные виртуальные операционные системы: Windows 10 x64, Windows 10, Windows 8.1, Windows 7, Mac OS X.

Запуск гостевой ОС в VMware Workstation

Для запуска гостевой операционной системы, в окне программы VMware Workstation Pro выделите вкладку с нужной ОС (если установлено несколько гостевых ОС), а затем нажмите на кнопку «Включить виртуальную машину». Включить систему можно из меню «Виртуальная машина», «Питание», «Запустить виртуальную машину».

Для освобождения курсора мыши из виртуальной машины нажмите на клавиши«Ctrl» + «Alt», а для переключения курсора мыши в виртуальную машину на «Ctrl» + «G» (или кликните в окне виртуальной машины).

Установка VMware Tools

VMware Tools - пакет драйверов и служб улучшающих работу виртуальной машины и ее взаимодействие с периферийными устройствами. Сразу после установки операционной системы на виртуальную машину, необходимо установить VMware Tools. Об этом появится напоминание в окне программы.

В меню «Виртуальная машина» выберите пункт «Установить пакет VMware Tools…». Далее откройте Проводник, запустите установку VMware Tools с дисковода CD-ROM. После завершения установки пакета, перезагрузите гостевую операционную систему.

Снимки состояния гостевой ОС

В VMware Workstation можно создать снимок состояния гостевой ОС. После создания снимка состояния системы, в случае сбоев в работе гостевой ОС, можно вернутся к предыдущему рабочему состоянию системы.

В меню «Виртуальная машина» нужно нажать на пункт «Создать снимок состояния». Далее дайте имя снимку, если нужно, добавьте описание.

Для восстановления состояния гостевой ОС на момент создания снимка, выберите в контекстном меню «Вернуться к снимку: Снимок N». Далее восстановите состояние системы. Текущее состояние ОС будет утеряно.

Созданными снимками можно управлять через Диспетчер снимков состояния: создавать, клонировать, удалять снимки. На панели меню есть три кнопки для управления снимками состояния системы.

Отключение виртуальной машины

Для выхода из виртуальной машины, в меню «Виртуальная машина», нажмите на пункт контекстного меню «Питание», а затем выберите «Завершить работу гостевой ОС». Операционная система завершит свою работу, как при обычном отключении компьютера.

При выборе пунта «Приостановить гостевую ОС», система приостановит свою работу, без отключения служб и приложений.

Как зайти в BIOS виртуальной машины VMware

В процессе запуска виртуальной машины не представляется возможным войти в BIOS из-за того, что загрузка экрана BIOS проходит практически мгновенно.

Для того, чтобы у пользователя была возможность входа в BIOS виртуальной машины при загрузке системы, необходимо открыть в Блокноте файл конфигурации (расширение файла.vmx) данной виртуальной машины. Файл конфигурации находится в папке виртуальной машины, в месте выбранном при создании виртуальной машины.

Введите в самом конце файла конфигурации следующую строку:

Bios.bootdelay = 15000

Этот параметр настраивает задержку экрана BIOS в миллисекундах, в данном случае, 15000 = 15 секунд. Можете выбрать другой временной интервал.

Теперь пользователь сможет нажать на нужную клавишу на открывшемся экране BIOS.

Удаление виртуальной машины

Для удаления виртуальной машины, откройте вкладку данной виртуальной машины в VMware Workstation Pro. В меню «Виртуальная машина» выберите пункт контекстного меню «Управление», а затем пункт «Удалить с диска». В окне с предупреждением согласитесь на удаление (это необратимое действие).

После этого, все файлы гостевой виртуальной машины будут удалены с компьютера.

Выводы статьи

Виртуальная машина VMware Workstation Pro - мощное приложение для создания гостевых виртуальных операционных систем, запускаемых на компьютере, наряду с реальной ОС. Гостевая операционная система будет изолирована от Windows, установленной на компьютере.