Гостевая ОС и приложения. Предназначение VMware Workstation

VMware Workstation - виртуальная машина для запуска операционных систем, установленная на компьютер. Виртуальная машина VMware эмулирует аппаратное обеспечение компьютера, позволяет создавать виртуальные машины, запускать одну или несколько операционных систем, работающие параллельно с установленной на компьютере Windows.

Программа VMware Workstation Pro эмулирует аппаратную часть компьютера, позволяет выполнять на компьютере запуск программного обеспечения в изолированной среде. На виртуальную машину можно устанавливать операционные системы (например, Linux на Windows, или, наоборот) для работы в виртуальной среде не затрагивая реальную систему.

Проверить незнакомое или подозрительное программное обеспечение, проверить в работе новый антивирус, не устанавливая его на своем компьютере, попробовать работу в другой операционной системе и т. д. При этом реальная операционная система не будет затронута в случае опасных действий, совершаемых на виртуальной машине.

Реальная, установленная на компьютере операционная система называется хост (host), а операционная система, установленная на виртуальной машине, называется гостевая операционная система.

Американская компания Vmware крупнейший производитель ПО для виртуализации, выпускает программы для персональных компьютеров: платную VMware Workstation Pro и бесплатную VMware Player с урезанными возможностями.

VMware Workstation Pro (в статье обзор этой программы) поддерживает установку несколько разных (или одинаковых) операционных систем: различные дистрибутивы Windows, Linux, BSD и т. д.

Обратите внимание на то, что гостевая операционная система потребляет ресурсы компьютера. Поэтому, во время работы виртуальной машины, на реальном компьютере не следует запускать ресурсоемкие приложения, а также одновременно открывать сразу несколько виртуальных машин. Чем мощнее компьютер, тем комфортнее работа на виртуальной машине. На мощных компьютерах без проблем будут работать одновременно несколько виртуальных машин, а на слабом, только одна виртуальная машина.

Установите программу VMware Workstation Pro на свой компьютер. По умолчанию, программа работает на английском языке, в интернете есть хорошая русификация от Loginvovchyk, которую нужно установить после установки программы. После этого, виртуальная машина VMware Workstation Pro будет работать на русском языке.

После запуска откроется главное окно VMware Workstation. В верхней части окна находится меню для управления программой. Слева расположена «Библиотека», в которой будут отображены установленные в VMware виртуальные машины. Во вкладке «Главная» находятся кнопки для выполнения наиболее часто востребованных действий: «Создать новую виртуальную машину», «Открыть виртуальную машину», «Подключение к удаленному серверу», «Подключение к Vmware vCloud Air».

Создание новой виртуальной машины

Для создания виртуальной машины (ВМ) нажмите на кнопку «Создать новую виртуальную машину», или войдите в меню «Файл», выберите «Новая виртуальная машина…».

Откроется Мастер создания новой виртуальной машины. В первом окне выберите тип конфигурации «Обычный (рекомендуется), а затем нажмите на кнопку «Далее».

В следующем окне предлагается выбор типа установки гостевой ОС, доступны три варианта:

  • установка с установочного DVD диска, вставленного в дисковод компьютера;
  • использование для установки файла образа системы в формате ISO с компьютера;
  • установка операционной системы позже.

В случае выбора первых двух вариантов, после выбора настроек, начнется установка операционной системы на виртуальную машину. В третьем случае, установку гостевой ОС можно запустить в любое другое удобное время, после завершения настройки виртуальной машины.

В случае установки позже, выберите гостевую операционную систему. Если ее нет в списке, выберите пункт «Другая». Затем выберите версию ОС. Предлагается большой выбор версий для каждой системы (всего поддерживается более 200 ОС), здесь также есть вариант Other различной разрядности (34-bit и 64-bit).

Если вы устанавливаете гостевую систему в процессе создания виртуальной машины, то тогда откроется окно с информацией о быстрой установке. Ключ продукта Windows и пароль вводить необязательно, следует выбрать только версию Windows.

Если на вашем компьютере более одного логического диска, то я рекомендую поменять расположение места хранения файлов виртуальной машины в профиле пользователя (настройка по умолчанию), на другой диск вашего компьютера.

Для чего это нужно? В случае сбоя Windows, установленной на компьютере, потребуется переустановка системы. После переустановки операционной системы, файл виртуальной машины VMware, сохраненный в профиле пользователя на системном диске, будет потерян. Если виртуальная машина расположена не на системном диске, то переустановка Windows ее не затронет.

Для повторного использования, нужно будет установить программу VMware Workstation, а затем подключить виртуальную машину. Не придется все заново устанавливать и настраивать.

Поэтому на диске «E» (в вашем случае, скорее всего, будет диск «D») своего компьютера я создал папку «Virtual Machines», в которой сохраняются папки c файлами виртуальных машин, установленных на моем компьютере.

Для новой виртуальной машины создайте папку с именем этой ВМ для того, чтобы отделить ее файлы от других ВМ.

Далее необходимо выбрать максимальный размер диска, занимаемого виртуальной машиной (по умолчанию - 60 ГБ, размер можно изменить), тип сохранения виртуального диска: в одном файле, или в нескольких файлах. Этот размер будет взят с жесткого диска вашего компьютера для нужд виртуальной машины.

При сохранении виртуального диска в одном файле, ВМ работает производительнее, чем при разделении на несколько файлов.

В завершающем окне, нажмите на кнопку «Готово». После этого начнется установка гостевой операционной системы.

Подробнее о процессе установки Windows читайте здесь:

Если была выбрана настройка для установки операционной системы позже, то в этом окне не будет пункта «Включить эту виртуальную машину после ее создания», соответственно не начнется установка гостевой системы.

Настройка виртуальной машины VMware

По умолчанию, настройка виртуальной машины выполнена оптимально для большинства случаев. При необходимости, можно изменить некоторые параметры, а также добавить общие папки.

В настройках, во вкладке «Оборудование» можно изменить объем памяти для этой виртуальной машины, количество ядер процессора, объем жесткого диска, занимаемого виртуальной машиной. В разделе «CD/DVD (SATA)» можно выбрать дисковод или файл образ операционной системы для установки (при выборе установки позже), произвести другие настройки.

Во вкладке «Параметры», в разделе «Общие папки» выберите настройку «Всегда включено», активируйте пункт «Подключить как сетевой диск в гостевых Windows».

Далее нажмите на кнопку «Добавить…», в окне Мастера добавления общих папок, создайте общую папку для обмена данными с реальной системой и другими гостевыми системами. Общую папку желательно создать не на системном диске по описанным выше причинам.

На моем компьютере уже есть такая папка (Data Sharing). Я выбрал эту папку для новой виртуальной машины. Далее включите этот ресурс.

При настройках по умолчанию разрешено перетаскивание, вставка и копирование файлов из реальной в виртуальную систему, и в обратном направлении.

Открытие виртуальной машины

После переустановки Windows (мой случай), вы можете открыть ранее созданные виртуальные машины, сохраненные на вашем компьютере. В главном окне VMware Workstation нажмите на кнопку «Открыть виртуальную машину», или в меню «Файл» выберите пункт «Открыть…».

Выберите файл (на моем компьютере виртуальные машины находятся в папке «Virtual Machines») виртуальной машины, а затем нажмите на кнопку «Открыть».

На своем компьютере я открыл ранее сохраненные виртуальные операционные системы: Windows 10 x64, Windows 10, Windows 8.1, Windows 7, Mac OS X.

Запуск гостевой ОС в VMware Workstation

Для запуска гостевой операционной системы, в окне программы VMware Workstation Pro выделите вкладку с нужной ОС (если установлено несколько гостевых ОС), а затем нажмите на кнопку «Включить виртуальную машину». Включить систему можно из меню «Виртуальная машина», «Питание», «Запустить виртуальную машину».

Для освобождения курсора мыши из виртуальной машины нажмите на клавиши«Ctrl» + «Alt», а для переключения курсора мыши в виртуальную машину на «Ctrl» + «G» (или кликните в окне виртуальной машины).

Установка VMware Tools

VMware Tools - пакет драйверов и служб улучшающих работу виртуальной машины и ее взаимодействие с периферийными устройствами. Сразу после установки операционной системы на виртуальную машину, необходимо установить VMware Tools. Об этом появится напоминание в окне программы.

В меню «Виртуальная машина» выберите пункт «Установить пакет VMware Tools…». Далее откройте Проводник, запустите установку VMware Tools с дисковода CD-ROM. После завершения установки пакета, перезагрузите гостевую операционную систему.

Снимки состояния гостевой ОС

В VMware Workstation можно создать снимок состояния гостевой ОС. После создания снимка состояния системы, в случае сбоев в работе гостевой ОС, можно вернутся к предыдущему рабочему состоянию системы.

В меню «Виртуальная машина» нужно нажать на пункт «Создать снимок состояния». Далее дайте имя снимку, если нужно, добавьте описание.

Для восстановления состояния гостевой ОС на момент создания снимка, выберите в контекстном меню «Вернуться к снимку: Снимок N». Далее восстановите состояние системы. Текущее состояние ОС будет утеряно.

Созданными снимками можно управлять через Диспетчер снимков состояния: создавать, клонировать, удалять снимки. На панели меню есть три кнопки для управления снимками состояния системы.

Отключение виртуальной машины

Для выхода из виртуальной машины, в меню «Виртуальная машина», нажмите на пункт контекстного меню «Питание», а затем выберите «Завершить работу гостевой ОС». Операционная система завершит свою работу, как при обычном отключении компьютера.

При выборе пунта «Приостановить гостевую ОС», система приостановит свою работу, без отключения служб и приложений.

Как зайти в BIOS виртуальной машины VMware

В процессе запуска виртуальной машины не представляется возможным войти в BIOS из-за того, что загрузка экрана BIOS проходит практически мгновенно.

Для того, чтобы у пользователя была возможность входа в BIOS виртуальной машины при загрузке системы, необходимо открыть в Блокноте файл конфигурации (расширение файла.vmx) данной виртуальной машины. Файл конфигурации находится в папке виртуальной машины, в месте выбранном при создании виртуальной машины.

Введите в самом конце файла конфигурации следующую строку:

Bios.bootdelay = 15000

Этот параметр настраивает задержку экрана BIOS в миллисекундах, в данном случае, 15000 = 15 секунд. Можете выбрать другой временной интервал.

Теперь пользователь сможет нажать на нужную клавишу на открывшемся экране BIOS.

Удаление виртуальной машины

Для удаления виртуальной машины, откройте вкладку данной виртуальной машины в VMware Workstation Pro. В меню «Виртуальная машина» выберите пункт контекстного меню «Управление», а затем пункт «Удалить с диска». В окне с предупреждением согласитесь на удаление (это необратимое действие).

После этого, все файлы гостевой виртуальной машины будут удалены с компьютера.

Выводы статьи

Виртуальная машина VMware Workstation Pro - мощное приложение для создания гостевых виртуальных операционных систем, запускаемых на компьютере, наряду с реальной ОС. Гостевая операционная система будет изолирована от Windows, установленной на компьютере.

Эра персоналок, с установленными приложениями, судя по всему потихоньку движется к закату, вернулись клиент-серверные технологии. Уже не потребуется мощный ПК, ведь вся обработка данных производится на сервере. Новинка требует наличия структуры, которая усилиями маркетологов получила название облачные вычисления. Индустрия стремительно развивается и за пару лет нам обещают убрать в облака десятую часть приложений. Для всего этого нужны специфические инструменты, и кому как не VMware быть первыми.

Назначение VMware vSphere

Чтобы не бежать впереди поезда вначале давай определимся с назначением и местом продукта. Официально история нового имени началась чуть больше года назад (в конце апреля 2009), когда VMware анонсировала VMware vSphere (vmware.com/products/vsphere). Решение не возникло на пустом месте и пришло на смену платформе виртуализации VMware Virtual Infrastructure, наработки которого и использованы.
Вообщем назначение продукта после переименования не изменилось — объединение виртуальных систем, сетей и хранилищ в единые пулы ресурсов. Хотя над определением видно, что поработали маркетологи, которые чуть подправили формулировку под современные тенденции. Теперь на сайте значится, что “vSphere первая ОС ориентированная для облачных вычислений ”, которая дает возможность быстро и качественно развернуть и управлять виртуальными ресурсами. Но мы то знаем, что “ОС — это на чем Земля вертится”, а вертится vSphere, ну не буду забегать вперед.

Главная идея при переходе на vSphere сделать рабочую среду максимально удобной, устойчивой и управляемой. За счет, конечно же оптимизации — уменьшения числа физических серверов, повышения степени консолидации серверов. К слову если почитать описание микрософтовского System Center Virtual Machine Manager 2008 (SCVMM) натыкаемся на знакомые слова:).
Список возможностей vSphere очень большой, здесь лучше обратиться к официальной документации. Выделю только самые примечательные:

  • VMware vStorage Thin Provisioning — экономия дискового пространства, используется реально только необходимый объем;
  • VMware VMsafe – высоконадежная кластерная файловая система, используемая для хранения виртуальных машин;
  • VMware API vStorage и vCenter Data Recovery — централизованное резервное копирование и восстановление VM из графической консоли;
  • VMware Hot Add — горячее «добавление» устройств без остановки виртуальной машины;
  • VMware Distributed Power Management — управление электропотреблением, позволяет существенно сократить ее расходы;
  • VMware Host Profiles — интерфейс управления позволяющий централизовано настраивать узлы VMware ESX/ESXi и контролировать установки на соответствие политикам.

Плюсуем сюда средства «горячей» миграции VMware VMotion , кластеризации High Availability и высокой доступности Fault Toleranc e, балансировки нагрузки VMware DRS , технология перемещения виртуальных дисков Storage VMotio n и многое другое. Причем экономия при использовании vSphere достигается и тем, что для некоторых операций (например, резервирование) уже не нужно закупать продукт стороннего разработчика. Ранее приходилось докупать, что-то вроде Veeam Backup производимый Veeam Software.
Поддерживается ограничения в потреблении CPU, RAM и для пулов ресурсов (Resource Pool) и отдельных хостов, с возможностью гарантированного выделения ресурсов (Reservation), компонент vNetwork обеспечивает двунаправленный шейпинг и ограничение трафика.
Полный список поддерживаемых ОС для разных продуктов VMware представлен на странице VMware Compatibility Guide, здесь найдешь все популярные сегодня системы – Windows и варианты *nix.
В vSphere по сравнению с Virtual Infrastructure изменился и порядок лицензирования, который стал более гибким, так как теперь лицензии ориентированы не на пару физических процессоров, а по числу процессоров (их количество вбивается в ключ). Причем если количество ядер не превышает 6 (в версиях Advanced и Enterprise Plus — 12), то дополнительная оплата не потребуется. В разгар кризиса такой подход весьма приветствовался, ведь при принятии весьма не простого решения о переходе на виртуальные машины учитываются десятки показателей.
VMware vSphere состоит из следующих компонентов:

  • гипервизоров VMware ESX и/или VMware ESXi – собственно на них все и вертится;
  • VMware vCenter Server Agent обеспечивающий подключение гипервизоров к центру управления VMware vCenter Server (ранее VMware VirtualCenter Server), сам vCenter Server отвечающий за развертывание, централизованный менжемент и обеспечение доступа приобретается отдельно;
  • прочих компонентов обеспечивающих основные возможности, состав которых варьируется в зависимости от выбранной лицензии.

Функционально компоненты разделены на две части: службы инфраструктуры (Infrastructure Services) и службы приложений (Application Services), чем они отличаются отлично расписано на сайте проекта.
Чтобы упростить выбор своего решения, vSphere доступен в трех редакциях: Standard,Advanced и Enterprise. Для небольших организаций предлагаются — Essentials, Essentials Plus, и две версии for Retail and Branch Offices Essentials и Essentials Plus. Причем цена на Essentials достаточно адекватная, обеспечивающая использование продукта на 3 серверах (по 2 CPU), чтобы сделать его интересным и главное, что решения для небольшого офиса является интегрированным all-in-one уже включающим vCenter Server.
В документации на сайте можно найти таблицы сравнения vSphere с другими продуктами виртуализации по стоимости и функциональности.
На момент написания этих строк на сайте VMware появилась версия vSphere4 update 2, хотя в сеть уже просочилась полуофициальная информация о будущей версии 4.1. Основные изменения касаются в основном количественных изменений — VM в кластере, зарегистрированных VM и хостов, и так далее.

Развертывание vSphere

Читая описание, первая мысль, которая приходит в голову новичку – это очень сложно. На самом деле при внимательном подходе и выполнении всех требований процесс развертывания и последующего добавления хостов и VM можно назвать даже простым.
Чтобы установить vSphere потребуется выполнить ряд требований и пройти несколько шагов:

  • оборудование должно соответствовать VMware Hardware Compatibility List (HCL);
  • VMware vSphere ESX/ESXi Server — разворачиваем на физических серверах (2х2 Гц х64бит CPU, 2+ Гб RAM, 2+ Гб HDD);
  • VMware vCenter Server и vSphere Client — устанавливаются в той же сети для управления ESX(i) серверами;
  • развертываем сеть хранения данных SAN;
  • устанавливаем клиентские ОС в виртуальных средах.

Чтобы определить поддержку сервером 64-бит VMware можно при помощи утилиты CPU Identification , размещенной на странице (vmware.com/download/shared_utilities.html).
Выше показаны только основные шаги, каждый этап требует и промежуточных настроек (настройка сети, SAN, если нужно Active Directory и так далее). Некоторые из этих моментов очень подробно описаны в документации, которую можно найти в по адресу vmware.com/support/pubs/vs_pubs.html . Как водится, все доки на английском и часто запутаны, хотя она в любом случае рекомендуема к прочтению (по крайней мере если возникнут проблемы 🙂). Мы же вкратце разберем основные моменты по настройке и управлению vSphere, чтобы наглядно представить с чем имеем дело.
На странице закачки, который будет доступен после регистрации, выбираем для установки гипервизор ESX или VMware ESXi, VMware vCenter Server (в виде ISO образа или zip архива). Плюс здесь же опциональные компоненты — Server Heartbeat, Data Recovery (CD ISO) и vShield Zones.
Для небольших организаций вероятно больше подходит бесплатная платформа VMware ESXi, обладающая всеми необходимыми возможностями. Кроме этого ее рекомендует и сами представители VMware. В начале разворачиваем VMware ESX или ESXi, учитывая, что их основа Linux, хотя и несколько урезанный, то установку можно назвать стандартной и проблем она обычно не вызывает. Просто следуем за указаниями визарда — принимаем лицензию, настраиваем сеть и выбираем диск. На ESX лицензию можно ввести затем на vCenter. После перезагрузки мы можем управлять гипервизором с консоли, через веб-интерфейс или установив vSphere Client. Последний можно скачать с веб-страницы виртуальной машины адрес которой будет доступен после установки ESX(i) или с vCenter.
Кроме этого в контексте можно вспомнить о бесплатном веб-инструменте VMware Go (go.vmware.com ), который позволяет быстро перейти к использованию бесплатного гипервизора VMware ESXi для виртуализации физических серверов в небольшой компании.


Следующий шаг установка VMware vCenter ан компьютер под управлением MS Windows. Упоминаний о версии на сайте найти не удалось, но центр без проблем стал как на Windows XP, так и Windows 2008 R2. Все данные vCenter хранит в базе данных, для небольших сред (5 физических, 50 виртуальных машин) можно использовать Microsoft SQL Server 2005 Express , который идет уже с установочным архивом и предлагается по умолчанию. Иначе в процессе установки нужно будет настроить подключение к СУБД.

Если хостов не много (до 250), то достаточно будет и 32 битной версии иначе только 64 битный вариант. То есть резюмируем для небольшого количества серверов достаточно клиентской 32 битной XP с бесплатным SQL Express, в более мощных конфигурациях придется разворачивать сервер с MS SQL с 64 битной ОСью. Более подробно все остальные требования расписаны в документации. В самом начале следует разрешить прохождение пакетов по портам — 80, 389, 443, 636, 902/903, 8080 и 8443.
Скачиваем ISO образ или zip архив, запускаем установочный файл и в окне мастера выбираем ссылку vCenter Server. К слову архив содержит дистрибутивы и некоторых других продуктов — vSphere Client, vCenter Guided Consolidation, vCenter Update Manager, vCenter Converter, vCenter Orchestrator и VMware Consolidated Backup. Язык инсталлятора — английский. Если весь процесс производится в среде Active Directory, то тебе понадобятся админские права.
Во время инициализации установочного скрипта будут произведены проверки на совместимость и в случае нессответствия выданы рекомендации. Например, так как vCenter использует свой веб-сервер, он будет конфликтовать с установленным IIS по портам. Хотя в процессе можно будет изменить настройки, указав порт по умолчанию для большинства сервисов — http, https, LDAP, SSL, heartbeat. Пакет самодостаточен, если чего-то не будет хватать, все необходимое (.Net, J# и другие) будет доустановлено автоматически.
Возможно, объединять несколько систем с установленным в vCenter в связанную группу (Linked Mode), и управлять с любой системы всеми настройками виртуальных машин. По умолчанию предлагается standalone установка, но выбрав на шаге «vCenter Server Linked Mode Options» переключатель в положение «Join a VMware vCenter Server group …», мы может сразу подключиться к уже существующей группе серверов vCenter. Вообщем это вся установка сервера. Некоторое время ждем пока мастер настроит сервисы, сгенерирует сертификаты и скопирует файлы.
По окончании, аналогично устанавливаем остальные компоненты, доступные в окне vCenter Installer, если конечно в них есть необходимость. Опять же их не обязательно ставить на один и тот же комп, хотя так обычно удобней.
При установке vCenter Update Manager (vCUM) указываем IP сервера vCenter и учетные данные для доступа. В качестве базы данных, к которой необходимо подключиться указываем созданную ранее БД. Внимание, при запросе пароля в окне «Database Information » оставляем его пустым, в этом случае будет использована Windows аутентификация. Каталог в который будут помещаться обновления лучше расположить на отдельном разделе харда, который имеет достаточно свободного места (не менее 20 Гб). Его и указываем на шаге Destination Folder для «Configure the location for downloading patches». Клиентская часть vSphere Client при помощи которой и производится собственно все настройки обычно ставится на компе админа, системные требования не велики (CPU 266, 200 Мб RAM и 1 Гб HDD).

Добавление узлов и лицензий

Установка закончена. Открываем из меню vSphere Client, вводим логин и пароль (флажок Use Windows session credential позволит подключиться с текущими учетными данными), принимаем сертификат.
Появившееся окно клиента выполнено в знакомом стиле Проводника. Слева выбираются компьютеры, справа настройки, внизу панель текущих задач. Обрати внимание на строку адреса. После первой регистрации ты попадаешь во вкладку настроек ОС в Home — Inventory — Host and Clusters, а они нам пока не нужны. Чтобы получить доступ ко всем возможностям vSphere просто переходим в Home.


Область управления разделена визуально на три части по назначению:
  • Inventory — поиск систем, добавление узлов и кластеров, datacenter, управление разрешениями и так далее;
  • Administration — управление ролями, сессиями, лицензиями, настройками vSphere, просмотр журнала и статуса работы сервиса;
  • Management — управление задачами, вывод событий и карты виртуальных машин, создание профилей хостов.

Подпунктов в каждом не так уж много, поэтому времени на знакомство с интерфейсом уйдет не много. Не могу не отметить наличие всяческих подсказок и мастеров, если не выполнен какой нибуть обязательный шаг, то сразу получишь ссылку и рекомендации что делать. Интерфейс задача ориентированный, то есть админ что-то настраивает, а vSphere по мере возможностей последовательно выполняет задачи, главное что нет необходимости ждать пока выполнится одна задача, чтобы настроить следующий пункт. Большинство операций требуют некоторого времени и происходят в фоне, поэтому отслеживай статус внизу окна.


Всплывающее окно сразу же показывает количество дней оставшихся до окончания пробного периода. Если лицензия уже куплена, то самое время ее ввести. Переходим в Administration — Licensing , выбираем систему и в контекстном меню пункт Manage vSphere Licenses . Копируем в окно лицензию, и опционально в поле внизу краткое описание и нажимаем Add License Keys. Чтобы сопоставить ключ, конкретному серверу переходим в Assign Licenses или в контекстном меню выбираем Change License Key .
Теперь самое главное ради чего мы все это устанавливали, подключение ESX(i). Вначале создаем DataCenter, не говорю где искать, так как нужную ссылку подсунут в любом случае, а только потом пустят дальше. Тебе останется только переименовать DataCenter, чтобы было понятней его принадлежность. Щелкаем по DataCenter и выбираем ссылку Add a host .

Появляется очередной визард, в первом окне, которого вводим имя или IP узла и логин/пассворд для управления, подключаемся, принимаем сертификат и получаем информацию о системе. Если требуется, мы можем здесь добавить лицензию и ввести данные об узле. Некоторое время придется подождать пока хост будет добавлен (процесс покажет статус-бар внизу окна).
Далее процесс практически аналогичен, выбираем хост, открываются рекомендации в Add a virtual machine (все рекомендации можно отключить в настройках). В окне Summary выводятся все данные по хосту, перейдя в окно Configuration получаем возможность изменить некоторые настройки — параметры сети (подключение VMotion, iSCSI, NFS и другие), виртуального свича и так далее. После добавления нескольких хостов станет доступна возможность создания кластера. Выбираем в контекстном меню пункт New Cluster, визард попросит ввести имя будущего кластера. При помощи чеккеров устанавливаем поддержку HA и DRS (Distributed Resource Scheduler). Технология DRS представляет собой простой балансировщик, который отслеживает и как можно равномерней распределяет ресурсы в VM (подробнее vmware.com/ru/products/vi/vc/drs_overview.html). Если он активирован, в дальнейшем мастер предложит выбрать один из вариантов миграции VM — Manual, Partially и Full automated, плюс указать метод миграции (от Conservative до Aggressive). Настраиваем управление питание (DPM), активируем мониторинг хостов, активация EVC (Enhanced VMotion Compatibility), место хранения свапфайла. К слову суть EVC очень проста. Как известно, процессоры бывают разные и гостевая ОС, установленная в системе может использовать разные фишки вроде SSE. Но что будет, если эту ОС взять и перенести при помощи VMotion в другую систему, в которой совсем другие технологии? Вот EVC и приводит все к единому знаменателю, просто отключая “лишнее”, в результате перенос VM проходит безболезненно. Доступно два варианта включения EVC — для AMD и Intel хостов. После выбора пунктов будет показан список совместимых процессоров. Хотя если в кластере все сервера одинаковы EVC можно совсем отключить.
Кластер создан, но хосты мы еще в него не добавили. Это очень просто, берем и тащим мышкой. Сразу же стартует новый мастер, в котором можно все оставить по умолчанию, жмем два раза Next и аналогично добавляем остальные хосты.
После всех операций становится доступным пункт Deploy OVF Template, позволяющий добавить шаблоны виртуальных машин в формате Open Virtualization Format как с локального диска так и через интернет. Такой образ можно создать, самостоятельно воспользовавшись VMware OVF Tool (можно найти на сайте поиском) или скачать в из интернет. Процесс добавления упрощает очередной мастер. Добавленую ОСь сразу же можно запустить и проверить в работе. Осталось распространить добавленные образы ОС на хосты, для выбираем в контекстном меню пункт Migrate и в окне мастера указываем хост на который его необходимо скопировать.
Учитывая, что облачные системы будут обслуживаться большим количеством админов с разными правами их нужно как то разделить по возможностям. В vSphere используется ролевая концепция, после установки в Administration — Roles доступно 9 шаблонов ролей позволяющих выбрать и за один клик назначить юзеру его права. Простой мастер дает возможность создать любое количество новых ролей.
В проделах одной статьи нельзя рассказать обо всех возможностях такого мощного продукта как vSphere, за рамками остались функции Fault Tolerance, Storage vMotion, горячее добавление устройств, управление ресурсами, мониторинг и многие другие вопросы.

Новая версия популярного продукта стала доступна в ноябре, в качестве хостовых операционных систем поддерживаются Windows и Linux. VMware Workstation 7 позиционируется, как персональная платформа виртуализации. Одной из причин такого позиционирования, служит то, что для запуска виртуальных машин используется персональный компьютер. Продукт включает в себя обширный набор дополнительных средств, позволяющих использовать различные сетевые настройки, запись и воспроизведение сессий виртуальных машин, осуществлять отладку приложений и многое другое. VMware Workstation 7 может использоваться совместно со средой разработки, что делает ее особенно популярной в среде разработчиков, преподавателей и специалистов технической поддержки.

Выход VMware Workstation 7 означает официальную поддержку Windows 7 как в качестве гостевой, так и хостовой операционной системы. Продукт включает поддержку Aero Peek и Flip 3D, что делает возможным наблюдать за работой виртуальной машины, подводя курсор к панели задач VMware или к соответствующей вкладке на рабочем столе хоста.

Новая версия может работать на любой версии Windows 7, также как и любые версии Windows могут быть запущены в виртуальных машинах. Кроме того, виртуальные машины в VMware Workstation 7 , полностью поддерживают Windows Display Driver Model (WDDM), что позволяет использовать интерфейс Windows Aero в гостевых машинах.

В VMware Workstation 7 значительно усилена поддержка 3D, поддерживается OpenGL 2.1, Shader Model 3.0, а также драйвер XPDM (SVGAII) для Windows XP, Windows Vista и Windows 7. Добавлена поддержка Windows XP Mode, что позволяет импортировать виртуальную машину Windows XP Mode с помощью VMware Workstation 7 и запустить ее, используя дополнительные возможности, такие как многопроцессорность, высококачественная графика и другие возможности VMware.

Поддержка новой операционной среды от Microsoft, это не все новшества в VMware Workstation 7 . Новые возможности включают в себя использование до четырех процессоров/ядер, 32 Гб оперативной памяти, возможность менять размер виртуальных дисков «на лету», функция Auto Protect позволяет создавать снапшоты через заданные интервалы времени. В VMware Workstation 7 появилась возможность приостановить работающую виртуальную машину, для срочного высвобождения системных ресурсов.

В случае обновление с VMware Workstation 6.5 до VMware Workstation 7 сохраняются все настройки виртуальных машин и приложений. Единственное, что необходимо сделать, это установить новые VMware Tools в виртуальные машины для возможности использования некоторых новых функций. К числу таких функций относится возможность установки принтера хоста или сетевого принтера без дополнительных драйверов, используя универсальный драйвер ThinPrint. Сам пакет VMware Tools теперь динамически обновляется.

Среди других особенностей VMware Workstation 7 можно выделить возможность шифрования виртуальных машин, а также возможность запуска в виртуальной машине без дополнительных настроек гипервизора VMware ESX 4.0. Что позволяет разработчикам и другим специалистам работать с гипервизором без использования дополнительных аппаратных средств. Разработчики получают усовершенствованные средства отладки, а также интеграцию с пакетом SpringSource Tools Suite для отладки Java-приложений.

В отличии от некоторых своих конкурентов, продукт VMware Workstation 7 не бесплатен, но возможности, которые представлены в продукте впечатляют! Конкурентные продукты не предлагают подобного разнообразия функций.

Можно с уверенностью сказать, что пользователи, использующие ранние версии VMware Workstation захотят обновиться сразу, а для тех, кто ищет персональную платформу виртуализации выбор очевиден - это VMware Workstation 7 .

На современном рынке софта существует огромное количество виртуальных машин (ВМ), но наш сегодняшний обзор посвящен VMWare Workstation. Это программа, предназначенная для одновременной установки и использования нескольких операционных системах с одного компьютера.

Как установить VMWare Workstation

Установка VMWare Workstation происходит абсолютно так же, как и любой другой программы. После того, как на вашем компьютере появится окно приложения, в левой его части вы увидите все имеющиеся в наличии виртуальные машины, а в правой - непосредственно рабочее окно, с помощью которого и осуществляется управление.

Особое внимание следует уделить созданию ВМ. В VMWare Workstation существует два способа: обычный и выборочный. После выбора типа конфигурации, нужно подобрать совместимые программы и саму операционную систему. Далее будет автоматически предложен список настроек.


Важно, что можно не только выбирать тип операционки, но и количество ядер, задействованных в работе. Но опытные пользователи советуют не тратить слишком много ресурсов на гостевую ОС. Повышенное потребление ресурсов только замедлит работу устройства, но никак не отразится на производительности гостевой операционки. При установке также предлагается выбрать количество оперативной памяти. Как правило, достаточно выбрать значение, предложенное системой автоматически, но настройку можно осуществлять и в ручном режиме.


Этапы настройки

После этого можно приступать к запуску. В процессе работы софт можно ставить на паузу, при этом все введенные настройки и параметры сохранятся. Для выключения достаточно нажать на соответствующую кнопку в рабочем окне. Важно, что рано или поздно работу виртуальной машины придется остановить, так как в ней будут скапливаться лишние файлы, замедляющие работу устройства.

Пользоваться ВМ можно даже после переустановки основной ОС. Для этого достаточно открыть рабочее окно и скопировать ее.

В целом, VMWare Workstation можно смело назвать полезным софтом. Эта программа обладает высокой функциональностью и простым интерфейсом, и позволяет проводить операции на разных операционках без негативных последствий для компьютера.

VMWare Workstation для Windows

Видеозапись демонстрации в хорошем качестве - 720p - все отчетливо видно. Для тех, кто не хочет смотреть видео - под катом расшифровка демонстрации и скриншоты.

Дисклеймеры:

1. Стенограмма с небольшой редактурой.
2. Просим помнить о разнице в письменной и устной речи.
3. Скриншоты в большом размере, иначе ничего не разобрать.

Коллеги, добрый день. Мы начинаем демонстрацию VMware NSX. Итак, что бы хотелось сегодня показать. Наша демо-инфраструктура развернута на базе нашего дистрибьютора MUK. Инфраструктура достаточно небольшая - это три сервера, серверы есть ESXI в 6-й версии апдейт 1 v-центр обновленный, то есть самое свежее, что мы можем предложить.

В этой структуре мы до использования NSX получили от сетевых инженеров MUK-а несколько VLan-ов, в которых можно было разместить серверный сегмент, видео-десктопы, сегмент, который имеет доступ в интернет, для того чтобы от видео-десктопа можно было получить доступ в интернет, ну и доступ к транзитным сетям для того, чтобы коллеги из MUK могли из внутренней своей сети подключаться, да? Любые операции, связанные, например, если я захочу для какого-то демо или какого-то пилота создать еще несколько каких-то там сетей порт-груп сделать более сложную конфигурацию, надо обратиться к коллегам из MUK, попросить, чтобы они на оборудовании что-то там наделали.
Если мне нужно взаимодействие между сегментами, то либо опять же договариваться с сетевиками, либо по-простому - маленькую машинку, роутер внутри, два интерфейса, туда-сюда, как все мы привыкли делать.

Соответственно использование NSX 10 преследует две цели: с одной стороны, это показать, как это работает не на виртуалках, на железе, да, что это реально работает и это удобно; второй момент, это действительно упростить определенные свои задачи. Соответственно, что мы видим в данный момент? В данный момент мы видим, какие виртуальные машины появились в этой инфраструктуре после того, как NSX был внедрен. Некоторые из них являются обязательными, без них нельзя. Некоторые появились вследствие определенного сетапа самой инфраструктуры.

Соответственно, обязательными являются NSX-менеджер - это основной сервер, через который мы можем взаимодействовать с NSX, он предоставляет веб-клиент V-центра свой графический интерфейс, он позволяет обращаться к нему через rest api для того, чтобы автоматизировать какие-то действия, которые можно делать с NSX либо какими-то скриптами, либо, например, из различных облачных порталов. Например, VMware vRealize Automation либо порталы других вендоров. Для работы технически NSX-у нужен кластер из NSX-контроллеров, то есть эти серверы выполняют служебную роль. Они определяют, они знают, да, они хранят в себе информацию о том, на каком физическом esxi-сервере, какие ip-адреса и mac-адреса в данный момент присутствуют, какие у нас новые сервера добавились, какие отвалились, распространяют эту информацию на esxi -сервера, то есть фактически, когда у нас есть созданный при помощи NSX, L2 сегмент, который должен быть доступен на нескольких esxi -серверах и виртуальная машина пытается отправить ip-пакет другой виртуальной машине в том же самом L2-сегменте, NSX-контроллеры точно знают, на какой хост на самом деле сетевой пакет нужно доставить. И они эту информацию регулярно хостам отдают. Каждый хост владеет таблицей, какие ip, какие mac-адреса на каких хостах находятся, какие реально, физически пакеты надо передавать.

Если мы откроем конфигурацию какого-либо хоста, то мы можем увидеть тот самый интерфейс, через который пакеты будут по сети передаваться. То есть у нас параметры VMkernel адаптера, данный хост будет, используя этот ip-адрес в сеть VXLan пакеты. Немножко у нас тут маленький монитор, поэтому приходится выкручиваться.

И мы видим, что отдельный TCP/IP stack используется для передачи этих пакетов, то есть может быть отдельный default gateway отличный от обычного VMkernel интерфейса. То есть с точки зрения физики: для того, чтобы в демо это развернуть, мне понадобился один VLan, в который я могу разместить эти интерфейсы; желательно - и я проверил, что этот VLan он не только на эти три сервера распространяется, он растянут немножко дальше, если появится там четвертый-пятый сервер, например, не в том же самом шасси, где эти лезвия стоят, а где-то отдельный, может быть, даже не в этом VLan-е, но который маршрутизируется сюда, я смогу добавить, например, четвертый сервер, который будет в другой сети, но они между собой смогут общаться, я смогу растянуть свои L2-сети, созданные при помощи NSX с этих трех серверов в том числе и на этот новый четвертый.

Ну и собственно теперь переходим к тому, как выглядит сам NSX, то есть: что мы можем с ним сделать мышкой и клавиатурой, да? Мы не говорим сейчас о rest api, когда мы хотим что-либо автоматизировать.

Раздел Installation (сейчас мы туда, я надеюсь, переключимся) позволяет нам посмотреть, кто у нас менеджер, сколько контроллеров, сами контроллеры разворачиваются отсюда. То есть менеджер мы скачиваем с сайта VMware, это template, мы его разворачиваем и внедряем в V-центр. Далее мы настраиваем менеджер, указываем ему логин-пароль для подключения к V-центр серверу, для того чтобы он смог зарегистрировать плагин здесь. После этого мы подключаемся к этому уже интерфейсу, говорим: «Надо внедрить контроллеры».

Минимально, если мы говорим, например, о каком-то тестовом стенде, контроллер может быть даже один, система будет работать, но это не рекомендуется. Рекомендуемая конфигурация - это три контроллера, желательно на разных серверах, на разных хранилках, для того, чтобы выход из строя какого-то компонента не мог привести к потере всех трех контроллеров сразу.

Также мы можем определить, какие хосты и какие кластеры под управлением этого V-центр сервера будут взаимодействовать с NSX. На самом деле, не обязательно вся инфраструктура под управлением одного V-центр сервера будет с этим работать, могут быть некие выборочные кластеры. Выбрав кластеры, мы должны выполнить установку на них дополнительных модулей, которые позволяют esxi серверу делать инкапсуляцию/декапсуляцию VXLan пакетов, делается это, опять же, из этого интерфейса. То есть не надо ходить в SSH, не надо никакие модули вручную копировать, отсюда нажали кнопку, отследили статус «получилось/не получилось».

Далее мы должны выбрать, собственно говоря, каким образом вот эта настройка VMkernel интерфейса будет происходить. То есть мы выбираем распределенный коммутатор, выбираем аплинки, то есть где это произойдет; выбираем параметры балансировки нагрузки, когда линков несколько, в зависимости от этого, когда у нас на один хост только один ip-адрес такого типа, иногда их может быть несколько. Сейчас мы используем в режиме по одному.

Далее мы должны выбрать идентификатор VXLan. То есть VXLan - это технология, напоминающая VLan, но это дополнительные метки, позволяющие в одном реальном сегменте изолировать разные виды трафика. Если VLan идентификаторов - их 4 тыс., VXLan идентификаторов- их 16 млн. Здесь мы фактически выбираем некий диапазон номеров VXLan сегментов, которые при автоматическом создании логических свичей, будут им присваиваться.

Как их выбирать? Собственно говоря, как хотите, из вот этого диапазона, если у вас большая инфраструктура и может быть несколько NSX внедрений так, чтобы они не пересекались. Просто-напросто. Собственно, так же, как и VLan. То есть я использую диапазон с 18001 по 18999.

Далее мы можем создать так называемую транспортную зону. Что такое транспортная зона? Если инфраструктура достаточно большая, представьте себе, у вас есть там порядка сотни esxi-серве ров, примерно по 10 серверов на кластер, у вас есть 10 кластеров. Мы можем не все из них задействовать для работы с NSX. Те из них, которые мы задействовали, мы можем использовать как одну инфраструктуру, а можем разбить, например, на несколько групп. Сказать, что у нас первые три кластера - это один островок, с четвертого по десятый - это некий другой островок. То есть, создав транспортные зоны, мы указываем, как далеко этот VXLan-сегмент может распространяться. У меня здесь три сервера, особо не разживешься, да? Поэтому здесь все по-простому. Просто все хосты у меня попадают в эту зону.

И еще один важный момент. При настройке зоны мы управляем, каким образом будет идти обмен информацией для поиска информации об ip-адресах, mac-адресах. Это может быть Unicast, это может быть Multycast уровня L2, это может быть Unicast, маршрутизируемый через уровень L3. Опять же, в зависимости от сетевой топологии.

Это такие некие предварительные вещи, то есть еще раз повторюсь: все, что потребовалось от сетевой инфраструктуры - это то, чтобы у меня все хосты, на которых должен работать NSX, могли взаимодействовать между собой по ip, используя, если нужно, в том числе и обычную маршрутизацию. И второй момент - это то, чтобы MTU вот в этом сегменте, где они взаимодействуют, был 1600 байт, а не 1500 - как это происходит обычно. Если же я не могу получить 1600 байт, поэтому мне просто придется во всех конструкциях, которые я создаю в NSX-е, явным образом прикручивать MTU, например в 1400, чтобы я в физическим транспорте в 1500 поместился.

Далее. Использую NSX, я могу создать логический коммутатор. Это проще всего в сравнении с традиционной сетью (VLan нарезать). Единственное что, как бы я не знаю, куда подключены мои физические серверы, да, здесь - это одни и те же коммутаторы. Теоретически сеть может быть более сложной. У вас может быть часть серверов подключена к одному коммутатору, часть к другому, где-то L2, где-то L3. В итоге, фактически создавая логический свитч, мы нарезаем VLan сразу на всех коммутаторах, через которые трафик будет ходить. Почему? Потому что на самом деле мы создаем VXLan, а реальный физический трафик, который будут видеть коммутаторы, - это трафик с ip-адреса на одного гипервизора на ip-адрес другого гипервизора, тип udp, внутри VXLan-содержимое.

То есть таким образом нарезка сетей происходит очень легко. Мы просто говорим: «Создать новый сегмент», выбираем тип транспорта unicast, выбираем, через какую транспортную зону, то есть фактически на каких esxi-кластерах этот сегмент будет доступен. Немножко ждем - и сейчас этот сегмент появится. На самом деле, что происходит, когда мы создаем эти сегменты? То есть, как подключить туда виртуальную машину? Для этого есть два варианта.

Вариант номер раз.

Мы прямо отсюда говорим, что подключить к физической сети виртуальную машину. И некоторые наши заказчики сказали: «О, это то, что хотят наши сетевики». Они идут в настройки сети, и говорит, вот у тебе вот, шнурок от машины, включая в порт логического коммутатора, да? И выбираем, здесь - машину, здесь, соответственно, интерфейс.

Либо второй вариант. На самом деле, при создании логического коммутатора NSX-менеджер обращается к V-центру сервера и создает порт-группу на распределенном коммутаторе. Поэтому на самом деле мы можем пойти просто в свойства виртуальной машины, выбрать нужную порт-группу, включить виртуальную машину туда. Поскольку имя генерируется программно, в нем будет включено имя этого логического коммутатора, номер VXLan-сегмента. То есть в принципе из обычного V-центр-клиента достаточно понятно, в камкой логический сегмент вы включите виртуальную машину.

Далее. Еще несколько машинок, которые были видны в самом начале, да? И вот, откуда они взялись. Некоторые функции NSX реализует напрямую на уровне модуля в ядре esxi-я. Это, например, маршрутизация между этими сегментами, это файервол при переходе между этими сегментами, либо даже внутри этого сегмента некоторые функции реализовываются при помощи дополнительных виртуальных машин. Так называемые EDGE gateways или дополнительные сервисы, когда они нужны. Что мы видим здесь? Мы видим, что в моей инфраструктуре их три, один из них называется NSX-dlr, dlr - это distributed logical router. Это служебная виртуальная машина, которая позволяет распределенному маршрутизатору в NSX-е работать, через нее не идет сетевой трафик, она не является дата-плэйном, но если у нас распределенный маршрутизатор участвует, например, в обмене маршрутами по протоколам динамической маршрутизации bgp, ospf, откуда-то эти все маршруты должны попадать, другие маршрутизаторы должны к кому-то обращаться и обмениваться этой информацией. Кто-то должен отвечать за статус «работает распределенный маршрутизатор или нет». То есть это фактически некий менеджмент-модуль распределенного маршрутизатора. При его настройке мы можем указать, что он должен работать надежно, соответственно, будет внедрено две виртуальных машины в HA-паре. Если одна почему-то стала недоступна, то на ее место будет работать вторая. Два других edge, которые имеют тип NSX edge, – это виртуальные машины, через которые роутится или натится трафик, который выходит во внешние сети, которые не управляются NSX-ом. В моем сценарии они используются для двух задач: NSX edge просто подключен ко внутренним сетям дата-центра MUK, то ест, например, мой V-центр – он как был на обычной стандартной порт-группе, он там и работает. Для того, чтобы я мог с какой-то виртуальной машиной на NSX logical свитче добежать до V-центра, мне нужен кто-то, кто их свяжет. Связывает их у меня вот эта виртуальная машина. У нее, действительно, один интерфейс подключен к логическому свитчу, другой интерфейс подключен к обычной порт-группе на standart свитче на esxi, который называется NSX Internet edge. Угадайте, чем отличается? Примерно то же самое, но порт-группа, к которой он подключит - та порт-группа, которая подключеня в DNZ-сеть, в которой работают честные белые интернет-адреса. То есть на нем сейчас, на одном из его интерфейсов, настроен белый ip-адрес и можно подключиться к этой демо-среде, используя уже NSX Networking. Соответственно дополнительные сервисы такие, как распределенная маршрутизация, мы настраиваем здесь в пункте фаервол, если же мы хотим делать фаерволинг, если мы хотим делать нат, если мы хотим делать log balancing либо, например, VPN, при внешнем подключении, для этого мы открываем свойства интернет edge.

Мы немножко закругляемся по времени, поэтому не покажу все, что хотел показать.
Соответственно, в свойствах edge мы можем управлять фаерволом, это фаервол, который будет применятся, когда трафик через эту виртуальную машину проходит, то есть это фактически некий наш периметр фаервол получается. Далее, на нем может быть dhсp-сервер, либо он может делать проброс как ip-helper, так как dhсp-helper. Он может делать NAT - то, что мне нужно здесь для edge, который смотрит одной стороной в честный Интернет, а другой во внутренние сети. На нем есть балансировщик нагрузки. Он может выступать в качестве точки для VPN тоннеля либо в качестве терминатора для клиентских подключений. Вот две закладки: VPN и VPN Plus. VPN - это сайт ту сайт, между edge и другим edge, между edge и нашим облаком, между edge и облаком провайдера, который использует наши технологии VCNS либо NSX. SSL VPN Plus - есть клиент для различных операционных систем, который можно поставить вам на свой ноутбук либо пользователя, они смогут к инфраструктуре подключиться к VPN.

Ну и буквально несколько последних моментов. Распределенный фаервол, то есть фаерволлинг, применяется на каждом хосте, в качестве правил мы можем указывать здесь ip-адреса, номера пакетов, номера портов, имя виртуальных машин, включая маски, например. Сделать правило, что со всех машин, имя которых начинается с up, разрешить ходить по 14:33 на все машины, имя которых начинается с db. разрешить трафик с машинки, которая в папочке V-центра одной, будет ходить в папочке другой, подключиться к active directory, сказать, что если у нас машина входит в определенную группу ad, тогда этот трафик разрешить, если не входит, то трафик запретить. Ну и различные другие варианты.

Плюс опять же, что делать с трафиком? Три действия: разрешить, запретить, отказать. Чем отличается запретить от отказать? И одно, и другое блокирует трафик. Но одно просто делает это тихонечко, а второе присылает обратно сообщение, что ваш трафик убили. И гораздо проще потом в диагностике.

И буквально важное дополнение в конце. То есть такой компонент как service composer. Здесь мы можем интегрировать NSX какими-то дополнительными модулями, например, это внешний балансировщик нагрузки, это антивирус, это какая-либо IDS/IPS-система. То есть мы их можем зарегистрировать. Мы можем увидеть здесь, какие конфиги есть, можем описать те самые секьюрити-группы. Например, группа demoUsers - это группа, включающая себя в машины, на которых залогонился пользователь из группы demoUsers. Что мы видим сейчас? Что сейчас в эту группу попадает одна виртуальная машина. Где она? Вот.

Виртуальный десктоп, пользователь туда подключен. Я могу сделать правило в фаерволе, в котором сказать, что разрешить пользователям одной группы доступ к одним файловым серверам, а пользователям другой группы разрешить доступ к другим файловым серверам. И даже если это два пользователя, которые заходят на один и тот же, например, VDI десктоп, но в разное время, фаервол динамически будет применять разные политики к разным пользователям. Таким образом можно гораздо более гибкую инфраструктуру построить. Нет необходимости выделять отдельные какие-то сетевые сегменты, отдельные машины для разных типов пользователей. То есть сетевые политики могут динамически перенастраиваться в зависимости от того, кто сейчас сетью пользуется.

Дистрибуция решений VMware в