ESXi – bonlesave.ru https://bonlesave.ru Записки о виртуализации и о жизни Fri, 15 Jun 2018 08:50:26 +0000 en-US hourly 1 https://wordpress.org/?v=6.8.3 Фильтры, задания и снимки в VMware vSphere 6.7 https://bonlesave.ru/2018/06/15/filtry-zadaniya-i-snimki-v-vmware-vsphere-6-7/ https://bonlesave.ru/2018/06/15/filtry-zadaniya-i-snimki-v-vmware-vsphere-6-7/#comments Fri, 15 Jun 2018 08:50:26 +0000 https://bonlesave.ru/?p=7880 Continue reading "Фильтры, задания и снимки в VMware vSphere 6.7"]]> Многие читатели бложика, наверное, заметили, что мы проигнорировали VMware vSphere 6.5 ;). Одна из ключевых причин – отсутствие C# (толстого) клиента для управления средой виртуализации.

По причине перехода на VMware vSphere 6.7 приходится сравнивать 4 (четыре) клиента:

  1. vSphere Client (C#) – классика жанра, очень быстр, отображение состояния инфраструктуры близко к реальному времени при многопользовательской работе. Подключение к хосту и vCenter.
  2. ESXi Embedded Host Client – хостовый встроенный клиент, из полезного – умеет читать логи ВМ, не требует установки.
  3. vSphere HTML5 Web Client – перспективный клиент, очень много радости у людей с нелюбовью к Adobe Flash, но допилить никак не могут. Оценить задержки по времени от реального состояния инфраструктуры затрудняюсь – без кнопки Обновить при одновременной работе нескольких админов не обойтись, в IE работает с тормозами.
  4. vSphere Web Client (Flex) – вот из-за него-то и не стали переходить на 6.5 после реализации 6.0, а VMware его пилили-пилили, местами допилили. Есть задержки от реального времени, но есть Live Refresh и интервалы обновлений можно уменьшить до 10 секунд.

Неожиданно для себя нахожу полезняшки в vSphere Web Client, коими и спешу поделиться.

Назначенные задания и перезагрузка виртуальных машин

Первая проблема в vSphere Web Client – это найти Scheduled Tasks :).

С версии 6.5 встаем на vCenter-> Monitor->Tasks & Events -> Scheduled Tasks (В 6.0 это было Manage, который с 6.7 стал Configure, но там нужного нам нет):


Назначать же задания необходимо для каждой ВМ персонально – с версии 6.5 встаем на VM-> Monitor->Tasks & Events -> Scheduled Tasks -> Scheduled a New Task.  В отличии от толстого клиента есть поддержка Restart Guest OS (в 6.0 тоже есть):
Также можно перейти к созданию задания по правой кнопке мыши и зажатию Ctrl – возможные к планированию операции подсвечены пиктограммой часов:
Фильтры

Теперь очень просто найти виртуальные машины со снимками – достаточно выставить фильтр Has Snapshot -> Yes (в 6.0 такого нет):Панель снимков

В 6.7 порадовала панель снимков с отображением в виде дерева и эскизов. Если заморочиться, то в mspaint можно каждый снимок визуализировать:

]]>
https://bonlesave.ru/2018/06/15/filtry-zadaniya-i-snimki-v-vmware-vsphere-6-7/feed/ 13
vSphere – эволюция https://bonlesave.ru/2014/02/06/vsphere-evolution/ https://bonlesave.ru/2014/02/06/vsphere-evolution/#comments Thu, 06 Feb 2014 08:50:53 +0000 https://bonlesave.ru/?p=5784 Continue reading "vSphere – эволюция"]]> С виртуализацией я плотно общаюсь с середины 2007 года. Начинал я общение еще с VMware Virtual Infrastructure 3.5, после которой и появилось модное словцо “vSphere”.

Иногда мне приходится отвечать на вопрос, в чем различие разных версий vSphere. Попробую дать ответ ниже и описать появление функционала в различных версиях…

Если можете поведать еще о каких-то интересных фичах, не вошедших в этот обзор – пишите в комментариях со ссылками – обязательно добавлю…

vSphere 4.0 (раз, два)

Управляемость.

  • Появилась новая версия продукта управления виртуальной инфраструктурой – VMware vCenter 4.0. Он круче, более масштабируемый и обладает крутым интерфейсом (Но за все нужно платить, он требует для себя больше ОЗУ, чем предыдущий vCenter 2.5). Кроме того, можно объединить в единую логическую структуру несколько vCenter Server с помощью технологии Linked Mode. В этой единой структуре проще управлять лицензиями и ролями виртуальной инфраструктуры;
  • Появился функционал Host Profiles, позволяющий стандартизировать настройку хостов ESX/ESXi;
  • Появился объект vApps, позволяющий управлять многоуровневыми приложениями за счет группировки в себе нескольких ВМ;
  • Было централизовано лицензирование vSphere 4.0 (произведен отказ от файлов лицензий). Все лицензии (тип продукта и количество) обозначаются 25-символьным ключом;
  • Расширился функционал событий и оповещений. Появилась возможность фильтрации в vSphere Client событий от конкретного хоста;
  • Появилась возможность раздавать детализированные разрешения на доступ к хранилищам и сетям (порт-группам стандартного и распределенного коммутатора);
  • Появилось централизованное управление хранилищами через представление Datastores;
  • Появился vSphere Command Line Interface “vi-*”, совместимый с предыдущим VMware Infrastructure 3.5 Update 2 и выше. Появилась предустановленая виртуальная машина vMA, содержащая в себе vCLI и syslog-демона;
  • Продолжилось развитие vSphere Host Update Utility;
  • Улучшился компонент Guided Consolidations;
  • Появилось представление со статусом служб vCenter Server;
  • Появился vCenter Orchestrator, позволяющий автоматизировать рутинные операции;
  • Произошел переход на 64-битные версии VMKernel и сервисной консоли ESX;
  • Появилась поддержка технологий Intel SpeedStep и AMD PowerNow! для снижения энергопотребления ненагруженных серверов;
  • Появилась поддержка IPMI и HP iLO в Dynamic Power Management. Ранее поддерживался только WoL;
  • Включена поддержка новых ОС, а также возможность их кастомизации (sysprep или его аналог для линукс);
  • Добавлен мониторинг хостов ESXi посредством CIM-модулей и отслеживание событий от модулей через vCenter. Ранее этот функционал был реализован только в ESX за счет установки дополнительных пакетов управления.

Доступность.

  • Появилась отказоустойчивость Fault Tolerance, обеспечивающая нулевой простой при сбое железного сервера. Одно из главных ограничений – 1 vCPU в защищаемой виртуальной машине (не устранено и по сей день);
  • Появилось “бесплатное” решение для резервного копирования виртуальных машин – VMware Data Recovery;
  • Появился механизм EVC (Enhanced vMotion Compatibility), позволяющий осуществлять миграцию между хостами с разными поколениями ЦП;
  • Был улучшен механизм HA Admission Control, появился режим обслуживания HA (HA Maintenance Mode);
  • Была заявлена поддержка Windows 2000/2003 MSCS (кластеров) и Windows 2008 Failover Clustering (а вот этого в VI3,5 не было). В vSphere 4.0 Update 1 была заявлена поддержка MSCS/FC в кластерах VMware HA/DRS с ограниченным функционалом (в основном, ограничения касаются запрета на живую миграцию – vMotion).

Безопасность.

  • Появился брандмауэр VMware vShield Zones с централизованным управлением;
  • Появилась технология VMSafe, позволяющая централизовано защищать виртуальные машины с помощью антивирусных решений партнеров VMware. Справедливости ради можно заметить, что нормально работающие решения появились спустя несколько лет после появления этой технологии;
  • Появилась защита кода VMKernel за счет поддержки TPM (Trusted Platform Module), использования динамической адресации, цифровой подписи драйверов и компонент. Также стала использоваться проверка четности при работе с памятью.

Масштабируемость и производительность.

  • Один сервер vCenter теперь поддерживает до 300 хостов и 3000 виртуальных машин. В режиме Linked Mode – в единой консоли можно видеть до 10000 ВМ;
  • Поддерживаются хосты с 64 логическими процессорами, с 320 ВМ и до 512 vCPU на хост. Поддерживается до 1Тб ОЗУ;
  • Появилась поддержка 8-процессорных виртуальных машин (VM Hardware version 7). Предыдущая версия – VM Hardware version 4 поддерживала только 4-х процессорные виртуальные машины. Справедливости ради отмечу, что максимальное количество vCPU было (и сейчас) доступно только на максимальной лицензии – vSphere Enterprise Plus. Появилась возможность предоставить ВМ до 255ГБ ОЗУ;
  • Появилась функция Hot Add (горячее добавление различных устройств, а также ЦП/ОЗУ) для виртуальных машин;
  • Появилась новое оборудование (SAS-контроллер для создания кластеров на Windows 2008, PVSCSI-адаптер для дисков, производительный сетевой адаптер VMXNET3). Подробнее о PVSCSI и VMXNET3 читайте в разделах СХД и сети;
  • Появился функционал VMDirectPath – для прямого проброса в ВМ каких-либо устройств. Изначально этот функционал предназначался для проброса в ВМ LAN/FC-адаптеров, чтобы иметь быстрый ввод/вывод, но появление паравиртуального SCSI-контроллера и VMXNET3 свело на нет преимущества VMDirectPath по производительности;
  • Улучшения в графиках производительности. Появились общие графики, показывающие загрузку основных ресурсов vSphere. Появились Storage Views и постройка топологии инфраструктуры;
  • При установленных VMware Tools появилась интеграция счетчиков виртуального ЦП и ОЗУ внутри виртуальной машины с ОС Windows;
  • Появилась детальная статистика по ЦП/ОЗУ для кластеров и пулов ресурсов;
  • Переработан механизм планировщика, повысивший производительность многопроцессорных ВМ. До vSphere 4.0 существовала жесткая рекомендация – чем меньше vCPU, тем лучше;
  • Появилась поддержка аппаратной виртуализации памяти;
  • Оптимизация сетевого стека позволила повысить пропускную способность сети. Также было снижено время, затрачиваемое на vMotion и Storage vMotion, особенно для нагруженных ВМ. Управление Storage vMotion встроили в vClient, миграция стала работать между всеми видами СХД (iSCSI/NFS/FC);
  • Появился интерфейс высокоскоростной связи между ВМ – VMCI. Вроде не используется в связи с поддержкой сетевым адаптером VMXNET3 скоростей 10Гбит/с, а на практике даже превышающих этот порог.

СХД.

  • Появилась возможность использования тонких дисков в “продуктиве”, а также появились оповещения vCenter относительно их использования;
  • Появился паравиртуализованный SCSI-контроллер (PVSCSI) для высоконагруженных ВМ. Данный контроллер оптимизирован для активного ввода/вывода, позволяя пропустить больший объем данных, создав при этом минимальную нагрузку на процессор хоста (в сравнении с LSI-адаптером);
  • Появилась возможность увеличить VMFS-раздел на горячую (хотя в букварике дословно написано “сделайте бэкап и производите увеличение тома в момент низкой нагрузки на СХД”);
  • Был переработан механизм доступа к данным и внедрена принципиально новая архитектура PSA (Pluggable Storage Architecture). Кроме прочего это позволило вендорам разрабатывать свои плагины для vSphere, позволяющие прыгать дальше и выше;
  • Добавлена поддержка Jumbo Frames для NFS и software iSCSI-адаптера;
  • Появилась поддержка ограниченного списка аппаратных FCoE-адаптеров;
  • Появилась возможность легкого монтирования снапшотов VMFS с различными вариантами (со сменой сигнатуры или без смены);
  • Оптимизация как программного, так и аппаратного iSCSI, позволила повысить производительность и значительно снизить нагрузку на ЦП хоста в случае использования программного iSCSI. Нагрузка на ЦП сравнялась с таковой при использовании NFS;
  • Один хост стал поддерживать до 64 NFS-разделов;
  • Заявлена поддержка Native SATA для VMFS;
  • В vSphere 4.0 U2 изменен механизм удаления снапшотов при нажатии кнопки “Delete all snapshots”. До этой версии выполнение такой функции не рекомендовалось!

Сеть.

  • Появился распределенный коммутатор. Также в нем появились PVLAN, Network vMotion и 3rd party DVS Support (Cisco Nexus 1000v etc);
  • Появился сетевой адаптер VMXNET3 (поддержка MSI/MSI-X, если поддерживается гостевой ОС; Receive Side Scaling; IPv6 checksum и TCP Segmentation Offloading (TSO) over IPv6; VLAN off-loading; Large TX/RX ring sizes);
  • Заявлена поддержка IPv6 для VMKernel, сервисной консоли и vCenter Server.

vSphere 4.1 (раз, два, ).

Управляемость.

  • Поддерживается загрузка с СХД для ESXi;
  • Появилась возможность использовать файлы ответов при установке ESX(i);
  • Появилась поддержка Hyper-V в vCenter Converter – VCenter Converter позволяет пользователям указать на хост Hyper-V. Конвертер отобразит виртуальные машины, работающие на Hyper-V, пользователи смогут выбрать выключенные ВМ для импорта в VMware;
  • Внесены улучшения в Host Profiles – новые Host Profiles позволяют соблюдать требования по смене пароля администратора. Кроме того, нововведения касаются Cisco Nexus 1000v и нумерации PCI-устройств;
  • Добавлена интеграция ESX(i) с Active Directory – теперь хосты можно добавлять в домен и администрировать с помощью доменных учетных записей (членов группы ESX Admins). Также AD поддерживается и в vMA 4.1;
  • Добавлены новые процессы для vCenter Orchestrator;
  • Улучшено управление перевыпущенными патчами в Update Manager – теперь Update Manager отправляет оповещения о таких патчах, выводит список хостов, где они установлены и не даст установить старый патч;
  • vCenter Update Manager поддерживает установку, внесение исправлений и обновление сторонних модулей;
  • Появились правила зависимости между ВМ на хосте в DRS (Host affinity rule) – можно запретить DRS размещать ВМ на определенном наборе хостов. Это может понадобиться для соответствия политикам лицензирования или требованиям доступности;
  • Появилась полная поддержка Tech Support Mode (локально и по SSH). Активность в Tech Support Mode посылается в Syslog. Вход в консоль и Tech Support Mode настраивается через vCenter;
  • Появилась блокировка хоста ESXi – Lockdown mode;
  • Улучшен механизм работы DPM (добавлен планировщик и автоматическое включение Standby-хостов при выключении DPM);
  • vCenter 4.1 стал 64-битным;
  • Улучшение работы Update Manager для отключения различных опций кластеров.

Доступность.

  • Теперь HA постоянно отслеживает свой статус. В случае каких-то проблем можно настроить оповещение на изменение этого статуса;
  • На вкладке Summary HA-кластера появилась ссылка на Cluster Operational Status, в котором имеется более подробная информация о текущих статусах и ошибках хостов кластера;
  • Улучшения в FT – ВМ с FT полностью совместимы с DRS-кластером с включенным EVC. Теперь DRS может располагать первичные машины и “балансировать” как первичные, так и вторичные машины в FT. Механизм контроля версионности FT осуществляет проверку совместимости хостов, благодаря чему отпало требование совпадающих сборок ESX(i). vSphere 4.1 отличает события, которые генерирует первичная машина, от событий вторичной, а также может выдать отчет, почему хост не поддерживает FT. И наконец, вы можете отключить VMware HA на кластере, в котором развернуты машинки с FT;
  • Поддерживается несколько одновременных сессий для управления VMware Data Recovery Appliance;
  • Сделаны улучшения в EVC – третье поколение AMD Opteron работает в режиме EVC без технологии 3DNow!™, что позволяет создать кластер, который будет совместим с новыми версиями процессоров AMD. Также улучшения в EVC коснулись указания режима EVC, более детализированных ошибок и снижения требования к перезагрузке ВМ;
  • Появился интерфейс vStorage API for Data Protection и функционал Change Block Tracking для более быстрого резервирования/восстановления ВМ;
  • HA научился работать совместно с DRS – теперь при нехватке ресурсов на хостах для перезапуска ВМ с резервациями DRS попытается сложить “пазл” и высвободить требуемое место;

Масштабируемость и производительность.

  • В vSphere 4.1 Update 1 на один хост доступно до 160 логических процессоров;
  • В кластере может быть до 3000 ВМ (было 1280). Один vCenter может управлять 1000 хостов (ранее 300). Запущенных ВМ (включая таковые с других vCenter в единой группе Linked Mode) до 10000.
  • Сжатие памяти – новый уровень в иерархии экономии ОЗУ (Memory Overcommitment), находящийся между ОЗУ и жестким диском. Данная технология позволяет архивировать некоторый объем ОЗУ ВМ и помещать его в выделенный буфер этой ВМ;
  • Улучшения в vMotion позволили значительно быстрее совершить перенос ВМ между хостами. Скорость переноса одной ВМ увеличилась до восьми раз, при переносе нескольких ВМ возможно мигрировать четыре или восемь ВМ одновременно (при скорости сети – 1ГБ/сек или 10ГБ/сек соответственно);
  • Заявлена поддержка Fiber Channel 8Gbit/s;
  • Реализован проброс USB с хоста внутрь ВМ. Естественно, ВМ нельзя мигрировать с этого хоста. В ВМ можно прокинуть до 20 устройств;
  • Пользователь может задавать количество ядер на процессор ВМ через редактирование файла конфигурации. В vSphere 4.0 это количество было ограничено одним ядром (по крайней мере официально).

СХД.

  • Появился функционал Storage I/O Control, позволяющий ограничивать количество дисковых операций отдельной ВМ, а также раздавать приоритет (shares) на использование СХД;
  • Появилась более детальная статистика по пропускной способности и задержкам в среде SAN, хранилищам и VMDK. Появилась статистика по NFS. Все виды статистик доступны через vClient, (r)Esxtop, SDK;
  • Появились программные интерфейсы vStorage API for Array Integration (VAAI) и vStorage API for Storage Awareness для лучшей интеграции с железными СХД.

Сеть

  • Появился функционал Network I/O Control (как надстройка над распределенным коммутатором), позволяющий гранулировано раздавать пропускную полосу сети различным видам трафика;
  • Сделаны улучшения в IPv6 – теперь поддерживается Internet Protocol Security (IPsec) и Internet Key Exchange (IKEv2);
  • В распределенном коммутаторе появился новый тип балансировки – “Physical NIC Load”;
  • Виртуальный распределенный коммутатор (vDS) масштабируется до 350 хостов на один коммутатор (ранее 64 хоста).

vSphere 5.0 (раз)

Управляемость.

  • vSphere 5.0 – первый релиз, где отказались от “толстого” гипервизора ESX. Отныне – только ESXi;
  • Появился VMware Auto Deploy, позволяющий автоматизировано разворачивать и встраивать в инфраструктуру сервера ESXi;
  • Появился новый унифицированный стек командной строки ESXCLI;
  • vSphere 5.0 умеет отправлять CIM-события в SNMP-trap;
  • Появился механизм Image Builder, позволяющий создавать кастомизированные сборки инсталлятора, содержащие не только дополнительные драйвера, но и пакеты;
  • Появился функционал файлов ответов, позволяющий использовать Host Profiles в полностью автоматизированном окружении. Также расширен список настроек Host Profiles;
  • Появился vSphere Web Client, позволяющий выполнять задачи, связанные и обслуживанием и использованием ВМ;
  • Появился vCenter Virtual Appliance, являющийся альтернативой для Windows-реализации vCenter;
  • Все журналы теперь поддерживают отправку на удаленный syslog-сервер;
  • Появилась служба vCenter Inventory, предназначенная для хранения тэгов к любым объектам виртуальной инфраструктуры;
  • Хост может отправлять свой дамп по сети. Работает, если управляющие интерфейсы хоста находятся на стандартном коммутаторе;

Доступность.

  • Изоляция сбойной ОЗУ – на поддерживаемых серверах vSphere может исключать из использования ОЗУ с большим количеством корректируемых ошибок. При появлении невосстановимой ошибки ВМ, та будет перезагружена. Хост зависает только в случае попадания ошибки в область памяти гипервизора;
  • Разработан новый HA-агент, обладающий принципиально новыми возможностями. Исключено узкое место с “Primary hosts”, исключена зависимость от DNS, добавлена возможность резервной коммуникации через хранилища. Поддерживается работа этого агента с хостами vSphere 4.x и VI 3.5 Update2++;
  • Появилось средство резервного копирования VMware Data Recovery 2.0;

Масштабируемость и производительность.

  • vSphere 5.0 – первый дистрибутив, поддерживающий установку в ВМ Windows 2012 /2012R2. Механизмы запуска этой ОС на vSphere 4.1 существуют, но тривиальными их не назвать;
  • Появилась новая версия виртуального железа – v8. В данной версии поддерживается до 32 vCPU (причем до 8 vCPU даже в базовых редакциях);
  • Также поддерживается до 1Тб виртуальной ОЗУ. Появилась программная поддержка 3D для работы Windows Aero;
  • Появилась поддержка USB 3.0, а также возможность подключать такие устройства через vSphere Client/Web Client. Имеется поддержка устройств для чтения смарт-карт, причем их можно одновременно подключать к разным машинам;
  • Появилась возможность вместо BIOS использовать UEFI;
  • Из графического интерфейса стало возможно создавать vCPU с несколькими ядрами. Ранее такой функционал был доступен только через редактирование VMX-файла;
  • VMware Tools от vSphere 4.x поддерживаются на хостах с vSphere 5.0. ВМ с VMware Tools от vSphere 5.0 могут работать на vSphere 4.x;
  • На одном хосте можно запустить до 512ВМ, максимум 2048 vCPU;
  • Поддерживаются сервера с 160 логическими процессорами и 2Тб ОЗУ;
  • Появился функционал Host Swap, позволяющий складывать своп-файлы ВМ на локальное SSD-хранилище хоста ;

СХД.

  • Один хост стал поддерживать до 256 NFS-хранилищ;
  • Появился механизм балансировки нагрузки на СХД – Storage DRS;
  • Появился механизм привязки профилей к СХД, чтобы облегчить управление множеством хранилищ. Также возможна привязка этого механизма к vSphere API Storage Awareness для автоматизированного получения характеристик хранилищ, также есть механизм назначения ручных тэгов (характеристик);
  • Появилась новая файловая система – VMFS5. Поддерживает LUN большего размера (до 64Тб), поддерживаются physical RDM такого же (до 64Тб) размера, большее количество файлов;
  • Появился графический интерфейс для привязки сетевых адаптеров к vmkernel-интерфейсам при использовании iSCSI;
  • Появилась поддержка Storage I/O Control для NFS;
  • Появилась поддержка тонких LUN с помощью VAAI: Thin Provisioning;
  • Был переработан механизм Storage vMotion, теперь стало возможно мигрировать ВМ со снапшотами;
  • Появился программный FCoE-инициатор. Требует поддержки в сетевом адаптере;
  • При сбоях с удалением снапшота появилась операция Snapshot Commitment;

Сеть.

  • Появился функционал SplitRX, призванный повысить производительность мультикаст-трафика;
  • Расширился функционал Network I/O Control, позволяющий внедрять пользовательские пулы сетей, а также интегрировать QoS с физической инфраструктурой;
  • Расширился функционал распределенного коммутатора за счет функционала Netflow, Port Mirroring, LLDP;
  • Появился функционал Metro vMotion, позволяющий осуществить живую миграцию при сетевой задержке до 10 мсек (ранее было <5мсек);
  • vMotion для миграции может использовать несколько физических адаптеров одновременно. Это достигается наличием нескольких VMKernel-интерфейсов;
  • vCloud&vSphere представляют механизм WXLAN, позволяющий развертывать абстракцию layer-2 сети поверх маршрутизируемых сетей в разных ЦОД;

Безопасность.

  • Сервер поддерживает интеграцию с технологией Intel Trusted Execution Technology (TPM/TXT);
  • Драйвера и библиотеки располагаются в случайных областях памяти. Добавлена цифровая подпись к модулям и драйверам, загружаемым в VMKernel;
  • На ESXi хостах появился брандмауэр;
  • Появилась возможность указать название группы, которая будет администратором хоста после добавления в домен;

vSphere 5.1 (раз)

Управляемость.

  • Появилась интеграция Storage DRS и Profile-Driven Storage с vCloud Director;
  • Появился Operations Manager, позволяющий осуществлять мониторинг за виртуальной средой;
  • Теперь vSphere Web Client является основным средством администрирования виртуальной инфраструктуры. “Толстый” клиент остался для обеспечения совместимости с ранее написанными плагинами. Веб-клиент оптимизирован и запрашивает только ту информацию, что отражается на экране в настоящий момент;
  • Появился компонент vCenter Single Sign-On, направленный снизить издержки на администрирование (по факту, одно из самых отстойных нововведений на мой взгляд);
  • Web Client обрел совместимость с vCenter Orchestrator;
  • Переработанная служба vCenter Inventory научилась кэшировать запросы. Кроме того, появилась возможность установки этой службы на отдельный сервер, поближе к веб-клиенту. Тэги этой службы позволяют группировать объекты самым различным образом;
  • Хост может отправлять свой дамп по сети. Работает на обоих типах коммутаторов (vSS, vDS);
  • Появилась поддержка SNMPv3 для мониторинга. Компонент SNMP был выгружен из vmkernel в отдельный модуль;
  • Произведено изменение версий виртуального железа на версию совместимости с vSphere (для большей понятности);
  • AutoDeploy поддерживает два дополнительных режима: Stateless caching и Statefull Installs;

Доступность.

  • Появился продукт резервного копирования VMware Data Protection, основанный на EMC Avamar;
  • Появился функционал репликации ВМ через локальную сеть между абсолютно любыми хранилищами;
  • После обновления до VMware Tools 5.1 количество перезагрузок при обновлении утилит снижено;

Масштабируемость и производительность.

  • Появилась девятая версия виртуального железа. Поддерживается до 64 vCPU. Добавлено ускорение 3D графики с помощью vGPU (только для VMware View);
  • Появился функционал Guest Storage Storage Reclamation;
  • Появился функционал Virtualized Hardware Virtualization, позволяющий пробрасывать внутрь ВМ почти все функции ЦП и запускать внутри ВМ Hyper-V (например);
  • Появилась поддержка до 300 одновременных сессий веб-клиента;
  • Возможность выгружать в своп фоновые процессы, снижая тем самым использование ОЗУ хоста оверхедом виртуальных машин. Позволяет высвободить до 1 Гб ОЗУ при нехватке;
  • В DRS появились дополнительные параметры, например, LimitVMsPerESXhost, позволяющий указать максимальное количество ВМ на хосте;

СХД.

  • Количество хостов, читающих файлы на VMFS в режиме read-only (например, для “золотого” образа VMware View) увеличилось до 32 (ранее было 8);
  • Добавлена загрузка с программного FCoE;
  • Поддерживаются FC 16Gbit HBA (но подключение хост-коммутатор-СХД на такой скорости поддерживается только в vSphere 5.5);
  • Добавлен мониторинг SSD;
  • Storage I/O Control научился сам вычислять пороговое значение для “тормозов” хранилища. Также стала доступна суммарная статистика хранилища в режиме работы SIOC “stats only”;
  • Добавлено определение связанности двух хранилищ при их нахождении на одном наборе дисков. В vSphere 5.0 это определялось с помощью VASA, в 5.1 – с помощью наблюдений за нагрузкой;
  • Использование в Storage DRS новой метрики VMObservedLatency, измеряющей задержку от отправки команды к VMKernel до получения ответа от хранилища;
  • Storage vMotion может осуществлять одновременную миграцию до 4х VMDK-дисков;
  • Произведена оптимизация iSCSI&Jumbo frames, позволившая добиться увеличения скорости чтения на HWiSCSI на 88% (остальные цифры скромнее);

Сеть.

  • Улучшения в распределенном коммутаторе, позволяющие осуществлять проверку конфигурации (health check), бэкап/восстановление конфигурации, откат (Rollback), поддержка LACP;
  • Поддержка SR-IOV;
  • Появилась возможность осуществлять vMotion без общего хранилища;
  • Появилась возможность блокировки BPDU-пакетов, отправляемых ВМ. Это необходимо, чтобы скомпрометированные ВМ не осуществили атаку DoS;
  • Увеличено количество распределенных коммутаторов на vCenter, портгрупп стандартного и распределенного коммутаторов, а также количество хостов в распределенном коммутаторе;
  • Появилась настройка “Latency Sensivity”, позволяющая снизить задержку ВМ по сети;

Безопасность.

  • Появился vSphield Endpoint API, позволяющий отказаться от антивирусных агентов внутри ВМ;
  • Локальные пользователи с правами администратора автоматически получают shell-права на хосте. Это убирает необходимость в root’е;
  • Административные права у root можно забрать, можно ограничить открытые сессии тайм-аутом;
  • Логируется не только локальная консоль, но и действия в DCUI-интерфейсе;

vSphere 5.5 (раз)

Доступность.

  • ESXi поддерживает технологию “reliable memory”. Теперь, если оборудование поддерживает эту технологию, гипервизор будет располагаться в тех областях памяти, которые считаются наиболее надежными;
  • С помощью дополнительных агентов на хосте появилась возможность защищать приложения с помощью High Availability;
  • HA научился смотреть на правила DRS VM affinity (находиться вместе на хосте или наоборот, никогда не собираться вместе) и при перезапуске ВМ учитывает эти правила;
  • vSphere Data Protection был модернизирован (репликация на EMC Avamar, Emergency-восстановление, бэкап отдельных VMDK, продвинутый планировщик);

Масштабируемость и производительность.

  • Вдвое увеличены лимиты хоста – до 320 логических процессоров и до 4 Тб ОЗУ (до 6 Тб в Update 2);
  • Поддержка подключения SSD “на горячую”;
  • Встроенная база в vCVA теперь поддерживает до 100 хостов и до 3000 ВМ;
  • В vSphere 5.1 при использовании сбалансированной политики электропитания для экономии электричества использовалось P-State, отличающееся пониженным энергопотреблением. В vSphere 5.5 эта политика также использует C-state состояния, отличающиеся еще большим энергосбережением;
  • Добавлен новый уровень виртуального железа (aka VMHardware v10), позволяющий обеспечить поддержку LSI SAS для Oracle Solaris 11, поддерживающий новые процессоры, контроллер AHCI. Увеличилось количество устройств на один SCSI-контроллер до 30 (всего до 120);
  • Расширена поддержка 3D-устройств в виртуальной среде;
  • Модернизирован механизм Single Sign-On, убрана необходимость во внешней SQL-базе;
  • В веб-клиенте появился функционал Drag’n’Drop, фильтрация объектов, возможность доступа к “последним” редактируемым объектам;
  • Появилась поддержка развертывания и управления Hadoop-кластерами (Big Data Extensions) из веб-клиента;
  • Появился механизм кэширования СХД на локальных SSD-дисках – vSphere Flash Read Cache;
  • Появились дополнительные параметры DRS, например, AggressiveCPUActive. Параметр позволяет выловить пики загрузки хоста, укладывающиеся в 5-минутный интервал проверки хостов;
  • Появились дополнительные параметры DPM, например, MinPoweredOnCpuCapacity и MinPoweredOnMemCapacity.

СХД.

  • Появилась поддержка больших VMDK-файлов – до 62Тб;
  • Расширена поддержка кластеров до Windows 2012, политики балансировки Round Robin, в качестве общего хранилища поддерживаются iSCSI и FCoE (дополнительно к ранее поддерживавшемуся FC);
  • Полностью поддерживается протокол FC 16Gbit от HBA до СХД;
  • Добавлена опция PDL auto remove, позволяющая автоматически убирать с хостов более несуществующие устройства;
  • Репликация ВМ нормально интегрировалась с vMotion/Storage vMotion (ранее после Storage vMotion требовалось полностью пересинхронизировать ВМ);
  • Оптимизация Heap-пространства для снижения использования ОЗУ;
  • Появился vSphere Virtual SAN (распределенное хранилище до 8 хостов);

Сеть.

  • Произведена оптимизация LACP (больше групп, больше алгоритмов работы);
  • Появилась возможность фильтрации трафика на основе ACL (MAC, IP, port, тип трафика) на распределенном коммутаторе;
  • Дополнительно к поддержке QoS на уровне сети появилась поддержка DSCP (управление качеством на уровне IP-пакетов);
  • Произведена некоторая оптимизация SR-IOV;
  • Добавлена утилита перехвата трафика на хосте (аналог tcpdump в ESX);
  • Поддерживаются сетевые адаптеры 40GBit/s;
  • Распределенный коммутатор поддерживает авторасширение количества портов. В 5.1 на хост приходилось до 4096 портов (и ограничение примерно в 400ВМ на хост);
]]>
https://bonlesave.ru/2014/02/06/vsphere-evolution/feed/ 1
Обновление хостов с vSphere 4.1 до vSphere 5.1 и миграция с распределенного коммутатора на стандартный https://bonlesave.ru/2013/03/21/update-esx4-1-vsphere5-1/ https://bonlesave.ru/2013/03/21/update-esx4-1-vsphere5-1/#respond Thu, 21 Mar 2013 02:00:52 +0000 https://bonlesave.ru/?p=4799 Continue reading "Обновление хостов с vSphere 4.1 до vSphere 5.1 и миграция с распределенного коммутатора на стандартный"]]> Дошли у меня руки до обновления версии своих хостов до 5.1. Лицензии на vSphere 5 куплены в редакции Enterprise, поэтому пришлось заодно отказываться и от распределенного коммутатора.

Итак, поехали.

1) Обновление vCenter до версии 5.1b.

vCenter у меня уже версии 5.1.

Вставляем диск с vCenter и по порядку выполняем обновление всех компонент.

Проблем никаких не увидел.

2) Обновляем хосты ESX 4.1 U3 до ESXi 5.1.

Обновление хостов я производил через Update Manager.

– Добавил дистрибутив с ESXi 5.1.

– Создал Baseline для апгрейда хостов

– Затем назначил этот Baseline на кластер и начал применять (Remediate) его на хосты.

Первый подвох был внезапен 🙂

VMkernel and Service Console interfaces are sharing the same subnet…

Пришлось удалять VMKernel-интерфейс из подсети управления хостами.

Также при обновлении хоста пришлось временно отключать Admission Control и давать разрешение на удаление стороннего ПО с хоста.

На выходе мы имеем несколько хостов ESXi 5.1 с оценочной лицензией. Теперь можно установить на них дополнительные патчи для ESXi 5.1 и продолжать настройку.

3) Так как я сижу на распределенном коммутаторе, мигрируем обратно на стандартный.

– Составляем список портгрупп распределенного коммутатора, используемых на обновленных хостах.

– Создаем стандартный коммутатор vSwitch0 на каждом хосте кластера и создаем портгруппы с корректными номерами VLAN

Get-Cluster -Name Cluster | Get-VMHost | %{
$vswitch=New-VirtualSwitch -Name vSwitch0 -vmhost $_
New-VirtualPortGroup -Name VLAN10 -VLanId 10 -VirtualSwitch $vswitch
New-VirtualPortGroup -Name VLAN20 -VLanId 20 -VirtualSwitch $vswitch
New-VirtualPortGroup -Name VLAN30 -VLanId 30 -VirtualSwitch $vswitch
}

– руками добавляем адаптер vmnic1 в стандартный коммутатор на каждом хосте

– заходим в сетевые настройки хоста и проверяем, что на распределенном коммутаторе остался один сетевой адаптер. Нажимаем ссылку “Manage Virtual Adapters…”

– в полученном окне выбираем интерфейс управления и нажимаем кнопку “Migrate” для его переноса на стандартный коммутатор

– укажем название стандартного коммутатора и корректный номер VLAN для управляющего интерфейса VMKernel

– после этого можно переносить виртуальные машины на стандартный коммутатор. Проще всего это делать из вкладки Home->Inventory->Networking (скриншот приведен выше), где представлены все порт-группы. Выбираете порт-группу на распределенном коммутаторе, там выделяете все ВМ с вашего хоста и перетаскиваете их на соответствующую порт-группу стандартного коммутатора (drag’n’drop). Осторожно, никаких подтверждений не требуется, вы легко можете перенести ВМ в другую порт-группу и создать инцидент. Данный перенос можно производить в рабочее время – доступ к ВМ не прекращается.

– теперь в сетевых настройках хоста нажмем ссылку “Manage Physical Adapters…” и удалим из распределенного коммутатора адаптер vmnic0

– для добавления этого адаптера к стандартному коммутатору переключимся на представление стандартного коммутатора и зайдем в его свойства

– переключимся на вкладку “Network Adapters” и добавим адаптер vmnic0

– теперь остается удалить хосты из распределенного коммутатора и указать для них лицензии vSphere 5.

P.S. Вся эта суматоха затеяна из-за компании VMware, которой влом поддерживать Windows 2012/Windows 8 на vSphere 4.1.

]]>
https://bonlesave.ru/2013/03/21/update-esx4-1-vsphere5-1/feed/ 0
Ох, уж этот “management traffic” в VMKernel https://bonlesave.ru/2012/06/22/ox-uzh-etot-management-traffic-vmkernel/ https://bonlesave.ru/2012/06/22/ox-uzh-etot-management-traffic-vmkernel/#comments Fri, 22 Jun 2012 03:57:23 +0000 https://bonlesave.ru/?p=3398 Всем привет.

Решил я замутить пятничный опрос на предмет, зачем нужен флаг “Management Traffic” на интерфейсе VMKernel. Желательно отвечать со ссылкой на документацию VMware 🙂

А также ответить на вопрос, есть ли этот флаг на “толстых” ESX 4/4.1.

Под катом картинка того самого флага на ESXi5.

]]>
https://bonlesave.ru/2012/06/22/ox-uzh-etot-management-traffic-vmkernel/feed/ 15
Добавление хостов ESXi в домен или права администратора в Support Mode https://bonlesave.ru/2012/06/15/dobavlenie-xostov-esxi-v-domen-ili-prava-administratora-v-support-mode/ https://bonlesave.ru/2012/06/15/dobavlenie-xostov-esxi-v-domen-ili-prava-administratora-v-support-mode/#respond Fri, 15 Jun 2012 02:15:02 +0000 https://bonlesave.ru/?p=3348 Continue reading "Добавление хостов ESXi в домен или права администратора в Support Mode"]]> В vSphere, начиная с версии 4.1, есть возможность использовать учетные записи домена Active Directory для выполнения административных задач.

Я решил проверить это в тестовой лаборатории. Хосты добавились в домен, а дальше началось самое интересное…

Подключаюсь по SSH, и никаких прав у меня нет. Ни ESXTOP, ни ESXCFG/ESXCLI я выполнить не могу. Повышаю привилегии до рута: su – root, пожалуйста, все работает.

Зашел на хост через vClient, глянул вкладку Permissions – есть там группа “Domain\ESX^Admins” (знак ^ маскирует пробел).

Подключаюсь через vClient (и в DCUI) доменной учетной записью – пускает. Все права, о которых слышал, работают.

Вспоминаю про режим блокировки хоста (Lockdown) – так он разрешает работать только учетной записи vpxuser. Остальным путь закрыт, а, значит, задача блокировки root’а не решена 🙂

Мораль сей басни такова: в режиме техподдержки хоста (Local\Remote TechSupport Mode) доменная аутентификация не действует. Если вы периодически выполняете какие-то операции с этими консолями – запаситесь локальными учетными записями.

Либо разрешите только SSH, запретив доступ по нему root’у.

]]>
https://bonlesave.ru/2012/06/15/dobavlenie-xostov-esxi-v-domen-ili-prava-administratora-v-support-mode/feed/ 0
Тонкая настройка правил брандмауэра ESXi5 https://bonlesave.ru/2012/05/10/tonkaya-nastrojka-pravil-brandmauera-esxi5/ https://bonlesave.ru/2012/05/10/tonkaya-nastrojka-pravil-brandmauera-esxi5/#respond Thu, 10 May 2012 04:25:06 +0000 https://bonlesave.ru/?p=3034 Continue reading "Тонкая настройка правил брандмауэра ESXi5"]]> Добавить правила в брандмауэр ESXi5 из vClient нельзя. Есть статья на VMware kb про то, как это сделать из командной строки esxcli…


1) Подключаетесь к хосту по SSH (локальная командная строка также подойдет);
2) Смотрите список правил брандмауэра:
# esxcli network firewall ruleset list
Name Enabled
-------------------------------
sshServer true
sshClient false
nfsClient true
dhcp true
dns true
snmp true
ntpClient false
CIMHttpServer true
CIMHttpsServer true
CIMSLP true
iSCSI true

3) Создаете новый файл в /etc/vmware/firewall, например, dnstcpout.xml

Авторы статьи предлагают редактировать файл service.xml, но нужно менять ему права, да и поломать вы его можете. Соответственно, вы создаете либо один общий файл под все свои правки и называете его custom.xml, либо для каждого правила делаете отдельный xml-файл.
4) Вносите в него следующее содержимое:

<!-- Firewall configuration information for DNS TCP OUT -->
<ConfigRoot>
<service>
<service id="0000">
<id>DNSTCPOut </id>
<rule id='0000'>
<direction>outbound</direction>
<protocol>tcp</protocol>
<porttype>dst</porttype>
<port>53</port>
</rule>
<enabled>true</enabled>
<required>false</required>
</service>
</ConfigRoot>

5) Обновляете список правил брандмауэра
# esxcli network firewall refresh
6) Проверяете список правил
# esxcli network firewall ruleset list
--------------  -----------------
sshServer       true
sshClient       false
nfsClient       true
dhcp            true
dns             true
snmp            true
ntpClient       false
CIMHttpServer   true
CIMHttpsServer  true
CIMSLP          true
iSCSI           true
DNSTCPOut       true

7) Чтобы эта настройка пережила перезагрузку хоста – копируете xml-файл на постоянное хранилище, допустим в /store/dnstcpout.xml

8) Вставляете в /etc/rc.local следующие строки:

cp /store/dnstcpout.xml /etc/vmware/firewall/dnstcpout.xml
esxcli network firewall refresh

И запускаете сохранение конфигурации в архив (хотя можно и не запускать, оно происходит периодически)

auto-backup.sh

Бинго 😉
P.S. Пока готовил статью, нарыл готовый пример по разрешению доступа к SMTP.

]]>
https://bonlesave.ru/2012/05/10/tonkaya-nastrojka-pravil-brandmauera-esxi5/feed/ 0
Мониторинг свободного места на хранилищах ESXi5 через vMA https://bonlesave.ru/2012/05/04/monitoring-svobodnogo-mesta-na-xranilishhax-esxi5-cherez-vma/ https://bonlesave.ru/2012/05/04/monitoring-svobodnogo-mesta-na-xranilishhax-esxi5-cherez-vma/#respond Fri, 04 May 2012 05:40:00 +0000 https://bonlesave.ru/?p=3018 Continue reading "Мониторинг свободного места на хранилищах ESXi5 через vMA"]]> Мониторить свободное место на хранилищах ESXi с помощью уведомлений (alerts) от vCenter просто. Пара щелчков мыши, и при превышении пороговых значений вам прилетит письмо или отправится событие на приемник SNMP. Но как быть, если ваш хост бесплатен и vCenter не предвидится?

VMFS Disk Usage – 27-04-12
VMFS Volume Disk Size,Gb Available,Gb
datastore1 465 189
datastore2 139 138
datastore3 139 82

Нравится?
Для наглядности, строки с хранилищами, на которых свободно меньше 10% или 5% емкости, подсвечиваются желтым или красным.

Давненько Duncan Epping писал про скрипт, отслеживающий свободное место на хранилищах ESX и про отправку писем с ESX. Проблема в том, что на ESXi подобные скрипты не работают, а Duncan советует использовать PowerCLI.

PowerCLI – это вещь, но создавать виндовый сервер только под мониторинг не хотелось. И тут я подумал – почему не адаптировать скрипты Duncan’а под работу с vMA и вот что получилось…

Подготовка к отправке почты.

– забираем отсюда (http://search.cpan.org/~yves/MIME-Lite-3.01/lib/MIME/Lite.pm) Lite.pm и кладем его по адресу /usr/lib/perl5/5.8.0/MIME (или другому, зависит от версии perl на vMA);

– поднимаем smtp-релей, который будет перенаправлять почту нужному адресату без авторизации.

Создаем скрипт следующего содержания.

LOGLOC="/var/log/"
LOG="${LOGLOC}vdf.html"
MYDATE=$(date +%d-%m-%y)
VMFSYELLOW=90
VMFSRED=95

cat /dev/null > “${LOG}”
echo “<html>” >> “${LOG}”
echo “<head>” >> “${LOG}”
echo “<style>” >> “${LOG}”
echo “body {margin: 10px; width: 600px; font-family:arial; font-size: 10px;}” >> “${LOG}”
echo “div#footer {font-size: 9px;}” >> “${LOG}”
echo “</style>” >> “${LOG}”
echo “</head>” >> “${LOG}”
echo “<body>” >> “${LOG}”

echo “<table cellspacing=”0″ cellpadding=”2″ border=”1″; style=’border-collapse:collapse; background-color: white; color: black’>” >> “${LOG}”
echo “<tr><th colspan=’3′; align=’left’; style=’background-color: rgb(179,179,179); color: black’>” >> “${LOG}”
echo “VMFS Disk Usage – $MYDATE</th></tr>” >> “${LOG}”
echo “” >> “${LOG}”
echo “<tr>” >> “${LOG}”
echo “<td><b>VMFS Volume</b></td><td><b>Disk Size,Gb</b></td><td><b>Available,Gb</b></td>” >> “${LOG}”
echo “</tr>” >> “${LOG}”

esxcli –server=192.168.1.1 –username=root –password=”gfhjkm” storage filesystem list | grep -E VMFS | awk ‘{print $2 ” ” $6 ” ” $7}’ | while read output ; do
VOLNAME=$(echo $output | awk ‘{ print $1 }’ )
DISKSIZE=$(echo $output | awk ‘{ print $2 }’ )
DISKAVAILABLE=$(echo $output | awk ‘{ print $3 }’ )
DISKSIZE=$((DISKSIZE/1073741824))
DISKAVAILABLE=$((DISKAVAILABLE/1073741824))
PERCENTINUSE=$((100*(DISKSIZE-DISKAVAILABLE)/DISKSIZE))
WARNING=”white”
if [ $PERCENTINUSE -ge $VMFSYELLOW ] ; then
WARNING=”yellow”
fi
if [ $PERCENTINUSE -ge $VMFSRED ] ; then
WARNING=”red”
fi
echo “<tr><td style=’background-color: ${WARNING}’>$VOLNAME</td>” >> “${LOG}”
echo “<td style=’background-color: ${WARNING}’>$DISKSIZE</td>” >> “${LOG}”
echo “<td style=’background-color: ${WARNING}’>$DISKAVAILABLE</td>” >> “${LOG}”

done
echo “</table>” >> “${LOG}”
echo “<div id=’footer’>Created by Haron</div>” >> “${LOG}”
echo “</body>” >> “${LOG}”
echo “</html>” >> “${LOG}”

/home/vi-admin/smtp_send.pl -t admins@domain.com -s “Diskspace report of the VMFS volumes” -f esx01@domain.com -m “cat /var/log/vdf.html” -r 192.168.1.2

Описания ключей скрипта отправки:

-t: кому;

-s: тема;

-f: от кого;

-m: текст письма;

-r: почтовый релей.
Готовый скрипт можно скачать тут (vdf.zip).

]]>
https://bonlesave.ru/2012/05/04/monitoring-svobodnogo-mesta-na-xranilishhax-esxi5-cherez-vma/feed/ 0
USB over IP и VMware ESXi https://bonlesave.ru/2011/07/07/usb-over-ip-i-vmware-esxi/ https://bonlesave.ru/2011/07/07/usb-over-ip-i-vmware-esxi/#comments Thu, 07 Jul 2011 08:57:51 +0000 https://bonlesave.ru/2011/07/07/usb-over-ip-i-vmware-esxi/ Continue reading "USB over IP и VMware ESXi"]]> Это памятка для меня и тех, кто имеет дело с решениями USB over IP для VMware, но по каким-либо соображениям не использует или не может использовать встроенный USB passthrough.

Те кто имеют возможность использования штатных средств могут заглянуть в это kb: http://kb.vmware.com/kb/1022290
А список поддерживаемых устройств можно посмотреть тут: http://kb.vmware.com/kb/1021345

Итак. Так как религиозные соображения, а именно ESXi 3.5 местами, а так же отсутствие моих USB устройств в HCL, вынуждают меня использовать сторонние решения.

Я выбрал устройство DIGI AnywhereUSB/5 G1, так как компания Aladdin и Guardant подтвердили мне при запросе, что их USB ключи совместимы с этим устройством от DIGI.

Сразу уточню, что сейчас уже есть DIGI AnywhereUSB G2, который позволяет подключать свои порты к разным серверам. G1 же подключал весь usb хаб в монопольном режиме к одному серверу, но так как на тот момент в продаже не было еще поколения G2, то купил я именно G1.

Настройка и подключение USB устройств в виртуальную машину сторонними средствами

Установка и настройка решений от DIGI невероятно проста и следуя этим шагам можно закончить её минут за 5-10.

1. Подключаем устройство в электросети и в LAN.

2. Скачиваем драйверы необходимой версии с сайта DIGI.

3. Предварительная настройка виртуальной машины:

  • Если у вас ESX(i) 4.1, то в виртуальную машину необходимо добавить USB controller в виртуальную машину:
    image
  • Если у вас ESX(i) ниже версии 4.1, то таким образом USB контроллер в виртуальную машину не добавить. Вам потребуется вручную установить его. Для windows 2003 это делается следующим образом:
    а) На диске с дистрибутивом Windows найти файл usbd.sy_ в директории \I386
    б) Скопировать этот файл в директорию \system32\drivers
    в) Переименовать файл в usbd.sys
    г) Перезагрузить виртуальную машину

4. Распаковываем и устанавливаем драйвер DIGI AnywhereUSB в виртуальную машину. Для этого достаточно просто запустить Setup.exe из дистрибутива и далее всё пройдет автоматически.

Примечание: Если Вы сначала установили драйвер DIGI в виртуальную машину версии 4, а только потом установили драйвер USB контроллера, то возможно потребуется повторная установка драйвера AnywhereUSB с перезагрузкой после удаления.

5. Настраиваем AnywhereUSB:

Примечание: В этом пункте, я предполагаю, что AnywhereUSB подключен в ту же подсеть что и виртуальная машина, потому что обнаружение устройств доступно только для той же подсети. А так же то, что в этой подсети отсутствует DHCP сервер Но уже настроенное устройство может располагаться в любой другой подсети, при наличии маршрутизации между сетями с виртуальной машиной и DIGI.

  • Запускаем AnywhereUSB Configuration Utility в виртуальной машине. Это приложение установилось вместе с драйверами. После запуска вы увидите примерно следующую картину:
    image
    Устройство выделенное синим как раз нужное.
  • Выбираем нужное устройство, жмем Configure. Выплывет следующее окошко:
    image
    Настраиваем параметры под себя, нажимаем Update. Всё, настройка завершена, теперь устройство перезагрузится и будет готово к подключению.

6. Для того, чтобы начать использовать этот девайс осталось подключить его к виртуальной машине. Для этого нужно выбрать его в списке и нажать Connect.

Примечание: Однажды подключенное к серверу Digi  AnywhereUSB будет переподключаться к нему после перезагрузок и падений со всеми USB устройствами, а так же будет работать даже во время vMotion.

 

Всё, на этом процедура настройки и подключения завершена, можно подключать свои USB устройства внутрь виртуальных машин и радоваться, что всё действительно работает.


Запись первоначально опубликована в блоге volnyanskiy.ru, автор Волнянский Виталий

 

]]>
https://bonlesave.ru/2011/07/07/usb-over-ip-i-vmware-esxi/feed/ 16
Adaptec CIM Provider for VMware https://bonlesave.ru/2011/04/27/adaptec-cim-provider-for-vmware/ https://bonlesave.ru/2011/04/27/adaptec-cim-provider-for-vmware/#comments Wed, 27 Apr 2011 07:54:47 +0000 https://bonlesave.ru/?p=2042 Continue reading "Adaptec CIM Provider for VMware"]]> Ликуйте, фанаты рейд-контроллеров Adaptec – появился Storage Manager в виде CIM-плагина для VMware ESX(i) 4.1.

Если ваша плата в этом списке:

– Adaptec RAID 5405
– Adaptec RAID 5405z
– Adaptec RAID 5445
– Adaptec RAID 5445z
– Adaptec RAID 5805
– Adaptec RAID 5805Q
– Adaptec RAID 5805z
– Adaptec RAID 5805ZQ
– Adaptec RAID 5085
– Adaptec RAID 51245
– Adaptec RAID 51645
– Adaptec RAID 52445
– Adaptec RAID 2805
– Adaptec RAID 2405
– Adaptec RAID 2405Q
– Adaptec RAID 2045

То вам сюда.

За ссылку спасибо diz’у.

UPD: Из комментариев – Raid 3x тоже работают.

]]>
https://bonlesave.ru/2011/04/27/adaptec-cim-provider-for-vmware/feed/ 5
Вы еще не обновились – тогда мы идем к вам ;) https://bonlesave.ru/2010/10/11/vy-eshhe-ne-obnovilis-togda-my-idem-k-vam/ https://bonlesave.ru/2010/10/11/vy-eshhe-ne-obnovilis-togda-my-idem-k-vam/#comments Mon, 11 Oct 2010 04:13:39 +0000 https://bonlesave.ru/?p=1648 Continue reading "Вы еще не обновились – тогда мы идем к вам ;)"]]> Оказывается, 30 сентября VMware выпустили пару патчей для ESXi. Один из них лечит неприятную проблему.

Помните, при апгрейде виртуального железа с версии 4 до версии 7 (апгрейд виртуальных машин с ESX3,5 до ESX4) у вас слетали все сетевые настройки? С этим патчем “новый” виртуальный адаптер наследует настройки Wins и некоторые другие продвинутые опции сетей.

Забота о пользователях налицо 😉

]]>
https://bonlesave.ru/2010/10/11/vy-eshhe-ne-obnovilis-togda-my-idem-k-vam/feed/ 4