narga: (Default)
Сегодня былу ужас. Захожу на сайт вмвары за обновлениями vcenter. И тут херак - идите нахрен, вы не имеете права скачивать файло.
Угадайте первую мысль человека из компании-под-санкциями. И это зарубили, суки, ну теперь только vlsc отключить и хоть стреляйся.
Оказалось всё проще. Впервые за год актуализировали свою базу данных. А у нас в контракте какого-то хера не строение номер "xx", а строение номер "x,x". Плюс какой-то сумеречный гений написал не Leningradsky prospect, а Leningrad Prospect.
Подсунула данные из контракта, меня нашли в базе и дали скачать моё добро.
А я ведь уже поседеть успела.
narga: (Default)
В четвёртой сфере была проблема. Закончилось место на датасторе с бутёвыми дисками, рандомная виртуалка встала раком. Ни смигрировать, ни выключить, ни включить. При попытке сделать любое действие, получаем отлуп:

The operation cannot be allowed at the current time because the virtual machine has a question pending: 'msg.hbacommon.outofspace:There is no more space for virtual disk vmname.vmdk. You might be able to continue this session by freeing disk space on the relevant volume, and clicking Retry. Click Cancel to terminate this session. '.

Вы увеличиваете место, вроде бы жить и радоваться, но хрен, виртуалка ругается на то же самое.
Решение - или прибивать процесс из esxicli, или делать быстрее и альтернативнее. А именно - запустить миграцию с хоста на хост, причем целевым хостом выбрать исходный. Миграция проходит успешно, подключение к консоли выдаёт ошибку, после этого всё работает.

Короче, проблема знакомая. И я искренне полагала, что в 5.5 это исправили.
Но нет. Мы чтим традиции.
narga: (Default)
Проблема отловилась следующая.
Жирные блейды HP. 256 памяти на хосте. Блейдов 10 штук, виртуалок мало, сфера рапортует, что всё хорошо и памяти до дури. По её отчетам занято максимум по 40 гб на ноде.

Короче всё красиво:



Выключаем виртуалку. Пытаемся её включить - хрен. Рапортует следующее:

An error was received from the ESX host while powering on hostname.
Heap globalCartel-1 already at its maximum size of 7869288. Cannot expand.
Could not start VMX: msg.vmk.status.VMK_NO_MEMORY

Выглядит так:



Уже хорошо. Едем дальше.
Миграция с ноды на ноду обламывается на 14% с отлупом по таймауту - Operation timed out.

Выглядит так:



Те самые 14%



При попытке подключиться консолью сферы к виртуалке через раз получаем отлуп: Unable to connect to the MKS: Failed to connect to server

И дальше. Идём на хост по ssh.
Видим либо красивую картинку /bin/sh can't fork
Либо при попытке любого действия, хоть ls - отлуп can't fork

Ещё лучше:



Мониторинг хоста показывает, что из 256 гб памяти занято 250.

Перезагрузить хост через сферу - невозможно, уходит в ребут бесконечно. Перезагрузить по ssh - аналогично, не даёт, висит со стандартной желтой картинкой esxi "я ребутаюсь".
Вывести с ноды все виртуалки и опять же хоть перезагрузить попробовать - бесполезно, память занята.
Перевод хоста в режим обслуживания и обратно - без толку. Перезагрузка хоста руками - без толку, за неделю утекает всё, что уже не занято работающими виртуалками.

Путём исключений упираемся в hp-ams.
Обновление по рекомендации до 10.x ничего не даёт. Остановка ams тоже не особо спасает.
Единственное, что помогает - удалить vib целиком.
Сначала ребут любым способом, чтобы хоть shell-ом пустило.
Потом:

/etc/init.d/hp-ams.sh stop

esxcli software vib remove -n hp-ams
narga: (Default)
А starwind конвертер внезапно научился работать с vhdx. VHDX2VMDK.
Кому интересно, дают тут.
narga: (Default)
Как переименовать VMDK

1. Edit settings виртуальной машины, к которой присоединён vmdk. Удалить диск.
2. По ssh к выбранному хосту.
3. До директории с выбранным vmdk - cd /vmfs/volumes/DatastoreName/. Чтобы просмотреть всё содержимое директории - ls
4. vmkfstools -E oldname.vmdk newname.vmdk

Обращайте внимание на необходимость соблюдать регистр. Команда -e и команда -E это две разные команды.
narga: (Default)
В очередной раз себе на заметку.

Конфигурация:

esxi 5.5 + vCenter + cisco + лезвия по 6 портов.
Со стороны каждого лезвия по три стандартных свитча - Management, vMotion с FT и VM. На каждом свитче по 2 сетевых интерфейса.
Задача - включить LACP для Management и vMotion

vSphere поддерживает LACP только при использование distributed switch. При этом 5.5. позволяет настроить LACP только из веб-клиента. D-свитч можно сделать и через обычного клиента, но работать LACP там не будет.

Последовательность действий следующая (про циски я скажу только что там интерфейс в актив):

1. Веб клиент => home => networking => action => new distributed switch

2. В мастере => имя => выбор версии => 5.5 => количество аплинков в нашем случае 2 => имя первой дефолтной порт=>группы => готово. Первая группа будет отвечать за менеджмент.

3. Заходим в свежесозданный свитч => manage => LACP => зелёный крестик New Link Aggregation Group => имя, количество портов, режим в зависимости от настроек на циске, если на циске актив, здесь пассив, тип балансировки. Ок, создали.

4. Оттуда же => action => add and manage hosts => add host and manage host networking => new hosts => выбираем хосты => Select network adapter tasks => Отмечаем Manage physycal adapters, Manage VMcernel adapters.

5. Страница менеджмента физическими адаптерами. В нашей конфигурации все адаптеры должны быть отмечены как "on other switches". Выбираем те два vmnic, которые относятся к менеджменту. Выделяем один => assign uplink => выбираем созданный LAG, выбираем LAG-0. Аналогично со вторым интерфейсом, только LAG-1.

6. Страница управления VMkernel адаптерами. Выбираем имеющиеся и находящиеся сейчас в другом свиче, ассоциируем с группой, созданной на шаге 2. Далее-далее => происходит миграция.

7. Action => manage distribution port groups => выбираем teaming and failover => выбираем группу, созданную на втором шаге => на странице тиминга добавляем созданный LAG в актив, аплинки в unused.

8. Проводим те же самые действия для создания LAG на VM.

9. Из свича => action => Migrate VM to another network => указать исходную и целевую сеть => переехать.

10. Посмотреть на результаты можно из свича => topology

#Ненавижу веб-консоли.
narga: (Default)
Хозяйке на заметку.

Отлуп Replay is unavailable for the current configuration при попытке включить Fault Tolerance на виртуальной машине интуитивно понятно говорит нам, что проделывать это надо на выключенной виртуалке.
Просто выключите её и ещё раз запустите FT on.

Ну и да, взводиться на виртуалке где есть больше одного процессора оно не будет.
narga: (Default)
Коллеги, кто-то знает, какого хрена при создании одного и того же свича, одной и той же версии (5.5) в случае с настройкой из веб-морды мы получаем lacp, а в случае обычного клиента нет!?

Я думала меня глючит. Нет, блять, не глючит!

Свитч созданный в веб-морде:

0.


Свитч созданный в клиенте:

1.


Как говорится, найдите десять отличий.
narga: (Default)
Несколько часов выяснять, какого хрена в HA cluster vSphere рандомно пропадают новые хосты. Узнать про сферу то, что никогда в жизни и знать не хотела.
Перечитать кучу KB, перепроверить и настроить DNS по бест практикс, обновить скуль с экспресса до стандарта и попробовать перейти с evo на full (а вдруг!).
А потом вспомнить, что несколько часов назад чисто для теста прописала другой ip для vCenter и забыла его убрать.
Давно я так себе в ногу не стреляла. Зато эффект положительный до неузнаваемости - удалось прибить некоторые будущие грабли.
А с HA, кстати, всё хорошо, оно умницо. Осталось только уполовинить ЦОД под fault tolerance. Искренне надеюсь что рано или поздно мы допилим всё это добро и сможем хоть спутники на орбиту запускать. Кто бы знал, как меня задолбало работать с постоянными граблями под общим названием "так исторически сложилось"!
ЗЫ - дайте мне цак, я его надену.
narga: (Default)
Столкнулась с проблемой - HP блейд с FlexFabric 10Gb 2-port 534FLB Adapter на борту отказывается стучать в 3par, соответственно в консоли 3par нет доступных WWN.

Выяснилось, что в дистрибутиве vmware 5.5 под HP нет всех драйверов под этот адаптер. По какой логике вообще размещаются дрова я хз.
Драйвера нашлись тут.
Устанавливала через компонент update manager и импорт патча.
Другие способы установки драйверов можно посмотреть тут.
В принципе по-моему проще через консоль, например так: esxcli software vib install –d /vmfs/volumes/datastore/drv.zip
Естественно перед установкой драйверов надо перевести ноду в maintenance mode.

Потом требуется их включить через shell:

esxcli fcoe nic list - список доступных адаптеров.

esxcli fcoe nic discover -n vmnic* - активация адаптера.

esxcli fcoe adapter list - просмотр.

Заодно удалось выяснить, что на сайте HP в редкой статье нет косяков с синтаксисом. Ну и так по мелочи, например exception:exception в случае подсовывания просто vib меня несколько удивил.
narga: (Default)
На собеседованиях с кандидатами я в последнее время задаю один и тот же вопрос:

У вас есть два ЦОД, и там и там кластер hyper-v. Между ЦОД скоростной канал. Вам нужно безболезненно перенести виртуалку из одного цод на другой. Как вы это сделаете?

После того, как человек мне говорит, что перенесёт виртуалку копипастой vhd, я понимаю что задавать дальнейшие вопросы уже бессмысленно.
Потому что это означает, что человек не работал с hyper-v глубже "далее-далее".

Из шести человек так ответили пятеро. Шестой вспомнил про импорт. Никто не вспомнил о репликации, даже когда я акцентировала внимание на канале и спрашивала об отказоустойчивости. У всех запросы по зарплате от трёх тысяч долларов.

Что такое гостевой кластер, vsan, чем отличается live migration от квик никто не знает.

Ну как так?!
narga: (Default)
Народ, я понимаю что вопрос самое то для субботы и вообще.
Но скажите, это только у меня после перенастройки сетевых интерфейсов esxi отваливается доменная авторизация? И вернуть можно только выгнав из домена и снова загнав в домен.
На двух машинах уже пробовала, везде картина одна и та же.
narga: (Default)
Как недавно ёмко выразился мой бывший начальник - "Etherchannel это подвид жоп, а LACP это особо узкая жопа".
Так вот, если у вас жопа заключается в виде голого и бесплатного esxi, у вас нет поддержки LACP и PAGP, ещё не всё потеряно. В лучшем случае покупаем enterprise, получаем distributed switch и наслаждаемся жизнью.
Пока у вас этого нет, решение заключается в виде статического etherchannel.
Самая простая и адекватная схема такая - esxi, два сетевых интерфейса, один native, один с транком. На циске тиминг, со стороны esxi оба интерфейса ессно ап, в агенте уже только актив, без standby, тиминг route based on ip hash, добавляем группы портов для виртуальных машин с нужными вланами, не забываем снять override и галки на тиминге в портах под виртуалки и менеджмент. Могу рассказать то же самое, но по пунктам и с картинками, если кому надо.

Но вообще всё просто, верно? Главное логику понять, дальше всё легко. Так вот, я забодалась со старой esxi, пытаясь понять какого хрена её конфиг рабочий, а мой новый нет, хотя на цисках настройки поровну и вообще всё должно быть одинаково. Ориентировалась обычным для недоверчивого к себе параноика принципом "там всё работало, значит и тут должно работать".
Итог? Итог нетрудно догадаться какой - да нихера там не работало по человечески. Четыре адаптера, четыре, ебанаврот! Причем в менеджменте один, а в VM два, но один в отключке. Рубим на циске один интерфейс и может быть (может быть! Проверять пока не могу) оно не упадёт, но такая схема это же просто ебануться можно.

Короче:


А у меня между тем всё взлетело и вообще заебись.
narga: (Default)
Друг подкинул свеженькой травы:

У меня только что состоялся разговор с админом из нашей виндовой группы, который в конце декабря прослушал курс vSphere Base.
Цитата: "а зачем vShpere Replication? Разве нельзя питерский ESXi подцепить к московскому vCenter и заюзать vMotion?"
narga: (Default)
Имеем HP Elite 8300, на борту i7, 64-битная ось.
Стоит Vmware Workstation. При попытке установить 64-битную виртуалку ругается на отключенную поддержку виртуализации.
Вспоминаем, что по дефолту VT действительно может быть disabled.

Окей, лезем в биос, ищем что-то похожее на system configuration.
Вообще это обычно отдельная вкладка. Иногда прячут в power.
Но чтобы в security!!

RTFM:reboot => f10 => security => system security => virtualization => enabled

Ребутнулись, вмвара опять ругается.
Вспоминаем старый RTFM, пускаем машину в даун, ждём несколько секунд, включаем.
Профит.

Руководитель департамента пошел нервно курить и материться.
narga: (Default)
На днях столкнулась, в принципе ничего нового, но, как выяснилось, некоторые перепрошивать биос бросаются. Пишу RTFM во избежание, да и чтобы не забылось.

Дано: ноутбук hp, 64-битная винда, стоит vmware workstation. При попытке установить win2008 ругается на отключенный VT intel.
VT, понятно, virtualization technology.

Дальше всё логично - лезем в биос (на конкретном hp он отчаянный кастрат), system configuration, ищем пункт virtualization technology, ставим галку, ребутаемся.

Запускаем workstation - хрен. Ещё ребут - те же самые жалобы. После третьего ребута вспоминаю, что было когда-то что-то похожее, не конкретно это, но таки было, факт. Делаю полный shutdown, пауза, запускаю обратно, запускаю вмвару, больше жалоб на VT нет, всё ставится.

А вообще всё это из серии "если ничего не помогает, прочитайте инструкцию". Вот что пишут сами мелкомягкие относительно конфигурации bios под виртуализацию на hp:

Depress Esc key when prompted at startup

Depress the F10 key to Configure BIOS

Scroll to System Configuration using the arrow keys

Select Virtualization Technology and depress the Enter key

Select Enabled and depress the Enter key

Depress the F10 key to save and exit

Select Yes and depress the Enter key

Fully shut down (power off), wait a few seconds, and restart your computer

Вообще оверсвоп это печально, а ноутбук у меня в перманентном оверсвопе, расценивает это как перманентное состояние. В виртуалках поднят домен с двумя субдоменами + несколько рабочих станций под тесты. Ноутбук второй день с утра пытается мне доказать, что я совсем охренела. 8 гб на домашнем компе тоже не хватает. И ни слова про быстрые винты.

Хочу лезвия IBM, Vmware Sphere и править миром.
narga: (Default)
После массового исхода с 32 на 64 был обнаружен симпатичный глюк на клиенте. А именно периодически при попытке присосаться к консоли получаем ошибку:
"A connection to the host could not be established"

Алгоритм лечения пока не выявлен кроме повторных попыток присоединиться. Гугл молчит.

А я почему-то уверена, что клиент ставит свой сетевой адаптер на 32, а на 64 его нет. Я готова спорить, что я видела его на голой машине, где не было ничего от вмвары кроме злосчастного клиента. И, черт побери, там был адаптер. Причем я даже помню, в какой конкретно ситуации я его обнаружила.

В общем, пока проблема нерешенная. Жить с таким можно, но задалбывает. И совершенно непонятно, на каком именно моменте оно начинает отваливаться.

Причем рапортует об этом оно не только когда прицепиться не может совсем, но и в процессе штатной работы. То есть например сейчас моя консоль вопит, что нет соединения, при этом я в ней замечательно работаю.

Выглядит это вот так:



#А теперь оффтоп. Вот валяемся мы на полу с товарищем, друг дружку от консоли старательно отталкиваем и угрожаем руки переломать по самые ноги, если вотпрямщас клаву не отдадут. Скажите, народ, как в обсуждении глюка vmware мы дошли до выяснения, существует ли порнуха, в которой персонажи бы в качестве смазки финалгон использовали!?

Profile

narga: (Default)
narga

December 2016

S M T W T F S
     1 2 3
4 5 6 7 8 910
11 12 1314 15 16 17
18 19 20 21 22 23 24
25262728293031

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Sep. 20th, 2017 09:26 am
Powered by Dreamwidth Studios