IBM Storwize V7000 Unified - описание, подключение и настройка СХД

Оперативная память

Серверы IBM чувствительны по отношению к конфигурации модулей памяти. Зачастую после самостоятельного апгрейда - добавления памяти или её замены - сервер не загружается, либо видит меньше памяти, чем установлено на самом деле. К счастью, в подобных ситуациях не приходится долго гадать о причинах сбоя: на диагностической панели (если таковая имеется) загораются два индикатора Config и Memory.

Поэтому, прежде чем апгрейдить память обязательно изучите спецификацию, память какого типа и объёма поддерживается вашим сервером. Также большое значение имеет количество процессоров в сервере - от этого зависит порядок размещения модулей в слотах. Это тоже необходимо уточнить в спецификации.

Вообще, с памятью ровно такая же ситуация, как описано в статье про , например. Вкратце:

  • Соблюдайте канальность памяти.
  • Ставьте ECC REG 1(2)Rx4 память в двухпроцессорные системы и UDIMM - в однопроцессорные.
  • Ставьте одинаковый объём памяти на каждый процессор.

А что делать, если вы вставили память в соответствии с инструкциями, а сервер всё равно не работает и предательски горит индикатор Memory? В этом случае придётся проверять разные варианты:

  • Этот тип памяти не поддерживается сервером . Внимательно сверьтесь со спецификациями.
  • Память оказалась «битой» . Замените линейку на точно такую же и проверьте, заведётся ли сервер.
  • Засорился пылью слот на материнской плате . Это довольно популярная причина, если сервер трудится уже несколько лет, а тем более если вы его не первый владелец. Продуйте слоты сжатым воздухом.
  • Загнутый контакт в сокете . Такое бывает очень редко, но всё же бывает: память отказывается работать из-за загнутого контакта в сокете процессора. Если предыдущие варианты не помогли найти причину сбоя, снимите процессор и внимательно осмотрите сокет. Если вы оказались в числе немногочисленных «счастливчиков», то можете попробовать осторожно выпрямить погнутый контакт, но это исключительно на ваш страх и риск.
Многие сисадмины сталкиваются с тем, что при проверке оперативной памяти с помощью MemTest86 получают сообщения об ошибках даже в заведомо рабочих модулях, либо на одних и тех же дорожках. Особенно часто это встречается у серверов поколения M4. Это вовсе не вина машин или памяти: MemTest86 не рекомендуется использовать для проверки серверной памяти. Если же память начнёт сбоить, то сервер сообщит об этом через диагностическую панель. Проверять память на серверах IBM лучше стандартными средствами самодиагностики.

Накопители

Мы уже неоднократно упоминали о том, что совсем не обязательно устанавливать в серверах «родные» накопители. Ни IBM, ни другие вендоры их не производят, они лишь приобретают их у всем известных производителей, перепрошивают и клеят свои логотипы. Поэтому вы можете без труда сэкономить на апгрейде или восстановлении дисковых массивов, выбрав аналоги вместо «родных» накопителей. Двух-трёхкратная разница в цене это оправдывает, особенно если речь идёт о refurbished-серверах . В сети можно легко найти таблицы соответствия моделей, например:

Тем не менее, ещё возможны ситуации несовместимости «неродных» накопителей с сервером. В этом случае сервер не грузится штатно, либо не видит накопитель. Обычно это решается с помощью установки свежей прошивки RAID-контроллера. К слову, рекомендуется обновить прошивку и бэкплейна/экспандера, в этом вам поможет приложение IBM Bootable Media Creator (BoMC).

При включении сервера и прохождении POST-проверки возможно появление ошибки:

A discovery error has occurred, please powercycle the system and all the enclosures attached to this system.

Это сигнализирует о проблеме с одним из накопителей. Вычислить его просто: индикаторы на его салазках постоянно мигают, даже когда все остальные носители прошли проверку и перестали мигать.

С дисковой подсистемой бывают и более экзотические проблемы. Например, при использовании RAID-1 в фирменном приложении MegaRAID Storage Manager могут появиться ошибки вида:

ID = 63
SEQUENCE NUMBER = 48442
TIME = 24-01-2016 17:03:59
LOCALIZED MESSAGE = Controller ID: 0 Consistency Check found inconsistent parity on VD strip: (VD = 0, strip = 637679)

Чаще всего это говорит не об умирании диска, а об ошибке контроля чётности - несовпадении данных на основном и вторичном дисках. Возможные причины:

  • Нередко такие ошибки появляются сразу после конфигурирования нового массива или после замены одного из дисков.
  • Во время сеанса диагностики поверхности блинов происходит инициализация диска и выполнение операций ввода/вывода. На RAID-1 это может привести к временному несоответствию томов, которое автоматически исправляется при следующей проверке на соответствие. Такое возникает не при любом сеансе диагностики, а когда сходятся звёзды:
    • o Используется RAID-контроллер без кэширования, либо активирован режим Write Through.
    • o Нехватка оперативной памяти, при которой с диска осуществляется активная подкачка страниц.
    • o Просто очень интенсивное использование дисков.
Для решения этой проблемы рекомендуется снизить активность подкачки с диска: используйте RAID-контроллер с кэшированием и увеличьте объём оперативной памяти.

Обновление прошивок и ПО

Любопытная проблема может подстерегать при установке с нуля Windows 2012 или Windows 2012 R2 - свежеустановленная операционка не видит ни одного накопителя. Причём такое бывает не только с серверами IBM. Дело в том, что все накопители в сервере подключены через RAID, а упомянутые версии ОС не имеют вшитых драйверов для работы с RAID. И поэтому они их просто игнорируют. Как быть? Самый надёжный способ: использовать утилиту IBM ServerGuide . При установке ОС она принудительно подсовывает все необходимые драйвера для данной модели и версии операционной системы. Обратите внимание, что образ ОС должен устанавливаться с диска, а не с флэшки: ServerGuide не будет работать с образом на том же USB-носителе, с которого запущен сам.

При покупке серверов бывают ситуации, когда нужно сначала обновить все прошивки, а потом уже накатывать систему. Сделать это можно с помощью вышеупомянутой IBM Bootable Media Creator :

  1. Загрузитесь с загрузочной флешки или диска.
  2. Запустите BoMC от имени Администратора.
  3. Выберите, что вы хотите сделать: обновить и/или провести диагностику.
  4. Программа спросит, где ей взять драйверы: скачать самой или вытащить из указанного вами архива.
  5. Выберите носитель для записи загрузочного образа: флэшку или диск. Запись может идти несколько часов, не волнуйтесь, программа не зависла.
  6. По окончании записи загрузитесь с этого носителя, и далее по инструкции.
Эта процедура помогает и в ряде проблемных ситуаций. Например, если вы не дождались завершения обновления Integrated Management Module и нажали кнопку «отмена», то при следующих загрузках сервер может не суметь загрузить IMM и использует настройки по умолчанию. Можно сначала попытаться восстановить с помощью джампера “UEFI & IMM recovery jumper” на материнской плате, благодаря которому загружается прошитый образ IMM.

Но если не поможет, то воспользуйтесь процедурой обновления через BoMC.

Бывают и более неприятные ситуации, когда по закону подлости в ходе установки более свежей версии BIOS"а происходит сбой питания.

После этого сервер уже не может загрузить основную прошивку, и использует резервную. Если штатная процедура восстановления BIOS"а не помогает, то сделайте… даунгрейд: установите более старую прошивку, чем та, что была до сбоя питания. Обычно это помогает. После этого уже можно попытаться снова поставить свежую версию BIOS"а. Как говорится, шаг назад - два вперёд.

Другие проблемы

Иногда при попытке удалённого управления сервером возникает ошибка “Login failed with an access denied error.”, причём в любых браузерах. Если перезагрузка сервера и клиента не помогает, то рекомендуется сбросить IMM до заводских настроек.

В статье про ошибки серверов HP мы упоминали о проблемах с системой охлаждения: сразу после запуска сервера вентиляторы выходили на высокие обороты и уже не снижали их. Случается такой недуг и в серверах IBM. Сервер воет, как реактивный лайнер на взлёте. Нам не удалось выяснить причину таких сбоев, но посоветовать можно следующее:

  1. Проверьте плотность подключения разъёмов питания.
  2. Отключите все вентиляторы и снимите корзину.
  3. Проверьте каждый вентилятор на других серверах.
  4. Соберите корзину снова, поменяв вентиляторы местами. Либо совсем их замените.
Встречался в нашей практике и такой интересный сбой: при загрузке сервера штатно инициализируется IMM, затем начинается инициализация UEFI, и… всё. Дальше сервер не грузится без объяснения причин. Не помогали никакие манипуляции: отключение от сети, полное обесточивание, отключение разных компонентов. Загрузка бэкапа UEFI с помощью джампера на материнской плате тоже не помогла. Опытным путём выяснилось, что если подождать около 20 минут, то всё же можно дождаться загрузки сервера. Так он и работает с тех пор - каждый раз грузится по 20 минут. Выяснить причину сбоя не удалось.

Преимущества серверов IBM

Серверы IBM заслуженно пользуются большой популярностью:
  • Это простые и очень надёжные машины.
  • Отличная расширяемость даже на начальных моделях и богатый комплект поставки.
  • Серверы IBM обычно дешевле конкурентов и не уступают в производительности. Например, поколения M3 и M4 дешевле, чем аналоги у HP (Gen7 и Gen8) и Dell (11G и 12G).
  • Самые недорогие расходники. Легко найти в России.
  • Удобная диагностическая панель на многих моделях.
Главное, в чём серверы IBM уступают конкурентам - у них очень долгий «холодный» старт.

Теги: Добавить метки

На прошлой неделе я отправил в датацентр сервер IBM x3250 m5, но совершенно забыл предварительно IBM Integrated Management Module. Для таких случаев существует утилита Advanced Settings Utility К счастью, IMM можно настроить на машине из Windows.

Получаем доступ к серверу IBM с помощью Advanced Settings Utility

Для пользователей 64-битной версии системы предлагаю воспользоваться соответствующей редакцией утилиты.

Извлеките утилиту, а затем запустите ее из командной строки. Мне потребовалось изменить IP-адрес, маску подсети и адрес шлюза по умолчанию на статические значения. Также я отключил DHCP на интерфейсе IMM, а затем перезагрузил IMM для того, чтобы новые настройки вступили в силу.

Прописываем IP-адрес

asu64.exe set imm.hostipaddress1 192.168.1.250 IBM Advanced Settings Utility version 9.63.86D Licensed Materials - Property of IBM (C) Copyright IBM Corp. 2007-2014 All Rights Reserved IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Attempting to configure usb-lan. IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Unable to connect to IMM via LAN: Connect using LAN failed.. Connected via IPMI device driver (KCS interface) IMM.HostIPAddress1=192.168.1.250 Waiting for command completion status. Command completed successfully. IMM LAN-over-USB device 0 disabled successfully.

Изменяем маску сети

asu64.exe set imm.hostipsubnet1 255.255.255.0 IBM Advanced Settings Utility version 9.63.86D Licensed Materials - Property of IBM (C) Copyright IBM Corp. 2007-2014 All Rights Reserved IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Attempting to configure usb-lan. IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Unable to connect to IMM via LAN: Connect using LAN failed.. Connected via IPMI device driver (KCS interface) IMM.HostIPSubnet1=255.255.255.0 Waiting for command completion status. Command completed successfully. IMM LAN-over-USB device 0 disabled successfully.

Добавляем IP-адрес шлюза

asu64.exe set imm.gatewayipaddress1 192.168.1.1 IBM Advanced Settings Utility version 9.63.86D Licensed Materials - Property of IBM (C) Copyright IBM Corp. 2007-2014 All Rights Reserved IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Attempting to configure usb-lan. IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Unable to connect to IMM via LAN: Connect using LAN failed.. Connected via IPMI device driver (KCS interface) IMM.GatewayIPAddress1=192.168.1.1 Waiting for command completion status. Command completed successfully. IMM LAN-over-USB device 0 disabled successfully.

Отключаем DHCP

asu64.exe set imm.dhcp1 disabled IBM Advanced Settings Utility version 9.63.86D Licensed Materials - Property of IBM (C) Copyright IBM Corp. 2007-2014 All Rights Reserved IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Attempting to configure usb-lan. IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Unable to connect to IMM via LAN: Connect using LAN failed.. Connected via IPMI device driver (KCS interface) IMM.DHCP1=Disabled Waiting for command completion status. Command completed successfully. IMM LAN-over-USB device 0 disabled successfully.

Перегружаем интерфейс для того, чтобы изменения вступили в силу

asu64.exe rebootimm IBM Advanced Settings Utility version 9.63.86D Licensed Materials - Property of IBM (C) Copyright IBM Corp. 2007-2014 All Rights Reserved IMM LAN-over-USB device 0 enabled successfully. Try to connect to the primary node to get nodes number. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Attempting to configure usb-lan. IMM LAN-over-USB device 0 enabled successfully. Successfully discovered the IMM via SLP. Discovered IMM at IP address 169.254.95.118 Unable to validate userid/password on IMM. Please make sure input the correct userid/password with supervisor authority level. Unable to connect to IMM via LAN: Connect using LAN failed.. Connected via IPMI device driver (KCS interface) Connected to primary node. Nodes number is 1 Connect to imm to reboot. Issuing reset command to imm. Checking if the imm has reset yet. (attempt 0) IMM is still alive, wait for next check. Checking if the imm has reset yet. (attempt 1) imm has started the reset. Disconnect from imm Wait for about 4 mins to let the imm complete reboots.

Задача выполнена.

Кластеры позволяют масштабировать конфигурацию IBM® WebSphere Portal . Кроме того, кластеры обеспечивают высокую готовность приложений J2EE, поскольку в случае сбоя запросы автоматически пересылаются на исправные серверы. Кластер можно настроить различными способами: горизонтальный, вертикальный, множественный и динамический.

На следующей иллюстрации изображена конфигурация горизонтального кластера, в которой WebSphere Portal установлен на нескольких серверах или в нескольких профайлах на одном физическом сервере. Конфигурация с несколькими серверами уменьшает количество отдельных сбоев, но требует дополнительного программного обеспечения, например, серверов. Конфигурация с несколькими профайлами также сокращает количество отдельных сбоев. Она требует меньше дополнительного аппаратного обеспечения, чем конфигурация с несколькими серверами, но тем не менее дополнительное аппаратное обеспечение, например дополнительная память, может потребоваться. Администратор развертывания управляет ячейкой для узлов горизонтального кластера.

Для того чтобы оставить аппаратное обеспечение без изменений, можно также настроить элементы виртуального кластера на одиночном узле. Обычно крупные кластеры портала обеспечивают как горизонтальное, так и вертикальное масштабирование. Пример: может существовать четыре узла портала, на каждом из которых расположено по пять элементов кластера, что в общей сложности составляет двадцать элементов кластера.

В ответ на пожелания пользователей приведены инструкции по настройке WebSphere Portal для каждой операционной системы. Выберите операционную систему, чтобы начать процесс.

  1. Подготовка операционной системы IBM i в кластерной среде
    См. информацию по настройке операционной системы для работы с IBM WebSphere Portal . В случае установки других компонентов могут потребоваться дополнительные действия; ознакомьтесь с документацией по этим компонентам.
  2. Подготовка основного узла в IBM i
    Перед созданием кластерной среды вы должны установить IBM WebSphere Portal на основном узле и затем настроить базу данных и администратор сетевого развертывания.
  3. Создание и дополнение нового профайла Администратора развертывания в IBM i
    В рабочей среде Администратор развертывания должен быть установлен на удаленном сервере, а не на одном сервере с IBM WebSphere Portal . Для создания удаленного профайла Администратора развертывания воспользуйтесь Инструментом управления профайлами или командой manageprofiles . В среде тестирования или разработки Администратор развертывания можно установить в локальной системе с помощью IBM Installation Manager . В случае установки удаленного профайла Администратора развертывания выполните действия по созданию профайла Администратора развертывания и его дополнению. Пропустите эти шаги, если локальный профайл Администратора развертывания устанавливается с помощью Installation Manager на основном узле.
  4. Создание кластера в IBM i
    После установки IBM WebSphere Portal на основном узле, настройки удаленной базы данных и подготовки основного узла к взаимодействию с Администратором развертывания можно создать статический кластер для обработки запросов переключения.
  5. Подготовка веб-сервера, когда портал установлен в IBM i в кластерной среде
    Установите и настройте модуль веб-сервера, предоставляемый IBM WebSphere Application Server , для настройки веб-сервера для взаимодействия с IBM WebSphere Portal .
  6. Кластер IBM i: Подготовка реестров пользователей
    Установите и настройте сервер LDAP в качестве реестра пользователей, предназначенного для хранения информации о пользователях и идентификации пользователей в рабочей среде с кластерами.

  7. Настройте защиту реестра пользователей в IBM WebSphere Portal , чтобы защитить сервер от несанкционированного доступа. Можно настроить автономный реестр пользователей LDAP или добавить реестры пользователей LDAP или База данных в объединенное хранилище по умолчанию. После настройки реестра пользователей вы можете добавить области для виртуальных порталов или вспомогательную базу данных для хранения атрибутов, которые нельзя хранить в реестре пользователей LDAP.
  8. Подготовка дополнительных элементов кластера в IBM i
    После установки и настройки основного узла вы можете создать дополнительные узлы. Вы можете установить IBM WebSphere Portal на каждом узле и затем настроить узел для доступа к базе данных и реестру пользователей, прежде чем добавлять его в кластер.
  9. Кластер IBM i: Тонкая настройка серверов
    Тонкая настройка серверов играет важную роль в обеспечении требуемой производительности среды WebSphere Portal. Изначально WebSphere Portal не настроен для рабочей среды, поэтому для обеспечения оптимальной производительности просмотрите и выполните процедуры из руководства IBM WebSphere Portal Tuning Guide. Если руководство по тонкой настройке для текущего выпуска WebSphere Portal отсутствует, воспользуйтесь руководством для предыдущего выпуска.
  10. Настройка поиска в кластере IBM i
    IBM WebSphere Portal предоставляет две различные возможности поиска. Можно использовать обе возможности поиска в кластерной среде.
  11. Настройка нескольких кластеров в IBM i
    Дополнительные кластеры ячейки создаются практически так же, как первый, за некоторыми исключениями. Фактически, новый профайл будет предназначен для использования в качестве основного профайла, согласно терминологии кластеров IBM WebSphere Portal , и будет взят за основу для нового определения кластера. Это копирует процесс создания первого кластера в ячейке. Во время процесса распространения при наличии каких-либо приложений в этом новом узле в ячейке (так как они используются первым кластером) Администратор развертывания не позволит добавить их. После распространения приложения, уже существующие в ячейке, не отображаются на сервер WebSphere_Portal на вновь добавленном узле; таким образом, существующие приложения следует заново привязать к новому распространенному серверу для восстановления списка приложений. Таким образом, в зависимости от конфигурации нового профайла, некоторые приложения будут использоваться совместно прочими существующими кластерами, а некоторые - уникальными для этого нового профайла.
  12. Совместное использование доменов базы данных между кластерами в IBM i
    Если рабочая среда состоит из нескольких кластеров в одной ячейке и нескольких кластеров в разных ячейках, то для поддержки избыточности и восстановления после сбоя можно предоставить доступ к доменам базы данных всем кластерам. Данные IBM WebSphere Portal хранятся в нескольких доменах базы данных с различными требованиями к уровню готовности, зависящими от конфигурации рабочей среды. При наличии нескольких технологических линий, каждая из которых реализована в виде кластера серверов, применение общих доменов базы данных гарантирует автоматическую синхронизацию данных между технологическими линиями.

Для настройки и дальнейшего управления системами хранения дынных серии DS35xx от IBM используется программа DS storage manager, последнюю версию которой можно скачать с официального сайта, конечно, после регистрации. Есть версии программы для разных операционных систем, Linux, Windows, Mac, HPUX

Здесь же, не лишним будет скачать последние обновления прошивки контроллеров системы хранения. Иначе СХД может не увидеть дисков или HBA адаптеры в серверах или возникнут другие сопутствующие проблемы.

Не знаю почему, но у многих возникают проблемы с поиском и скачиванием на сайте IBM файлов для загрузки. Заходим на Ibm.com -> Support and Downloads -> Fixes, updates and drivers -> Quick find-> в строке поиска "DS3500 (DS3512, DS3524)" -> View DS3500 (DS3512,DS3524) downloads. Портал IBM не всегда корректно отрабатывает, поэтому если не получается, попробуйте другой браузер.

Прошивки на контроллер, выглядят так

Файлы для загрузки DS storage manager, так



После установки и запуска программы, предлагается выбрать метод нахождения СХД. Automatic сканирует сеть и ищет подключенную DS35xx, в Manual нужно вручную ввести IP адреса обоих контроллеров нашей СХД. Адреса интерфейсов управления, которые заданы по умолчанию, для удобства написаны на самой системе хранения под портами. Если в сети работает DHCP, то адреса будут получены автоматически.



Мы видим, что для отказоустойчивости в каждый контроллер встроены по два порта управления, но, обычно, для управления используются первые порты каждого контроллера.


Схема подключения

Перед началом настройки нужно представлять, что хотим получить в итоге, если понимания нет, то и начинать не стоит. Сделаем самую простую схему, подключим к системе хранения два сервера по схеме.


В каждом сервере два SAS HBA адаптера, для тех кто не знает, это просто карта PCI-E, с входом SAS. По два HBA установлено для отказоустойчивости, если один из контроллеров в СХД выйдет из строя, то работа будет продолжена через другой. По такой же логике система защищена от проблем с SAS кабелем или HBA адаптером в сервере.

Настройка. Логика.

У нас есть СХД, в ней диски. Сначала нам нужно из дисков собрать какой-нибудь RAID (array), потом на этом RAID создать логический том (LUN), затем презентовать этот том серверам (mapping), чтобы они его увидели и могли с ним работать. Вот такая логика.

Теперь по порядку. Я буду совершать все манипуляции в симуляторе, скачать который можно на официальном сайте хранилищ IBM. Интерфейс не один в один повторяет то, что вы увидите на реальной DS3524 или DS3512
1.. Мы ранее выбрали автоматический метод поиска системы хранения, система нашла и подключила ее, СХД отображается в консоли.

2.. Кликаем правой кнопкой по СХД, выбираем пункт Manage, чтобы начать настройку.

3.. В новом окне открывается мастер, но т.к. я хочу показать универсальную последовательность действий, закрываем его.

4.. В закладке Logical/Physical View видим нераспределенное дисковое пространство. В симуляционной СХД диски двух типов, мы настроим привычные SATA. Сначала создаем Array (RAID)



6.. Задаем ИМЯ нашему array


7.. Выбираем, какой именно RAID мы хотим получить. Не видим 10 RAID, чтобы его создать нужно выбрать RAID 1
8.. И тут же мастер объясняет, что если вы создаете RAID 1 из четырех и более дисков, то автоматически создастся 10 RAID (или 1+0, то же самое)
9.. Выбираем создание RAID из 38 дисков

10.. После создания, автоматически запускается мастер создания тома (LUN), его также можно запустить и из консоли, как в 4-ом шаге, только выбирать надо созданный ранее array.

11.. Нужно указать размер LUN, в моем случае 8 Tb (всего свободно 17,6 Tb), и придумать название для тома
12.. Важный момент, если мы знаем, какая ОС будет установлена в этот LUN то нужно указать ее. Для VMware тоже есть строчка, для XenServer выбирается Linux. А у меня в симуляторе почему-то этих строчек нет
13.. После создания Array и LUN мы их видим в консоли
14.. Теперь необходимо перейти на другую вкладку и дать доступ к этому LUN серверу. Видим, что по умолчанию создана группа Default Group и этой группе доступен LUN1. Нам достаточно добавить наш сервер (сначала один, затем другой) в это группу, чтобы они могли подключиться к LUN1.

15.. Кликаем правой кнопкой мыши по Default Group, Define -> Host

16.. У каждого нашего сервера есть по два SAS HBA, именно через них происходи подключение к СХД. Система хранения может идентифицировать сервер именно по HBA адаптерам, а точнее, по их уникальным «identifier».

Задаем имя хосту (у меня ESX1). Выбираем два «identifier», которые принадлежат серверу, который мы подключаем. Посмотреть, какие идентификаторы у сервера, можно подключившись к ESXi хосту напрямую через vSphere Client или через vCenter Server. Там в искать разделе «storage adapters».

Переносим два «identifier» из левой колонки в правую. Затем выбираем каждый «identifier» и жмем на кнопку Edit, чтобы добавить и к нему описание. Такая процедура придумана для того, чтобы не запутаться в большом количестве идентификаторов.

У меня в симуляторе, какие-то нули вместо уникальных «identifier», не обращайте внимания, у вас все будет как положено.

17.. Теперь выбираем операционную систему хоста, если VMware то выбираем VMware

18.. После этого в консоли вы увидите свой Host и из-за того что он находится в группе Default Group, ему будет доступен LUN1.

Заключение. Получилась длинная статья, на практике все происходит намного быстрее, достаточно пару раз прощелкать все действия и процесс подключения систем хранения от IBM больше не будет взывать проблем.

Чуть сложнее настраивается подключение по iSCSI. Советую выбирать или SAS или FC.

В данной статье, мы рассмотрим вопрос установки и настройки на CentOS 7 . В данном мануале, будет продемонстрирована установка trial версии WebSphere , но она ничем не отличается от полной версии, так что это не имеет значения.

Итак, поехали!

1) Подготовка и настройка ОС

В нашей работе мы будем использовать новую CentOS 7 . На удивление, но “из коробки” ее нужно нехило так допилить до рабочего состояния, так что будьте к этому готовы. Итак, устанавливаем минимальную версию без графики и поехали. Через интерфейс – настройте сразу сеть, чтобы был интернет… это значительно облегчит вашу участь:)

Установим базовое ПО… которого почему-то нет в поставке:

Yum install net-tools nano wget

Теперь проверим наш hostname и поправим hosts (поправьте как вам нравится):

Nano /etc/hostname nano /etc/hosts

Ifconfig -a

Чтобы это исправить, надо сначала поправить немного grub :

Nano /etc/default/grub

В конце строки “GRUB_CMDLINE_LINUX ” нужно добавить “net.ifnames=0 biosdevname=0 “. Получится что-то типа такого (не обязательно 1 в 1):

GRUB_CMDLINE_LINUX="rd.lvm.lv=rootvg/usrlv rd.lvm.lv=rootvg/swaplv crashkernel=auto vconsole.keymap=usrd.lvm.lv=rootvg/rootlv vconsole.font=latarcyrheb-sun16 rhgb quiet net.ifnames=0 biosdevname=0 "

Переименовываем наш сетевой интерфейс на нормальный, классический “eth0 ” и ребутимся:

Mv /etc/sysconfig/network-scripts/ifcfg-ens32 /etc/sysconfig/network-scripts/ifcfg-eth0 reboot

Настраиваем сеть:

Nano /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" ONBOOT=yes BOOTPROTO=static IPADDR=1.1.4.185 NETMASK=255.255.248.0 GATEWAY=1.1.1.9 DNS1=1.1.1.10 DNS2=1.1.1.90

Отключаем лишний Network manager и ребутимся:

Systemctl stop NetworkManager systemctl disable NetworkManager reboot

Проверяем, обозначен ли в системе как-нить IPv6 :

Lsmod | grep -i ipv6

Если сообщения будет иметь упоминания об IPv6 , а оно будет, то переходим к его отключению:

Nano /etc/default/grub

В начале строки “GRUB_CMDLINE_LINUX ” нужно добавить “ipv6.disable=1 “. Получится что-то типа такого:

GRUB_CMDLINE_LINUX="ipv6.disable=1 rd.lvm.lv=rootvg/usrlv...

Создаем новый конфиг и сохраняем результат:

Grub2-mkconfig -o /boot/grub2/grub.cfg

Перезагружаемся:

Проверяем еще раз и убеждаемся, что все красиво:

Lsmod | grep -i ipv6

Добавляем в систему EPEL (всякие “отягощенные” лицензиями пакеты) репозиторий для CentOS 7 :

Wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-2.noarch.rpm rpm -ivh epel-release-7-2.noarch.rpm yum repolist

Новая ОС использует “главного” демона, управляющего другими демонами. Это systemd , который ввели вместо устаревших скриптов инициализации init.d . Также используется новый фаервол, firewalld вместо iptables . Проверим его работу и откроем нужные нам порты (9080 и 9443):

Systemctl status firewalld firewall-cmd --permanent --zone=public --add-port=9080/tcp firewall-cmd --permanent --zone=public --add-port=9443/tcp systemctl restart firewalld

Собственно говоря, на этом настройка ОС заканчивается и мы переходим непосредственно к установке IBM WebSphere Application Server Liberty Profile 8.5.5

2) Установка WebSphere

Нам потребуется учетная запись IBM . После обычной регистрации можно скачать любое ПО (в целях разработки, оно еще называется trial version ).

Напрямую ПО скачивать не дают. Мы скачиваем универсальный Installation Manager , и потом уже через него мы сможем скачать нужное нам ПО. Содержимое архива BASETRIAL.agent.installer.linux.gtk.x86_64.zip распаковываем в папку was и ее же потом закачиваем на сервер в /root

Даем права и запускаем установку:

Chmod -R 775 /root/was cd was ./installc -c

Первым делом, Installation Manager попросит нас ввести наш логин и пароль от учетки IBM. Нажимаем p и вводим учетные данные:

Выбираем для установки только следующие пункты (installation manager, websphere liberty и java sdk для нее):

А вот фиксы ставить не будем. Они не обязательные к установке, к тому же баганутые и устанавливаются с ошибкой:

Итоговое сообщение. Что и куда устанавливается:

После этого – ждем. Сколько ждать? Зависит от скорости вашего Интернета и загруженности серверов IBM . Необходимо будет скачать около 500 мб, а то и больше. Запаситесь терпением… Что происходит? Инсталлятор подключает свои репозитории и скачивает с него заказанное ПО. Все красиво.

Сообщение об успешной установке выглядит так:

Теоретически, возможна также установка всего этого через response files, без диалогов. Но этот вариант также требует уже установленного Installation Manager , так что в нашем случае это не актуально..

Итак, все! мы установили IBM WebSphere Application Server Liberty Profile 8.5.5 и необходимую для его работы Java ! Поздравляю! Сейчас мы рассмотрим, что можно сделать дальше.

3) Настройка WebSphere

а) Запуск WebSphere

Давайте создадим наш тестовый сервер:

/opt/IBM/WebSphere/Liberty/bin/server create PROJECT

Создали. Появилась папка: /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT Все настройки и будущие модули, будут находится именно в ней. Чтобы запустить данный СП, надо добавить в главный его конфиг строку host=’1.1.4.185′ (с нашим IP), над httpPort=’9080′ (это тут: /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/server.xml ). Пример такого конфига:

Запускаем:

/opt/IBM/WebSphere/Liberty/bin/server start PROJECT

Перейдя по адресу http://1.1.4.185:9080 , увидим следующее:

Это значит, что все хорошо и вебсфера запустилась.

б) Установка модуля администрирования

Этот пункт не является обязательным. Но с модулем администрирования работать с вебсферой удобнее. Через него, можно останавливать и запускать модули по отдельности, без необходимости остановки всего сервера.

Итак, устанавливаем этот модуль:

/opt/IBM/WebSphere/Liberty/bin/featureManager install adminCenter-1.0 --when-file-exists=ignore

Для входа в админку под админом, используем учетную запись: admin/password. А под пользователем: nonadmin/nonadminpwd.

Адрес входа на нее: http://1.1.4.185:9080/adminCenter/ Выглядит админка так:



Все! Модуль администрирования установлен.

в) Установка модуля расширений

Также, на Вебсферу нужно установить extended пакеты (расширенный набор библиотек и бинарников), делается это предельно просто:

/opt/IBM/WebSphere/Liberty/bin/featureManager install extendedPackage-1.0

г) Установка модулей

Мы подошли к самому интересному. Установка модулей в Liberty. Как же это сделать? Есть 2 способа, через папку /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/dropins и /opt/IBM/WebSphere/Liberty/usr/servers/PROJECT/apps
Из каталога dropins модули подхватываются и устанавливаются автоматически. Из каталога apps – их нужно вручную прописать в конфиге server.xml. Пример конфига, к котором подключается модуль через apps:

Для запуска СП не в фоне и с логами, выполните команду:

/opt/IBM/WebSphere/Liberty/bin/server run PROJECT

д) Плюсы

Тестированием проверено, что достаточно скопировать папку /opt/IBM на другой сервер и все будет работать из коробки. Очень удобно. Т.е. мы можем заранее настроить нужный нам СП и делать поставки целого пакета ПО сразу. А еще “вебсфера либерти” очень легкая и запускается/останавливается очень шустро:)

Опубликовано

Понравилась статья? Поделиться с друзьями: