CLI を使用したクラスターへの修復済みノードの再追加

コマンド行インターフェース (CLI) を使用して、障害が起きたノードを修復した後でクラスターに再追加して戻すことができます。

始める前に

ノードをクラスターに追加する前に、追加されるノードがクラスター内の他のすべてのノードと同じゾーンに入るようにスイッチ・ゾーニングが構成されていることを確認する必要があります。 ノードを取り替える場合で、スイッチが、スイッチ・ポートではなく、ワールド・ワイド・ポート名 (WWPN) でゾーンに分けられている場合は、追加するノードが同じ VSAN/ゾーンに含まれるようにスイッチを構成してください。

重要:
  1. SAN にノードを再度追加する場合は、 必ずノードを除去したときと同じ入出力グループに追加します。 これが行われないと、データが破損する可能性があります。最初にノードをクラスターに追加したときに記録された情報を使用する必要があります。この情報にアクセスできない場合は、データを破壊せずにノードを元どおりにクラスターに追加するために、IBM® サポートに連絡してください。
  2. 新規ノードのポートに提示される LUN は、現在クラスターに存在するノードに提示される LUN と同じでなければなりません。 新規ノードをクラスターに追加するには、LUN が同じであることを確認しておく必要があります。
  3. 各 LUN に対する LUN マスキングは、クラスター内のすべてのノードで同一でなければなりません。新規ノードをクラスターに追加するには、各 LUN に対する LUN マスキングが同一であることを確認しておく必要があります。
  4. 新しいノードのモデル・タイプは、現在クラスターにインストールされている SAN ボリューム・コントローラー・ソフトウェアのレベルによってサポートされていなければなりません。 モデル・タイプが SAN ボリューム・コントローラー・ソフトウェアのレベルによってサポートされていない場合は、新しいノードのモデル・タイプをサポートするソフトウェア・レベルにクラスターをアップグレードしてください。 サポートされている最新のソフトウェア・レベルについては、次の Web サイトを参照してください。

    www.ibm.com/storage/support/2145

このタスクについて

ノードをクラスターに追加する場合の特別手順

ホスト・システム上のアプリケーションが入出力操作を送る先のファイル・システムまたは論理ボリュームは、オペレーティング・システムによって仮想パス (vpath) にマップされています。vpath は、サブシステム・デバイス・ドライバー (SDD) でサポートされている疑似ディスク・オブジェクトです。 SDD は、VPath と SAN ボリューム・コントローラー仮想ディスク (VDisk) 間の関連を維持します。 この関連では、VDisk に固有で、しかも再利用されない ID (UID) を使用します。UID によって、SDD は vpath を VDisk に直接関連付けることができます。

SDD は、ディスクおよび ファイバー・チャネル・デバイス・ドライバーが含まれるプロトコル・スタック内で動作します。 これらのデバイス・ドライバーにより、ANSI FCS 標準によって定義されたとおり ファイバー・チャネル全体で SCSI プロトコルを使用した SAN ボリューム・コントローラーとの通信が可能になります。 これらの SCSI およびファイバー・チャネル・デバイス・ドライバーによって提供されるアドレッシング方式では、ファイバー・チャネル・ノードおよびポートに、SCSI 論理装置番号 (LUN) とワールド・ワイド・ノード名 (WWNN) を組み合わせたものを使用します。

エラーが発生すると、エラー・リカバリー手順 (ERP) は、 プロトコル・スタック内のさまざまな層で動作します。 これらの ERP が実行されると、場合によっては、以前に使用されたものと同じ WWNN および LUN 番号を使用して入出力が再駆動されることがあります。

SDD は、実行する各入出力操作について VDisk と VPath との関連を調べません。

クラスターにノードを追加するには、 以下に該当する条件があるか確認しておく必要があります。
  • クラスターに複数の入出力グループがある。
  • クラスターに追加するノードは、そのクラスター内のノードのために以前に使用されていた物理ノード・ハードウェアまたはスロットを使用する。
  • クラスターに追加するノードは、別のクラスター内のノードのために以前に使用されていた物理ノード・ハードウェアまたはスロットを使用し、両方のクラスターが同じホストおよびバックエンド・ストレージに対して可視である。
上記の条件のいずれかが該当する場合、以下の特別手順が適用されます。
  • ノードは、以前に属していたものと同じ入出力グループに追加する必要があります。クラスター・ノードの WWN を判別する場合は、コマンド行インターフェース (CLI) ・コマンドの svcinfo lsnode または SAN ボリューム・コントローラー・コンソールを使用できます。
  • ノードをクラスターに追加し直す場合、事前にそのクラスターを使用するすべてのホストをシャットダウンする必要があります。 その後、ノードは、ホストがリブートされる前に追加する必要があります。入出力グループ情報が入手できないか、あるいはクラスターを使用するすべてのホストをシャットダウンしてリブートすることが不都合な場合は、次のようにします。
    • クラスターにノードを追加する前に、クラスターに接続されているすべてのホスト上で、ファイバー・チャネル・アダプター・デバイス・ドライバー、ディスク・デバイス・ドライバー、およびマルチパス・ドライバーを構成解除する。
    • クラスターにノードを追加してから、ファイバー・チャネル・アダプター・デバイス・ドライバー、ディスク・デバイス・ドライバー、およびマルチパス・ドライバーを再構成する。

特殊な手順を適用できるシナリオ

以下の 2 つのシナリオで、特殊な手順を適用できる状況を説明します。
  • 1 対の2145 UPS、または 4 つの 2145 UPS-1Uの障害が原因で、8 ノード・クラスターのうちの 4 つのノードが失われた。 この場合、CLI コマンド svctask addnode または SAN ボリューム・コントローラー・コンソールを使用して、失われた 4 つのノードをクラスターに追加し直す必要があります。
  • ユーザーは、クラスターから 4 つのノードを削除し、CLI コマンドの svctask addnode または SAN ボリューム・コントローラー・コンソールを使用して、そのノードをクラスターに追加し直すことに決定した。

5.1.0 ノードの場合、SAN ボリューム・コントローラーは、障害の起きたノードを自動的に再追加してクラスターに戻します。クラスターがノード欠落エラー (エラー・コード 1195) を報告し、そのノードが修復されて再始動された場合、クラスターは自動的にノードを再追加してクラスターに戻します。このプロセスは最大で 20 分かかることがあるため、ユーザーは以下のステップを実行して、手動でノードを再追加することができます。

手順

  1. svcinfo lsnode CLI コマンドを発行してクラスターを現在構成しているノードをリストし、ノードを追加する入出力グループを判別する。

    以下に、表示される出力の例を示します。

    svcinfo lsnode -delim :
    
    id:name:UPS_serial_number:WWNN:status:IO_group_id:IO_group_name
    :config_node:UPS_unique_id:hardware:iscsi_name:iscsi_alias
    1:node1:10L3ASH:0000000000000000:offline:0:io_grp0:no:1000000000003206:
    8A4:iqn.1986-03.com.ibm:2145.ndihill.node1:
    2:node2:10L3ASH:50050768010050B0:online:0:io_grp0:yes:10000000000050B0:
    8A4:iqn.1986-03.com.ibm:2145.ndihill.node2:
  2. svcinfo lsnodecandidate CLI コマンドを発行して、クラスターに割り当てられていないノードをリストし、2 番目のノードが入出力グループに追加されていることを確認する。

    以下に、表示される出力の例を示します。

    svcinfo lsnodecandidate -delim :
    
    id:panel_name:UPS_serial_number:UPS_unique_id:hardware
    5005076801000001:000341:10L3ASH:202378101C0D18D8:8A4
    5005076801000009:000237:10L3ANF:202378101C0D1796:8A4
    50050768010000F4:001245:10L3ANF:202378101C0D1796:8A4
    ....
  3. svctask addnode CLI コマンドを発行して、ノードをクラスターに追加する。
    重要: 入出力グループ内の各ノードは、別々の無停電電源装置に接続する必要があります。

    以下に、パネル名パラメーターを使用してノードをクラスターに追加するときに発行する CLI コマンドの例を示します。

    svctask addnode -panelname 000237
     -iogrp io_grp0 

    ここで、000237 はノードのパネル名、io_grp0 はノードの追加先の入出力グループの名前です。

    以下に、WWNN パラメーターを使用してノードをクラスターに追加するときに発行する CLI コマンドの例を示します。

    svctask addnode -wwnodename 5005076801000001
     -iogrp io_grp1 

    ここで、5005076801000001 はノードの WWNN、io_grp1 はノードの追加先の入出力グループの名前です。

  4. svcinfo lsnode CLI コマンドを発行して、最終構成を検証する。

    次の例は、表示される出力を示します。

    svcinfo lsnode -delim :
    
    id:name:UPS_serial_number:WWNN:status:IO_group_id:IO_group_name:config_node:UPS_unique_id:
    hardware:iscsi_name:iscsi_alias
    1:node1:10L3ASH:0000000000000000:offline:0:io_grp0:no:1000000000003206:
    8A4:iqn.1986-03.com.ibm:2145.ndihill.node1:
    新しいノードについて、以下の情報を記録してください。
    • ノード名
    • ノードのシリアル番号
    • WWNN
    • IQN (iSCSI 接続により接続されるホストを使用している場合)
    • すべての WWPN
    • 目的のノードが含まれている入出力グループ
    注: このコマンドをクラスターにノードを追加した直後に発行すると、ノードの状況が追加中になる場合があります。 状況が追加中と表示されるのは、クラスターへのノードの追加プロセスが進行中である場合です。 構成プロセスを続行する前に、すべてのノードの状況がオンラインになるのを待つ必要はありません。

タスクの結果

これで、ノードはクラスターに追加されました。
ライブラリー | サポート | ご利用条件 | フィードバック
(C) Copyright IBM Corporation 2003, 2010. All Rights Reserved.