2012年5月10日木曜日

新規グローバルクラスタまたは新規グローバルクラスタノードの確立 - Oracle Solaris Cluster ソフトウェアのインストール


新規グローバルクラスタまたは新規グローバルクラスタノードの確立

このセクションでは、新しいグローバルクラスタを確立したり、既存のクラスタにノードを追加したりするための情報と手順について説明します。グローバルクラスタノードは、物理マシンの場合もあれば、Oracle VM Server for SPARC I/O ドメインの場合もあれば、Oracle VM Server for SPARC ゲストドメインの場合もあります。クラスタは、これらの種類のノードを任意に組み合わせて構成できます。これらのタスクを開始する前に、「ソフトウェアのインストール」で説明した手順に従って、Oracle Solaris OS、Oracle Solaris Cluster フレームワーク、およびその他の製品用のソフトウェアパッケージをインストールしていることを確認してください。

次のタスクマップに、新しいグローバルクラスタ、または既存のグローバルクラスタに追加されたノードに対して実行するタスクを示します。 ここに示す順に従って手順を実行します。

表 3-1 タスクマップ:新しいグローバルクラスタの確立

表 3-2 タスクマップ:既存のグローバルクラスタにノードを追加する

すべてのノードでの Oracle Solaris Cluster ソフトウェアの構成 (scinstall)

scinstall ユーティリティーは 2 つのインストールモード (通常またはカスタム) で実行されます。「通常」を指定した Oracle Solaris Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。

プライベートネットワークアドレス

172.16.0.0

プライベートネットワークネットマスク

255.255.240.0

クラスタトランスポートアダプタ

正確に 2 つのアダプタ

クラスタトランスポートスイッチ

switch1 および switch2

グローバルフェンシング

有効

インストールセキュリティー (DES)

制限付き

通常モードまたはカスタムモードのインストールの計画を立てるには、次のいずれかのクラスタ構成ワークシートに記入します。

  • 「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。

    クラスタ名

    確立するクラスタの名前は何ですか ?

    クラスタノード

    クラスタの初期構成で計画されているほかのクラスタノードの名前を列挙します。(単一ノードクラスタの場合は、Control-D キーだけを押します。)

    クラスタトランスポートアダプタおよびケーブル

    ノードをプライベートインターコネクトに接続する 2 つのクラスタトランスポートアダプタの名前は何ですか ?

    定足数の構成

    (2 ノードクラスタのみ)

    定足数デバイスの自動選択を無効にしますか ?(どの共有ストレージも定足数デバイスの条件を満たしていない場合や定足数サーバーを定足数デバイスとして構成する場合は、Yes と答えます。)

    Yes | No

    確認

    cluster check エラー発生時にクラスタ作成を中断しますか ?

    Yes | No

  • 「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。


    注 - 単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティーが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを割り当てます。


    クラスタ名

    確立するクラスタの名前は何ですか ?

    クラスタノード

    クラスタの初期構成で計画されているほかのクラスタノードの名前を列挙します。(単一ノードクラスタの場合は、Control-D キーだけを押します。)

    ノードを追加する要求の認証

    (複数ノードクラスタのみ)

    DES 認証が必要ですか ?

    No | Yes

    プライベートネットワークの最小数

    (複数ノードクラスタのみ)

    このクラスタで、少なくとも 2 つのプライベートネットワークを使用する必要がありますか ?

    Yes | No

    ポイントツーポイントケーブル

    (複数ノードクラスタのみ)

    2 ノードクラスタである場合、クラスタがスイッチを使用しますか ?

    Yes | No

    クラスタスイッチ

    (複数ノードクラスタのみ)

    トランスポートスイッチ名:
    クラスタトランスポートアダプタおよびケーブル

    (複数ノードクラスタのみ)

    ノード名 (scinstall を実行するノード):

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?
    自動検出機能を使用してその他のノードで使用可能なアダプタを一覧表示しますか ?

    Yes | No

    各追加ノードで指定

    (複数ノードクラスタのみ)

    ノード名:

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?
    クラスタトランスポート用ネットワークアドレス

    (複数ノードクラスタのみ)

    デフォルトのネットワークアドレス (172.16.0.0) を使用しますか ?

    Yes | No

    • 使用しない場合、どのプライベートネットワークアドレスを使用しますか ?

    ___.___.___.___

    デフォルトのネットマスク (255.255.240.0) を使用しますか ?

    Yes | No

    • 使用しない場合、クラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの最大数はいくつですか ?
    _____ ノード

    _____ ネットワーク

    _____ ゾーンクラスタ

    使用するネットマスクはどれですか ?(scinstall が計算した値から選択するか、自分で入力します。)

    ___.___.___.___

    グローバルフェンシング

    グローバルフェンシングを無効にしますか ?(共有ストレージが SCSI 予約をサポートしている場合、またはクラスタ外部のシステムからの共有ストレージへのアクセスを望まない場合は No と回答する)

    1:  Yes | No

    2:  Yes | No

    定足数の構成

    (2 ノードクラスタのみ)

    定足数デバイスの自動選択を無効にしますか ?(どの共有ストレージも定足数デバイスの条件を満たしていない場合や定足数サーバーを定足数デバイスとして構成する場合は、Yes と答えます。)

    1:  Yes | No

    2:  Yes | No

    確認

    (複数ノードクラスタのみ)

    cluster check エラー発生時にクラスタ作成を中断しますか ?

    Yes | No

    (単一ノードクラスタのみ)

    クラスタを検査するために クラスタ確認 ユーティリティーを実行しますか?

    Yes | No

    自動リブート

    (単一ノードクラスタのみ)

    scinstall によってインストール後ノードを自動的にリブートしますか ?

    Yes | No

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

Oracle Solaris Cluster ソフトウェアをクラスタのすべてのノードで構成するには、グローバルクラスタの 1 つのノードからこの手順を実行します。


注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する方法については、scinstall(1M) のマニュアルページを参照してください。


これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

  • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

  • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

始める前に

次のタスクを実行します。

  1. 新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。

    スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。

    クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。

    クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。

  2. クラスタ内で構成する各ノード上で、スーパーユーザーになります。

    あるいは、ユーザーアカウントに System Administrator プロファイルが割り当てられている場合、プロファイルシェル経由で非 root としてコマンドを発行するか、コマンドの先頭に pfexec コマンドを付加します。

  3. RPC 用 TCP ラッパーが、クラスタのすべてのノード上で無効になっていることを確認します。

    Oracle Solaris の RPC 用 TCP ラッパー機能は、クラスタの構成に必要なノード間通信を妨げます。

    1. 各ノード上で、RPC 用 TCP ラッパーのステータスを表示します。

      次のコマンド出力例に示すように、config/enable_tcpwrapperstrue に設定されている場合、TCP ラッパーが有効になっています。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers  config/enable_tcpwrappers  boolean true
    2. あるノード上で RPC 用 TCP ラッパーが有効になっている場合は、TCP ラッパーを無効にし、RPC バインドサービスを更新します。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false  # svcadm refresh rpc/bind  # svcadm restart rpc/bindEntry 2
  4. パブリックネットワークインタフェースを準備します。
    1. 各パブリックネットワークインタフェースの静的 IP アドレスを作成します。
      # ipadm create-ip interface  # ipadm create-addr -T static -a local=address/prefix-length addrobj

      詳細は、『Oracle Solaris 管理: ネットワークインタフェースとネットワーク仮想化』の「IP インタフェースを構成する方法」を参照してください。

    2. (省略可能) パブリックネットワークインタフェースの IPMP グループを作成します。

      リンクローカルでない IPv6 パブリックネットワークインタフェースがクラスタ内に存在していないかぎり、クラスタの初期構成時に、IPMP グループが一致するサブネットに基づいて自動的に作成されます。これらのグループでは、インタフェース監視用として推移的プローブが使用されるため、テストアドレスは必要ありません。

      これらの自動的に作成された IPMP グループがユーザーのニーズに合わない場合や、リンクローカルでない IPv6 パブリックネットワークインタフェースが構成に 1 つ以上含まれているために IPMP グループが作成されない場合は、次のいずれかを実行します。

      • クラスタを確立する前に、必要な IPMP グループを作成します。
      • クラスタの確立後に、ipadm コマンドを使用して IPMP グループを編集します。

      詳細は、『Oracle Solaris 管理: ネットワークインタフェースとネットワーク仮想化』の「IPMP グループの構成」を参照してください。

  5. 1 つのクラスタノードから scinstall ユーティリティーを開始します。
    phys-schost# scinstall
  6. 「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
     *** Main Menu ***        Please select from one of the following (*) options:          * 1) Create a new cluster or add a cluster node        * 2) Print release information for this cluster node           * ?) Help with menu options        * q) Quit        Option:  1

    「新しいクラスタとクラスタノード」メニューが表示されます。

  7. 「新しいクラスタの作成」オプションの番号を入力し、Return キーを押します。

    「通常」または「カスタム」モードメニューが表示されます。

  8. 「通常」または「カスタム」のいずれかのオプション番号を入力し、Return キーを押します。

    「新しいクラスタの作成」画面が表示されます。要件を読み、Control-D キーを押して操作を続けます。

  9. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーは、すべてのクラスタノードのインストールと構成を行い、クラスタをリブートします。クラスタ内ですべてのノードが正常にブートされると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  10. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node  STATE          STIME    FMRI  online         17:52:55 svc:/milestone/multi-user-server:default
  11. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===    --- Node Status ---    Node Name                                       Status  ---------                                       ------  phys-schost-1                                   Online  phys-schost-2                                   Online  phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  12. クラスタを installmode から抜け出させます。
    phys-schost# clquorum reset
  13. (省略可能) ノードの自動リブート機能を有効化します。

    少なくともディスクのいずれかが、クラスタ内の別のノードからアクセス可能である場合、監視される共有ディスクパスがすべて失敗すると、この機能はノードを自動的にリブートします。

    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show  === Cluster Nodes ===                              Node Name:                                      node  …    reboot_on_path_failure:                          enabled  …
  14. RPC による TCP ラッパーの使用を有効にする予定の場合は、各クラスタノード上で、すべての clprivnet0 IP アドレスを /etc/hosts.allow ファイルに追加します。

    /etc/hosts.allow ファイルへのこの追加を行わなかった場合、TCP ラッパーは、クラスタ管理ユーティリティーの RPC 経由でのノード間通信を妨げます。

    1. 各ノード上で、そのノードのすべての clprivnet0 デバイスの IP アドレスを表示します。
      # /usr/sbin/ipadm show-addr  ADDROBJ           TYPE     STATE        ADDR  clprivnet0/N      static   ok           ip-address/netmask-length
    2. 各クラスタノード上で、クラスタ内のすべての clprivnet0 デバイスの IP アドレスを、/etc/hosts.allow ファイルに追加します。
  15. 高可用性ローカルファイルシステム上で HA for NFS データサービス (HA for NFS) を使用する予定の場合、HA for NFS によってエクスポートされた、高可用性ローカルファイルシステムの一部となっている共有のすべてを、オートマウンタマップから除外します。

    オートマウンタマップの変更方法の詳細については、『Oracle Solaris のシステム管理 (ネットワークサービス)』の「マップの管理作業」を参照してください。

例 3-1 すべてのノードでの Oracle Solaris Cluster ソフトウェアの構成

ここでは、scinstall を使用して 2 ノードクラスタ schost で構成タスクを完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。このクラスタは、「通常」モードで、scinstall ユーティリティーを使用することによって、phys-schost-1 からインストールされます。もう一つのクラスタノードは、phys-schost-2 です。アダプタ名は、net2net3 です。定足数デバイスの自動選択は有効です。

    Log file - /var/cluster/logs/install/scinstall.log.24747       Configuring global device using lofi on pred1: done      Starting discovery of the cluster transport configuration.        The following connections were discovered:            phys-schost-1:net2  switch1  phys-schost-2:net2          phys-schost-1:net3  switch2  phys-schost-2:net3        Completed discovery of the cluster transport configuration.        Started cluster check on "phys-schost-1".      Started cluster check on "phys-schost-2".        cluster check completed with no errors or warnings for "phys-schost-1".      cluster check completed with no errors or warnings for "phys-schost-2".        Configuring "phys-schost-2" … done      Rebooting "phys-schost-2" … done        Configuring "phys-schost-1" … done      Rebooting "phys-schost-1" …    Log file - /var/cluster/logs/install/scinstall.log.24747

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。次に、この手順を再度実行します。

次の手順

クラスタに定足数デバイスを構成する場合、「定足数デバイスを構成する方法」 を参照してください。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML)

XML クラスタ構成ファイルを使用して新規グローバルクラスタを構成するには、以下の手順を実行します。新しいクラスタは、Oracle Solaris Cluster 4.0 ソフトウェアを実行する既存のクラスタから複製できます。

この手順では、次のクラスタコンポーネントを構成します。

始める前に

次のタスクを実行します。

  1. 作成する各クラスタノードで Oracle Solaris Cluster 4.0 ソフトウェアがまだ構成されていないことを確認します。
    1. 新しいクラスタに構成するノードでスーパーユーザーになります。
    2. 作成するノードで Oracle Solaris Cluster ソフトウェアがすでに構成されているか調べます。
      phys-schost# /usr/sbin/clinfo -n
      • コマンドが次のメッセージを返す場合は、手順 c に進みます。
        clinfo: node is not configured as part of acluster: Operation not applicable

        このメッセージは、作成するノードで Oracle Solaris Cluster ソフトウェアがまだ構成されていないことを示します。

      • このコマンドでノード ID 番号が返される場合、この手順を実行しないでください。

        ノード ID が返されることは、Oracle Solaris Cluster ソフトウェアがすでにノードで構成されていることを示します。

    3. 新しいクラスタで構成する残りの各ノードで手順 a および手順 b を繰り返します。

      作成するクラスタノードで Oracle Solaris Cluster ソフトウェアがまだ構成されていない場合は、手順 2 に進みます。

  2. RPC 用 TCP ラッパーが、クラスタのすべてのノード上で無効になっていることを確認します。

    Oracle Solaris の RPC 用 TCP ラッパー機能は、クラスタの構成に必要なノード間通信を妨げます。

    1. 各ノード上で、RPC 用 TCP ラッパーのステータスを表示します。

      次のコマンド出力例に示すように、config/enable_tcpwrapperstrue に設定されている場合、TCP ラッパーが有効になっています。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers  config/enable_tcpwrappers  boolean true
    2. あるノード上で RPC 用 TCP ラッパーが有効になっている場合は、TCP ラッパーを無効にし、RPC バインドサービスを更新します。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false  # svcadm refresh rpc/bind  # svcadm restart rpc/bindEntry 2
  3. 新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。

    スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。

    クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。

    クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。

  4. Oracle Solaris Cluster 4.0 ソフトウェアを実行している既存のクラスタを複製する場合は、そのクラスタ内のノードを使用して、クラスタ構成 XML ファイルを作成します。
    1. 複製するクラスタの有効なメンバーでスーパーユーザーになります。
    2. 既存のクラスタの構成情報をファイルにエクスポートします。
      phys-schost# cluster export -o clconfigfile
      -o

      出力先を指定します。

      clconfigfile

      クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。

      詳細は、cluster(1CL) のマニュアルページを参照してください。

    3. 新しいクラスタを構成するノードに構成ファイルをコピーします。

      クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。

  5. 新しいクラスタに構成するノードでスーパーユーザーになります。
  6. 必要に応じてクラスタ構成 XML ファイルを変更または作成します。

    XML 要素の値を、作成するクラスタ構成を反映するように含めるか変更します。

    • 既存のクラスタを複製する場合、cluster export コマンドで作成したファイルを開きます。

    • 既存のクラスタを複製しない場合は、新しいファイルを作成します。

      clconfiguration(5CL)のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。

    • クラスタを確立するには、クラスタ構成 XML ファイルで次のコンポーネントが有効な値を持つ必要があります。


      製氷水ラインの詰まりを取るためにどのように
    • 既存のクラスタからエクスポートした構成情報を変更する場合、新しいクラスタを反映するために変更の必要な一部の値 (ノード名など) が複数のクラスタオブジェクトに含まれています。

    クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL)のマニュアルページを参照してください。

  7. クラスタ構成XMLファイルを確認します。
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    詳細については、xmllint() のマニュアルページを参照してください。

  8. クラスタ構成 XML ファイルの潜在ノードから、クラスタを作成します。
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。

  9. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node  STATE          STIME    FMRI  online         17:52:55 svc:/milestone/multi-user-server:default
  10. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===    --- Node Status ---    Node Name                                       Status  ---------                                       ------  phys-schost-1                                   Online  phys-schost-2                                   Online  phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  11. Oracle Solaris Cluster ソフトウェアに対する必要なアップデートをすべて実行します。

    インストールの手順については、『Oracle Solaris Cluster システム管理』の第 11 章「ソフトウェアの更新」を参照してください。

  12. RPC による TCP ラッパーの使用を有効にする予定の場合は、各クラスタノード上で、すべての clprivnet0 IP アドレスを /etc/hosts.allow ファイルに追加します。

    /etc/hosts.allow ファイルへのこの追加を行わなかった場合、TCP ラッパーは、クラスタ管理ユーティリティーの RPC 経由でのノード間通信を妨げます。

    1. 各ノード上で、そのノードのすべての clprivnet0 デバイスの IP アドレスを表示します。
      # /usr/sbin/ipadm show-addr  ADDROBJ           TYPE     STATE        ADDR  clprivnet0/N      static   ok           ip-address/netmask-length
    2. 各クラスタノード上で、クラスタ内のすべての clprivnet0 デバイスの IP アドレスを、/etc/hosts.allow ファイルに追加します。
  13. 高可用性ローカルファイルシステム上で HA for NFS データサービス (HA for NFS) を使用する予定の場合、HA for NFS によってエクスポートされた、高可用性ローカルファイルシステムの一部となっている共有のすべてを、オートマウンタマップから除外します。

    オートマウンタマップの変更方法の詳細については、『Oracle Solaris のシステム管理 (ネットワークサービス)』の「マップの管理作業」を参照してください。

  14. 既存のクラスタから定足数情報を複製するには、クラスタ構成 XML ファイルを使用して定足数デバイスを構成します。

    2 ノードクラスタを作成した場合、定足数デバイスを構成する必要があります。必要な定足数デバイスを作成するためにクラスタ構成 XML ファイルを使用しない場合は、代わりに 「定足数デバイスを構成する方法」に進みます。

    1. 定足数デバイスに定足数サーバーを使用する場合は、定足数サーバーが設定されて動作していることを確認します。

      「Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法」の手順に従います。

    2. 定足数デバイスに NAS デバイスを使用している場合は、NAS デバイスが設定されて動作していることを確認します。
      1. NAS デバイスを定足数デバイスとして使用するための要件を守ってください。

        『Oracle Solaris Cluster With Network-Attached Storage Device Manual』を参照してください。

      2. デバイスの手順に従って、NAS デバイスを設定してください。
    3. クラスタ構成 XML ファイル内の定足数構成情報が作成したクラスタの有効な値を反映していることを確認します。
    4. クラスタ構成 XML ファイルを変更した場合は、そのファイルを確認します。
      phys-schost# xmllint --valid --noout clconfigfile
    5. 定足数デバイスを構成します。
      phys-schost# clquorum add -i clconfigfile device-name
      device-name

      定足数デバイスとして構成するストレージデバイスの名前を指定します。

  15. クラスタのインストールモードを解除します。
    phys-schost# clquorum reset
  16. 構成されたクラスタメンバーでないマシンによるクラスタ構成へのアクセスを終了します。
    phys-schost# claccess deny-all
  17. (省略可能) 監視される共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。
    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show  === Cluster Nodes ===                              Node Name:                                      node  …    reboot_on_path_failure:                          enabled  …

例 3-2 すべてのノードで XML ファイルを使用して、Oracle Solaris Cluster ソフトウェアを構成する

次の例では、既存の 2 ノードクラスタのクラスタ構成と定足数構成を新しい 2 ノードクラスタに複製します。新しいクラスタには Solaris 11 OS がインストールされています。クラスタ構成は、既存のクラスタノード、phys-oldhost-1 からクラスタ構成 XML ファイル clusterconf.xml にエクスポートされます。新しいクラスタのノード名は、phys-newhost-1 および phys-newhost-2 です。新しいクラスタで定足数デバイスとして構成されるデバイスは、d3 です。

この例で、プロンプト名 phys-newhost-N は、コマンドが両方のクラスタノードで実行されることを示しています。

phys-newhost-N# /usr/sbin/clinfo -n  clinfo: node is not configured as part of a cluster: Operation not applicable     phys-oldhost-1# cluster export -o clusterconf.xml  Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values     phys-newhost-1# xmllint --valid --noout clusterconf.xml  No errors are reported     phys-newhost-1# cluster create -i clusterconf.xml  phys-newhost-N# svcs multi-user-server  STATE          STIME    FMRI  online         17:52:55 svc:/milestone/multi-user-server:default  phys-newhost-1# clnode status  Output shows that both nodes are online     phys-newhost-1# clquorum add -i clusterconf.xml d3  phys-newhost-1# clquorum reset
追加コンポーネントの構成

クラスタが完全に確立されたら、既存のクラスタから他のクラスタコンポーネントの構成を複製できます。まだ複製を実行していない場合は、複製する XML 要素の値をコンポーネントを追加するクラスタ構成を反映するように変更します。たとえば、リソースグループを複製している場合、ノード名が同じでないかぎり、 エントリに複製したクラスタからのノード名ではなく、新しいクラスタの有効なノード名が含まれることを確認してください。

クラスタコンポーネントを複製するには、複製するクラスタコンポーネントのオブジェクト指向コマンドの export サブコマンドを実行します。コマンド構文およびオプションの詳細については、複製するクラスタオブジェクトのマニュアルページを参照してください。

次に、クラスタの確立後にクラスタ構成 XML ファイルから作成可能な一連のクラスタコンポーネントについて説明します。この一覧には、コンポーネントの複製に使用するコマンドのマニュアルページが含まれています。

  • デバイスグループ: Solaris ボリュームマネージャー: cldevicegroup(1CL)

    Solaris ボリュームマネージャー の場合、最初にクラスタ構成 XML ファイルで指定するディスクセットを作成します。

  • リソースグループマネージャーのコンポーネント

    clresourceclressharedaddress、または clreslogicalhostname コマンドの -a オプションを使用して、複製するリソースに関連したリソースタイプとリソースグループを複製することもできます。それ以外の場合は、リソースを追加する前に、まずリソースタイプとリソースグループをクラスタに追加する必要があります。

  • NAS デバイス: clnasdevice(1CL)

    デバイスのドキュメントの手順に従って、最初に NAS デバイスを設定する必要があります。

  • SNMP ホスト: clsnmphost(1CL)

    clsnmphost create -i コマンドでは、-f オプションでユーザーのパスワードファイルを指定する必要があります。

  • SNMP ユーザー: clsnmpuser(1CL)

  • クラスタオブジェクトのシステムリソースを監視するためのしきい値: cltelemetryattribute(1CL)

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。次に、この手順を再度実行します。

次の手順

「定足数構成とインストールモードを確認する方法」に進みます。

Oracle Solaris および Oracle Solaris Cluster ソフトウェアのインストールおよび構成 (Automated Installer)

クラスタの scinstall Automated Installer (AI) インストールでは、次のいずれかの方法で Oracle Solaris ソフトウェアのインストールを実行することを選択します。

  • すべてのデフォルト設定を適用する非対話式の Oracle Solaris インストールを実行します。

  • 対話式の Oracle Solaris インストールを実行し、ユーザーが望むデフォルト以外の任意の設定を指定します。

Oracle Solaris ソフトウェアの対話式インストールの詳細については、『Oracle Solaris 11 システムのインストール』の「テキストインストーラを使用したインストール」を参照してください。

scinstall ユーティリティーは 2 つのインストールモード (通常またはカスタム) で実行されます。「通常」を指定した Oracle Solaris Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。

プライベートネットワークアドレス

172.16.0.0

プライベートネットワークネットマスク

255.255.240.0

クラスタトランスポートアダプタ

正確に 2 つのアダプタ

クラスタトランスポートスイッチ

switch1 および switch2

グローバルフェンシング

有効

インストールセキュリティー (DES)

制限付き

通常モードまたはカスタムモードのインストールの計画を立てるには、次のいずれかのクラスタ構成ワークシートに記入します。

  • 「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。

    カスタム Automated Installer のブートイメージ ISO ファイル

    Automated Installer のブートイメージ ISO ファイルのフルパス名は何ですか ?

    カスタム Automated Installer のユーザー root のパスワード

    クラスタノードの root アカウントのパスワードは何ですか ?

    カスタム Automated Installer のリポジトリ

    発行元 solaris のリポジトリは何ですか ?

    発行元 ha-cluster のリポジトリは何ですか?

    インストールする Oracle Solaris Cluster コンポーネントを選択します。(インストールするグループパッケージを 1 つ以上選択します。)

    これらのグループパッケージに含まれる個々のコンポーネントを選択しますか ?

    Yes | No

    クラスタ名

    確立するクラスタの名前は何ですか ?

    クラスタノード

    初期クラスタ構成で構成するクラスタノードの名前(単一ノードクラスタの場合は、Control-D キーだけを押します。)

    ノードごとに自動検出される MAC アドレスが正しいことを確認します。

    クラスタトランスポートアダプタおよびケーブル

    第 1 ノードの名前:

    トランスポートアダプタ名:

    各追加ノードで指定

    ノード名:

    トランスポートアダプタ名:

    定足数の構成

    (2 ノードクラスタのみ)

    定足数デバイスの自動選択を無効にしますか ?(どの共有ストレージも定足数デバイスの条件を満たしていない場合や定足数サーバーを定足数デバイスとして構成する場合は、Yes と答えます。)

    1:  Yes | No

    2:  Yes | No

  • 「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。


    注 - 単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティーが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを使用します。


    カスタム Automated Installer のブートイメージ ISO ファイル

    Automated Installer のブートイメージ ISO ファイルのフルパス名は何ですか ?

    カスタム Automated Installer のユーザー root のパスワード

    クラスタノードの root アカウントのパスワードは何ですか ?

    カスタム Automated Installer のリポジトリ

    発行元 solaris のリポジトリは何ですか ?

    発行元 ha-cluster のリポジトリは何ですか?

    インストールする Oracle Solaris Cluster コンポーネントを選択します。(インストールするグループパッケージを 1 つ以上選択します。)

    これらのグループパッケージに含まれる個々のコンポーネントを選択しますか ?

    Yes | No

    クラスタ名

    確立するクラスタの名前は何ですか ?

    クラスタノード

    初期クラスタ構成で構成するクラスタノードの名前(単一ノードクラスタの場合は、Control-D キーだけを押します。)

    ノードごとに自動検出される MAC アドレスが正しいことを確認します。

    ノードを追加する要求の認証

    (複数ノードクラスタのみ)

    DES 認証が必要ですか ?

    No | Yes

    クラスタトランスポート用ネットワークアドレス

    (複数ノードクラスタのみ)

    デフォルトのネットワークアドレス (172.16.0.0) を使用しますか ?

    Yes | No

    • 使用しない場合、どのプライベートネットワークアドレスを使用しますか ?

    ___.___.___.___

    デフォルトのネットマスクを使用しますか ?

    Yes | No

    • 使用しない場合、クラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの最大数はいくつですか ?
    _____ ノード

    _____ ネットワーク

    _____ ゾーンクラスタ

    使用するネットマスクはどれですか ?scinstall が計算した値から選択するか、自分で入力します。

    ___.___.___.___

    プライベートネットワークの最小数

    (複数ノードクラスタのみ)

    このクラスタで、少なくとも 2 つのプライベートネットワークを使用する必要がありますか ?

    Yes | No

    ポイントツーポイントケーブル

    (2 ノードクラスタのみ)

    このクラスタでスイッチを使用しますか ?

    Yes | No

    クラスタスイッチ

    (複数ノードクラスタのみ)

    トランスポートスイッチ名 (使用している場合):
    クラスタトランスポートアダプタおよびケーブル

    (複数ノードクラスタのみ)

    第 1 ノードの名前:

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?
    各追加ノードで指定

    (複数ノードクラスタのみ)

    ノード名:

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?

    グローバルフェンシング

    グローバルフェンシングを無効にしますか ?(共有ストレージが SCSI 予約をサポートしている場合、またはクラスタ外部のシステムからの共有ストレージへのアクセスを望まない場合は No と回答する)

    1:  Yes | No

    2:  Yes | No

    定足数の構成

    (2 ノードクラスタのみ)

    定足数デバイスの自動選択を無効にしますか ?(どの共有ストレージも定足数デバイスの条件を満たしていない場合や定足数サーバーを定足数デバイスとして構成する場合は、Yes と答えます。)

    1:  Yes | No

    2:  Yes | No

Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールおよび構成する方法 (Automated Installer)

この手順では、カスタム Automated Installer によるインストール方法である scinstall(1M) を設定および使用する方法について説明します。この方法では、Oracle Solaris OS と Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアの両方をすべてのグローバルクラスタノードに同一処理内でインストールし、クラスタを確立します。これらのノードは、物理マシン、Oracle VM Server for SPARC I/O ドメインまたはゲストドメイン (SPARC のみ)、あるいはこれらの種類のノードの組み合わせの場合があります。


注 - 物理的にクラスタ化されたマシンが Oracle VM Server for SPARC で構成されている場合、I/O ドメインまたはゲストドメインにのみ Oracle Solaris Cluster ソフトウェアをインストールしてください。


これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

  • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

  • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

始める前に

次のタスクを実行します。

  • Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。ハードウェアの設定方法の詳細については、『Oracle Solaris Cluster Hardware Administration Manual』およびサーバーと記憶装置のドキュメントを参照してください。

  • Automated Installer インストールサーバーと DHCP サーバーが構成済みであることを確認します。『Oracle Solaris 11 システムのインストール』のパート III「インストールサーバーを使用したインストール」を参照してください。

  • クラスタノードの Ethernet アドレスと、そのアドレスが属するサブネットのサブネットマスクの長さを確認します。

  • 各クラスタノードの MAC アドレスを調べます。

  • クラスタ構成の計画が完了していることを確認します。要件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする方法」を参照してください。

  • クラスタノードの root ユーザーのパスワードを使用可能にしておきます。

  • SPARC: Oracle VM Server for SPARC の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に Oracle VM Server for SPARC ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認します。「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」を参照してください。

  • インストールする Oracle Solaris Cluster ソフトウェアパッケージを決定します。

    次の表に、AI インストール時に選択可能な Oracle Solaris Cluster 4.0 ソフトウェアのグループパッケージと各グループパッケージに含まれる主要機能の一覧を示します。最低でも ha-cluster-framework-minimal グループパッケージをインストールする必要があります。

    フレームワーク

    エージェント

    ローカリゼーション

    フレームワークのマニュアルページ

    データサービスのマニュアルページ

    エージェントビルダー


    平らな塗装の壁をきれいにする方法

    汎用データサービス

  • 完成した通常モードまたはカスタムモードのインストールワークシートを使用可能にしておきます。「Oracle Solaris および Oracle Solaris Cluster ソフトウェアのインストールおよび構成 (Automated Installer)」を参照してください。

  1. Automated Installer (AI) インストールサーバーと DHCP サーバーを設定します。

    AI インストールサーバーが次の要件を満たしていることを確認します。

    • インストールサーバーがクラスタノードと同じサブネット上に存在すること。

    • インストールサーバー自体はクラスタノードでないこと。

    • インストールサーバーによって、Oracle Solaris Cluster ソフトウェアがサポートする Oracle Solaris OS のリリースが実行されていること。

    • 各新規クラスタノードが、Oracle Solaris Cluster インストール用に設定されたカスタム AI ディレクトリを使用する、カスタム AI インストールクライアントとして構成されていること。

    使用するソフトウェアプラットフォームと OS のバージョンに該当する手順に従って、AI インストールサーバーと DHCP サーバーを設定します。『Oracle Solaris 11 システムのインストール』の第 8 章「インストールサーバーの設定」と『Oracle Solaris の管理: IP サービス』のパート II「DHCP」を参照してください。

  2. AI インストールサーバーで、スーパーユーザーになります。
  3. AI インストールサーバーに Oracle Solaris Cluster AI サポートパッケージをインストールします。
    1. 発行元 solarisha-cluster が有効であることを確認します。
      installserver# pkg publisher  PUBLISHER        TYPE     STATUS   URI  solaris          origin   online   solaris-repository  ha-cluster       origin   online   ha-cluster-repository
    2. クラスタ AI サポートパッケージをインストールします。
      installserver# pkg install ha-cluster/system/install
  4. AI インストールサーバーで scinstall ユーティリティーを起動します。
    installserver# /usr/cluster/bin/scinstall

    scinstall のメインメニューが表示されます。

  5. 「この Automated Installer インストールサーバーからクラスタをインストールおよび構成」メニュー項目を選択します。
     *** Main Menu ***         Please select from one of the following (*) options:          * 1) Install and configure a cluster from this Automated Installer install server        * 2) Print release information for this Automated Installer install server           * ?) Help with menu options        * q) Quit         Option:  1
  6. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。
  7. その他のインストール後タスクを実行する場合は、独自の AI マニフェストを設定します。

    『Oracle Solaris 11 システムのインストール』の第 13 章「初回ブート時のカスタムスクリプトの実行」を参照してください。

  8. AI インストールサーバーを終了します。
  9. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
    • 管理コンソール上で pconsole ソフトウェアがインストールおよび構成されている場合は、pconsole ユーティリティーを使用して個々のコンソール画面を表示します。

      スーパーユーザーとして、次のコマンドを使用して、pconsole ユーティリティーを起動します。

      adminconsole# pconsole host[:port] […]  &

      また、pconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。

    • pconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
  10. RPC 用 TCP ラッパーが、クラスタのすべてのノード上で無効になっていることを確認します。

    Oracle Solaris の RPC 用 TCP ラッパー機能は、クラスタの構成に必要なノード間通信を妨げます。

    1. 各ノード上で、RPC 用 TCP ラッパーのステータスを表示します。

      次のコマンド出力例に示すように、config/enable_tcpwrapperstrue に設定されている場合、TCP ラッパーが有効になっています。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers  config/enable_tcpwrappers  boolean true
    2. あるノード上で RPC 用 TCP ラッパーが有効になっている場合は、TCP ラッパーを無効にし、RPC バインドサービスを更新します。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false  # svcadm refresh rpc/bind  # svcadm restart rpc/bindEntry 2
  11. AI インストールを開始するために、各ノードをシャットダウンしてブートします。

    Oracle Solaris ソフトウェアはデフォルトの構成でインストールされます。

    • SPARC:
      1. 各ノードを停止します。
        phys-schost# shutdown -g0 -y -i0
      2. 次のコマンドでノードをブートします
        ok boot net:dhcp - install

        注 - 上記コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。


    • x86:
      1. ノードをリブートします。
        # reboot -p
      2. PXE ブート時に Control-N キーを押します。

        次のような 2 つのメニューエントリを含む GRUB メニューが表示されます。

        Oracle Solaris 11 11/11 Text Installer and command line  Oracle Solaris 11 11/11 Automated Install
      3. すぐに「自動インストール」エントリを選択し、Return キーを押します。

        注 - 「自動インストール」エントリを 20 秒以内に選択しなかった場合は、デフォルトの対話式テキストインストーラ方式を使用してインストールが進みますが、その場合は Oracle Solaris Cluster ソフトウェアのインストールや構成は行われません。


        各ノード上で新しいブート環境 (BE) が作成され、Automated Installer によって Oracle Solaris OS と Oracle Solaris Cluster ソフトウェアがインストールされます。インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Oracle Solaris Cluster のインストール出力は、各ノードの /var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  12. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node  STATE          STIME    FMRI  online         17:52:55 svc:/milestone/multi-user-server:default
  13. 各ノード上で、インストールされた BE をアクティブにしてからクラスタモードにブートします。
    1. インストールされた BE をアクティブにします。
      # beadm activate BE-name
    2. ノードを停止します。
      # shutdown -y -g0 -i0

      注 - reboot または halt コマンドは使用しないでください。これらのコマンドでは新しい BE がアクティブになりません。


    3. クラスタモードでノードをブートします。
  14. 高可用性ローカルファイルシステム上で HA for NFS データサービス (HA for NFS) を使用する予定の場合、HA for NFS によってエクスポートされた、高可用性ローカルファイルシステムの一部となっている共有のすべてを、オートマウンタマップから除外します。

    オートマウンタマップの変更方法の詳細については、『Oracle Solaris のシステム管理 (ネットワークサービス)』の「マップの管理作業」を参照してください。

  15. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードをリブートできます。

    grub edit> kernel /platform/i86pc/kernel/amd64/unix -B $ZFS-BOOTFS -k

    詳細は、『x86 プラットフォーム上の Oracle Solaris のブートおよびシャットダウン』の「カーネルデバッガ (kmdb) を有効にした状態でシステムをブートする方法」を参照してください。

  16. クラスタのリブートが必要なタスクを実行したら、クラスタをリブートしてください。

    次のタスクではリブートが必要になります。

    • ノードまたはクラスタをリブートする必要のあるソフトウェアアップデートのインストール

    • 有効にするためにリブートの必要な構成の変更

    1. 1 つのノードで、スーパーユーザーになります。
    2. クラスタを停止します。
      phys-schost-1# cluster shutdown -y -g0 cluster-name

      注 - クラスタがシャットダウンするまで、最初にインストールしたクラスタノードをリブートしないでください。クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。まだインストールモードにある確立されたクラスタで、最初にインストールしたノードをリブートする前にクラスタをシャットダウンしていない場合、残りのクラスタノードが定足数を獲得できません。クラスタ全体が停止します。

      clsetup コマンドを初めて実行するまで、クラスタノードは、インストールモードのままになります。「定足数デバイスを構成する方法」の手順の間にこのコマンドを実行します。


    3. クラスタ内にある各ノードをリブートします。

    クラスタ内ですべてのノードが正常にブートされると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  17. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===    --- Node Status ---    Node Name                                       Status  ---------                                       ------  phys-schost-1                                   Online  phys-schost-2                                   Online  phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  18. RPC による TCP ラッパーの使用を有効にする予定の場合は、各クラスタノード上で、すべての clprivnet0 IP アドレスを /etc/hosts.allow ファイルに追加します。

    /etc/hosts.allow ファイルへのこの追加を行わなかった場合、TCP ラッパーは、クラスタ管理ユーティリティーの RPC 経由でのノード間通信を妨げます。

    1. 各ノード上で、そのノードのすべての clprivnet0 デバイスの IP アドレスを表示します。
      # /usr/sbin/ipadm show-addr  ADDROBJ           TYPE     STATE        ADDR  clprivnet0/N      static   ok           ip-address/netmask-length
    2. 各クラスタノード上で、クラスタ内のすべての clprivnet0 デバイスの IP アドレスを、/etc/hosts.allow ファイルに追加します。
  19. (省略可能) 各ノード上で、監視される共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。
    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p
      設定するプロパティーを指定します。
      reboot_on_path_failure=enable

      監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show  === Cluster Nodes ===                              Node Name:                                      node  …    reboot_on_path_failure:                          enabled  …

次の手順

1. 次の手順のうち、ユーザーのクラスタ構成に当てはまるものをすべて実行します。

2. まだ構成されていない場合は定足数を構成し、インストール後のタスクを実行します。

注意事項

無効化された scinstall オプションscinstall コマンドの AI オプションの前にアスタリスクが付いていない場合、このオプションは無効化されています。この状況は、AI の設定が完了していないか、セットアップでエラーが発生したことを示します。この状況を修正するには、まず scinstall ユーティリティーを終了します。手順 1 から手順 7 までを繰り返して AI の設定を修正し、scinstall ユーティリティーを再起動します。

追加のグローバルクラスタノード用にクラスタを準備する方法

以下の手順を実行して、既存のグローバルクラスタノードで新しいクラスタノードを追加するためにクラスタを準備します。

始める前に

次のタスクを実行します。

  1. 新しいノードの名前をクラスタの承認済みノードリストに追加します。
    1. 任意のノードで、スーパーユーザーになります。
    2. clsetup ユーティリティーを起動します。
      phys-schost# clsetup

      メインメニューが表示されます。

    3. 「新規ノード」メニュー項目を選択します。
    4. 「追加されるマシンの名前を指定」メニュー項目を選択します。
    5. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      clsetup ユーティリティーは、タスクがエラーなしで完了した場合、「コマンドが正常に完了しました」というメッセージを表示します。

    6. clsetup ユーティリティーを終了します。
  2. 単一ノードクラスタにノードを追加する場合、インターコネクト構成を表示して、2 つのクラスタインターコネクトがすでに存在することを確認します。
    phys-schost# clinterconnect show

    少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。

    • 出力に 2 つのケーブルまたは 2 つのアダプタの構成情報が表示される場合は、手順 3 に進んでください。
    • 出力にケーブルまたはアダプタの構成情報が表示されない場合、または 1 つのケーブルまたはアダプタだけの構成情報が表示される場合は、新しいクラスタインターコネクトを構成してください。
      1. 1 つのノードで、clsetup ユーティリティーを開始します。
        phys-schost# clsetup
      2. 「クラスタインターコネクト」メニュー項目を選択します。
      3. 「トランスポートケーブルを追加」メニュー項目を選択します。

        指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポートスイッチを使用するかどうかを指定します。

      4. 必要に応じて、手順 c を繰り返して、2 番目のクラスタインターコネクトを構成します。
      5. 完了後 clsetup ユーティリティーを終了します。
      6. クラスタに 2 つのクラスタインターコネクトが構成されていることを確認します。
        phys-schost# clinterconnect show

        コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。

  3. プライベートネットワーク構成で、追加するノードおよびプライベートネットワークをサポートできることを確認します。
    1. 現在のプライベートネットワーク構成がサポートするノード、プライベートネットワーク、およびゾーンクラスタの最大数を表示します。
      phys-schost# cluster show-netprops

      次に出力例を示します。

      === Private Network ===                            private_netaddr:                                172.16.0.0    private_netmask:                                255.255.240.0    max_nodes:                                      64    max_privatenets:                                10    max_zoneclusters:                               12
    2. 現在のプライベートネットワークで非大域ゾーンおよびプライベートネットワークを含めたノードの数の増加に対応できるかどうかを判断します。

次の手順

新しいクラスタノードで Oracle Solaris Cluster ソフトウェアを構成します。「追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)」または 「追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML ファイル)」に進みます。

ノードまたはプライベートネットワークを追加する方法ときにプライベートネットワーク構成を変更する方法

このタスクを実行してグローバルクラスタのプライベート IP アドレス範囲を変更し、次の 1 つまたは複数のクラスタコンポーネントにおける増加に対応します。

  • ノードまたは非大域ゾーンの数

  • プライベートネットワークの数

  • ゾーンクラスタの数

また、この手順を使用して、プライベート IP アドレスの範囲を小さくすることもできます。


注 - この手順では、クラスタ全体をシャットダウンする必要があります。 ゾーンクラスタのサポートの追加など、ネットマスクだけを変更する必要がある場合、この手順は実行しないでください。 その代わり、ゾーンクラスタの予想数を指定するため、クラスタモードで動作しているグローバルクラスタノードから次のコマンドを実行します。

phys-schost# cluster set-netprops num_zoneclusters=N

このコマンドはクラスタのシャットダウンを要求しません。


  1. 各クラスタのノードのスーパーユーザーになります。
  2. 1 つのノードから、clsetup ユーティリティーを起動します。
    # clsetup

    clsetup のメインメニューが表示されます。

  3. 各リソースグループをオフラインに切り替えます。
    1. 「リソースグループ」メニュー項目を選択します。

      リソースグループメニューが表示されます。

    2. 「リソースグループをオンライン/オフライン化、またはスイッチオーバー」メニュー項目を選択します。
    3. プロンプトに従って、リソースグループをすべてオフラインにして、管理されていない状態にします。
    4. すべてのリソースグループがオフラインになったら、q を入力して「リソースグループメニュー」に戻ります。
  4. クラスタ内のすべてのリソースを無効にします。
    1. 「リソースを有効化または無効化」メニュー項目を選択します。
    2. 無効にするリソースを選択し、プロンプトの指示に従います。
    3. 無効にするリソースごとに上記の手順を繰り返します。
    4. すべてのリソースが無効になったら、q を入力して「リソースグループメニュー」に戻ります。
  5. clsetup ユーティリティーを終了します。
  6. すべてのノード上のすべてのリソースが Offline になっており、そのすべてのリソースグループが Unmanaged 状態であることを確認します。
    # cluster status -t resource,resourcegroup
    -t

    指定したクラスタオブジェクトへの出力を制限します

    resource

    リソースを指定します

    resourcegroup

    リソースグループを指定します

  7. ノードのどれか 1 つでクラスタを停止します。
    # cluster shutdown -g0 -y
    -g

    待機時間を秒単位で指定します。

    -y

    シャットダウンの確認を促すプロンプトを発生させないようにします。

  8. 各ノードを非クラスタモードでブートします。
    • SPARC:
      ok boot -x
    • x86:
      1. GRUB メニューで矢印キーを使用して該当する Oracle Solaris エントリを選択し、e と入力してコマンドを編集します。

        GRUB ベースのブートの詳細については、『x86 プラットフォーム上の Oracle Solaris のブートおよびシャットダウン』を参照してください。

      2. ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
      3. コマンドに -x を追加して、システムが非クラスタモードでブートするように指定します。
      4. Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。

        画面には編集されたコマンドが表示されます。

      5. b と入力して、ノードを非クラスタモードでブートします。

        注 - カーネルブートパラメータコマンドへのこの変更は、システムをブートすると無効になります。次にノードをリブートする際には、ノードはクラスタモードでブートします。非クラスタモードでブートするには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。


  9. 1 つのノードから、clsetup ユーティリティーを起動します。

    非クラスタモードで動作している場合、clsetup ユーティリティーは非クラスタモード動作用のメインメニューを表示します。

  10. 「Cluster トランスポート」メニュー項目の「ネットワークアドレス指定と範囲の変更」を選択します。

    clsetup ユーティリティーは現在のプライベートネットワーク構成を表示し、この構成を変更するかどうかを尋ねます。

  11. プライベートネットワーク IP アドレスか IP アドレス範囲のいずれかを変更するには、yes と入力し、Return キーを押します。

    clsetup ユーティリティーはデフォルトのプライベートネットワーク IP アドレスである 172.16.0.0 を表示し、このデフォルトをそのまま使用してもよいかどうかを尋ねます。

  12. プライベートネットワーク IP アドレスを変更するか、そのまま使用します。
    • デフォルトのプライベートネットワーク IP アドレスをそのまま使用し、IP アドレス範囲の変更に進むには、yes と入力し、Return キーを押します。
    • デフォルトのプライベートネットワーク IP アドレスを変更するには
      1. clsetup ユーティリティーの、デフォルトのアドレスをそのまま使用してもよいかどうかに関する質問に対しては「no」と入力し、Return キーを押します。

        clsetup ユーティリティーは、新しいプライベートネットワーク IP アドレスを入力するプロンプトを表示します。

      2. 新しい IP アドレスを入力し、Return キーを押します。

        clsetup ユーティリティーはデフォルトのネットマスクを表示し、デフォルトのネットマスクをそのまま使用してもよいかどうかを尋ねます。

  13. デフォルトのプライベートネットワーク IP アドレス範囲を変更するか、そのまま使用します。

    デフォルトのネットマスクは 255.255.240.0 です。このデフォルトの IP アドレス範囲は、クラスタ内で最大 64 のノード、最大 12 のゾーンクラスタ、および最大 10 のプライベートネットワークをサポートします。

    • デフォルトの IP アドレス範囲をそのまま使用するには、「yes」と入力して、Return キーを押します。
    • IP アドレス範囲を変更するには
      1. clsetup ユーティリティーの、デフォルトのアドレス範囲をそのまま使用してもよいかどうかに関する質問に対しては「no」と入力し、Return キーを押します。

        デフォルトのネットマスクを使用しない場合、clsetup ユーティリティーは、ユーザーがクラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの数を入力するプロンプトを表示します。

      2. クラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの数を入力します。

        これらの数から、clsetup ユーティリティーは 2 つの推奨ネットマスクを計算します。

        • 第一のネットマスクは、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数をサポートする、最低限のネットマスクです。

        • 第二のネットマスクは、将来ありうる成長に対応するため、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数の 2 倍をサポートします。

      3. 計算されたネットマスクのいずれかを指定するか、ノード、プライベートネットワーク、およびゾーンクラスタの予定数をサポートする別のネットマスクを指定します。
  14. 更新の継続に関する clsetup ユーティリティーの質問に対しては、「yes」と入力します。
  15. 完了後 clsetup ユーティリティーを終了します。
  16. 各ノードをリブートしてクラスタに戻します。
    1. 各ノードを停止します。
      # shutdown -g0 -y
    2. 各ノードをクラスタモードでブートします。
  17. 1 つのノードから、clsetup ユーティリティーを起動します。
    # clsetup

    clsetup のメインメニューが表示されます。

  18. すべての無効リソースを再度有効にします。
    1. 「リソースグループ」メニュー項目を選択します。

      リソースグループメニューが表示されます。

    2. 「リソースを有効化または無効化」メニュー項目を選択します。
    3. 有効にするリソースを選択し、プロンプトの指示に従います。
    4. 無効になっている各リソースに対して、この手順を繰り返します。
    5. すべてのリソースが再び有効になったら、 q を入力して「リソースグループメニュー」に戻ります。
  19. 各リソースグループをオンラインに戻します。

    ノードに非大域ゾーンが含まれる場合は、それらのゾーン内にあるリソースグループもすべてオンラインにします。

    1. 「リソースグループをオンライン/オフライン化、またはスイッチオーバー」メニュー項目を選択します。
    2. プロンプトに従って、各リソースグループを管理状態におき、リソースグループをオンラインに戻します。
  20. すべてのリソースグループがオンラインに戻ったら、clsetup ユーティリティーを終了します。

    q を入力して各サブメニューを取り消すか、Ctrl-C を押してください。

次の手順

既存のクラスタにノードを追加するには、次のいずれかの手順に進みます。

追加のグローバルクラスタノードでの Oracle Solaris Cluster ソフトウェアの構成 (scinstall)

scinstall ユーティリティーは 2 つのインストールモード (通常またはカスタム) で実行されます。Oracle Solaris Cluster ソフトウェアの通常インストールでは、scinstall によって自動的に、クラスタのトランスポートスイッチが switch1switch2 として指定されます。

次の構成計画ワークシートの 1 つに必要事項を記入します。計画のガイドラインについては、「Oracle Solaris OS の計画」および 「Oracle Solaris Cluster 環境の計画」を参照してください。

  • 「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。

    スポンサーノード

    スポンサーノードの名前は何ですか ?

    クラスタ内のアクティブなノードをどれか選択

    クラスタ名

    ノードを追加するクラスタの名前は何ですか ?

    確認


    具体的に木材を固定する方法

    cluster check 検証ユーティリティーを実行しますか?

    Yes | No

    クラスタトランスポートの自動検出

    クラスタトランスポートの構成に自動検出機能を使用しますか ?

    Yes | No

    ポイントツーポイントケーブル

    クラスタに追加するノードによって、クラスタが 2 ノードクラスタになりますか ?

    Yes | No

    このクラスタでスイッチを使用しますか ?

    Yes | No

    クラスタスイッチ

    使用している場合、2 つのスイッチの名前は何ですか ?

    クラスタトランスポートアダプタおよびケーブル

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?

    自動リブート

    scinstall によってインストール後ノードを自動的にリブートしますか ?

    Yes | No

  • 「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。

    スポンサーノード

    スポンサーノードの名前は何ですか ?

    クラスタ内のアクティブなノードをどれか選択

    クラスタ名

    ノードを追加するクラスタの名前は何ですか ?

    確認

    cluster check 検証ユーティリティーを実行しますか?

    Yes | No

    クラスタトランスポートの自動検出

    クラスタトランスポートの構成に自動検出機能を使用しますか ?

    Yes | No

    ポイントツーポイントケーブル

    クラスタに追加するノードによって、クラスタが 2 ノードクラスタになりますか ?

    Yes | No

    このクラスタでスイッチを使用しますか ?

    Yes | No

    クラスタスイッチ

    トランスポートスイッチ名 (使用している場合):

    クラスタトランスポートアダプタおよびケーブル

    トランスポートアダプタ名:

    各トランスポートアダプタの接続場所 (スイッチまたは別のアダプタ)

    トランスポートスイッチでデフォルトのポート名を使用しますか ?

    1:  Yes | No

    2:  Yes | No

    • 使用しない場合、使用するポートの名前は何ですか ?

    自動リブート

    scinstall によってインストール後ノードを自動的にリブートしますか ?

    Yes | No

追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する方法 (scinstall)

この手順を実行して、新しいノードを既存のグローバルクラスタに追加します。Automated Installer を使用して新しいノードを追加するには、「Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールおよび構成する方法 (Automated Installer)」の手順に従います。


注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する方法については、scinstall(1M) のマニュアルページを参照してください。


これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。

  • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

  • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

  • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

始める前に

次のタスクを実行します。

  1. 構成するクラスタノードで、スーパーユーザーになります。
  2. RPC 用 TCP ラッパーが、クラスタのすべてのノード上で無効になっていることを確認します。

    Oracle Solaris の RPC 用 TCP ラッパー機能は、クラスタの構成に必要なノード間通信を妨げます。

    1. 各ノード上で、RPC 用 TCP ラッパーのステータスを表示します。

      次のコマンド出力例に示すように、config/enable_tcpwrapperstrue に設定されている場合、TCP ラッパーが有効になっています。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers  config/enable_tcpwrappers  boolean true
    2. あるノード上で RPC 用 TCP ラッパーが有効になっている場合は、TCP ラッパーを無効にし、RPC バインドサービスを更新します。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false  # svcadm refresh rpc/bind  # svcadm restart rpc/bindEntry 2
  3. パブリックネットワークインタフェースを準備します。
    1. 各パブリックネットワークインタフェースの静的 IP アドレスを作成します。
      # ipadm create-ip interface  # ipadm create-addr -T static -a local=address/prefix-length addrobj

      詳細は、『Oracle Solaris 管理: ネットワークインタフェースとネットワーク仮想化』の「IP インタフェースを構成する方法」を参照してください。

    2. (省略可能) パブリックネットワークインタフェースの IPMP グループを作成します。

      リンクローカルでない IPv6 パブリックネットワークインタフェースがクラスタ内に存在していないかぎり、クラスタの初期構成時に、IPMP グループが一致するサブネットに基づいて自動的に作成されます。これらのグループでは、インタフェース監視用として推移的プローブが使用されるため、テストアドレスは必要ありません。

      これらの自動的に作成された IPMP グループがユーザーのニーズに合わない場合や、リンクローカルでない IPv6 パブリックネットワークインタフェースが構成に 1 つ以上含まれているために IPMP グループが作成されない場合は、次のいずれかを実行します。

      • クラスタを確立する前に、必要な IPMP グループを作成します。
      • クラスタの確立後に、ipadm コマンドを使用して IPMP グループを編集します。

      詳細は、『Oracle Solaris 管理: ネットワークインタフェースとネットワーク仮想化』の「IPMP グループの構成」を参照してください。

  4. scinstall ユーティリティーを起動します。
    phys-schost-new# /usr/cluster/bin/scinstall

    scinstall のメインメニューが表示されます。

  5. 「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
      *** Main Menu ***        Please select from one of the following (*) options:          * 1) Create a new cluster or add a cluster node        * 2) Print release information for this cluster node          * ?) Help with menu options        * q) Quit        Option:  1

    「新しいクラスタとクラスタノード」メニューが表示されます。

  6. 「このマシンを既存のクラスタ内にノードとして追加」オプションに対応する番号を入力し、Return キーを押します。
  7. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーがノードを構成し、クラスタのノードをブートします。

  8. 他のノードでもこの手順を繰り返して、すべての追加ノードの構成が完了するまでクラスタに追加します。
  9. 各ノードで、サービス管理機能 (Service Management Facility、SMF) のマルチユーザーサービスがオンラインになっていることを確認します。

    ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。

    phys-schost# svcs multi-user-server node  STATE          STIME    FMRI  online         17:52:55 svc:/milestone/multi-user-server:default
  10. 有効なクラスタメンバーから、他のノードがクラスタに参加するのを防ぎます。
    phys-schost# claccess deny-all

    あるいは、clsetup ユーティリティーも使用できます。手順については、『Oracle Solaris Cluster システム管理』の「既存のクラスタにノードを追加する方法」を参照してください。

  11. 1 つのノードから、すべてのノードがクラスタに参加したことを確認します。
    phys-schost# clnode status

    出力は次のようになります。

    === Cluster Nodes ===    --- Node Status ---    Node Name                                       Status  ---------                                       ------  phys-schost-1                                   Online  phys-schost-2                                   Online  phys-schost-3                                   Online

    詳細は、clnode(1CL) のマニュアルページを参照してください。

  12. クラスタ内で TCP ラッパーが使用される場合、追加されたすべてのノードの clprivnet0 IP アドレスが、各クラスタノードの /etc/hosts.allow ファイルに追加されていることを確認します。

    /etc/hosts.allow ファイルへのこの追加を行わなかった場合、TCP ラッパーは、クラスタ管理ユーティリティーの RPC 経由でのノード間通信を妨げます。

    1. 各ノード上で、すべての clprivnet0 デバイスの IP アドレスを表示します。
      # /usr/sbin/ipadm show-addr  ADDROBJ           TYPE     STATE        ADDR  clprivnet0/N      static   ok           ip-address/netmask-length
    2. 各ノード上で /etc/hosts.allow ファイルを編集し、クラスタ内のすべての clprivnet0 デバイスの IP アドレスを含めます。
  13. 必要なソフトウェアアップデートがすべてインストールされていることを確認します。
    phys-schost# pkg list
  14. (省略可能) 監視される共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。
    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show  === Cluster Nodes ===                              Node Name:                                      node  …    reboot_on_path_failure:                          enabled  …
  15. 高可用性ローカルファイルシステム上で HA for NFS データサービス (HA for NFS) を使用する予定の場合、HA for NFS によってエクスポートされた、高可用性ローカルファイルシステムの一部となっている共有のすべてを、オートマウンタマップから除外します。

    オートマウンタマップの変更方法の詳細については、『Oracle Solaris のシステム管理 (ネットワークサービス)』の「マップの管理作業」を参照してください。

例 3-3 追加ノードでの Oracle Solaris Cluster ソフトウェアの構成

次の例は、クラスタ schost に追加されたノード phys-schost-3 を示しています。スポンサーノードは、phys-schost-1 です。

Adding node "phys-schost-3" to the cluster configuration ... done  Adding adapter "net2" to the cluster configuration ... done  Adding adapter "net3" to the cluster configuration ... done  Adding cable to the cluster configuration ... done  Adding cable to the cluster configuration ... done    Copying the config from "phys-schost-1" ... done    Copying the postconfig file from "phys-schost-1" if it exists ... done  Setting the node ID for "phys-schost-3" ... done (id=1)    Verifying the major number for the "did" driver from "phys-schost-1" ... done  Initializing NTP configuration ... done    Updating nsswitch.conf ... done    Adding cluster node entries to /etc/inet/hosts ... done      Configuring IP Multipathing groups in "/etc/hostname." files    Updating "/etc/hostname.hme0".    Verifying that power management is NOT configured ... done    Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done    Ensure network routing is disabled ... done  Network routing has been disabled on this node by creating /etc/notrouter.  Having a cluster node act as a router is not supported by Oracle Solaris Cluster.  Please do not re-enable network routing.  Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done  Updating file ("hosts") on node phys-schost-1 ... done    Log file - /var/cluster/logs/install/scinstall.log.6952    Rebooting ... 

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。次に、この手順を再度実行します。

次の手順

定足数デバイスを使用する既存のクラスタにノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する方法」に進みます。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する方法 (XML ファイル)

XML クラスタ構成ファイルを使用して新規グローバルクラスタノードを構成するには、以下の手順を実行します。新しいノードは、Oracle Solaris Cluster 4.0 ソフトウェアを実行する既存のクラスタノードから複製できます。

この手順では、次のクラスタコンポーネントを構成します。

  • クラスタノードのメンバーシップ

  • クラスタインターコネクト

  • グローバルデバイス

始める前に

次のタスクを実行します。

  1. クラスタに追加するノード上で Oracle Solaris Cluster ソフトウェアがまだ構成されていないことを確認します。
    1. 作成するノード上でスーパーユーザーになります。
    2. 作成するノードで Oracle Solaris Cluster ソフトウェアが構成されているか調べます。
      phys-schost-new# /usr/sbin/clinfo -n
      • コマンドが失敗する場合は、手順 2 に進みます。

        Oracle Solaris Cluster ソフトウェアは、ノードでまだ構成されていません。クラスタにノードを追加できます。

      • このコマンドからノード ID 番号が返された場合、このノードではすでに Oracle Solaris Cluster ソフトウェアが構成されています。

        別のクラスタにノードを追加する前に、既存のクラスタ構成情報を削除する必要があります。

    3. 作成するノードを非クラスタモードでブートします。
      • SPARC:
        ok boot -x
      • x86:
        1. GRUB メニューで矢印キーを使用して該当する Oracle Solaris エントリを選択し、e と入力してコマンドを編集します。

          GRUB ベースのブートの詳細については、『x86 プラットフォーム上の Oracle Solaris のブートおよびシャットダウン』を参照してください。

        2. ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
        3. コマンドに -x を追加して、システムが非クラスタモードでブートするように指定します。
        4. Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。

          画面には編集されたコマンドが表示されます。

        5. b と入力して、ノードを非クラスタモードでブートします。

          注 - カーネルブートパラメータコマンドへのこの変更は、システムをブートすると無効になります。次にノードをリブートする際には、ノードはクラスタモードでブートします。非クラスタモードでブートするには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。


    4. 作成するノードから Oracle Solaris Cluster ソフトウェアを構成解除します。
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Oracle Solaris Cluster 4.0 ソフトウェアを実行するノードを複製する場合は、クラスタ構成 XML ファイルを作成します。
    1. 複製するクラスタノードでスーパーユーザーになります。
    2. 既存のノードの構成情報をファイルにエクスポートします。
      phys-schost# clnode export -o clconfigfile
      -o

      出力先を指定します。

      clconfigfile

      クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。

      詳細は、clnode(1CL) のマニュアルページを参照してください。

    3. クラスタ構成 XML ファイルを新しいクラスタノードとして構成するノードにコピーします。
  3. 作成するノード上でスーパーユーザーになります。
  4. RPC 用 TCP ラッパーが、クラスタのすべてのノード上で無効になっていることを確認します。

    Oracle Solaris の RPC 用 TCP ラッパー機能は、クラスタの構成に必要なノード間通信を妨げます。

    1. 各ノード上で、RPC 用 TCP ラッパーのステータスを表示します。

      次のコマンド出力例に示すように、config/enable_tcpwrapperstrue に設定されている場合、TCP ラッパーが有効になっています。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers  config/enable_tcpwrappers  boolean true
    2. あるノード上で RPC 用 TCP ラッパーが有効になっている場合は、TCP ラッパーを無効にし、RPC バインドサービスを更新します。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false  # svcadm refresh rpc/bind  # svcadm restart rpc/bindEntry 2
  5. 必要に応じてクラスタ構成 XML ファイルを変更または作成します。
    • 既存のノードを複製する場合、clnode export コマンドで作成したファイルを開きます。

    • 既存のノードを複製しない場合は、新しいファイルを作成します。

      clconfiguration(5CL)のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。このファイルは任意のディレクトリに格納できます。

    • XML 要素の値を作成するノード構成を反映するように変更します。

      クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL)のマニュアルページを参照してください。

  6. クラスタ構成XMLファイルを確認します。
    phys-schost-new# xmllint --valid --noout clconfigfile
  7. 新しいクラスタノードを構成します。
    phys-schost-new# clnode add -n sponsor-node -i clconfigfile
    -n sponsor-node

    既存のクラスタメンバーの名前を新しいノードのスポンサーの役割を果たすように指定します。

    -i clconfigfile

    入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。

  8. クラスタ内で TCP ラッパーが使用される場合、追加されたすべてのノードの clprivnet0 IP アドレスが、各クラスタノードの /etc/hosts.allow ファイルに追加されていることを確認します。

    /etc/hosts.allow ファイルへのこの追加を行わなかった場合、TCP ラッパーは、クラスタ管理ユーティリティーの RPC 経由でのノード間通信を妨げます。

    1. 各ノード上で、すべての clprivnet0 デバイスの IP アドレスを表示します。
      # /usr/sbin/ipadm show-addr  ADDROBJ           TYPE     STATE        ADDR  clprivnet0/N      static   ok           ip-address/netmask-length
    2. 各ノード上で /etc/hosts.allow ファイルを編集し、クラスタ内のすべての clprivnet0 デバイスの IP アドレスを含めます。
  9. (省略可能) 監視される共有ディスクパスがすべて失敗した場合、自動ノードリブートを有効にします。
    1. 自動リブートを有効にします。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      設定するプロパティーを指定します。

      reboot_on_path_failure=enable

      監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。

    2. ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
      phys-schost# clnode show  === Cluster Nodes ===                              Node Name:                                      node  …    reboot_on_path_failure:                          enabled  …

注意事項

構成の失敗 – 1 つ以上のノードがクラスタに参加できない場合、または間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。次に、この手順を再度実行します。

次の手順

定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する方法」に進みます。

それ以外の場合は、「定足数構成とインストールモードを確認する方法」に進みます。

グローバルクラスタへのノード追加後に定足数デバイスを更新する方法

グローバルクラスタにノードを追加したら、共有ディスク、NAS デバイス、定足数サーバー、またはこれらの組み合わせのどれを使用しているかに関わらず、定足数デバイスの構成情報を更新する必要があります。これを行うには、定足数デバイスをすべて削除して、グローバルデバイスの名前空間を更新します。必要に応じて、使用を継続する定足数デバイスを再構成することもできます。この更新により、それぞれの定足数デバイスに新しいノードが登録され、クラスタ内の新しいノード数に基づいて、定足数デバイスの投票数が再計算されます。

新しく構成された SCSI 定足数デバイスは、SCSI-3 予約に設定されます。

始める前に

追加されたノードへの Oracle Solaris Cluster ソフトウェアのインストールが完了したことを確認します。

  1. クラスタの任意のノードで、スーパーユーザーになります。
  2. クラスタノードがすべてオンラインであることを確認します。
    phys-schost# cluster status -t node
  3. 現在の定足数構成を表示します。

    コマンド出力にそれぞれの定足数デバイスとノードの一覧が表示されます。次の出力例は、現在の SCSI 定足数デバイス d3 を示しています。

    phys-schost# clquorum list  d3  …
  4. それぞれの定足数デバイスの名前が表示されていることに注意してください。
  5. 元の定足数デバイスを削除します。

    構成する定足数デバイスごとにこの手順を実行します。

    phys-schost# clquorum remove device-name
    device-name

    定足数デバイスの名前を指定します。

  6. 元の定足数デバイスがすべて削除されたことを確認します。

    定足数デバイスの削除が成功した場合、定足数デバイスの一覧は表示されません。

    phys-schost# clquorum status
  7. グローバルデバイスの名前空間を更新します。
    phys-schost# cldevice populate

    注 - この手順はノードのパニックを防ぐために必要です。


  8. 各ノードで、定足数デバイスを追加する前に cldevice populate コマンドが処理を完了していることを確認します。

    cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。

    phys-schost# ps -ef | grep scgdevs
  9. (省略可能) 定足数デバイスを追加します。

    もともと定足数デバイスとして構成されていたデバイスと同じデバイスを構成するか、構成する新しい共有デバイスを選択することができます。

    1. (省略可能) 定足数デバイスとして構成する新しい共有デバイスを選択する場合は、システムがチェックするすべてのデバイスを表示し、その出力から共有デバイスを選択します。
      phys-schost# cldevice list -v

      出力は次のようになります。

      DID Device          Full Device Path  ----------          ----------------  d1                  phys-schost-1:/dev/rdsk/c0t0d0  d2                  phys-schost-1:/dev/rdsk/c0t6d0  d3                  phys-schost-2:/dev/rdsk/c1t1d0  d3                  phys-schost-1:/dev/rdsk/c1t1d0   …
    2. この共有デバイスを定足数デバイスとして構成します。
      phys-schost# clquorum add -t type device-name
      -t type

      定足数デバイスの種類を指定します。このオプションを指定しない場合、デフォルトの種類である shared_disk が使用されます。

    3. 構成する定足数デバイスごとにこの手順を繰り返します。
    4. 新しい定足数構成を確認します。
      phys-schost# clquorum list

      出力には、それぞれの定足数デバイスとノードの一覧が表示されるはずです。

例 3-4 2 ノードクラスタへのノードの追加後に SCSI 定足数デバイスを更新する

次の例では、元の SCSI 定足数デバイス d2 を特定し、この定足数デバイスを削除し、使用できる共有デバイスの一覧を表示し、グローバルデバイスの名前空間を更新し、d3 を新しい SCSI 定足数デバイスとして構成して、新しいデバイスを検証します。


phys-schost# clquorum list  d2  phys-schost-1  phys-schost-2    phys-schost# clquorum remove d2  phys-schost# clquorum status  …  --- Quorum Votes by Device ---    Device Name       Present      Possible      Status  -----------       -------      --------      ------    phys-schost# cldevice list -v  DID Device          Full Device Path  ----------          ----------------  …  d3                  phys-schost-2:/dev/rdsk/c1t1d0  d3                  phys-schost-1:/dev/rdsk/c1t1d0  …  phys-schost# cldevice populate  phys-schost# ps -ef - grep scgdevs  phys-schost# clquorum add d3  phys-schost# clquorum list  d3  phys-schost-1  phys-schost-2

次の手順

「定足数構成とインストールモードを確認する方法」に進みます。

定足数デバイスを構成する方法


注 - 次の場合は定足数デバイスを構成する必要はありません。

  • Oracle Solaris Cluster ソフトウェアの構成時に自動定足数構成を選択した場合

  • 単一ノードグローバルクラスタをインストールした場合

  • ノードを既存のグローバルクラスタに追加し、十分な定足数投票を割り当て済みの場合

クラスタの確立時に自動定足数構成を選択した場合は、この手順を実行しないでください。代わりに、「定足数構成とインストールモードを確認する方法」に進みます。


次の手順は、新しいクラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。

始める前に

  • 定足数サーバー – 定足数サーバーを定足数デバイスとして構成するには、次を実行します。

    • 定足数サーバーのホストコンピュータに Oracle Solaris Cluster Quorum Server ソフトウェアをインストールして、定足数サーバーを起動します。定足数サーバーのインストールと起動についての詳細は、「Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法」を参照してください。

    • クラスタノードに直接接続されているネットワークスイッチが次の基準のいずれかを満たすことを確認します。

      クラスタノードと定足数サーバー間ですぐに通信できるようにするには、これらの機能の 1 つが必要です。この通信がスイッチによって大幅に遅延すると、クラスタはこの通信の中断を定足数デバイスが失われたものと解釈します。

    • 次の情報を用意します。

      • 構成された定足数デバイスの名前

      • 定足数サーバーのホストコンピュータの IP アドレス

      • 定足数サーバーのポート番号

  • NAS デバイス – ネットワーク接続ストレージ (NAS) デバイスを構成するには、次を実行します。

  1. 次の条件のどちらにも当てはまる場合は、パブリックネットワークアドレスの接頭辞長が正しく設定されていることを確認します。
    • 定足数サーバーを使用する場合。

    • パブリックネットワークが、classless inter domain routing (CIDR) とも称せられる可変長のサブネットマスキングを使用する場合。

    # ipadm show-addr      ADDROBJ           TYPE     STATE        ADDR      lo0/v4            static   ok           127.0.0.1/8      ipmp0/v4          static   ok           10.134.94.58/24 

    注 - 定足数サーバーを使用するが、パブリックネットワークが RFC 791 で定義されたようにクラスフルサブネットを使用する場合、このステップを実行する必要はありません。


  2. 1 つのノードで、スーパーユーザーになります。

    あるいは、ユーザーアカウントに System Administrator プロファイルが割り当てられている場合、プロファイルシェル経由で非 root としてコマンドを発行するか、コマンドの先頭に pfexec コマンドを付加します。

  3. クラスタノードがすべてオンラインであることを確認します。
    phys-schost# cluster status -t node
  4. 共有ディスクを定足数デバイスとして使用するには、デバイスのクラスタノードへの接続を確認し、構成するデバイスを選択します。
    1. クラスタの 1 つのノードから、システムがチェックするすべてのデバイスの一覧を表示します。

      このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。

      phys-schost-1# cldevice list -v

      出力は次のようになります。

      DID Device          Full Device Path  ----------          ----------------  d1                  phys-schost-1:/dev/rdsk/c0t0d0  d2                  phys-schost-1:/dev/rdsk/c0t6d0  d3                  phys-schost-2:/dev/rdsk/c1t1d0  d3                  phys-schost-1:/dev/rdsk/c1t1d0  …
    2. 出力にクラスタノードとストレージデバイス間のすべての接続が表示されていることを確認します。
    3. 定足数デバイスとして構成する各共有ディスクのグローバルデバイス ID を決定します。

      注 - 共有ディスクを選択した場合は、その共有ディスクが定足数デバイスとして使用する権限を持つ必要があります。定足数デバイスの選択の詳細については、「定足数デバイス」を参照してください。


      手順 a の cldevice の出力を使用して、定足数デバイスとして構成する各共有ディスクのデバイス ID を識別します。たとえば、手順 a の出力はグローバルデバイス d3phys-schost-1phys-schost-2 によって共有されていることを示しています。

  5. SCSI プロトコルをサポートしない共有ディスクを使用する場合は、その共有ディスクに対してフェンシングが無効になっているか確認してください。
    1. 個々のディスクのフェンシング設定が表示されます。
      phys-schost# cldevice show device    === DID Device Instances ===  DID Device Name:                                      /dev/did/rdsk/dN  …    default_fencing:                                     nofencing
      • ディスクのフェンシングが nofencing または nofencing-noscrub に設定されている場合は、そのディスクのフェンシングは無効化されます。手順 6 に進みます。
      • ディスクのフェンシングが pathcount または scsi に設定されている場合は、そのディスクのフェンシングを無効化します。手順 c に進みます。
      • ディスクのフェンシングが global に設定されている場合は、フェンシングもグローバルに無効化するかどうかを決定します。手順 b に進みます。

        代わりに、単に各ディスクのフェンシングを無効化することもできます。これは、global_fencing プロパティーにどのような値を設定しても、そのディスクに対してオーバーライドされます。手順 c に進んで、各ディスクのフェンシングを無効化します。

    2. フェンシングをグローバルに無効化するかどうかを決定します。
      phys-schost# cluster show -t global    === Cluster ===  Cluster name:                                         cluster  …     global_fencing:                                      nofencing
      • グローバルフェンシングが nofencing または nofencing-noscrub に設定されている場合は、default_fencing プロパティーが global に設定されている共有ディスクのフェンシングが無効化されます。手順 6 に進みます。
      • グローバルフェンシングが pathcount または prefer3 に設定されている場合は、共有ディスクのフェンシングを無効化します。手順 c に進みます。

      注 - 各ディスクの default_fencing プロパティーが global に設定されている場合は、クラスタ全体の global_fencing プロパティーが nofencing または nofencing-noscrub に設定されている場合にのみ、各ディスクのフェンシングが無効化されます。global_fencing プロパティーをフェンシングを有効化する値に変更すると、default_fencing プロパティーが global に設定されているすべてのディスクのフェンシングが有効化されます。


    3. 共有ディスクのフェンシングを無効化します。
      phys-schost# cldevice set \  -p default_fencing=nofencing-noscrub device
    4. 共有ディスクのフェンシングが無効になっていることを確認します。
      phys-schost# cldevice show device
  6. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    「初期クラスタ設定」画面が表示されます。


    注 - 代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 11 に進みます。


  7. 定足数ディスクを追加するかどうかを示します。
    • クラスタが 2 ノードクラスタの場合、1 つ以上の共有定足数デバイスを構成する必要があります。1 つ以上の定足数デバイスを構成するには、「Yes」 と入力します。
    • クラスタに 3 つ以上のノードがある場合、定足数デバイス構成は省略可能です。
      • 追加の定足数デバイスを構成しない場合は、「No」 と入力します。次に、 手順 10にスキップします。
      • 1 つ以上の定足数デバイスを構成するには、「Yes」 と入力します。
  8. 定足数デバイスとして構成するデバイスの種類を指定します。

    shared_disk

    quorum_server

    定足数サーバー

  9. 定足数デバイスとして構成するデバイスの名前を指定し、必要な追加情報をすべて指定します。
  10. installmode をリセットしてもかまわないことを確認するために、Yes と入力します。

    clsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティーは、「メインメニュー」に戻ります。

  11. clsetup ユーティリティーを終了します。

次の手順

定足数構成とインストールモードが無効になっていることを確認します。「定足数構成とインストールモードを確認する方法」に進みます。

注意事項

中断された clsetup 処理 – 定足数設定プロセスが中断されるか、完了に失敗した場合は、clsetup を再実行してください。

定足投票数の変更 – 定足数デバイスに対するノード接続の数をあとで増減させる場合、定足数が自動的に再計算されることはありません。 各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。『Oracle Solaris Cluster システム管理』の第 6 章「定足数の管理」の「定足数デバイスのノードリストを変更する」手順を参照してください。

到達不可能な定足数デバイス – クラスタノードで定足数デバイスが到達不可能というメッセージが表示される場合、またはクラスタノードで「CMM: 定足数デバイスを獲得できません」というエラーメッセージが表示される場合、定足数デバイスまたは定足数デバイスへのパスに問題がある可能性があります。定足数デバイスおよび定足数デバイスへのパスが機能していることを確認してください。

引き続き問題が発生する場合、別の定足数デバイスを使用します。また、同じ定足数デバイスを使用する場合は、定足数のタイムアウトを次のように高い値に増やします。


注 - Oracle RAC (Oracle Real Application Clusters) では、デフォルトの定足数タイムアウトである 25 秒を変更しないでください。一部のスプリットブレーンシナリオでは、タイムアウト時間を長くすると、VIP リソースのタイムアウトが原因で Oracle RAC VIP フェイルオーバーが失敗する可能性があります。使用している定足数デバイスがデフォルトの 25 秒のタイムアウトに適合しない場合は、別の定足数デバイスを使用してください。


  • 1. スーパーユーザーになります。

  • 2. 各クラスタノードで、スーパーユーザーとして /etc/system ファイルを編集して、タイムアウトを高い値に設定します。

    次の例では、タイムアウトを 700 秒に設定します。

    phys-schost# vi /etc/system  …  set cl_haci:qd_acquisition_timer=700
  • 3. ノードのどれか 1 つでクラスタを停止します。

    phys-schost-1# cluster shutdown -g0 -y
  • 4. 各ノードをブートしてクラスタに戻します。

    /etc/system ファイルに対する変更は、リブート後に初期化されます。

定足数構成とインストールモードを確認する方法

定足数の構成が正常に終了したことと、クラスタのインストールモードが無効になっていることを確認する場合に、この手順を実行します。

これらのコマンドを実行するために、スーパーユーザーである必要はありません。

  1. 任意のグローバルノードから、デバイスとノードの定足数構成を確認します。
    phys-schost$ clquorum list

    出力には、それぞれの定足数デバイスとノードの一覧が表示されます。

  2. 任意のモードから、クラスタのインストールモードが無効になっていることを確認します。
    phys-schost$ cluster show -t global | grep installmode    installmode:                                    disabled

    クラスタのインストールと作成が完了しました。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

参照

クラスタ構成のバックアップを取ります。

クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Oracle Solaris Cluster システム管理』の「クラスタ構成をバックアップする方法」を参照してください。

プライベートホスト名を変更する方法

このタスクは、Oracle Solaris Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeID-priv) を使用しない場合に実行します。


注 - この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


クラスタの 1 つのアクティブなノードで次の手順を実行します。

  1. グローバルクラスタノード上でスーパーユーザーになります。
  2. clsetup ユーティリティーを起動します。
    phys-schost# clsetup

    clsetup のメインメニューが表示されます。

  3. 「プライベートホスト名」オプションの番号を入力し、Return キーを押します。

    「プライベートホスト名」メニューが表示されます。

  4. 「ノードのプライベートホスト名」オプションの番号を入力し、Return キーを押します。
  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. プライベートホスト名を確認します。
    phys-schost# clnode show -t node | grep privatehostname    privatehostname:                                clusternode1-priv    privatehostname:                                clusternode2-priv    privatehostname:                                clusternode3-priv

次の手順

変更されたプライベートホスト名で NTP 構成を更新します。「プライベートホスト名を変更したあとで NTP を更新する方法」に進みます。

時間情報プロトコル (NTP) の構成

ここでは、次の手順について説明します。

ユーザー独自の /etc/inet/ntp.conf ファイルを使用する方法


注 - Oracle Solaris Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしてある場合は、この手順を実行する必要はありません。「クラスタの妥当性を検査する方法」に進みます。


  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
  2. ユーザーの /etc/inet/ntp.conf ファイルをクラスタの各ノードに追加します。
  3. 各ノードで NTP サービスの状態を確認します。
    phys-schost# svcs svc:/network/ntp:default
  4. 各ノードで NTP デーモンを起動します。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

単一ノードクラスタにノードを追加したあとで NTP をインストールする方法

単一ノードのクラスタにノードを追加する場合、使用する NTP 構成ファイルがもとのクラスタノードおよび新しいノードにコピーされていることを確認する必要があります。

  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
  2. 追加されたノードから元のクラスタノードに、/etc/inet/ntp.conf および /etc/inet/ntp.conf.sc ファイルをコピーします。

    これらのファイルは、追加されたノードがクラスタで構成されたときに、そのノード上で作成されたものです。

  3. 元のクラスタノード上で、/etc/inet/ntp.conf.sc ファイルを指す /etc/inet/ntp.conf.include という名前のシンボリックリンクを作成します。
    phys-schost# ln -s /etc/inet/ntp.conf.sc /etc/inet/ntp.conf.include
  4. 各ノードで NTP サービスの状態を確認します。
    phys-schost# svcs svc:/network/ntp:default
  5. 各ノードで NTP デーモンを起動します。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

プライベートホスト名を変更したあとで NTP を更新する方法

  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
  2. クラスタの各ノード上で、変更されたプライベートホスト名で /etc/inet/ntp.conf.sc ファイルを更新します。
  3. 各ノードで NTP サービスの状態を確認します。
    phys-schost# svcs svc:/network/ntp:default
  4. 各ノードで NTP デーモンを起動します。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

クラスタの妥当性を検査する方法

クラスタのすべての構成を完了したら、cluster check コマンドを使用して、クラスタの構成と機能の妥当性を検査します。詳細は、cluster(1CL) のマニュアルページを参照してください。


ヒント - 今後の参照またはトラブルシューティングが容易になるように、実行する妥当性の検査ごとに、-o outputdir オプションを使用してログファイルのサブディレクトリを指定します。既存のサブディレクトリ名を再使用すると、そのサブディレクトリにある既存のファイルすべてが削除されます。そのため、今後の参照のためにログファイルを使用できるようにするには、実行するクラスタチェックごとに固有のサブディレクトリ名を指定します。


始める前に

ファームウェアやソフトウェアのアップデートなど、クラスタ内のハードウェアおよびソフトウェアコンポーネントすべてのインストールと構成を完了したことを確認します。

  1. 各クラスタのノードのスーパーユーザーになります。
  2. 最新のチェックがあることを確認します。
    1. My Oracle Support の「パッチと更新」タブを参照します。
    2. 詳細検索で、製品として「Solaris Cluster」を選択し、「説明」フィールドで「check」と入力します。

      この検索によって、チェックを含む Oracle Solaris Cluster ソフトウェアアップデートが見つかります。

    3. まだクラスタにインストールされていないソフトウェアアップデートをすべて適用します。
  3. 基本の妥当性検査を実行します。
    # cluster check -v -o outputdir
    -v

    冗長モード。

    -o outputdir

    outputdir サブディレクトリに出力をリダイレクトします。

    このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。

  4. インタラクティブな妥当性検査を実行します。
    # cluster check -v -k interactive -o outputdir
    -k interactive

    実行するインタラクティブな妥当性検査を指定します。

    このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。

  5. 機能の妥当性検査を実行します。
    1. 非冗長モードですべての使用可能な機能検査一覧が表示されます。
      # cluster list-checks -k functional
    2. どの機能検査が、本稼働環境でクラスタの可用性またはサービスを中断する可能性がある処理を実行するかを判断してください。

      たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。

      # cluster list-checks -v -C check-ID
      -C check-ID

      特定の検査を指定します。

    3. クラスタの機能を中断するような機能検査を実行する場合、クラスタが本稼働状態から除外されるようにします。
    4. 機能検査を開始します。
      # cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      実行する機能の妥当性検査を指定します。

      検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。

    5. 実行する残りの機能検査ごとに、手順 c と手順 d を繰り返します。

      注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。


例 3-5 インタラクティブな妥当性検査のリスト

クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k interactive   Some checks might take a few moments to run (use -v to see progress)...   I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

例 3-6 機能の妥当性検査の実行

まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。

# cluster list-checks -k functional   F6968101  :   (Critical)   Perform resource group switchover   F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.   F6984121  :   (Critical)   Perform cluster shutdown   F6984140  :   (Critical)   Induce node panic  …    # cluster list-checks -v -C F6968101   F6968101: (Critical) Perform resource group switchover  Keywords: SolarisCluster3.x, functional  Applicability: Applicable if multi-node cluster running live.  Check Logic: Select a resource group and destination node. Perform   '/usr/cluster/bin/clresourcegroup switch' on specified resource group   either to specified node or to all nodes in succession.  Version: 1.2  Revision Date: 12/10/10     Take the cluster out of production    # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011  F6968101     initializing...    initializing xml output...    loading auxiliary data...    starting check run...       pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:    Perform resource group switchover                   ============================================================       >>> Functional Check <<<        'Functional' checks exercise cluster behavior. It is recommended that you      do not run this check on a cluster in production mode.' It is recommended      that you have access to the system console for each cluster node and      observe any output on the consoles while the check is executed.        If the node running this check is brought down during execution the check      must be rerun from this same node after it is rebooted into the cluster in      order for the check to be completed.        Select 'continue' for more details on this check.              1) continue            2) exit              choice: 1        ============================================================       >>> Check Description <<<  …  Follow onscreen directions

次の手順

クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する方法」に進みます。

クラスタ構成の診断データを記録する方法

グローバルクラスタの構成が完了したら、本番稼動させる前に、Oracle Explorer ユーティリティーを使用して、クラスタに関するベースライン情報を記録します。このデータは、将来クラスタのトラブルシューティングを行う必要がある場合に使用できます。

  1. スーパーユーザーになります。
  2. Oracle Explorer ソフトウェアがまだインストールされていない場合は、インストールします。

    Services Tools Bundle には、Oracle Explorer パッケージの SUNWexploSUNWexplu が含まれています。ソフトウェアのダウンロードとインストールについては、 を参照してください。

  3. クラスタ内の各ノードで explorer ユーティリティーを実行します。

    プラットフォームに適したコマンドを使用します。たとえば、Oracle の Sun Fire T1000 サーバー上で情報を収集するには、次のコマンドを実行します。

    # explorer -i -w default,Tx000

    詳細は、/opt/SUNWexplo/man/man1m/ ディレクトリにある explorer(1M) のマニュアルページと、My Oracle Support の Note 1153444.1 経由で入手可能な『Oracle Explorer Data Collector User Guide』を参照してください。

    explorer の出力ファイルは、/opt/SUNWexplo/output/ ディレクトリに explorer.hostid.hostname-date.tar.gz として保存されます。

  4. クラスタ全体が停止した場合は、ファイルをアクセスできる場所に保存します。
  5. すべての explorer ファイルを、お住まいの地域の Oracle Explorer データベースに送信します。

    FTP または HTTPS を使用して Oracle Explorer ファイルを送信するには、『Oracle Explorer Data Collector User's Guide』の手順に従ってください。

    Oracle Explorer データベースは、ユーザーのクラスタの技術的な問題を診断するためにデータが必要な場合に、ユーザーの explorer 出力を Oracle の技術サポートが使用できるようにします。



    These are our most popular posts:

    Oracle Clusterwareの管理

    IPMIを使用するフェンシングの設計および実装では、この構成がサポートされ、かつ標準 であると想定されています。BMCの動 ... ドライバを手動でインストールするには、 root としてログインし、次のコマンドを実行します。 .... BMCのアカウント・スロットをリストし、 未使用のスロット(この例では、 User Name フィールドが空のユーザーID)を特定します 。 read more

    フィールドのフェンスをインストールする最善の方法 » ウィキ便利

    フィールドのフェンスをインストールする最善の方法. うまくインストールされている フィールドのフェンス. フェンシングは、家畜を所有する人のための最も重要なツールの1 つです。 良いフェンシングは、それが人々を放浪し続けるあなたの家畜を保つだけでは なく。 read more

    Oracle Solaris Cluster ソフトウェアのインストール

    Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールおよび構成 する方法 (Automated Installer). 追加の ... 単一ノードクラスタにノードを追加したあとで NTP をインストールする方法 .... グローバルフェンシングを無効にしますか ? ...... 詳細 検索で、製品として「Solaris Cluster」を選択し、「説明」フィールドで「check」と入力し ます。 read more

    5.5. 電力管理とフェンシングを設定する

    管理者の方にはフェンシング機能のパラメータを設定し時々その正確性を検査すること を強く推奨します。電力管理の ... 両方の方法を本セクションで説明していきます。隔離 作業では、 ... をセットする. ホストのフェンシング機能のパラメータは新規ダイアログ または編集ダイアログの Power Management フィールドでセットします。 ... インストールが完了すると、新たに追加されたホストの状態は Pending Approval となり ます。状態が Up ... read more

0 件のコメント:

コメントを投稿