[[Hadoopセットアップ]] > 古いバージョン([[0.23.1>Hadoop0.23セットアップ]]、[[0.23.0>Hadoop0.23.0セットアップ]])

&ref(images/note.png,nolink);&color(red){''DEPRECATED!: このバージョンのHadoopは古いです。ご利用は非推奨です。''};[[Hadoop2.0セットアップ]]をご参照ください。

* 目次 [#t4e5ffd1]
#contents

* 他のバージョンのセットアップ [#o5bdf854]

+ [[Hadoop2.0.1alpha>Hadoop2.0.1aセットアップ]] - &color(red){''DEPRECATED''};
+ [[Hadoop2.0.0alpha>Hadoop2.0.0aセットアップ]] - &color(red){''DEPRECATED''};

* 構成の概要 [#j7e6d2eb]

- Hadoop 2.0では、従来型のMapReduce実行環境(JobTracker、TaskTracker)をセットアップすることも可能ですが、以下では次世代のYARN(Yet Another Resource Negotiator)環境をセットアップします。
- こちらの[[推奨ディレクトリ構成例>推奨ディレクトリ構成forHadoop2.0]]で構築します。

* 疑似分散モード(シングルノード) [#ef2dbdf9]

2.0.x系(YARN、次世代MapReduce)最新版をセットアップします。
ローカルモードではなく、1機で分散処理環境を起動させます。以下のインスタンスを起動します。
+ HDFS
++ プライマリNameNode
++ セカンダリNameNode
++ DataNode
+ YARN
++ ResourceManager
++ NodeManager
+ MapReduceアプリケーション
++ JobHistoryServer

&color(red){設定ディレクトリとしては、${HADOOP_PREFIX}/''conf/'' を作成せず、デフォルトと思われる ${HADOOP_PREFIX}/''etc/hadoop/'' を使用します。};

** LDAP認可環境 [#nd2ae5c5]

+ シングルノードではOSの静的ファイルによる権限解決で十分ですので、特にLDAPなどをセットアップする必要はありません。

** 共通 [#p1f568c1]

+ 起動ユーザを追加します。
 $ sudo adduser --shell /bin/sh --uid 10001 --disabled-password hadoop
 $ sudo adduser --shell /bin/sh --uid 10002 --disabled-password hdfs
 $ sudo usermod -G hadoop hdfs
 $ sudo adduser --shell /bin/sh --uid 10003 --disabled-password mapred
 $ sudo usermod -G hadoop mapred
 $ sudo adduser --shell /bin/sh --uid 10004 --disabled-password yarn
 $ sudo usermod -G hadoop yarn
+ アーカイブを適当な場所に展開します。この説明での ''$HADOOP_PREFIX'' とは、Hadoopのインストールルートを示します。&ref(images/note.png,nolink);オーナーを root に変更しているのは、アーカイブ中での設定が不正だからです。
#geshi{{
$ sudo tar xvzf hadoop-2.0.2-alpha.tar.gz -C /grid/usr
$ cd /grid/usr
$ sudo chown -R root:root hadoop-2.0.2-alpha/
$ sudo ln -s hadoop-2.0.2-alpha hadoop
}}
+ &ref(images/note.png,nolink);2.0.2aでは共有オブジェクトについてのシンボリック設定が不正なため、以下の要領で修正します。
#geshi{{
$ ls -l lib/native/
total 1988
-rw-r--r-- 1 root root 438626 Oct  2 09:51 libhadoop.a
-rwxr-xr-x 1 root root 301588 Oct  2 09:51 libhadoop.so.1.0.0
-rw-r--r-- 1 root root 696036 Oct  2 09:51 libhadooppipes.a
-rw-r--r-- 1 root root 250096 Oct  2 09:51 libhadooputils.a
-rw-r--r-- 1 root root 184348 Oct  2 09:51 libhdfs.a
-rwxr-xr-x 1 root root 150507 Oct  2 09:51 libhdfs.so.0.0.0

$ cd lib/native/
$ sudo ln -s libhadoop.so.1.0.0 libhadoop.so.1     
$ sudo ln -s libhadoop.so.1.0.0 libhadoop.so  
$ sudo ln -s libhdfs.so.0.0.0 libhdfs.so.0     
$ sudo ln -s libhdfs.so.0.0.0 libhdfs.so  
$ ls -l ./
total 1988
-rw-r--r-- 1 root root 438626 Oct  2 09:51 libhadoop.a
lrwxrwxrwx 1 root root     18 Oct 31 11:20 libhadoop.so -> libhadoop.so.1.0.0
lrwxrwxrwx 1 root root     18 Oct 31 11:20 libhadoop.so.1 -> libhadoop.so.1.0.0
-rwxr-xr-x 1 root root 301588 Oct  2 09:51 libhadoop.so.1.0.0
-rw-r--r-- 1 root root 696036 Oct  2 09:51 libhadooppipes.a
-rw-r--r-- 1 root root 250096 Oct  2 09:51 libhadooputils.a
-rw-r--r-- 1 root root 184348 Oct  2 09:51 libhdfs.a
lrwxrwxrwx 1 root root     16 Oct 31 11:21 libhdfs.so -> libhdfs.so.0.0.0
lrwxrwxrwx 1 root root     16 Oct 31 11:21 libhdfs.so.0 -> libhdfs.so.0.0.0
-rwxr-xr-x 1 root root 150507 Oct  2 09:51 libhdfs.so.0.0.0
}}
+ 環境変数を ${HADOOP_PREFIX}/etc/hadoop/''hadoop-env.sh'' で設定します。
#geshi(bash,number){{
#export JAVA_HOME=/usr/lib/jvm/java-6-sun
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-amd64
# The directory where pid files are stored. /tmp by default.
export HADOOP_PID_DIR=/grid/vol/0/var/run/${USER}
# Where log files are stored. $HADOOP_PREFIX/logs by default.
export HADOOP_LOG_DIR=/grid/vol/0/var/log/${USER}
}}
+ データなどを格納するディレクトリを用意します。
#geshi{{
$ sudo mkdir -p /grid/vol/0/var/{lib,log,run}
$ sudo chown -R root:hadoop /grid/vol/0/var
$ sudo chmod -R 775 /grid/vol/0/var
}}
+ 設定ファイル ${HADOOP_PREFIX}/etc/hadoop/''core-site.xml'' を編集します。Hadoopはデフォルト設定状態でも動作するように(これは正しいことです)、''hadoop.tmp.dir'' のデフォルト値である ''/tmp''/hadoop-${user.name} 以下のディレクトリに、一時作業ファイルはもちろんのこと、ある程度永続化が必要なデータ(主にHDFS関連)までも格納します。文字通り''テンポラリ''という意味での hadoop.tmp.dir 設定は必要ですので、デフォルト設定はそのままとし、以下のセットアップでは永続化が必要なデータの格納場所を適切に設定変更していきます。
#geshi(xml,number){{
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000/</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/tmp/hadoop-${user.name}</value>
    </property>
</configuration>
}}
++ &ref(images/note.png,nolink);ポート''9000''番は、環境によっては ''php5-fpm'' でデフォルトで利用されるようです。ご注意ください。

** HDFS [#d1fc808a]

+ 設定ファイル(${HADOOP_PREFIX}/etc/hadoop/''hdfs-site.xml'')を編集します。
#geshi(xml,number){{
<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/data</value>
    </property>
    <property>
        <name>dfs.namenode.checkpoint.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/namesecondary</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</copnfiguratiot>
}}
+ HDFSをフォーマットします。
 $ sudo -u hdfs bin/hdfs namenode -format
+ 各デーモンを起動します。
 $ sudo -u hdfs sbin/hadoop-daemon.sh start namenode
 $ sudo -u hdfs sbin/hadoop-daemon.sh start secondarynamenode
 $ sudo -u hdfs sbin/hadoop-daemon.sh start datanode
+ HDFS上に必要なディレクトリを作成します。クォータ管理できないため、''/tmp'' は作成しません。
#geshi{{
$ sudo -u hdfs bin/hadoop fs -chown hdfs:hadoop /
$ sudo -u hdfs bin/hadoop fs -chmod 755 /
$ sudo -u hdfs bin/hadoop fs -mkdir /user
$ sudo -u hdfs bin/hadoop fs -chown hdfs:hadoop /user
$ sudo -u hdfs bin/hadoop fs -chmod 755 /user
}}
+ Web UIのアクセスURLは以下の通りです。
 http://localhost:50070/

** YARN [#h7e0cd29]

+ 環境変数を設定します(${HADOOP_PREFIX}/etc/hadoop/''yarn-env.sh'')。以下をファイルの先頭に追加します。将来的には、''Hadoop Common''、''HDFS''、''YARN''および''Hadoop MapReduce''の各プロダクトが分離(配布)される予定のようですが、現時点ではオーバーレイ状態で単一アーカイブとして配布されています。したがって、各プロダクトの ''$*_HOME'' 環境変数は等しく配布アーカイブのルートを設定します。設定の便宜上、$HADOOP_PREFIX を定義していますが、必須ではありません。この説明では、便宜上 $HADOOP_PREFIX を使用します。
#geshi(bash,number){{
#export JAVA_HOME=/usr/lib/jvm/java-6-sun
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-amd64

export HADOOP_PREFIX=/grid/usr/hadoop
#export HADOOP_CONF_DIR=${HADOOP_PREFIX}/etc/hadoop
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}

export YARN_HOME=${HADOOP_PREFIX}
export YARN_PID_DIR=/grid/vol/0/var/run/${USER}
export YARN_LOG_DIR=/grid/vol/0/var/log/${USER}

export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
...
}}
+ 設定ファイルを用意します(${HADOOP_PREFIX}/etc/hadoop/''yarn-site.xml'')。単一サーバでの検証では、あまりにもリソースが少ないとジョブが実行できない場合がありますので、メモリリソースは多めに設定しておきます。
#geshi(xml,number){{
<configuration>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.class</name>
        <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
        <description>In case you do not want to use the default scheduler</description>
    </property>
    <property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>/grid/vol/0/var/lib/${user.name}/nm/local</value>
        <description>the local directories used by the nodemanager
        (default: /tmp/nm-local-dir)</description>
    </property>
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>8192</value>
        <description>the amount of memory on the NodeManager in GB
        (default: 8192)</description>
    </property>
    <property>
        <name>yarn.nodemanager.remote-app-log-dir</name>
        <value>/grid/vol/0/var/log/${user.name}/nm</value>
        <description>directory on hdfs where the application logs are moved to
        (default: /tmp/logs)</description>
    </property>
    <property>
        <name>yarn.nodemanager.log-dirs</name>
        <value>/grid/vol/0/var/log/${user.name}/nm</value>
        <description>the directories used by Nodemanagers as log directories
        (default: /tmp/logs)</description>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce.shuffle</value>
        <description>shuffle service that needs to be set for Map Reduce to run</description>
    </property>
<configuration>
}}
+ ローカルファイルシステム上に必要なディレクトリを作成します。
#geshi{{
$ sudo mkdir -p /grid/vol/0/var/log/yarn/nm/local    # yarn.nodemanager.{log-dirs,local-dirs}
$ sudo chown yarn:hadoop -R /grid/vol/0/var/log/yarn
$ sudo chmod 755 -R /grid/vol/0/var/log/yarn
}}
+ HDFS上に必要なディレクトリを作成します。ログアグリゲーション有効時に、''yarn.nodemanager.remote-app-log-dir'' にユーザ権限でログが移されます。&ref(images/info.png,nolink);2.0.2 から複数階層のディレクトリを作成する場合に、hadoop fs -mkdir コマンドに ''-p'' オプションが必要となりました。
#geshi{{
$ sudo -u hdfs bin/hadoop fs -mkdir -p /grid/vol/0/var/log/yarn/nm    # yarn.nodemanager.remote-app-log-dir
$ sudo -u hdfs bin/hadoop fs -chown yarn:hadoop /grid/vol/0/var/log/yarn/nm
$ sudo -u hdfs bin/hadoop fs -chmod 1777 /grid/vol/0/var/log/yarn/nm
}}
+ 各デーモンを起動します。
 $ sudo -u yarn sbin/yarn-daemon.sh start resourcemanager
 $ sudo -u yarn sbin/yarn-daemon.sh start nodemanager
+ Web UIのアクセスURLは以下の通りです。
 http://localhost:8088/    # ResourceManager
 http://localhost:8042/    # NodeManager

** MapReduce [#ted0cfc1]

+ &ref(images/info.png,nolink);2.0.2 から ${HADOOP_PREFIX}/etc/hadoop/''mapred-env.sh'' で環境変数を設定するようになりました。以下に内容をファイルの先頭に追加します。
#geshi(bash,number){{
#export JAVA_HOME=/usr/lib/jvm/java-6-sun
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-i386
#export JAVA_HOME=/usr/lib/jvm/java-6-openjdk-amd64
# The directory where pid files are stored. /tmp by default.
export HADOOP_MAPRED_PID_DIR=/grid/vol/0/var/run/${USER}
# Where log files are stored.  $HADOOP_MAPRED_HOME/logs by default.
export HADOOP_MAPRED_LOG_DIR=/grid/vol/0/var/log/${USER}
...
}}
+ 設定ファイル(${HADOOP_PREFIX}/etc/hadoop/''mapred-site.xml'')を編集します。
#geshi(xml,number){{
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
        <description>The runtime framework for executing MapReduce jobs.
        Can be one of local, classic or yarn.
        (default: local)
        </description>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.staging-dir</name>
        <value>/user</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.intermediate-done-dir</name>
        <value>/grid/vol/0/var/lib/mapred/history/done_intermediate</value>
        <!-- NG: <value>/user</value> -->
    </property>
    <property>
        <name>mapreduce.jobhistory.done-dir</name>
        <value>/grid/vol/0/var/lib/mapred/history/done</value>
    </property>
</configuration>
}}
++ &ref(images/info.png,nolink);ドキュメントには説明がありませんが、''mapreduce.jobtracker.staging.root.dir'' の設定はすでに有効ではなく、代替は ''yarn.app.mapreduce.am.staging-dir'' のようです。なお、他の関連設定のデフォルト値は以下のようです。
|~No.|~設定キー|~デフォルト値|~備考|
|1|yarn.app.mapreduce.am.staging-dir|/tmp/hadoop-yarn/staging||
|2|mapreduce.jobhistory.intermediate-done-dir|${yarn.app.mapreduce.am.staging-dir}/history/done_intermediate|mapred-default.xml に見えず|
|3|mapreduce.jobhistory.done-dir|${yarn.app.mapreduce.am.staging-dir}/history/done|mapred-default.xml に見えず|
+ ローカルファイルシステム上に必要なディレクトリはありません。
+ HDFS上に必要なディレクトリを作成します。
#geshi{{
$ sudo -u hdfs bin/hadoop fs -mkdir -p /grid/vol/0/var/lib/mapred/history
$ sudo -u hdfs bin/hadoop fs -chown -R mapred:hadoop /grid/vol/0/var/lib/mapred
$ sudo -u hdfs bin/hadoop fs -chmod -R 755 /grid/vol/0/var/lib/mapred
}}
+ ResouceManager と NodeManager を再起動して反映させます。
+ 履歴サーバを起動します。
 $ sudo -u mapred ./sbin/mr-jobhistory-daemon.sh start historyserver
+ 履歴サーバWeb UIのアクセスURLは以下の通りです。
 http://localhost:19888/

** テスト [#rfcbeaa8]

+ テストユーザを追加し、サンプルジョブを実行してみます。
#geshi(){{
$ sudo adduser alice
$ sudo -u hdfs bin/hadoop fs -mkdir /user/alice
$ sudo -u hdfs bin/hadoop fs -chown alice:aclice /user/alice
$ sudo -u alice bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.0.2-alpha.jar pi 5 10
...
}}

* 完全分散モード [#faad7b2b]

- 完全分散とは、動作モードというよりはむしろ疑似分散ではただ一つのノードで起動させていた各デーモンを、それぞれ適切な複数の別のノード(群)で運用する環境のことです。もちろん、これが本格的な実運用環境となります。
- 構築方法は基本的に疑似分散の場合と変わりませんが、以下のような勘所があります。

** LDAP認可環境 [#m8d7f7d5]

+ Hadoopでは協調動作する全ノードで統一的に権限認可(主にグループ解決)を管理する必要がありますので、Name Service Switch (NSS) のバックエンドデータベースとして一般的なLDAPを構築するとよいでしょう。
+ Hadoop 2.0には ''hadoop.security.group.mapping'' に設定する GroupMappingServiceProvider として LdapGroupsMapping が追加されていますが、最終的にユーザ権限でTaskプロセスを起動させる関係上、権限解決はOSレベルに統一して委譲するのが効果的です。そのような点で、''JniBasedUnixGroupsMapping'' を使用するのが運用、パフォーマンス両面で最も効果的です。
+ 基本的なLDAP環境の構築方法については、[[LDAPセットアップforHadoop]]をご参照ください。
+ Hadoop起動ユーザのためのldifファイル(例: [[hadoop_users-2.0.ldif>metasearchSvn:/ldap4hadoop/trunk/ldif/hadoop_users-2.0.ldif]])を作成し、それらのユーザを追加します。
 $ ldapadd -cxWD cn=admin,dc=grid,dc=example,dc=com -f hadoop_users-2.0.ldif
 Enter LDAP Password:
 adding new entry "cn=hadoop,ou=groups,dc=grid,dc=example,dc=com"
 
 adding new entry "uid=hadoop,ou=people,dc=grid,dc=example,dc=com"
 
 adding new entry "cn=hdfs,ou=groups,dc=grid,dc=example,dc=com"
 
 adding new entry "uid=hdfs,ou=people,dc=grid,dc=example,dc=com"
 
 adding new entry "cn=yarn,ou=groups,dc=grid,dc=example,dc=com"
 
 adding new entry "uid=yarn,ou=people,dc=grid,dc=example,dc=com"
 
 adding new entry "cn=mapred,ou=groups,dc=grid,dc=example,dc=com"
 
 adding new entry "uid=mapred,ou=people,dc=grid,dc=example,dc=com"
 
+ テストユーザのためのldifファイル(例: [[test_users.ldif>metasearchSvn:/ldap4hadoop/trunk/ldif/test_users.ldif]])を作成し、そのユーザを追加します。
 $ ldapadd -cxWD cn=admin,dc=grid,dc=example,dc=com -f test_users.ldif
 Enter LDAP Password:
 adding new entry "cn=alice,ou=groups,dc=grid,dc=example,dc=com"
 
 adding new entry "uid=alice,ou=people,dc=grid,dc=example,dc=com"

** 分散監視環境 [#b2cb7439]

+ [[Ganglia>GangliaセットアップforHadoop]]
+ [[Nagios>NagiosセットアップforHadoop]]

** 基本設定 [#n9d82c19]

+ 当然ながら、ホスト名はすべて完全修飾名(FQDN)で設定します。
+ 冗長化のためVIPを付与しているサービス(NameNode、SecondaryNameNode、ResourceManager、JobHistoryServerなど)についてはそのVIPに対するDNS名を設定します。

** チェックポイントデータの冗長保存 [#ref61344]

+ ${HADOOP_PREFIX}/etc/hadoop/''core-site.xml'': dfs.namenode.checkpoint.dir に複数の格納先を指定することにより、チェックポイントデータを冗長に保存することが可能になります。
#geshi(xml,number){{
    <property>
        <name>dfs.namenode.checkpoint.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/checkpoint,file:///export/home/${user.name}/var/lib/checkpoint</value>
    </property>
}}

** HDFSメタデータの冗長保存 [#c4a655a0]

+ ${HADOOP_PREFIX}/etc/hadoop/''hdfs-site.xml'': dfs.namenode.name.dir に複数の格納先を指定することにより、メタデータを冗長に保存することが可能になります。この場合、指定したディレクトリはあらかじめ作成しておく必要があるようです。
#geshi(xml,number){{
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/name,file:///export/home/${user.name}/var/lib/name</value>
    </property>
}}

//** ジョブ実行履歴の永続化


** 並列化の徹底 [#x4fd2a8b]

+ 以下の例では、/grid/vol/''{0,1}'' にそれぞれのディスクをマウントしています。
 $ sudo mkdir -p /grid/vol/{0,1}/var/lib
 $ sudo chown -R root:hadoop /grid/vol/{0,1}/var
 $ sudo chmod -R 775 /grid/vol/{0,1}/var
+ ${HADOOP_PREFIX}/etc/hadoop/''hdfs-site.xml'': 当然ながら、レプリカ数も推奨値の''3''にします。
#geshi(xml,number){{
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///grid/vol/0/var/lib/${user.name}/data,file:///grid/vol/1/var/lib/${user.name}/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
}}
+ ${HADOOP_PREFIX}/etc/hadoop/''yarn-site.xml''
#geshi(xml,number){{
    <property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>/grid/vol/0/var/lib/${user.name}/nm/local,/grid/vol/1/var/lib/${user.name}/nm/local</value>
        <description>the local directories used by the nodemanager
        (default: /tmp/nm-local-dir)</description>
    </property>
    <property>
        <name>yarn.nodemanager.log-dirs</name>
        <value>/grid/vol/0/var/log/${user.name}/nm,/grid/vol/1/var/log/${user.name}/nm</value>
        <description>the directories used by Nodemanagers as log directories
        (default: /tmp/logs)</description>
    </property>
}}

** ノード管理の徹底 [#v477104d]

+ ${HADOOP_PREFIX}/etc/hadoop/''hdfs-site.xml''
#geshi(xml,number){{
    <property>
        <name>dfs.hosts</name>
        <value>/grid/usr/hadoop/etc/hadoop/hosts.include</value>
        <description>
          Names a file that contains a list of hosts that are permitted to connect to the namenode.
          The full pathname of the file must be specified. If the value is empty, all hosts are permitted.
        </description>
    </property>
    <property>
        <name>dfs.hosts.exclude</name>
        <value>/grid/usr/hadoop/etc/hadoop/hosts.exclude</value>
        <description>
          Names a file that contains a list of hosts that are not permitted to connect to the namenode.
          The full pathname of the file must be specified. If the value is empty, no hosts are excluded.
        </description>
    </property>
}}
+ ${HADOOP_PREFIX}/etc/hadoop/''yarn-site.xml''
#geshi(xml,number){{
    <property>
        <name>yarn.resourcemanager.nodes.include-path</name>
        <value>/grid/usr/hadoop/etc/hadoop/hosts.include</value>
        <description>Path to file with nodes to include.</description>
    </property>
    <property>
        <name>yarn.resourcemanager.nodes.exclude-path</name>
        <value>/grid/usr/hadoop/etc/hadoop/hosts.exclude</value>
        <description>Path to file with nodes to exclude.</description>
    </property>
}}

** セキュア設定の有効化 [#x6bfd689]

- [[Hadoop2.0.2aWithSecurityセットアップ]]

* 参考リソース [#i3d85c12]

+ [[Apache Hadoop 2.0>http://hadoop.apache.org/docs/r2.0.2-alpha/]]


トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS