まずはhadoop-0.2
- http://www
.meisei-u. ac.jp/mirr or/apache/ dist//hado op/core/ha doop-0.21. 0/hadoop-0 .21.0.tar. gz /usr/local
あたりに展開。/hadoop 1 export HADOOP_HOM
E=/usr/loc al/hadoop
hadoop-env
$HADOOP_HOM
を開いて JAVA_HOME
を
/System/Li
あたりに設定。
$HADOOP_HOM
にPATHを通して
1 % start-dfs.sh 2 % start-mapr ed.sh
でHadoopを起動。0.21.0ではstart-all.
停止は
1 % stop-mapred.sh 2 % stop-dfs.s h
注意点として、ssh で localhost にログインできるようにしておく。
"システム環境設定" -> "共有" から、"リモートログイン"にチェックでok
初期化・設定
$HADOOP_HOM
に以下のような感じで記入
1 <configuration> 2 <property> 3 <name>fs.default .name</name> 4 <value>hdfs://127 .0.0.1</value> 5 </property> 6 <property> 7 <name>dfs.replic ation</name> 8 <value>2</value> 9 </property> 10 </configurat ion>
hdfsを初期化。
1 hdfs namenode -format
mapredの設定
$HADOOP_HOM
の<configurat
の中に以下を記入。
1 <property> 2 <name>mapred.job.tracker</name> 3 <value>localhost: 54311</value> 4 </property>
あとは起動して http://loc
hadoop-0.20.x系では、フォーマットは
1 % hadoop namenode -format
を実行。0.20.xと0.21.0では結構操作系が変わってますね。