まずはhadoop-0.21.0をダウンロード
- http://www.meisei-u.ac.jp/mirror/apache/dist//hadoop/core/hadoop-0.21.0/hadoop-0.21.0.tar.gz
/usr/local/hadoopあたりに展開。
sh>>
export HADOOP_HOME=/usr/local/hadoop
<<--
hadoop-envの設定
$HADOOP_HOME/conf/hadoop-env.sh を開いて JAVA_HOMEを/System/Library/Frameworks/JavaVM.framework/Versions/1.6/Homeあたりに設定。
$HADOOP_HOME/binにPATHを通して
pre>>
% start-dfs.sh
% start-mapred.sh
<<--
でHadoopを起動。0.21.0ではstart-all.shはdeprecatedらしい。
停止は
pre>>
% stop-mapred.sh
% stop-dfs.sh
<<--
注意点として、ssh で localhost にログインできるようにしておく。
"システム環境設定" -> "共有" から、"リモートログイン"にチェックでok
初期化・設定
$HADOOP_HOME/conf/hdfs-site.xmlに以下のような感じで記入
xml>>
<<--
hdfsを初期化。
pre>>
hdfs namenode -format
<<--
mapredの設定
$HADOOP_HOME/conf/mapred-site.xmlの<configuration>の中に以下を記入。
xml>>
<<--
あとは起動して http://localhost:50070 あたりを見ると状態を確認できます。
pre>>
% hadoop namenode -format
<<--
を実行。0.20.xと0.21.0では結構操作系が変わってますね。