总共分三步: 1、准备linux环境租用“云主机”,阿里云,unitedStack等,云主机不受本机性能影响(或者直接安转linux操作系统或者虚拟机也行);PuTTy Configuration 是一个跨平台的远程登录工具 2、安装JDK 步骤也很简单: (1)首先输入javac,看看是否已安装jdk,如果没有,会有jdk版本和命令提示(如命令:apt-get install openjdk-7-jdk) (2)配置环境变量:vim /etc/profile
设置java_home:w export JAVA_HOME=/user/lib/jvm/java-7-openjdk-amd64 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=$JAVA_HOME/lib:$ JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH 注:
1.Linux下用冒号 : 分割路径2.$PATH / $JAVA_HOME / $JRE_HOME 是用来引用原来环境变量的值,在设置环境变量时不能把原来的值给覆盖掉3.$CLASSPATH 中 当前目录 “.”不能丢4.export 是把这4个变量导出为全局变量5. source /etc/profile变量立即生效 6、这里如果文件是readonly,则用 :wq 或者 :!wq 都将无法保存,应该是用命令 :w !sudo tee %
3、配置hadoop
(1)下载Hadoop安装包 $ wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz(2) $ tar -zxvf hadoop-1.2.1.tar.gz(3)配置hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml四个文件; $ vim hadoop-env.sh 添加JDK路径如果忘记的话可以在终端输入echo $JAVA_PATH来查看路径core-site.xml:hadoop.tmp.dir /hadoop dfs.name.dir /hadoop/name hdfs-site.xml fs.default.name hdfs://imooc:9000 mapred-site.xml dfs.data.dir /hadoop/data hdfs-site.xml文件设置,文件系统数据存放目录 mapred.job.tracker imooc:9001 4、编辑/etc/profile文件,配置hadoo环境变量;5、第一次使用hadoop先进行格式化:$ hadoop namenode -format;6、启动hadoop:start-all.sh;7、检查进程:jps; dfs.data.dir /hadoop/data