配置jdk

   执行 sudo apt-get install openjdk-7-jdk
   jdk被安装到了 /usr/lib/jvm/ 目录

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

配置hosts

使用 vim 打开 /etc/hosts, 将主节点和两个子节点的ip分别定义为 Master, Slave1, Slave2

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
并且在 /etc/hostname中更改对应的主机名
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

SSH免密码登录

分别在Master, Slave1, Slave2 新建用户 stark
root@Master:~# adduser stark
在Master中, 切换到用户 stark
su stark
生成ssh秘钥
ssh-keygen -t rsa
这里当时没有截屏,若重新生成又会覆盖掉原有的密钥,所以就没有补截屏了.
进入 ~/.ssh/
cd ~/.ssh/
拷贝一份公钥到 authorized_keys
cp id_rsa.pub authorized_keys

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
分别在Slave1 和 Slave2 执行上述操作
利用 scp将Slave1和Slave2的公钥拷贝到主节点Master
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
将子节点的公钥追加到 authorized_keys
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
将authorized_keys拷贝到其他两台机器
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
测试SSH无密码连接
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

安装hadoop 2.6.0

从 http://mirror.hust.edu.cn/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz 下载hadoop到服务器
解压到文件夹 /home/stark/hadoop, 并将终端切换到该目录下

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
更改 etc/hadoop/hadoop-env.sh中的JAVA_HOME为实际的jdk目录
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
更改 etc/hadoop/core-site.xml为
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
更改 etc/hadoop/hdfs-site.xml为
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
更改 etc/hadoop/mapred-site.xml 为
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
将配置好的hadoop拷贝到其他两个节点
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

测试 hadoop

   格式化节点

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
启动 hdfs 和 yarn
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境
查看状态
hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

运行 wordcount

在hdfs中创建目录 input
将file拷贝到input中

安装 scala

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

安装Spark

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

安装 mahout

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

hadoop 2.6.0 分布式 + Spark 1.1.0 集群环境

相关文章: