psStyle / repos

0 stars 0 forks source link

Hadoop分布式安装 #13

Open psStyle opened 9 years ago

psStyle commented 9 years ago

1.1 分布结构 主节点(1个,是hadoop):NameNode、JobTracker、SecondaryNameNode 从节点(2个,是hadoop1和hadoop2 ):DataNode、TaskTracker

    1.2 各节点重新产生ssh加密文件
1.3 编辑各个节点的/etc/hosts,在该文件中含所有节点的ip与hostname的映射信息
1.4 两两各个节点之间的ssh免密码登陆
        ssh-copy-id -i hadoop1
        scp /root/.ssh/authorized_keys hadoop1:/root/.ssh/

1.5把hadoop的hadoop目录下的logs和tmp删除
1.6把hadoop中的jdk、hadoop文件夹复制到hadoop1和hadoop2节点
    scp -r /usr/local/jdk hadoop1:/usr/local/
1.7把hadoop的/etc/profile复制到hadoop1和hadoop2节点,在目标节点中执行source
1.8编辑hadoop的配置文件slaves,改为从节点的主机名,hadoop1和hadoop2
1.9格式化,在hadoop节点执行hadoop namenode -format
1.10 启动,在hadoop节点执行start-all.sh
注意:对于配置文件core-site.xml和mapred-site.xml在所有节点中都是相同的内容

2、动态增加一个hadoop节点 2.1 配置新节点的环境 2.2把新节点的hostname配置到主节点的slaves文件中 2.3在新节点,启动进程 hadoop-daemon.sh start datanode hadoop-daemon.sh start tasktracker 2.4在主节点执行脚本 hadoop dfsadmin -refreshNodes