怎么在ubantu里面安装伪分布式Hadoop?

Hadoop的安装方式分为三种模式:单机模式,伪分布式模式,分布式模式。<br/> 1.单机模式:Hadoop 默认模式为非分布式模式(本地模式),无需进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试。<br/> 2.伪分布式模式:Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。<br/> 3.分布式模式:使用多个节点构成集群环境来

东西/材料

64位Ubuntu LTS 14.04

VMware 最新版本

操作方式

  • 01

    第一步建立Hadoop用户。

  • 02

    第二步,刊出并利用 Hadoop 用户登录,接下来更新 apt 而且安装 vim。

  • 03

    安装上ssh,设置装备摆设为无暗码登录

  • 04

    安装java的情况。
    sudo apt-get install openjdk-7-jre openjdk-7-jdk
    vim ~/.bashrc # 设置JAVA_HOME
    在配资文件中添加。
    export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
    JAVA_HOME 变量生效:
    source ~/.bashrc

  • 05

    安装 Hadoop :

    cd ~/下载
    sudo tar -zxvf ./hadoop-2.6.0.tar.gz -C /usr/local # 解压到/usr/local中
    cd /usr/local/
    sudo mv ./hadoop-2.6.0/ ./hadoop # 将文件夹名改为hadoop
    sudo chown -R hadoop ./hadoop

    点窜设置装备摆设文件 core-site.xml :

    vim /usr/local/hadoop/etc/hadoop/core-site.xml

    <configuration>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/usr/local/hadoop/tmp</value>
    <description>Abase for other temporary directories.</description>
    </property>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    </property>
    </configuration>

    点窜设置装备摆设文件 hdfs-site.xm

    <configuration>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
    </configuration>

  • 06

    启动好Hadoop。

    cd /usr/local/hadoop
    bin/hdfs namenode -format # namenode 格局化
    sbin/start-dfs.sh # 开启守护历程
    jps
    若当作功启动则会列出如下历程: NameNode、DataNode和SecondaryNameNode。

  • 07

    运行 WordCount 实例。测试一下。

    bin/hdfs dfs -mkdir -p /user/hadoop # 建立HDFS目次
    bin/hdfs dfs -mkdir input
    bin/hdfs dfs -put etc/hadoop/*.xml input # 将设置装备摆设文件作为输入
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'
    bin/hdfs dfs -cat output/* # 查看输出

  • End

出格提醒

此处安装之前,必然是先安装好安装好java情况,不然hadoop将会测试不当作功。感觉行的同志打赏下哦,感谢。

  • 发表于 2018-04-26 00:00
  • 阅读 ( 775 )
  • 分类:电脑网络

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
联系我们:uytrv@hotmail.com 问答工具