Hadoop_Exper
Hadoop的启动与管理
1 | start-dfs.sh #启动HDFS集群 |
查看运行的任务,应该有6个进程:NodeManager、SecondaryNameNode 、ResourceManager、Jps、DataNode 和 NameNode。
实际案例
WordCount
访问http://localhost:50070 即可查看Hadoop的管理界面。1
2
3
4
5
6
7
8
9mkdir data
cd data
vim word.txt
hadoop fs -mkdir -p input
hadoop fs -put data/word.txt input
cd $HADOOP_HOME hadoop
hadoop jar hadoop-mapreduce-examples-2.7.7.jar wordcount input/word.txt output
hadoop fs -cat -00000 output/part-r
完成后访问http://localhost:8088 即可查看YARN集群的运行状态。
PI
直接使用hadoop jar hadoop-mapreduce-examples-2.7.7.jar pi 5 5
,第一个5表示Map次数,第二个5表示每个Map中抛掷的次数。
本文标题:Hadoop_Exper
文章作者:Raincorn
发布时间:2020-06-08
最后更新:2020-07-28
原始链接:https://blog.raincorn.top/2020/06/08/Hadoop_Exper/
版权声明:本文采用知识共享署名-非商业性使用 4.0 国际许可协议进行许可