使用密集试存储作业
使用hadoop载平衡
以空格拆分
[root@hadoop ~]# cat hello.txt |xargs -n 1|sort beijing dongguan guangzhou hello hello hello hello jili shagnhai shenzhen
以空格拆分后去重
[root@hadoop ~]# cat hello.txt |xargs -n 1|sort |uniq beijing dongguan guangzhou hello jili shagnhai shenzhen
以空格拆分后去重,统计各行在文件中出现的次数
[root@hadoop ~]# cat hello.txt |xargs -n 1|sort |uniq -c
1 beijing
1 dongguan
1 guangzhou
4 hello
1 jili
1 shagnhai
1 shenzhen