map的数量通常是由hadoop集群的DFS块大小确定的
举一反三
- 在Hadoop集群中,一般将HDFS数据块的副本数量配置为()
- MapReduce执行过程中,以下说法错误的是()。 A: Map任务数量是由Split数量决定。 B: 大多数情况下,理想Split大小比一个HDFS块大些。 C: 最优Reduce任务数量取决于集群中可用Reduce任务槽(slot)数量。 D: Reduce任务数量通常设置比Reduce任务槽(slot)数量小一些。
- 在Hadoop集群中,一般将HDFS数据块的副本数量配置为 A: 1 B: 2 C: 3 D: 0
- 管理hadoop安全模式的命令为( ) A: hadoop dfs --safemode B: hadoop fsadmin --safemode C: hdfs dfs --safemode D: hdfs dfsadmin --safemode
- 以下哪个命令可以用来操作HDFS文件? hadoop dfs|hdfs fs|hadoop fs|hdfs dfs