以下关于Hadoop三大核心组件说法中错误的都是()
A: HDFS用于海量分布式数据的存储
B: MapReduce用于对海量数据进行分布式处理
C: YARN用于进行资源调度,为MR运算提供计算资源
D: HDFS适合于存储海量的较小数据文件
A: HDFS用于海量分布式数据的存储
B: MapReduce用于对海量数据进行分布式处理
C: YARN用于进行资源调度,为MR运算提供计算资源
D: HDFS适合于存储海量的较小数据文件
D
举一反三
- 下列选项中,关于HDFS说法错误的是() A: HDFS是Hadoop的核心之一 B: HDFS源于Google的GFS论文 C: HDFS用于存储海量大数据 D: HDFS是用于计算海量大数据
- Hadoop提供了一个叫做YARN的分布式资源调度平台,Mapreduce编写好程序后,提交到YARN上运行,由YARN( )。 A: 进行分布式的资源调度 B: 主要负责以分布式的方式存储海量数据 C: 使当前MapReduce程序能够进行分布式运行 D: 实现分布式的海量数据存储
- HDFS、MapReduce和YARN作为Hadoop的三大主要核心框架,其中用于解决海量数据存储的是()。 A: HDFS B: MapReduce C: YARN D: 以上都可以
- Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。
- Hadoop生态系统中,用于分布式计算中数据存储的是 A: HDFS B: MapReduce C: YARN D: Sqoop
内容
- 0
Hadoop的核心组件有? A: HDFS(分布式文件系统) B: YARN(运算资源调度系统) C: MAPREDUCE(分布式运算编程框架) D: SQOOP数据迁移工具
- 1
Hadoop中核心组件HDFS是负责海量数据存储的。
- 2
HDFS是Hadoop分布式文件系统,可以解决海量数据存储的问题,优点有()、()、()、().
- 3
hadoop是一种可靠、高效、可伸缩的方式进行数据处理,主要用于海量数据的高效存储管理和分析。以下不是其核心组件的是() A: HDFS B: MapReduce C: NDFS D: YARN
- 4
1.狭义的Hadoop是一个适合大数据分布式存储和分布式计算的平台,不包括下面哪个组件?( ) A: HDFS B: MapReduce C: Yarn D: HBase