Spark SQL快速的计算效率得益于()。
A: Catalyst
B: Execution
C: Parser
D: Analyzer
A: Catalyst
B: Execution
C: Parser
D: Analyzer
A
举一反三
- Spark生态系统中用于流计算的组件是( )。 A: Spark Core B: GraphX C: Spark SQL D: Spark Streaming
- Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,在下面的Spark库中,哪一个是用于机器学习的( )。 A: Spark SQL B: MLlib C: GraphX D: Spark Streaming
- 关于Spark描述错误的是 A: Spark SQL是Spark提供的对实时数据进行流式计算的组件 B: Spark是一个用来实现快速而通用的集群计算的平台 C: Spark适用于各种各样的分布式平台场景,包括批处理、迭代算法、交互式查询、流处理等 D: Spark core实现Spark的基本功能
- 通过【】或SQL处理数据,Spark 优化器(Catalyst)会自动优化,即使我们写的程序或SQL不高效,程序也可以高效的执行。
- mapReduce和Spark哪个计算框架更适合做快速的计算?
内容
- 0
( )作为Spark大数据框架的一部分,主要用于结构化数据处理和对Spark数据执行类SQL的查询。 A: Data Manager B: Cluster Manager C: Spark Runtime D: Spark SQL
- 1
下列对spark描述正确的有? A: spark是基于内存计算的 B: spark由AMPlab实验室开发 C: spark处理大量数据的一个快速通用的引擎 D: spark目前是apache的顶级项目
- 2
中国大学MOOC: mapReduce和Spark哪个计算框架更适合做快速的计算?
- 3
Spark是专为大规模__________而设计的快速通用的计算引擎。
- 4
以下哪个组件是Spark中的机器学习算法库:( ) A: MLlib B: Spark Core C: Machine Leaning D: Spark SQL