试题详情
- 判断题hadoop和spark的都是并行计算,两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为map?task和reduce?task,每个task都是在自己的进程中运行的,当task结束时,进程也会结束
关注下方微信公众号,在线模考后查看

热门试题
- 在scala中定义方法使用关键字()
- flume在读取文本文件时,一行文本数据
- scala中,关于类和函数,以下说法错误
- DataFrame也支持嵌套数据类型(s
- 在Flume中Agent组件使用()来运
- 2个数组,调用zip函数会将2个数组变成
- flume是一个什么架构()
- Scala始于()年,由那个学校研发()
- sparkSql不能使用jdbc读取数据
- flume的source可以获取哪些数据
- 创建rdd可以有如下几种?()
- 下列选项中是spark组件的有?()
- 分发task任务是哪个节点的作用()
- 列表A.:::(列表B)得到的新的列表,
- maven项目打包的方式有哪几种()
- SparkStreaming中的Dstr
- Rdd不能够转换成DataFrame
- Set集合是无序不重复的集合
- Spark对比Hadoop来说有如下优势
- reduce求和输出结果为varlist