南开《大数据开发技术(二)》在线作业满分答案

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

南开《大数据开发技术(二)》在线作业满分答案
1
在MLlib中,逻辑回归算法的输入值为()类型
A Double
B LabledPoint
C Point
D SGB
答案:B
2
Scala列表方法中获取列表的第一个元素的方法是()
A drop
B head
C filter
D init
答案:B
3
spark-submit配置项中()表示每个executor使用的内核数
A --num-executors NUM
B --executor-memory MEM
C --total-executor-cores NUM
D --executor-coures NUM
答案:D
4
Spark Streming中()函数当被调用的两个DStream分别含有(K, V) 和(K, W)键值对时,返回一个(K, Seq
[V], Seq[W])类型的新的DStream。

A union
B reduce
C join
D cogroup
答案:C
5
PairRDD可以通过()获得仅包含键的RDD
A key
B keys
C value
D values
答案:B
6
GraphX中()是完整提供边的各种操作类
A RDD[Edge]
B EdgeRDD
C RDD[(VertexId,VD)]
D VertexRDD
7
一般情况下,对于迭代次数较多的应用程序,Spark程序在内存中的运行速度是Hadoop MapReduce运行
速度的()多倍
A 2
B 10
C 100
D 1000
答案:C
8
MLlib 中可以调用mllib.tree.DecisionTree 类中的静态方法()训练分类树
A trainClassifier
B trainRegressor
C LogisticRegressionModel
D LabeledPoint
答案:A
9
Scala中()方法返回Map所有的value
A key
B keys
C value
D values
答案:D
10
Spark Streming中DStream的每个RDD都是由()分割开来的数据集
A 分区
B 一小段时间
C 数据量
D 随机
答案:B
11
Dstream窗口操作中()方法基于滑动窗口对(K,V)键值对类型的DStream中的值按K使用聚合函数func
进行聚合操作,得到一个新的Dstream
A window
B countByWindow
C reduceByWindow
D reduceByKeyAndWindow
答案:D
12
Scala列表方法中输出符号指定条件的所有元素的方法是()
A drop
B head
D init
答案:C
13
以下哪个不是Scala的数据类型()
A Int
B Short Int
C Long
D Any
答案:B
14
当需要将一个普通的RDD转化为一个PairRDD时可以使用()函数来进行操作
A transfer
B change
C map
D build
答案:C
15
Dstream窗口操作中()方法返回一个基于源DStream的窗口批次计算后得到新的DStream。

A window
B countByWindow
C reduceByWindow
D reduceByKeyAndWindow
答案:A
16
Dstream窗口操作中()方法基于滑动窗口对源DStream中的元素进行聚合操作,得到一个
新的Dstream
A window
B countByWindow
C reduceByWindow
D reduceByKeyAndWindow
答案:C
17
Dstream输出操作中()方法在Driver中打印出DStream中数据的前12个元素。

A print
B saveAsTextFiles
C saveAsObjectFiles
D saveAsHadoopFiles
答案:C
18
如果numPartitions是分区个数,那么Spark每个RDD的分区ID范围是()
A [0,numPartitions]
B [0,numPartitions-1]
C [1,numPartitions-1]。

相关文档
最新文档