22春學(xué)期(高起本1709-1803、全層次1809-2103)《大數(shù)據(jù)開發(fā)技術(shù)(二)》在線作業(yè)-00003
試卷總分:100 得分:100
一、單選題 (共 25 道試題,共 50 分)
1.Scala函數(shù)組合器可以把一個(gè)二維的列表展開成一個(gè)一維的列表的方法是()
A.filter
B.flatten
C.grouby
D.flatmap
2.GraphX中()方法可以查詢邊信息
A.numVertices
B.numEdges
C.vertices
D.edges
3.PairRDD中()函數(shù)可以合并具有相同鍵的值
A.mapValues
B.groupBy
C.groupByKey
D.reduceByKey
4.Scala列表方法中將函數(shù)應(yīng)用到列表的所有元素的方法是()
A.filter
B.foreach
C.map
D.mkString
5.Spark Streming中()函數(shù)當(dāng)被調(diào)用類型分別為(K,V)和(K,W)鍵值對(duì)的2個(gè)DStream 時(shí),返回類型為(K,(V,W))鍵值對(duì)的一個(gè)新 DStream。
A.union
B.reduce
C.join
D.cogroup
6.Scala中如果函數(shù)中的每個(gè)參數(shù)在函數(shù)中最多只出現(xiàn)一次,則可以使用占位符()代替參數(shù)。
A.井號(hào)
B.下劃線
C.斜杠
D.逗號(hào)
7.GraphX中g(shù)raph.edges可以得到()
A.頂點(diǎn)視圖
B.邊視圖
C.頂點(diǎn)與邊的三元組整體視圖
D.有向圖
8.Scala中合并兩個(gè)數(shù)組的方法是()
A.line
B.add
C.append
D.concat
9.Dstream輸出操作中()方法將DStream中的內(nèi)容以文本的形式保存為文本文件
A.print
B.saveAsTextFiles
C.saveAsObjectFiles
D.saveAsHadoopFiles
10.var a=10; for(a<-1 until 20){ println(a); } 共循環(huán)了()次
A.10
B.11
C.20
D.19
11.GraphX中()方法可以查詢頂點(diǎn)信息
A.numVertices
B.numEdges
C.vertices
D.edges
12.以下哪個(gè)函數(shù)可以求兩個(gè)RDD交集 ()
A.union
B.substract
C.intersection
D.cartesian
13.一般情況下,對(duì)于迭代次數(shù)較多的應(yīng)用程序,Spark程序在內(nèi)存中的運(yùn)行速度是Hadoop MapReduce運(yùn)行速度的()多倍
A.2
B.10
C.100
D.1000
14.Mllib中metrics.fMeasureByThreshold 表示()指標(biāo)
A.準(zhǔn)確度
B.召回率
C.F值
D.ROC曲線
15.Graph類中如果根據(jù)邊數(shù)據(jù)創(chuàng)建圖,數(shù)據(jù)需要轉(zhuǎn)換成RDD[Edge[ED]類型,應(yīng)該用()方法
A.Graph(vertices,edges, defaultVertexAttr)
B.Graph.fromEdges(RDD[Edge[ED]], defaultValue)
C.Graph.fromEdgeTuples(rawEdges: RDD[(VertexId, VertexId)], defaultValue,)
D.GraphLoader.edgeListFile(sc,filename)
16.Scala中()方法返回一個(gè)列表,包含除了最后一個(gè)元素之外的其他元素
A.head
B.init
C.tail
D.last
17.以下算法中屬于無監(jiān)督學(xué)習(xí)算法的是()
A.KNN算法
B.邏輯回歸
C.隨機(jī)森林
D.Kmeans
18.Dstream輸出操作中()方法將DStream中的內(nèi)容按對(duì)象序列化并且以SequenceFile的格式保存
A.print
B.saveAsTextFiles
C.saveAsObjectFiles
D.saveAsHadoopFiles
19.Scala函數(shù)組合器可以對(duì)集合中的元素進(jìn)行分組操作,結(jié)果得到的是一個(gè)Map的方法是()
A.filter
B.flatten
C.grouby
D.flatmap
20.MLlib 中可以調(diào)用mllib.tree.DecisionTree 類中的靜態(tài)方法()訓(xùn)練回歸樹
A.trainClassifier
B.trainRegressor
C.LogisticRegressionModel
D.LabeledPoint
21.Graph類中如果要直接通過邊數(shù)據(jù)文件創(chuàng)建圖,要求數(shù)據(jù)按空格分隔,應(yīng)該用()方法
A.Graph(vertices,edges, defaultVertexAttr)
B.Graph.fromEdges(RDD[Edge[ED]], defaultValue)
C.Graph.fromEdgeTuples(rawEdges: RDD[(VertexId, VertexId)], defaultValue,)
D.GraphLoader.edgeListFile(sc,filename)
22.GraphX中()是存放著存放頂點(diǎn)的RDD
A.RDD[Edge]
B.EdgeRDD
C.RDD[(VertexId,VD)]
D.VertexRDD
23.Scala元組的值是通過將單個(gè)的值包含在()中構(gòu)成的
A.小括號(hào)
B.中括號(hào)
C.大括號(hào)
D.尖括號(hào)
24.GraphX中()方法可以釋放邊緩存
A.cache
B.presist
C.unpersistVertices
D.edges.unpersist
25.PairRDD的()方法,可以把兩個(gè)RDD中鍵相同的元素組合在一起,合并為一個(gè)RDD。
A.join
B.union
C.substract
D.intersection
二、多選題 (共 10 道試題,共 20 分)
26.Spark SQL讀取的數(shù)據(jù)源支持()
A.Hive表
B.Parquent文件
C.JSON數(shù)據(jù)
D.關(guān)系數(shù)據(jù)庫
27.GraphX中Edge邊對(duì)象存有()字段
A.srcId
B.dstId
C.attr
D.val
28.以下哪種方法可以讓Spark不自定義分區(qū)也能對(duì)任何類型RDD 簡單重分區(qū)()
A.resetpartition
B.repartiton
C.Partition
D.coalesce
29.Scala函數(shù)支持()
A.遞歸函數(shù)
B.高階函數(shù)
C.柯里化
D.匿名函數(shù)
30.Scala中使用() 方法來連接兩個(gè)集合
A.append
B.++
C.concat
D.Set.++()
31.Spark支持使用()語言編寫應(yīng)用
A.Scala
B.Python
C.Java
D.R
32.Scala支持()
A.顯式參數(shù)
B.隱式參數(shù)
C.轉(zhuǎn)換
D.多態(tài)方法
33.Spark DataFrame中()方法可以獲取若干行數(shù)據(jù)
A.first
B.head
C.take
D.collect
34.Spark是一個(gè)()計(jì)算框架
A.快速
B.分布式
C.可擴(kuò)展
D.容錯(cuò)
35.Spark DataFrame中()方法可以返回一個(gè)List
A.collect
B.take
C.takeAsList
D.collectAsList
三、判斷題 (共 15 道試題,共 30 分)
36.Scala中Map的isEmpty函數(shù)在Map為空時(shí)返回false
37.Scala 集合分為可變的和不可變的集合
38.RDD的flatMap操作是將函數(shù)應(yīng)用于RDD 之中的每一個(gè)元素,將返回的迭代器(數(shù)組、列表等)中的所有元素構(gòu)成新的RDD 。
39.Scala函數(shù)組合器中foreach和map類似,有返回值
40.Scala中列表是可變的
41.Scala中默認(rèn)情況下使用的是可變的Map
42.RDD的filter過濾會(huì)將返回值為true的過濾掉
43.Scala函數(shù)組合器中g(shù)roupBy是對(duì)集合中的元素進(jìn)行分組操作,結(jié)果得到的是一個(gè)Map
44.val如同Java里面的非final變量,可以在它的聲明周期中被多次賦值。
45.用戶可以在Hadoop YARN上運(yùn)行Spark
46.RDD的sortBy函數(shù)包含參數(shù)numPartitions,該參數(shù)決定排序后的RDD的分區(qū)個(gè)數(shù),默認(rèn)排序后的分區(qū)個(gè)數(shù)和排序之前的個(gè)數(shù)相等,即為this.partitions.size。
47.Spark GraphX課通過mapVertices[VD2: ClassTag](map: (VertexId, VD) => VD2)實(shí)現(xiàn)對(duì)頂點(diǎn)屬性經(jīng)過變換生成新的圖
48.Spark Streming中對(duì)DStream的任何操作都會(huì)轉(zhuǎn)化成對(duì)底層RDDs的操作
49.Spark對(duì)只有未曾設(shè)置存儲(chǔ)級(jí)別的RDD才能設(shè)置存儲(chǔ)級(jí)別,設(shè)置了存儲(chǔ)級(jí)別的RDD不能修改其存儲(chǔ)級(jí)別
50.Scala中++i和i++表示變量i自增1
奧鵬,國開,廣開,電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢QQ : 3230981406或微信:aopopenfd777