23秋《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)1-00001
試卷總分:100 得分:100
一、單選題 (共 15 道試題,共 60 分)
1.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為
A.2
B.4
C.6
D.8
2.在pandas中臟數(shù)據(jù)的典型表示有()
A.np.nan
B.*
C.?
D.no
3.利用pandas處理數(shù)據(jù)缺失值時,用于丟棄缺失值的函數(shù)為
A.isnull
B.head
C.tail
D.dropna
4.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22}的中四分位數(shù)為
A.2
B.4
C.6
D.8
5.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是
A.3
B.5
C.7
D.4
6.用訓(xùn)練好的LOF實例對數(shù)據(jù)進行LOF分?jǐn)?shù)計算并排序的語句是
A.from sklean.neighbors import LocalOutlierFactor
B.clf=LocalOutlierFactor(n_neighbors=20)
C.y_pred=clf.fit_predict(X)
D.X_scores = clf.negative_outlier_factor_
7.利用pandas處理數(shù)據(jù)缺失值時,用于發(fā)現(xiàn)重復(fù)值的函數(shù)為
A.isnull
B.duplicated
C.fillna
D.dropna
8.分類的目標(biāo)是
A.將一組對象分組以發(fā)現(xiàn)它們之間是否存在某種關(guān)系
B.從一組預(yù)定義的類中查找新對象所屬的類
C.提高數(shù)據(jù)標(biāo)簽利用效率
D.以上都不對
9.項集 S ={ },則項集S稱為
A.1項集
B.2項集
C.3項集
D.空集
10.訓(xùn)練隨機森林模型實例的語句是
A.from sklearn.tree import DecisionTreetClassifier
B.clf=DecisionTreetClassifier()
C.clf.fit(Xtrain,Ytrain)
D.predictions=clf.predict(Xtest)
11.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示
A.訓(xùn)練數(shù)據(jù)集
B.測試數(shù)據(jù)集
C.訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組
D.測試數(shù)據(jù)的類別標(biāo)簽數(shù)組
12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的上四分位數(shù)為
A.20
B.22
C.20.5
D.28
13.關(guān)聯(lián)規(guī)則 X→Y 表示中Y稱為
A.前件
B.后件
C.中間件
D.以上都不對
14.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的四分位差為
A.20
B.22
C.20.5
D.18.5
15.用訓(xùn)練好的LOF實例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句
A.from sklean.neighbors import LocalOutlierFactor
B.clf=LocalOutlierFactor(n_neighbors=20)
C.y_pred=clf.fit_predict(X)
D.X_scores = clf.negative_outlier_factor_
二、多選題 (共 5 道試題,共 20 分)
16.常用的描述統(tǒng)計分析方法包括
A.對比分析法
B.平均分析法
C.交叉分析法
D.以上都不對
17.關(guān)聯(lián)規(guī)則反映的是
A.可分類性
B.可分割性
C.事物之間相互依存性
D.事物之間相互關(guān)聯(lián)性
18.數(shù)據(jù)集中趨勢分析的常用指標(biāo)包括
A.平均值
B.中位數(shù)
C.眾數(shù)
D.四分位數(shù)
19.數(shù)據(jù)挖掘是適應(yīng)信息社會從海量數(shù)據(jù)中提取信息的需要而產(chǎn)生的新學(xué)科,也是交叉學(xué)科,包括
A.統(tǒng)計學(xué)
B.機器學(xué)習(xí)
C.數(shù)據(jù)庫
D.模式識別
20.常用的分類方法包括
A.樸素貝葉斯分類器
B.決策樹
C.KNN
D.以上都不對
三、判斷題 (共 5 道試題,共 20 分)
21.分箱法是針對連續(xù)的數(shù)值型數(shù)據(jù)中噪聲進行處理
22.因為 Bayes 理論能夠幫助理解基于概率估計的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)
23.數(shù)據(jù)類型等級最高的是定類數(shù)據(jù)
24.分類算法的目的是找到數(shù)據(jù)的最優(yōu)擬合
25.數(shù)據(jù)類型等級最低的是定比數(shù)據(jù)
奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777