22春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)4題目
試卷總分:100 得分:100
一、單選題 (共 15 道試題,共 60 分)
1.用訓(xùn)練好的隨機(jī)森林對(duì)樣本進(jìn)行類(lèi)別預(yù)測(cè)的語(yǔ)句是
A.from sklearn.tree import DecisionTreetClassifier
B.clf=DecisionTreetClassifier()
C.clf.fit(Xtrain,Ytrain)
D.predictions=clf.predict(Xtest)
2.以下不是數(shù)據(jù)可視化工具庫(kù)的是()
A.pandas
B.matplotlib
C.matlab
D.seaborn
3.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是
A.3
B.5
C.7
D.4
4.下面代碼能夠提取模糊C均值聚類(lèi)算法類(lèi)簇中心特征的語(yǔ)句是
A.from fcmeans import FCM
B.fcm=FCM(n_clusters=4)
C.fcm.fit(X)
D.fcm_centers=fcm.cednters
5.局部異常因子(LOF)算法屬于
A.基于統(tǒng)計(jì)的異常值檢測(cè)方法
B.基于密度的異常檢測(cè)方法
C.基于聚類(lèi)的異常值檢測(cè)
D.基于決策樹(shù)的異常檢測(cè)
6.邏輯回歸中的“邏輯”是指
A.規(guī)則
B.Sigmoid函數(shù)
C.學(xué)者名字
D.以上都不對(duì)
7.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是
A.1
B.2
C.3
D.4
8.利用pandas處理數(shù)據(jù)缺失值時(shí),用于發(fā)現(xiàn)缺失值的函數(shù)為
A.isnull
B.head
C.tail
D.info
9.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為
A.isnull
B.head
C.fillna
D.dropna
10.關(guān)聯(lián)規(guī)則最基礎(chǔ)的元素是
A.項(xiàng)
B.項(xiàng)集
C.超項(xiàng)集
D.子項(xiàng)集
11.from sklearn.neighbors import KNeighborsClassifiernknn = KNeighborsClassifier(n_neighbors=3) n上面代碼中可以看出,KNN分類(lèi)器的k值設(shè)置為
A.1
B.2
C.3
D.4
12.決策樹(shù)生成過(guò)程中,以信息增益率作為特征選擇準(zhǔn)則生成決策樹(shù)的算法是
A.ID3
B.C4.5
C.CART
D.以上都不對(duì)
13.決策樹(shù)生成過(guò)程的停止條件
A.當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類(lèi)別,無(wú)需劃分
B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分
C.當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分
D.以上都不對(duì)
14.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語(yǔ)句
A.from sklean.neighbors import LocalOutlierFactor
B.clf=LocalOutlierFactor(n_neighbors=20)
C.y_pred=clf.fit_predict(X)
D.X_scores = clf.negative_outlier_factor_
15.處理缺失值的方法有刪除和()
A.替換
B.復(fù)制
C.修改
D.屏蔽
二、多選題 (共 5 道試題,共 20 分)
16.常用的分類(lèi)方法包括
A.樸素貝葉斯分類(lèi)器
B.決策樹(shù)
C.KNN
D.以上都不對(duì)
17.定性數(shù)據(jù)包括
A.有序數(shù)據(jù)
B.無(wú)序數(shù)據(jù)
C.定類(lèi)等級(jí)數(shù)據(jù)
D.定性等級(jí)數(shù)據(jù)
18.數(shù)據(jù)挖掘(Data Mining)則是知識(shí)發(fā)現(xiàn)(KDD)的核心部分,它指的是從數(shù)據(jù)集合中自動(dòng)抽取隱藏在數(shù)據(jù)中的那些有用信息的非平凡過(guò)程,這些信息的表現(xiàn)形式為
A.規(guī)則
B.概念
C.規(guī)律
D.模式
19.異常檢測(cè)的難點(diǎn)
A.不能明確定義何為正常,何為異常,在某些領(lǐng)域正常和異常并沒(méi)有明確的界限
B.數(shù)據(jù)本身存在噪聲,致使噪聲和異常難以區(qū)分
C.正常行為并不是一成不變,也會(huì)隨著時(shí)間演化,如正常用戶(hù)被盜號(hào)之后,進(jìn)行一系列的非法操作
D.難以獲取標(biāo)記數(shù)據(jù),沒(méi)有數(shù)據(jù),再好的算法也是無(wú)用
20.分箱法包括
A.等深分箱
B.眾數(shù)分箱
C.等寬分箱
D.以上都不對(duì)
三、判斷題 (共 5 道試題,共 20 分)
21.眾數(shù)在一組數(shù)據(jù)中只有一個(gè)
22.因?yàn)?Bayes 理論能夠幫助理解基于概率估計(jì)的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)
23.下四分位數(shù)是指 數(shù)據(jù)從大到小排列排在第25%位置的數(shù)字,即最小的四分位數(shù)(下四分位數(shù))
24.高層次數(shù)據(jù)無(wú)法向低層次轉(zhuǎn)化,會(huì)出現(xiàn)F
25.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段