北語(yǔ)22春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)4【資料答案】

可做奧鵬全部院校在線(xiàn)離線(xiàn)作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2022-04-30 16:32:22來(lái)源:admin瀏覽: 60 次

22春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)4題目

試卷總分:100  得分:100

一、單選題 (共 15 道試題,共 60 分)

1.用訓(xùn)練好的隨機(jī)森林對(duì)樣本進(jìn)行類(lèi)別預(yù)測(cè)的語(yǔ)句是

A.from sklearn.tree import DecisionTreetClassifier

B.clf=DecisionTreetClassifier()

C.clf.fit(Xtrain,Ytrain)

D.predictions=clf.predict(Xtest)

 

2.以下不是數(shù)據(jù)可視化工具庫(kù)的是()

A.pandas

B.matplotlib

C.matlab

D.seaborn

 

3.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是

A.3

B.5

C.7

D.4

 

4.下面代碼能夠提取模糊C均值聚類(lèi)算法類(lèi)簇中心特征的語(yǔ)句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=4)

C.fcm.fit(X)

D.fcm_centers=fcm.cednters

 

5.局部異常因子(LOF)算法屬于

A.基于統(tǒng)計(jì)的異常值檢測(cè)方法

B.基于密度的異常檢測(cè)方法

C.基于聚類(lèi)的異常值檢測(cè)

D.基于決策樹(shù)的異常檢測(cè)

 

6.邏輯回歸中的“邏輯”是指

A.規(guī)則

B.Sigmoid函數(shù)

C.學(xué)者名字

D.以上都不對(duì)

 

7.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是

A.1

B.2

C.3

D.4

 

8.利用pandas處理數(shù)據(jù)缺失值時(shí),用于發(fā)現(xiàn)缺失值的函數(shù)為

A.isnull

B.head

C.tail

D.info

 

9.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為

A.isnull

B.head

C.fillna

D.dropna

 

10.關(guān)聯(lián)規(guī)則最基礎(chǔ)的元素是

A.項(xiàng)

B.項(xiàng)集

C.超項(xiàng)集

D.子項(xiàng)集

 

11.from sklearn.neighbors import KNeighborsClassifiernknn = KNeighborsClassifier(n_neighbors=3) n上面代碼中可以看出,KNN分類(lèi)器的k值設(shè)置為

A.1

B.2

C.3

D.4

 

12.決策樹(shù)生成過(guò)程中,以信息增益率作為特征選擇準(zhǔn)則生成決策樹(shù)的算法是

A.ID3

B.C4.5

C.CART

D.以上都不對(duì)

 

13.決策樹(shù)生成過(guò)程的停止條件

A.當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類(lèi)別,無(wú)需劃分

B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無(wú)法劃分

C.當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分

D.以上都不對(duì)

 

14.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語(yǔ)句

A.from sklean.neighbors import LocalOutlierFactor

B.clf=LocalOutlierFactor(n_neighbors=20)

C.y_pred=clf.fit_predict(X)

D.X_scores = clf.negative_outlier_factor_

 

15.處理缺失值的方法有刪除和()

A.替換

B.復(fù)制

C.修改

D.屏蔽

 

二、多選題 (共 5 道試題,共 20 分)

16.常用的分類(lèi)方法包括

A.樸素貝葉斯分類(lèi)器

B.決策樹(shù)

C.KNN

D.以上都不對(duì)

 

17.定性數(shù)據(jù)包括

A.有序數(shù)據(jù)

B.無(wú)序數(shù)據(jù)

C.定類(lèi)等級(jí)數(shù)據(jù)

D.定性等級(jí)數(shù)據(jù)

 

18.數(shù)據(jù)挖掘(Data Mining)則是知識(shí)發(fā)現(xiàn)(KDD)的核心部分,它指的是從數(shù)據(jù)集合中自動(dòng)抽取隱藏在數(shù)據(jù)中的那些有用信息的非平凡過(guò)程,這些信息的表現(xiàn)形式為

A.規(guī)則

B.概念

C.規(guī)律

D.模式

 

19.異常檢測(cè)的難點(diǎn)

A.不能明確定義何為正常,何為異常,在某些領(lǐng)域正常和異常并沒(méi)有明確的界限

B.數(shù)據(jù)本身存在噪聲,致使噪聲和異常難以區(qū)分

C.正常行為并不是一成不變,也會(huì)隨著時(shí)間演化,如正常用戶(hù)被盜號(hào)之后,進(jìn)行一系列的非法操作

D.難以獲取標(biāo)記數(shù)據(jù),沒(méi)有數(shù)據(jù),再好的算法也是無(wú)用

 

20.分箱法包括

A.等深分箱

B.眾數(shù)分箱

C.等寬分箱

D.以上都不對(duì)

 

三、判斷題 (共 5 道試題,共 20 分)

21.眾數(shù)在一組數(shù)據(jù)中只有一個(gè)

 

22.因?yàn)?Bayes 理論能夠幫助理解基于概率估計(jì)的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)

 

23.下四分位數(shù)是指 數(shù)據(jù)從大到小排列排在第25%位置的數(shù)字,即最小的四分位數(shù)(下四分位數(shù))

 

24.高層次數(shù)據(jù)無(wú)法向低層次轉(zhuǎn)化,會(huì)出現(xiàn)F

 

25.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段


作業(yè)咨詢(xún) 論文咨詢(xún)
微信客服掃一掃

回到頂部