北語(yǔ)22春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2022-04-30 16:33:26來(lái)源:admin瀏覽: 57 次

22春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2題目

試卷總分:100  得分:100

一、單選題 (共 15 道試題,共 60 分)

1.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語(yǔ)句

A.from sklean.neighbors import LocalOutlierFactor

B.clf=LocalOutlierFactor(n_neighbors=20)

C.y_pred=clf.fit_predict(X)

D.X_scores = clf.negative_outlier_factor_

 

2.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為

A.isnull

B.head

C.fillna

D.dropna

 

3.決策樹(shù)生成過(guò)程中,以信息增益作為特征選擇準(zhǔn)則生成決策樹(shù)的算法是

A.ID3

B.C4.5

C.CART

D.以上都不對(duì)

 

4.決策樹(shù)的生成是一個(gè)遞歸過(guò)程,在決策樹(shù)基本算法中,滿足哪種情形,會(huì)導(dǎo)致遞歸過(guò)程返回停止

A.特征選擇次數(shù)超過(guò)一定限制

B.當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同

C.決策樹(shù)深度超過(guò)2

D.以上都不對(duì)

 

5.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示

A.訓(xùn)練數(shù)據(jù)集

B.測(cè)試數(shù)據(jù)集

C.訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組

D.測(cè)試數(shù)據(jù)的類別標(biāo)簽數(shù)組

 

6.以下不屬于大數(shù)據(jù)分析方法的是()

A.統(tǒng)計(jì)分析

B.數(shù)學(xué)模型

C.機(jī)器學(xué)習(xí)

D.人工智能

 

7.用訓(xùn)練好的孤立森林isolation forest實(shí)例對(duì)數(shù)據(jù)進(jìn)行異常值檢測(cè)的語(yǔ)句是

A.from sklean.ensemble import IsolationForest

B.LocalOutlierFactor

C.clf= IsolationForest(max_samples=100,random_state=0)

D.clf.fit(X_train)

E.y_pred=clf.fit_predict(X)

F.y_pred_test = clf.predict(X_test)

 

8.用訓(xùn)練好的模糊C均值聚類實(shí)例對(duì)數(shù)據(jù)進(jìn)行聚類操作的語(yǔ)句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=3)

C.fcm.fit(X)

D.fcm_labels=fcm.u.argmax(axis=1)

 

9.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是

A.1

B.2

C.3

D.4

 

10.不包含任何項(xiàng)的項(xiàng)集是指

A.項(xiàng)

B.空集

C.超項(xiàng)集

D.子項(xiàng)集

 

11.利用Sklearn構(gòu)建KNN分類器,用于KNN分類器訓(xùn)練的程序?yàn)?/p>

A.knn.fit(X_train,y_train)

B.y_pred=knn.predict(X_test)

C.knn=KNeighborsClassifier(n_neighbors=k)

D.以上都不對(duì)

 

12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為

A.2

B.4

C.6

D.8

 

13.關(guān)聯(lián)規(guī)則 X→Y 表示中X稱為

A.前件

B.后件

C.中間件

D.以上都不對(duì)

 

14.從軟件庫(kù)中導(dǎo)入模糊C均值聚類算法類的語(yǔ)句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=3)

C.fcm.fit(X)

D.fcm_labels=fcm.u.argmax(axis=1)

 

15.如果一個(gè)項(xiàng)集包含K個(gè)項(xiàng),則該項(xiàng)集稱為

A.項(xiàng)

B.空集

C.超項(xiàng)集

D.K項(xiàng)集

 

二、多選題 (共 5 道試題,共 20 分)

16.數(shù)據(jù)集中趨勢(shì)分析的常用指標(biāo)包括

A.平均值

B.中位數(shù)

C.眾數(shù)

D.四分位數(shù)

 

17.以下哪些是數(shù)據(jù)可視化圖表

A.柱狀圖

B.折線圖

C.餅圖

D.散點(diǎn)圖

 

18.分箱法包括

A.等深分箱

B.眾數(shù)分箱

C.等寬分箱

D.以上都不對(duì)

 

19.在數(shù)據(jù)清洗過(guò)程中,用于處理噪聲值的方法包括

A.蓋帽法

B.分箱法

C.聚類法

D.以上都不對(duì)

 

20.定性數(shù)據(jù)包括

A.有序數(shù)據(jù)

B.無(wú)序數(shù)據(jù)

C.定類等級(jí)數(shù)據(jù)

D.定性等級(jí)數(shù)據(jù)

 

三、判斷題 (共 5 道試題,共 20 分)

21.回歸算法的目的是尋找決策邊界

 

22.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段

 

23.蓋帽法是將某連續(xù)變量均值上下三倍標(biāo)準(zhǔn)差范圍外的數(shù)值全部刪除

 

24.定性數(shù)據(jù)包括離散數(shù)據(jù)和連續(xù)數(shù)據(jù)

 

25.等寬分箱方法是指每個(gè)分箱中樣本數(shù)量一致


作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部