北語23春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2【答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2023-06-21 23:01:04來源:admin瀏覽: 0 次


23春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2-00001

試卷總分:100  得分:100

一、單選題 (共 15 道試題,共 60 分)

1.用訓(xùn)練好的LOF實例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句

A.from sklean.neighbors import LocalOutlierFactor

B.clf=LocalOutlierFactor(n_neighbors=20)

C.y_pred=clf.fit_predict(X)

D.X_scores = clf.negative_outlier_factor_

 

2.利用pandas處理數(shù)據(jù)缺失值時,用于填充缺失值的函數(shù)為

A.isnull

B.head

C.fillna

D.dropna

 

3.決策樹生成過程中,以信息增益作為特征選擇準(zhǔn)則生成決策樹的算法是

A.ID3

B.C4.5

C.CART

D.以上都不對

 

4.決策樹的生成是一個遞歸過程,在決策樹基本算法中,滿足哪種情形,會導(dǎo)致遞歸過程返回停止

A.特征選擇次數(shù)超過一定限制

B.當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同

C.決策樹深度超過2

D.以上都不對

 

5.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示

A.訓(xùn)練數(shù)據(jù)集

B.測試數(shù)據(jù)集

C.訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組

D.測試數(shù)據(jù)的類別標(biāo)簽數(shù)組

 

6.以下不屬于大數(shù)據(jù)分析方法的是()

A.統(tǒng)計分析

B.數(shù)學(xué)模型

C.機器學(xué)習(xí)

D.人工智能

 

7.用訓(xùn)練好的孤立森林isolation forest實例對數(shù)據(jù)進行異常值檢測的語句是

A.from sklean.ensemble import IsolationForest

B.LocalOutlierFactor

C.clf= IsolationForest(max_samples=100,random_state=0)

D.clf.fit(X_train)

E.y_pred=clf.fit_predict(X)

F.y_pred_test = clf.predict(X_test)

 

8.用訓(xùn)練好的模糊C均值聚類實例對數(shù)據(jù)進行聚類操作的語句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=3)

C.fcm.fit(X)

D.fcm_labels=fcm.u.argmax(axis=1)

 

9.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是

A.1

B.2

C.3

D.4

 

10.不包含任何項的項集是指

A.項

B.空集

C.超項集

D.子項集

 

11.利用Sklearn構(gòu)建KNN分類器,用于KNN分類器訓(xùn)練的程序為

A.knn.fit(X_train,y_train)

B.y_pred=knn.predict(X_test)

C.knn=KNeighborsClassifier(n_neighbors=k)

D.以上都不對

 

12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為

A.2

B.4

C.6

D.8

 

13.關(guān)聯(lián)規(guī)則 X→Y 表示中X稱為

A.前件

B.后件

C.中間件

D.以上都不對

 

14.從軟件庫中導(dǎo)入模糊C均值聚類算法類的語句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=3)

C.fcm.fit(X)

D.fcm_labels=fcm.u.argmax(axis=1)

 

15.如果一個項集包含K個項,則該項集稱為

A.項

B.空集

C.超項集

D.K項集

 

二、多選題 (共 5 道試題,共 20 分)

16.數(shù)據(jù)集中趨勢分析的常用指標(biāo)包括

A.平均值

B.中位數(shù)

C.眾數(shù)

D.四分位數(shù)

 

17.以下哪些是數(shù)據(jù)可視化圖表

A.柱狀圖

B.折線圖

C.餅圖

D.散點圖

 

18.分箱法包括

A.等深分箱

B.眾數(shù)分箱

C.等寬分箱

D.以上都不對

 

19.在數(shù)據(jù)清洗過程中,用于處理噪聲值的方法包括

A.蓋帽法

B.分箱法

C.聚類法

D.以上都不對

 

20.定性數(shù)據(jù)包括

A.有序數(shù)據(jù)

B.無序數(shù)據(jù)

C.定類等級數(shù)據(jù)

D.定性等級數(shù)據(jù)

 

三、判斷題 (共 5 道試題,共 20 分)

21.回歸算法的目的是尋找決策邊界

 

22.描述性數(shù)據(jù)分析屬于比較高級復(fù)雜的數(shù)據(jù)分析手段

 

23.蓋帽法是將某連續(xù)變量均值上下三倍標(biāo)準(zhǔn)差范圍外的數(shù)值全部刪除

 

24.定性數(shù)據(jù)包括離散數(shù)據(jù)和連續(xù)數(shù)據(jù)

 

25.等寬分箱方法是指每個分箱中樣本數(shù)量一致




奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部