北語22春《大數(shù)據(jù)技術(shù)與應用》作業(yè)3【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2022-04-30 16:32:55來源:admin瀏覽: 70 次

22春《大數(shù)據(jù)技術(shù)與應用》作業(yè)3題目

試卷總分:100  得分:100

一、單選題 (共 15 道試題,共 60 分)

1.項集 S ={尿布,啤酒,牛奶,可樂},則項集S稱為

A.1項集

B.2項集

C.3項集

D.4項集

 

2.決策樹生成過程中,以信息增益率作為特征選擇準則生成決策樹的算法是

A.ID3

B.C4.5

C.CART

D.以上都不對

 

3.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為

A.2

B.4

C.6

D.8

 

4.從軟件庫中導入LOF異常檢測算法類的語句是

A.from sklean.neighbors import LocalOutlierFactor

B.clf=LocalOutlierFactor(n_neighbors=20)

C.y_pred=clf.fit_predict(X)

D.X_scores = clf.negative_outlier_factor_

 

5.數(shù)據(jù)等級排序T的是

A.定距等級>定比等級>定類等級>定序等級

B.定比等級>定序等級>定距等級>定類等級

C.定比等級>定距等級>定序等級>定類等級

D.定比等級>定類等級>定序等級>定距等級

 

6.用訓練好的LOF實例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句

A.from sklean.neighbors import LocalOutlierFactor

B.clf=LocalOutlierFactor(n_neighbors=20)

C.y_pred=clf.fit_predict(X)

D.X_scores = clf.negative_outlier_factor_

 

7.不包含任何項的項集是指

A.項

B.空集

C.超項集

D.子項集

 

8.從軟件庫中導入模糊C均值聚類算法類的語句是

A.from fcmeans import FCM

B.fcm=FCM(n_clusters=3)

C.fcm.fit(X)

D.fcm_labels=fcm.u.argmax(axis=1)

 

9.如果一個項集包含K個項,則該項集稱為

A.項

B.空集

C.超項集

D.K項集

 

10.利用pandas處理數(shù)據(jù)缺失值時,用于丟棄重復值的函數(shù)為

A.drop_duplicates

B.duplicated

C.fillna

D.dropna

 

11.常用于多變量噪聲值(異常值)處理的方法是

A.等深分箱

B.聚類法

C.等寬分箱

D.蓋帽法

 

12.數(shù)據(jù)集{1,2,3,5,7,9}的中位數(shù)是

A.3

B.5

C.7

D.4

 

13.利用pandas處理數(shù)據(jù)缺失值時,用于發(fā)現(xiàn)缺失值的函數(shù)為

A.isnull

B.head

C.tail

D.info

 

14.關(guān)聯(lián)規(guī)則 X→Y 表示中Y稱為

A.前件

B.后件

C.中間件

D.以上都不對

 

15.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是

A.1

B.2

C.3

D.4

 

二、多選題 (共 5 道試題,共 20 分)

16.聚類分析可以用于

A.顧客分組

B.分類

C.回歸

D.找出顯著影響

 

17.關(guān)聯(lián)規(guī)則反映的是

A.可分類性

B.可分割性

C.事物之間相互依存性

D.事物之間相互關(guān)聯(lián)性

 

18.大數(shù)據(jù)收集的途徑包括()

A.互聯(lián)網(wǎng)

B.移動互聯(lián)網(wǎng)

C.物聯(lián)網(wǎng)傳感器

D.手動

 

19.可用于實現(xiàn)數(shù)據(jù)one-hot編碼的方法包括

A.Pandas的head

B.Pandas的get_dummies

C.sklearn.preprocessing.OneHotEncoder方法

D.Pandas的tail

 

20.決策樹的關(guān)鍵點包括

A.采用Bagging框架

B.采用隨機特征選擇生成每個決策樹的訓練數(shù)據(jù)特征子集

C.采用采樣數(shù)據(jù)集的特征子集訓練對應決策樹

D.以上都不對

 

三、判斷題 (共 5 道試題,共 20 分)

21.定類數(shù)據(jù)層次比定序數(shù)據(jù)高

 

22.數(shù)據(jù)挖掘的過程都是有統(tǒng)一一致的步驟的

 

23.定序數(shù)據(jù)層次比定距數(shù)據(jù)高

 

24.下四分位數(shù)是指 數(shù)據(jù)從大到小排列排在第25%位置的數(shù)字,即最小的四分位數(shù)(下四分位數(shù))

 

25.上世紀 70 年代,隨著數(shù)據(jù)庫管理系統(tǒng)趨于成熟,存儲和查詢百萬兆字節(jié)甚至千萬億字節(jié)成為可能。而且,數(shù)據(jù)倉庫允許用戶從面向事物處理的思維方式向更注重數(shù)據(jù)分析的方式進行轉(zhuǎn)變。因此,提取復雜深度系信息能力非常強啊

 


作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部