23春《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2-00001
試卷總分:100 得分:100
一、單選題 (共 15 道試題,共 60 分)
1.用訓(xùn)練好的LOF實例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句
A.from sklean.neighbors import LocalOutlierFactor
B.clf=LocalOutlierFactor(n_neighbors=20)
C.y_pred=clf.fit_predict(X)
D.X_scores = clf.negative_outlier_factor_
2.利用pandas處理數(shù)據(jù)缺失值時,用于填充缺失值的函數(shù)為
A.isnull
B.head
C.fillna
D.dropna
3.決策樹生成過程中,以信息增益作為特征選擇準(zhǔn)則生成決策樹的算法是
A.ID3
B.C4.5
C.CART
D.以上都不對
4.決策樹的生成是一個遞歸過程,在決策樹基本算法中,滿足哪種情形,會導(dǎo)致遞歸過程返回停止
A.特征選擇次數(shù)超過一定限制
B.當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同
C.決策樹深度超過2
D.以上都不對
5.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示
A.訓(xùn)練數(shù)據(jù)集
B.測試數(shù)據(jù)集
C.訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組
D.測試數(shù)據(jù)的類別標(biāo)簽數(shù)組
6.以下不屬于大數(shù)據(jù)分析方法的是()
A.統(tǒng)計分析
B.數(shù)學(xué)模型
C.機器學(xué)習(xí)
D.人工智能
7.用訓(xùn)練好的孤立森林isolation forest實例對數(shù)據(jù)進行異常值檢測的語句是
A.from sklean.ensemble import IsolationForest
B.LocalOutlierFactor
C.clf= IsolationForest(max_samples=100,random_state=0)
D.clf.fit(X_train)
E.y_pred=clf.fit_predict(X)
F.y_pred_test = clf.predict(X_test)
8.用訓(xùn)練好的模糊C均值聚類實例對數(shù)據(jù)進行聚類操作的語句是
A.from fcmeans import FCM
B.fcm=FCM(n_clusters=3)
C.fcm.fit(X)
D.fcm_labels=fcm.u.argmax(axis=1)
9.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是
A.1
B.2
C.3
D.4
10.不包含任何項的項集是指
A.項
B.空集
C.超項集
D.子項集
11.利用Sklearn構(gòu)建KNN分類器,用于KNN分類器訓(xùn)練的程序為
A.knn.fit(X_train,y_train)
B.y_pred=knn.predict(X_test)
C.knn=KNeighborsClassifier(n_neighbors=k)
D.以上都不對
12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為
A.2
B.4
C.6
D.8
13.關(guān)聯(lián)規(guī)則 X→Y 表示中X稱為
A.前件
B.后件
C.中間件
D.以上都不對
14.從軟件庫中導(dǎo)入模糊C均值聚類算法類的語句是
A.from fcmeans import FCM
B.fcm=FCM(n_clusters=3)
C.fcm.fit(X)
D.fcm_labels=fcm.u.argmax(axis=1)
15.如果一個項集包含K個項,則該項集稱為
A.項
B.空集
C.超項集
D.K項集
二、多選題 (共 5 道試題,共 20 分)
16.數(shù)據(jù)集中趨勢分析的常用指標(biāo)包括
A.平均值
B.中位數(shù)
C.眾數(shù)
D.四分位數(shù)
17.以下哪些是數(shù)據(jù)可視化圖表
A.柱狀圖
B.折線圖
C.餅圖
D.散點圖
18.分箱法包括
A.等深分箱
B.眾數(shù)分箱
C.等寬分箱
D.以上都不對
19.在數(shù)據(jù)清洗過程中,用于處理噪聲值的方法包括
A.蓋帽法
B.分箱法
C.聚類法
D.以上都不對
20.定性數(shù)據(jù)包括
A.有序數(shù)據(jù)
B.無序數(shù)據(jù)
C.定類等級數(shù)據(jù)
D.定性等級數(shù)據(jù)
三、判斷題 (共 5 道試題,共 20 分)
21.回歸算法的目的是尋找決策邊界
22.描述性數(shù)據(jù)分析屬于比較高級復(fù)雜的數(shù)據(jù)分析手段
23.蓋帽法是將某連續(xù)變量均值上下三倍標(biāo)準(zhǔn)差范圍外的數(shù)值全部刪除
24.定性數(shù)據(jù)包括離散數(shù)據(jù)和連續(xù)數(shù)據(jù)
25.等寬分箱方法是指每個分箱中樣本數(shù)量一致
奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777