《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)1
共25道題 總分:100分
一、單選題(共15題,60分)
1.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為
A、2
B、4
C、6
D、8
2.在pandas中臟數(shù)據(jù)的典型表示有()
A、np.nan
B、*
C、?
D、no
3.利用pandas處理數(shù)據(jù)缺失值時(shí),用于丟棄缺失值的函數(shù)為
A、isnull
B、head
C、tail
D、dropna
4.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22}的中四分位數(shù)為
A、2
B、4
C、6
D、8
5.數(shù)據(jù)集{1,2,3,5,7,8,9}的中位數(shù)是
A、3
B、5
C、7
D、4
6.用訓(xùn)練好的LOF實(shí)例對數(shù)據(jù)進(jìn)行LOF分?jǐn)?shù)計(jì)算并排序的語句是
A、from sklean.neighbors import LocalOutlierFactor
B、clf=LocalOutlierFactor(n_neighbors=20)
C、y_pred=clf.fit_predict(X)
D、X_scores = clf.negative_outlier_factor_
7.利用pandas處理數(shù)據(jù)缺失值時(shí),用于發(fā)現(xiàn)重復(fù)值的函數(shù)為
A、isnull
B、duplicated
C、fillna
D、dropna
8.分類的目標(biāo)是
A、將一組對象分組以發(fā)現(xiàn)它們之間是否存在某種關(guān)系
B、從一組預(yù)定義的類中查找新對象所屬的類
C、提高數(shù)據(jù)標(biāo)簽利用效率
D、以上都不對
9.項(xiàng)集 S ={ },則項(xiàng)集S稱為
A、1項(xiàng)集
B、2項(xiàng)集
C、3項(xiàng)集
D、空集
10.訓(xùn)練隨機(jī)森林模型實(shí)例的語句是
A、from sklearn.tree import DecisionTreetClassifier
B、clf=DecisionTreetClassifier()
C、clf.fit(Xtrain,Ytrain)
D、predictions=clf.predict(Xtest)
11.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示
A、訓(xùn)練數(shù)據(jù)集
B、測試數(shù)據(jù)集
C、訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組
D、測試數(shù)據(jù)的類別標(biāo)簽數(shù)組
12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的上四分位數(shù)為
A、20
B、22
C、20.5
D、28
13.關(guān)聯(lián)規(guī)則 X→Y 表示中Y稱為
A、前件
B、后件
C、中間件
D、以上都不對
14.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的四分位差為
A、20
B、22
C、20.5
D、18.5
15.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句
A、from sklean.neighbors import LocalOutlierFactor
B、clf=LocalOutlierFactor(n_neighbors=20)
C、y_pred=clf.fit_predict(X)
D、X_scores = clf.negative_outlier_factor_
二、多選題(共5題,20分)
1.常用的描述統(tǒng)計(jì)分析方法包括
A、對比分析法
B、平均分析法
C、交叉分析法
D、以上都不對
2.關(guān)聯(lián)規(guī)則反映的是
A、可分類性
B、可分割性
C、事物之間相互依存性
D、事物之間相互關(guān)聯(lián)性
3.數(shù)據(jù)集中趨勢分析的常用指標(biāo)包括
A、平均值
B、中位數(shù)
C、眾數(shù)
D、四分位數(shù)
4.數(shù)據(jù)挖掘是適應(yīng)信息社會(huì)從海量數(shù)據(jù)中提取信息的需要而產(chǎn)生的新學(xué)科,也是交叉學(xué)科,包括
A、統(tǒng)計(jì)學(xué)
B、機(jī)器學(xué)習(xí)
C、數(shù)據(jù)庫
D、模式識別
5.常用的分類方法包括
A、樸素貝葉斯分類器
B、決策樹
C、KNN
D、以上都不對
三、判斷題(共5題,20分)
1.分箱法是針對連續(xù)的數(shù)值型數(shù)據(jù)中噪聲進(jìn)行處理
A、對
B、錯(cuò)
2.因?yàn)?Bayes 理論能夠幫助理解基于概率估計(jì)的復(fù)雜現(xiàn)況,所以它成為了數(shù)據(jù)挖掘和概率論的基礎(chǔ)
A、對
B、錯(cuò)
3.數(shù)據(jù)類型等級最高的是定類數(shù)據(jù)
A、對
B、錯(cuò)
4.分類算法的目的是找到數(shù)據(jù)的最優(yōu)擬合
A、對
B、錯(cuò)
5.數(shù)據(jù)類型等級最低的是定比數(shù)據(jù)
A、對
B、錯(cuò)
奧鵬,國開,廣開,電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777