俄罗斯小YOUNV另类_玩弄放荡人妻少妇系列 _国产美女遭强高潮网站_亚洲午夜性猛春交XXXX_久久99亚洲网美利坚合众国_国产普通话对白刺激_国产免费AV一区二区三区_精品无人区麻豆乱码1区2区

北語23秋《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2023/11/12 20:32:34來源:admin瀏覽: 0 次

《大數(shù)據(jù)技術(shù)與應(yīng)用》作業(yè)2


共25道題 總分:100分


一、單選題(共15題,60分)


1.用訓(xùn)練好的LOF實(shí)例判斷數(shù)據(jù)是否異常,正常樣本用1表示,異常樣本用-1表示的語句


A、from sklean.neighbors import LocalOutlierFactor


B、clf=LocalOutlierFactor(n_neighbors=20)


C、y_pred=clf.fit_predict(X)


D、X_scores = clf.negative_outlier_factor_


2.利用pandas處理數(shù)據(jù)缺失值時(shí),用于填充缺失值的函數(shù)為


A、isnull


B、head


C、fillna


D、dropna


3.決策樹生成過程中,以信息增益作為特征選擇準(zhǔn)則生成決策樹的算法是


A、ID3


B、C4.5


C、CART


D、以上都不對(duì)


4.決策樹的生成是一個(gè)遞歸過程,在決策樹基本算法中,滿足哪種情形,會(huì)導(dǎo)致遞歸過程返回停止


A、特征選擇次數(shù)超過一定限制


B、當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同


C、決策樹深度超過2


D、以上都不對(duì)


5.:from sklearn.tree import DecisionTreeClassifiernclf = DecisionTreeClassifier()nclf.fit(Xtrain,Ytrain) npredictions = clf.predict(Xtest)n上面代碼第4行中Xtest表示


A、訓(xùn)練數(shù)據(jù)集


B、測(cè)試數(shù)據(jù)集


C、訓(xùn)練數(shù)據(jù)的類別標(biāo)簽數(shù)組


D、測(cè)試數(shù)據(jù)的類別標(biāo)簽數(shù)組


6.以下不屬于大數(shù)據(jù)分析方法的是()


A、統(tǒng)計(jì)分析


B、數(shù)學(xué)模型


C、機(jī)器學(xué)習(xí)


D、人工智能


7.用訓(xùn)練好的孤立森林isolation forest實(shí)例對(duì)數(shù)據(jù)進(jìn)行異常值檢測(cè)的語句是


A、from sklean.ensemble import IsolationForest


B、LocalOutlierFactor


C、clf= IsolationForest(max_samples=100,random_state=0)


D、clf.fit(X_train)


E、y_pred=clf.fit_predict(X)


F、y_pred_test = clf.predict(X_test)


8.用訓(xùn)練好的模糊C均值聚類實(shí)例對(duì)數(shù)據(jù)進(jìn)行聚類操作的語句是


A、from fcmeans import FCM


B、fcm=FCM(n_clusters=3)


C、fcm.fit(X)


D、fcm_labels=fcm.u.argmax(axis=1)


9.數(shù)據(jù)集{1,2,2,2,3,4}的眾數(shù)是


A、1


B、2


C、3


D、4

 

10.不包含任何項(xiàng)的項(xiàng)集是指


A、項(xiàng)


B、空集


C、超項(xiàng)集


D、子項(xiàng)集


11.利用Sklearn構(gòu)建KNN分類器,用于KNN分類器訓(xùn)練的程序?yàn)?/span>


A、knn.fit(X_train,y_train)


B、y_pred=knn.predict(X_test)


C、knn=KNeighborsClassifier(n_neighbors=k)


D、以上都不對(duì)


12.數(shù)據(jù)集{2,2,4,4,4,4,6,6,8,8,12,14,16,20,22,28,30,44}的中四分位數(shù)為


A、2


B、4


C、6


D、8


13.關(guān)聯(lián)規(guī)則 X→Y 表示中X稱為


A、前件


B、后件


C、中間件


D、以上都不對(duì)


14.從軟件庫中導(dǎo)入模糊C均值聚類算法類的語句是


A、from fcmeans import FCM


B、fcm=FCM(n_clusters=3)


C、fcm.fit(X)


D、fcm_labels=fcm.u.argmax(axis=1)


15.如果一個(gè)項(xiàng)集包含K個(gè)項(xiàng),則該項(xiàng)集稱為


A、項(xiàng)


B、空集


C、超項(xiàng)集


D、K項(xiàng)集


二、多選題(共5題,20分)


1.數(shù)據(jù)集中趨勢(shì)分析的常用指標(biāo)包括


A、平均值


B、中位數(shù)


C、眾數(shù)


D、四分位數(shù)


2.以下哪些是數(shù)據(jù)可視化圖表


A、柱狀圖


B、折線圖


C、餅圖


D、散點(diǎn)圖


3.分箱法包括


A、等深分箱


B、眾數(shù)分箱


C、等寬分箱


D、以上都不對(duì)


4.在數(shù)據(jù)清洗過程中,用于處理噪聲值的方法包括


A、蓋帽法


B、分箱法


C、聚類法


D、以上都不對(duì)


5.定性數(shù)據(jù)包括


A、有序數(shù)據(jù)


B、無序數(shù)據(jù)


C、定類等級(jí)數(shù)據(jù)


D、定性等級(jí)數(shù)據(jù)


三、判斷題(共5題,20分)


1.回歸算法的目的是尋找決策邊界


A、對(duì)


B、錯(cuò)


2.描述性數(shù)據(jù)分析屬于比較高級(jí)復(fù)雜的數(shù)據(jù)分析手段


A、對(duì)


B、錯(cuò)


3.蓋帽法是將某連續(xù)變量均值上下三倍標(biāo)準(zhǔn)差范圍外的數(shù)值全部刪除


A、對(duì)


B、錯(cuò)


4.定性數(shù)據(jù)包括離散數(shù)據(jù)和連續(xù)數(shù)據(jù)


A、對(duì)


B、錯(cuò)


5.等寬分箱方法是指每個(gè)分箱中樣本數(shù)量一致


A、對(duì)


B、錯(cuò)




奧鵬,國(guó)開,廣開,電大在線,各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢QQ : 3230981406或微信:aopopenfd777

  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部