南開23春學期《數(shù)據(jù)科學導論》在線作業(yè)【答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2023-07-24 02:09:58來源:admin瀏覽: 0 次

23春學期(高起本:1709-2103、專升本/高起專:1909-2103)《數(shù)據(jù)科學導論》在線作業(yè)-00001

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.在一元線性回歸中,通過最小二乘法求得的直線叫做回歸直線或()。

A.最優(yōu)回歸線

B.最優(yōu)分布線

C.最優(yōu)預測線

D.最佳分布線


2.實體識別屬于以下哪個過程()

A.數(shù)據(jù)清洗

B.數(shù)據(jù)集成

C.數(shù)據(jù)規(guī)約

D.數(shù)據(jù)變換


3.K-means聚類適用的數(shù)據(jù)類型是()。

A.數(shù)值型數(shù)據(jù)

B.字符型數(shù)據(jù)

C.語音數(shù)據(jù)

D.所有數(shù)據(jù)


4.利用最小二乘法對多元線性回歸進行參數(shù)估計時,其目標為()。

A.最小化方差#最小化標準差

B.最小化殘差平方和

C.最大化信息熵


5.BFR聚類用于在()歐氏空間中對數(shù)據(jù)進行聚類

A.高維

B.中維

C.低維

D.中高維


6.根據(jù)映射關(guān)系的不同可以分為線性回歸和()。

A.對數(shù)回歸

B.非線性回歸

C.邏輯回歸

D.多元回歸


7.多層感知機是由()層神經(jīng)元組成。

A.二

B.三

C.大于等于二層

D.大于等于三層


8.以下屬于關(guān)聯(lián)分析的是( )

A.CPU性能預測

B.購物籃分析

C.自動判斷鳶尾花類別

D.股票趨勢建模


9.單層感知機是由()層神經(jīng)元組成。

A.一

B.二

C.三

D.四


10.比如一張表,從業(yè)務上講,一個用戶應該只會有一條記錄, 那么如果某個用戶出現(xiàn)了超過一條的記錄,這就產(chǎn)生了()

A.異常值

B.不一致的值

C.重復值

D.缺失值


11.聚類的最簡單最基本方法是()。

A.劃分聚類

B.層次聚類

C.密度聚類

D.距離聚類


12.單層感知機模型屬于()模型。

A.二分類的線性分類模型

B.二分類的非線性分類模型

C.多分類的線性分類模型

D.多分類的非線性分類模型


13.一元線性回歸中,真實值與預測值的差稱為樣本的()。

A.誤差

B.方差

C.測差

D.殘差


14.通過構(gòu)造新的指標-線損率,當超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()

A.簡單函數(shù)變換

B.規(guī)范化

C.屬性構(gòu)造

D.連續(xù)屬性離散化


15.維克托?邁爾-舍恩伯格在《大數(shù)據(jù)時代:生活、工作與思維的大變革》一書中,持續(xù)強調(diào)了一個觀點:大數(shù)據(jù)時代的到來,使我們無法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙,與此同時,我們更應該注重數(shù)據(jù)中的相關(guān)關(guān)系,而不是因果關(guān)系。其中,數(shù)據(jù)之間的相關(guān)關(guān)系可以通過以下哪個算法直接挖掘( )

A.K-means

B.Bayes Network

C.C4.5

D.Apriori


16.數(shù)據(jù)庫中相關(guān)聯(lián)的兩張表都存儲了用戶的個人信息,但在用戶的個人信息發(fā)生改變時只更新了一張表中的數(shù)據(jù),這時兩張表中就有了不一致的數(shù)據(jù),這屬于()

A.異常值

B.缺失值

C.不一致的值

D.重復值


17.變量之間的關(guān)系一般可以分為確定性關(guān)系與()。

A.非確定性關(guān)系

B.線性關(guān)系

C.函數(shù)關(guān)系

D.相關(guān)關(guān)系


18.單層感知機擁有()層功能神經(jīng)元。

A.一

B.二

C.三

D.四


19.以下哪些不是缺失值的影響()

A.數(shù)據(jù)建模將丟失大量有用信息

B.數(shù)據(jù)建模的不確定性更加顯著

C.對整體總是不產(chǎn)生什么作用

D.包含空值的數(shù)據(jù)可能會使建模過程陷入混亂,導致異常的輸出


20.置信度(confidence)是衡量興趣度度量( )的指標。

A.簡潔性

B.確定性

C.實用性

D.新穎性


二、多選題 (共 10 道試題,共 20 分)

21.關(guān)聯(lián)規(guī)則的評價度量主要有:()。

A.支持度

B.置信度

C.準確率

D.錯誤率


22.相關(guān)性的分類,按照相關(guān)的方向可以分為()。

A.正相關(guān)

B.負相關(guān)

C.左相關(guān)

D.右相關(guān)


23.層次聚類的方法是()

A.聚合方法

B.分拆方法

C.組合方法

D.比較方法


24.什么情況下結(jié)點不用劃分()

A.當前結(jié)點所包含的樣本全屬于同一類別

B.當前屬性集為空,或是所有樣本在所有屬性上取值相同

C.當前結(jié)點包含的樣本集為空

D.還有子集不能被基本正確分類


25.下列選項是BFR的對象是()

A.廢棄集

B.臨時集

C.壓縮集

D.留存集


26.數(shù)據(jù)科學具有哪些性質(zhì)()

A.有效性

B.可用性

C.未預料

D.可理解


27.系統(tǒng)日志收集的基本特征有()

A.高可用性

B.高可靠性

C.可擴展性

D.高效率


28.K-means聚類中K值選取的方法是()。

A.密度分類法

B.手肘法

C.大腿法

D.隨機選取


29.距離度量中的距離可以是()

A.歐式距離

B.曼哈頓距離

C.Lp距離

D.Minkowski距離


30.下面例子屬于分類的是()

A.檢測圖像中是否有人臉出現(xiàn)

B.對客戶按照貸款風險大小進行分類

C.識別手寫的數(shù)字

D.估計商場客流量


三、判斷題 (共 20 道試題,共 40 分)

31.獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。


32.當訓練集較大的時候,標準BP算法通常會更快的獲得更好的解。


33.K均值(K-Means)算法是密度聚類。


34.赤池信息準則是衡量統(tǒng)計模型擬合優(yōu)良性的一種標準。


35.多層感知機的學習能力有限,只能處理線性可分的二分類問題。


36.隨著特征維數(shù)的增加,特征空間呈指數(shù)倍增長,樣本密度急劇減小,樣本稀疏。


37.子集產(chǎn)生本質(zhì)上是一個搜索過程,該過程可以從空集、隨機產(chǎn)生的一個特征子集或者整個特征集開始。


38.為了更加準確地描述變量之間的線性相關(guān)程度,可以通過計算相關(guān)系數(shù)來進行相關(guān)分析。


39.給定關(guān)聯(lián)規(guī)則A→B,意味著:若A發(fā)生,B也會發(fā)生。


40.決策樹還可以表示給定特征條件下類的條件概率分布,這一概率分布定義在特征空間的一個劃分上,將特征空間分為互不相交的單元或區(qū)域,并在每個單元定義一個類的概率分布就構(gòu)成了一個條件概率分布


41.交叉表可以幫助人們發(fā)現(xiàn)變量之間的相互作用。


42.貝葉斯定理是概率論中的一個結(jié)果,它與隨機變量的條件概率以及聯(lián)合概率分布 有關(guān)。


43.給定一組點,使用點之間的距離概念,將點分組為若干簇,不同簇的成員可以相同。


44.由不同的距離度量所確定的最近鄰點是不同的


45.一般而言,信息增益越大,則意味著使用屬性a來進行劃分所獲得的“純度提升越大”,因此我們可用信息增益來進行決策樹的最優(yōu)特征選擇。


46.在樹的結(jié)構(gòu)中,特征越重要,就越遠離根節(jié)點。


47.當維度增加時,特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。


48.特征選擇和降維都是用于減少特征數(shù)量,進而降低模型復雜度、防止過度擬合。


49.Apriori算法是一種典型的關(guān)聯(lián)規(guī)則挖掘算法。


50.標準BP算法是在讀取全部數(shù)據(jù)集后,對參數(shù)進行統(tǒng)一更新的算法。




奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學習
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部