南開22秋學(xué)期《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2022-11-12 21:16:01來源:admin瀏覽: 11 次

22秋學(xué)期(高起本1709-1803、全層次1809-2103)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-00001

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.Python在Windows路徑字符串左引號的左邊加()符號來避免反斜杠問題

A.s

B.c

C.d

D.r

 

2.使用UI Automator獲取屏幕上顯示的文本內(nèi)容的操作是得到相應(yīng)控件后使用命令()

A.content

B.text

C.title

D.body

 

3.Python中Object={1, 2, 3, 4, 5},則Objcet是()

A.集合

B.字典

C.列表

D.元組

 

4.使用UI Automatorr讓屏幕向左滾動的操作是得到相應(yīng)控件后使用命令()

A.scroll.left

B.scroll.horiz.left

C.scroll.forward

D.scroll.horiz.forward

 

5.chrome默認(rèn)打開開發(fā)者工具的快捷是

A.F5

B.F11

C.F12

D.F2

 

6.Python中把列表轉(zhuǎn)換為集合需要使用##函數(shù)

A.set

B.list

C.convert

D.change

 

7.Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()

A.break

B.continue

C.exit

D.return

 

8.PyMongo中邏輯查詢表示大于等于的符號是()

A.$gt

B.$lt

C.$gte

D.$lte

 

9.PyMongo中邏輯查詢表示小于的符號是()

A.$gt

B.$lt

C.$gte$$lte

 

10.可以通過()繞過網(wǎng)站登錄。

A.session

B.cookies

C.moonpies

D.localstorage

 

11.requests中post請求方法的使用為requests.post('網(wǎng)址', data=data)中的data為()

A.列表

B.元組

C.字典

D.集合

 

12.在Linux中哪個命令是添加權(quán)限的()

A.chmod

B.sudo

C.cp

D.mkdir

 

13.在Scrapy的目錄下,哪個文件負(fù)責(zé)存放爬蟲文件?()

A.spiders文件夾

B.item.py

C.pipeline.py

D.settings.py

 

14.Python中退出循環(huán)應(yīng)用關(guān)鍵字()

A.break

B.continue

C.exit

D.return

 

15.Python中專門用來處理圖像的第三方庫是

A.lxml

B.Pillow

C.beautifulsoup

D.pytesseract

 

16.Python中Object={'obj_1':'1','obj_2':'2'},則Objcet.get('boj_1','3')是()

A.1

B.2

C.3

D.無輸出

 

17.使用UI Automatorr判斷元素是否存在的操作是得到相應(yīng)控件后使用命令()

A.exist

B.exists

C.isnull

D.contains

 

18.使用UI Automator使屏幕向上滾動一屏的操作是得到相應(yīng)控件后使用命令()

A.scroll_forwad

B.scroll_up

C.scroll.forward

D.scroll.vert.forward

 

19.如果使用Python的數(shù)據(jù)結(jié)構(gòu)來做類比的話,MongoDB中文檔相當(dāng)于一個()

A.列表

B.元組

C.字典

D.集合

 

20.當(dāng)需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁時,應(yīng)先將其轉(zhuǎn)換成()

A.Json字符串

B.GET

C.POST

D.Request

 

二、多選題 (共 10 道試題,共 20 分)

21.Python中的容器有()

A.列表

B.元組

C.字典

D.集合

 

22.Python中()容器有推導(dǎo)式

A.列表

B.元組

C.字典

D.集合

 

23.MongoDB中獲取名字為db的庫的語句為()

A.client.db

B.client('db')

C.client['db']

D.client{'db'}

 

24.以下HTTP狀態(tài)碼表示服務(wù)器本身發(fā)生錯誤的是

A.400

B.503

C.302

D.500

 

25.cookies的缺點(diǎn)是

A.實現(xiàn)自動登錄

B.跟蹤用戶狀態(tài)

C.http中明文傳輸

D.增加http請求的流量

 

26.requests中post請求方法的第二個參數(shù)可以為()

A.字典

B.列表

C.json數(shù)據(jù)

D.字符串

 

27.以下哪些可以獨(dú)立成為Python編譯器()

A.Pycharm

B.IDLE

C.Eclipse

D.Visual Studio 2010

 

28.一個可行的自動更換代理的爬蟲系統(tǒng),應(yīng)該下列哪些功能?

A.有一個小爬蟲ProxySpider去各大代理網(wǎng)站爬取免費(fèi)代理并驗證,將可以使用的代理IP保存到數(shù)據(jù)庫中

B.在發(fā)現(xiàn)某個請求已經(jīng)被設(shè)置過代理后,什么也不做,直接返回

C.在ProxyMiddlerware的process_request中,每次從數(shù)據(jù)庫里面隨機(jī)選擇一條代理IP地址使用

D.周期性驗證數(shù)據(jù)庫中的無效代理,及時將其刪除

 

29.HTTP常用狀態(tài)碼表明請求被正常處理的有()

A.200

B.301

C.302

D.204

 

30.Python中一個函數(shù)可以有()個return語句

A.0

B.1

C.多個

D.2

 

三、判斷題 (共 20 道試題,共 40 分)

31.如果通過爬蟲抓取某公司網(wǎng)站的公開數(shù)據(jù),分析以后發(fā)現(xiàn)這個公司業(yè)績非常好,于是買入該公司股票并賺了一筆錢。這是合法的。

 

32.一般來說在頁面都通過GET將用戶登錄信息傳遞到服務(wù)器端。

 

33.MongoDB是一個關(guān)系數(shù)據(jù)庫產(chǎn)品

 

34.PyMongoDB中排序方法sort第二個參數(shù)-1表示升序

 

35.Python正則表達(dá)式中“.*”是貪婪模式,獲取最長的滿足條件的字符串。

 

36.上課傳紙條。A要把紙條傳給B,但是A與B距離太遠(yuǎn),于是讓C來轉(zhuǎn)交紙條。此時,C先篡改紙條的內(nèi)容再傳給B,這是一種類似抓包的方式。

 

37.Charles是一個收費(fèi)軟件,如果沒有注冊,安裝以后的前30天可以正常使用。30天以后,雖然功能不會縮水,但每過30分鐘Charles會自動關(guān)閉一次

 

38.使用AJAX技術(shù),可以在不刷新網(wǎng)頁的情況下更新網(wǎng)頁數(shù)據(jù)

 

39.Redis中使用lrange讀取數(shù)據(jù)后數(shù)據(jù)也會刪除

 

40.Selenium必須加載對應(yīng)的webdriver才能模擬瀏覽器訪問

 

41.Redis插入數(shù)據(jù)都是插入到列表右側(cè),因此讀取數(shù)據(jù)也是從右側(cè)讀取

 

42.Redis中查詢列表長度命令llen中l(wèi)代表left,即從左側(cè)開始數(shù)

 

43.Python中函數(shù)返回值的個數(shù)可以是多個

 

44.使用Charles直接抓取HTTPS的數(shù)據(jù)包,就會出現(xiàn)大量的Method為CONNECT的請求,但是這些請求又全部都會失敗,是沒有安裝SSL證書導(dǎo)致的

 

45.Python中元組生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);

 

46.UI Automator Viewer與Python uiautomator可以同時使用

 

47.為了在安卓手機(jī)上安裝證書,需要先發(fā)送證書到手機(jī)里面。在Charles中選擇“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以將Charles的證書保存到計算機(jī)桌面。

 

48.運(yùn)行MongoDB以后,不會在終端打印任何Log

 

49.在Linux的終端使用apt-get命令安裝一系列依賴庫時,其中如果存在有已經(jīng)安裝的庫,會覆蓋掉之前的庫重新安裝

 

50.”curl http://爬蟲服務(wù)器IP地址:6800/cancel.json -d project=工程名 -d job=爬蟲JOBID“該命令的作用是啟動爬蟲

 



奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部