22秋學(xué)期(高起本1709-1803、全層次1809-2103)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-00001
試卷總分:100 得分:100
一、單選題 (共 20 道試題,共 40 分)
1.Python在Windows路徑字符串左引號的左邊加()符號來避免反斜杠問題
A.s
B.c
C.d
D.r
2.使用UI Automator獲取屏幕上顯示的文本內(nèi)容的操作是得到相應(yīng)控件后使用命令()
A.content
B.text
C.title
D.body
3.Python中Object={1, 2, 3, 4, 5},則Objcet是()
A.列表
B.元組
C.字典
D.集合
4.使用UI Automatorr讓屏幕向左滾動的操作是得到相應(yīng)控件后使用命令()
A.scroll.left
B.scroll.horiz.left
C.scroll.forward
D.scroll.horiz.forward
5.chrome默認打開開發(fā)者工具的快捷是
A.F5
B.F11
C.F12
D.F2
6.Python中把列表轉(zhuǎn)換為集合需要使用##函數(shù)
A.set
B.list
C.convert
D.change
7.Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()
A.break
B.continue
C.exit
D.return
8.PyMongo中邏輯查詢表示大于等于的符號是()
A.$gt
B.$lt
C.$gte
D.$lte
9.PyMongo中邏輯查詢表示小于的符號是()
A.$gt
B.$lt
C.$gte$$lte
10.可以通過()繞過網(wǎng)站登錄。
A.session
B.cookies
C.moonpies
D.localstorage
11.requests中post請求方法的使用為requests.post('網(wǎng)址', data=data)中的data為()
A.列表
B.元組
C.字典
D.集合
12.在Linux中哪個命令是添加權(quán)限的()
A.chmod
B.sudo
C.cp
D.mkdir
13.在Scrapy的目錄下,哪個文件負責(zé)存放爬蟲文件?()
A.spiders文件夾
B.item.py
C.pipeline.py
D.settings.py
14.Python中退出循環(huán)應(yīng)用關(guān)鍵字()
A.break
B.continue
C.exit
D.return
15.Python中專門用來處理圖像的第三方庫是
A.lxml
B.Pillow
C.beautifulsoup
D.pytesseract
16.Python中Object={'obj_1':'1','obj_2':'2'},則Objcet.get('boj_1','3')是()
A.1
B.2
C.3
D.無輸出
17.使用UI Automatorr判斷元素是否存在的操作是得到相應(yīng)控件后使用命令()
A.exist
B.exists
C.isnull
D.contains
18.使用UI Automator使屏幕向上滾動一屏的操作是得到相應(yīng)控件后使用命令()
A.scroll_forwad
B.scroll_up
C.scroll.forward
D.scroll.vert.forward
19.如果使用Python的數(shù)據(jù)結(jié)構(gòu)來做類比的話,MongoDB中文檔相當(dāng)于一個()
A.列表
B.元組
C.字典
D.集合
20.當(dāng)需要把Python里面的數(shù)據(jù)發(fā)送給網(wǎng)頁時,應(yīng)先將其轉(zhuǎn)換成()
A.Json字符串
B.GET
C.POST
D.Request
二、多選題 (共 10 道試題,共 20 分)
21.Python中的容器有()
A.列表
B.元組
C.字典
D.集合
22.Python中()容器有推導(dǎo)式
A.列表
B.元組
C.字典
D.集合
23.MongoDB中獲取名字為db的庫的語句為()
A.client.db
B.client('db')
C.client['db']
D.client{'db'}
24.以下HTTP狀態(tài)碼表示服務(wù)器本身發(fā)生錯誤的是
A.400
B.503
C.302
D.500
25.cookies的缺點是
A.實現(xiàn)自動登錄
B.跟蹤用戶狀態(tài)
C.http中明文傳輸
D.增加http請求的流量
26.requests中post請求方法的第二個參數(shù)可以為()
A.字典
B.列表
C.json數(shù)據(jù)
D.字符串
27.以下哪些可以獨立成為Python編譯器()
A.Pycharm
B.IDLE
C.Eclipse
D.Visual Studio 2010
28.一個可行的自動更換代理的爬蟲系統(tǒng),應(yīng)該下列哪些功能?
A.有一個小爬蟲ProxySpider去各大代理網(wǎng)站爬取免費代理并驗證,將可以使用的代理IP保存到數(shù)據(jù)庫中
B.在發(fā)現(xiàn)某個請求已經(jīng)被設(shè)置過代理后,什么也不做,直接返回
C.在ProxyMiddlerware的process_request中,每次從數(shù)據(jù)庫里面隨機選擇一條代理IP地址使用
D.周期性驗證數(shù)據(jù)庫中的無效代理,及時將其刪除
29.HTTP常用狀態(tài)碼表明請求被正常處理的有()
A.200
B.301
C.302
D.204
30.Python中一個函數(shù)可以有()個return語句
A.0
B.1
C.多個
D.2
三、判斷題 (共 20 道試題,共 40 分)
31.如果通過爬蟲抓取某公司網(wǎng)站的公開數(shù)據(jù),分析以后發(fā)現(xiàn)這個公司業(yè)績非常好,于是買入該公司股票并賺了一筆錢。這是合法的。
32.一般來說在頁面都通過GET將用戶登錄信息傳遞到服務(wù)器端。
33.MongoDB是一個關(guān)系數(shù)據(jù)庫產(chǎn)品
34.PyMongoDB中排序方法sort第二個參數(shù)-1表示升序
35.Python正則表達式中“.*”是貪婪模式,獲取最長的滿足條件的字符串。
36.上課傳紙條。A要把紙條傳給B,但是A與B距離太遠,于是讓C來轉(zhuǎn)交紙條。此時,C先篡改紙條的內(nèi)容再傳給B,這是一種類似抓包的方式。
37.Charles是一個收費軟件,如果沒有注冊,安裝以后的前30天可以正常使用。30天以后,雖然功能不會縮水,但每過30分鐘Charles會自動關(guān)閉一次
38.使用AJAX技術(shù),可以在不刷新網(wǎng)頁的情況下更新網(wǎng)頁數(shù)據(jù)
39.Redis中使用lrange讀取數(shù)據(jù)后數(shù)據(jù)也會刪除
40.Selenium必須加載對應(yīng)的webdriver才能模擬瀏覽器訪問
41.Redis插入數(shù)據(jù)都是插入到列表右側(cè),因此讀取數(shù)據(jù)也是從右側(cè)讀取
42.Redis中查詢列表長度命令llen中l(wèi)代表left,即從左側(cè)開始數(shù)
43.Python中函數(shù)返回值的個數(shù)可以是多個
44.使用Charles直接抓取HTTPS的數(shù)據(jù)包,就會出現(xiàn)大量的Method為CONNECT的請求,但是這些請求又全部都會失敗,是沒有安裝SSL證書導(dǎo)致的
45.Python中元組生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);
46.UI Automator Viewer與Python uiautomator可以同時使用
47.為了在安卓手機上安裝證書,需要先發(fā)送證書到手機里面。在Charles中選擇“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以將Charles的證書保存到計算機桌面。
48.運行MongoDB以后,不會在終端打印任何Log
49.在Linux的終端使用apt-get命令安裝一系列依賴庫時,其中如果存在有已經(jīng)安裝的庫,會覆蓋掉之前的庫重新安裝
50.”curl http://爬蟲服務(wù)器IP地址:6800/cancel.json -d project=工程名 -d job=爬蟲JOBID“該命令的作用是啟動爬蟲
奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學(xué)習(xí)
詳情請咨詢QQ : 3230981406或微信:aopopenfd777