【南開】20春學期《網絡爬蟲與信息提取》在線作業(yè)(標準答案)

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2020-08-29 23:44:18來源:admin瀏覽: 58 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406      微信:aopopenfd777




20春學期(1709、1803、1809、1903、1909、2003)《網絡爬蟲與信息提取》在線作業(yè)

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.Python正則表達式模塊的findall方法提取內容包含多個,則返回結果的列表中會包含()

A.列表

B.元組

C.字典

D.集合


2.以下表示請求正常處理的HTTP狀態(tài)碼為

A.200

B.301

C.404

D.500


3.Python中線程池map()方法第二個參數(shù)是()

A.列表

B.元組

C.字典

D.集合


4.()是一個傳遞信息的通道。它負責將爬取博文列表頁獲取到的信息傳遞給負責爬取正文頁的方法中。

A.meta

B.head

C.header

D.body


5.如果使用Python的數(shù)據(jù)結構來做類比的話,MongoDB中集合相當于一個()

A.列表

B.元組

C.字典

D.集合


6.PyMongo中邏輯查詢表示不等于的符號是()

A.$gt

B.$lt

C.$eq

D.$ne


7.PyMongo中邏輯查詢表示大于等于的符號是()

A.$gt

B.$lt

C.$gte

D.$lte


8.以下哪個HTML標簽表示定義文檔的主體()

A.<div>

B.<body>

C.<head>

D.<footer>


9.某些網站在發(fā)起Ajax請求時會攜帶()字符串用于身份驗證

A.Token

B.Cookie

C.ReqTime

D.sum


10.下面Python代碼輸出為(): def default_para_trap(para=[], value=0): para.append(value) return para print('第一步:{}'.format(default_para_trap(value=100))) print('第二步:{}'.format(default_para_trap(value=50)))

A.第一步:[100] 第二步:[100,50]

B.第一步:[100] 第二步:[50]

C.第一步:[100] 第二步:[]

D.第一步:[100] 第二步:[100]


11.用Xpathh獲取第二個div標簽應該是()

A.dvi(1)

B.div(2)

C.div[1]

D.div[2]


12.查看網站請求一般在Chrome開發(fā)者模式下的()選項卡中查看

A.Console

B.Sources

C.Network

D.Performance


13.Python中Object={'obj_1':'1','obj_2':'2'},則Objcet.get('boj_1','3')是()

A.1

B.2

C.3

D.無輸出


14.通常使用()工具來模擬瀏覽器進行爬蟲請求

A.Selenium

B.Chrome

C.ChromeDriver

D.WebDriver


15.Python并導入uiautomator來操作設備的語句是from uiautomator import ()

A.Device

B.Devices

C.Jobs

D.Job


16.Python中把列表轉換為集合需要使用##函數(shù)

A.set

B.list

C.convert

D.change


17.Python中若定義object="12345",則print(object[::-1])輸出()

A.1

B.5

C.54321

D.程序報錯


18.Python正則表達式模塊的findall方法如果沒有匹配到結果,則返回結果為()

A.空

B.空列表

C.空元組

D.不返回


19.以下哪個命令是利用URL語法在命令行下工作的文件傳輸工具()

A.curl

B.tar -zxvf

C.mkdir

D.cp


20.使用UI Automatorr輸入文字的操作是得到相應控件后使用命令()

A.settext

B.set

C.set_text

D.text


二、多選題 (共 10 道試題,共 20 分)

21.HTTP常用狀態(tài)碼表明表明客戶端是發(fā)生錯誤的原因所在的有()

A.403

B.404

C.500

D.503


22.Python中()容器有推導式

A.列表

B.元組

C.字典

D.集合


23.Python中通過Key來從字典object中讀取對應的Value的方法有()

A.object[key]

B.object.get(key)

C.object.pop(key)

D.object.pop()


24.PyMongo更新操作有()

A.update

B.update_all

C.update_one

D.update_many


25.HTTP常用狀態(tài)碼表明表明服務器本身發(fā)生錯誤的有()

A.403

B.404

C.500

D.503


26.以下哪些可以獨立成為Python編譯器()

A.Pycharm

B.IDLE

C.Eclipse

D.Visual Studio 2010


27.requests中post請求方法的第二個參數(shù)可以為()

A.字典

B.列表

C.json數(shù)據(jù)

D.字符串


28.MongoDB中獲取名字為set1的集合的語句為()

A.database.set1

B.database('set1')

C.database['set1']

D.database{'set1'}


29.最常見的HTTP請求類型有()

A.GET

B.POST

C.SEND

D.RECEIVE


30.PyMongo刪除操作有()

A.delete

B.delete_all

C.delete_one

D.delete_many


三、判斷題 (共 20 道試題,共 40 分)

31.在請求頭中設置User-Agent即可正常請求網站


32.一般來說在頁面都通過GET將用戶登錄信息傳遞到服務器端。


33.Scrapy作為一個爬蟲的框架,它在單機環(huán)境下運行時就可以獲得最大性能優(yōu)勢


34.當運行爬蟲代碼后,出現(xiàn)"Forbidden by robots.txt"提示后,說明當前時間段被爬取的網站無法訪問。


35.使用UI Automatorr操作實體鍵的命令為device.press.實體按鍵名稱()


36.爬蟲中間件的作用對象是請求request和返回response


37.Redis中列表讀取數(shù)據(jù)命令lrange中l(wèi)代表left,即從左側開始讀取


38.運行MongoDB以后,不會在終端打印任何Log


39.Selenium必須加載對應的webdriver才能模擬瀏覽器訪問


40.Robo 3T與RoboMongo是完全不一樣的軟件


41.在中間人攻擊中,攻擊者可以攔截通信雙方的通話,并插入新的內容或者修改原有內容


42.使用Charles,可以輕松截獲手機App和微信小程序的數(shù)據(jù)包,從而開發(fā)出直接抓取App后臺和小程序后臺的爬蟲。


43.要實現(xiàn)Charles對Android抓包,其過程比iOS稍微復雜一點。這是因為不同的Andorid設備,安裝證書的入口可能不一樣


44.Python中包含字典的列表頁可以轉換成JSON字符串


45.MongoDB URI的格式為: mongodb://服務器IP或域名:端口@用戶名:密碼


46.Python中字符串切片以后的結果還是字符串


47.微信小程序的反爬蟲能力要比網頁的高很多。


48.cookies在http請求中是明文傳輸?shù)摹?/p>


49.默認情況下,MongoDB可以通過外網訪問


50.Python中列表生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);


作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部