南開22秋學期(全層次1809-2103)《網絡爬蟲與信息提取》在線作業(yè)【資料答案】

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2022-12-24 20:27:16來源:admin瀏覽: 0 次

22秋學期(高起本1709-1803、全層次1809-2103)《網絡爬蟲與信息提取》在線作業(yè)-00002

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.Redis若要進入交互環(huán)境,需要打開終端輸入()

A.redis-cli

B.redis

C.redis-cmd

D.redis-start


2.可以通過()繞過網站登錄。

A.session

B.cookies

C.moonpies

D.localstorage


3.Python中若定義object=(1, 2, 3, 4, 5),則print(object[1:3])輸出()

A.12

B.123

C.23

D.234


4.當爬蟲運行到y(tǒng)ield scrapy.Request()或者yield item的時候,下列哪個爬蟲中間件的方法被調用?

A.process_spider_output()

B.process_spider_exception()

C.process_spider_input()

D.process_start_ requests()


5.下面關于Charles使用說法錯誤的是()

A.在數據包非常多的情況下,使用Charles的過濾功能來對數據包進行過濾從而減少干擾。

B.通過單擊圖中方框框住的各個選項卡,可以非常直觀地觀察到請求和返回的各種信息。

C.如果瀏覽器是Chrome,在沒有安裝第三方代理插件的情況下,Chrome的HTTP流量都會經過Charles。

D.Charles無法支持計算機上除了瀏覽器之外的其他軟件。


6.在Linux中哪個命令是添加權限的()

A.chmod

B.sudo

C.cp

D.mkdir


7.Python中列表可以用()方法在末尾添加元素

A.add

B.append

C.plus

D.+


8.Scrapy中使用Xpath獲得的結果調用了.extract方法,結果以()形式生成

A.列表

B.元組

C.字典

D.集合


9.Python中退出循環(huán)應用關鍵字()

A.break

B.continue

C.exit

D.return


10.以下哪個命令是創(chuàng)建文件夾命令()

A.curl

B.tar -zxvf

C.mkdir

D.cp


11.使用Xpath獲取文本使用()

A.text

B.text()

C.content

D.content()


12.Python寫CSV文件需要哪個方法()

A.CSVWriter

B.CsvWriter

C.DictWriter

D.FileWriter


13.使用UI Automator打開微信的操作是獲取相應圖標后使用命令()

A.touch

B.click

C.push

D.hover


14.Python中Object={1, 2, 3, 4, 5},則Objcet是()

A.列表

B.元組

C.字典

D.集合


15.()是Scrapy官方開發(fā)的,用來部署、運行和管理Scrapy爬蟲的工具

A.Scrapyd

B.ScrapyDeploy

C.Deploy

D.Scrapy_Deploy


16.在Scrapy的目錄下,哪個文件負責存放爬蟲文件?()

A.spiders文件夾

B.item.py

C.pipeline.py

D.settings.py


17.啟動MongoDB使用命令mongod --() usr/local/etc/mongod.conf

A.config

B.install

C.start

D.begin


18.HTTP常用狀態(tài)碼表明服務器上沒有請求的資源的是()

A.500

B.503

C.403

D.404


19.以下表示請求資源重定向的HTTP狀態(tài)碼為

A.200

B.301

C.404

D.500


20.如果計算機上連接了很多臺手機,查看這些手機串號,需要在終端輸入以下命令:()

A.adb device

B.adb devices

C.adb devices -l

D.adb devices -list


二、多選題 (共 10 道試題,共 20 分)

21.一個可行的自動更換代理的爬蟲系統(tǒng),應該下列哪些功能?

A.有一個小爬蟲ProxySpider去各大代理網站爬取免費代理并驗證,將可以使用的代理IP保存到數據庫中

B.在發(fā)現某個請求已經被設置過代理后,什么也不做,直接返回

C.在ProxyMiddlerware的process_request中,每次從數據庫里面隨機選擇一條代理IP地址使用

D.周期性驗證數據庫中的無效代理,及時將其刪除


22.Python中()容器有推導式

A.列表

B.元組

C.字典

D.集合


23.在配置ios使用Charles的操作中,正確的有()

A.對于蘋果設備,首先要保證計算機和蘋果設備聯(lián)在同一個Wi-Fi上。

B.選擇“HTTP代理”下面的“手動”選項卡,在“服務器”處輸入計算機的IP地址,在“端口”處輸入8888

C.輸入完成代理以后按下蘋果設備的Home鍵,設置就會自動保存。

D.安裝完成證書以后,在設置中打開“關于本機”,找到最下面的“證書信任設置”,并在里面啟動對Charles證書的完全信任


24.以下哪種方法是MongoDB的查找方法()

A.find

B.find_one

C.finds

D.find_all


25.如果目標網站有反爬蟲聲明,那么對方在被爬蟲爬取以后,可以根據()來起訴使用爬蟲的公司

A.服務器日志

B.數據庫日志記錄

C.程序日志記錄

D.服務器監(jiān)控


26.使用Selennium獲取網頁中元素的方法有

A.find_element_by_name

B.find_element_by_id

C.find_elements_by_name

D.find_elements_by_id


27.常用的會話跟蹤技術是

A.session

B.cookies

C.moonpies

D.localstorage


28.Redis中的值可以支持()

A.列表

B.哈希

C.集合

D.有序集合


29.PyMongo刪除操作有()

A.delete

B.delete_all

C.delete_one

D.delete_many


30.Python中()與元組由類似的數據讀取方式

A.字符串

B.列表

C.字典

D.集合


三、判斷題 (共 20 道試題,共 40 分)

31.雖然MongoDB相比于MySQL來說,速度快了很多,但是頻繁讀寫MongoDB還是會嚴重拖慢程序的執(zhí)行速度。


32.為了保證數據插入效率,在內存允許的情況下,應該一次性把數據讀入內存,盡量減少對MongoDB的讀取操作。


33.process_spider_output(response, result, output)是在下載器中間件處理完成后,馬上要進入某個回調函數parse_xxx()前調用


34.中間人攻擊也是抓包的一種。


35.在使用多線程處理問題時,線程池設置越大越好


36.Python中條件語句在使用or連接的多個表達式中,只要有一個表達式為真,那么后面的表達式就不會執(zhí)行。


37.在charles中使用CTRL+F搜索,JSON里面的中文是可以直接搜索到的。


38.爬蟲文件無法從Pycharm運行和調試,只能通過命令行的方式運行。


39.爬蟲中間件的激活需要另外寫一個文件來進行


40.charles配置中,安裝完成證書以后,在設置中打開“關于本機”,找到最下面的“證書信任設置”,并在里面啟動對Charles證書的完全信任。


41.使用Charles,可以輕松截獲手機App和微信小程序的數據包,從而開發(fā)出直接抓取App后臺和小程序后臺的爬蟲。


42.Robo 3T與RoboMongo是完全不一樣的軟件


43.一般來說在頁面都通過GET將用戶登錄信息傳遞到服務器端。


44.device.sleep()方法是使用UI Automatorr關閉屏幕的命令


45.上課傳紙條。A要把紙條傳給B,但是A與B距離太遠,于是讓C來轉交紙條。此時,C先篡改紙條的內容再傳給B,這是一種類似抓包的方式。


46.如果目標網站本身就是提供公眾查詢服務的網站,那么使用爬蟲是合法合規(guī)的。


47.為了在安卓手機上安裝證書,需要先發(fā)送證書到手機里面。在Charles中選擇“Help”-“SSL Proxying”-“Save Charles Root Certificate”命令,可以將Charles的證書保存到計算機桌面。


48.代理中間件的可用代理列表一定要寫在settings.py里面


49.引用中間件時后面的數字代表的是中間件的執(zhí)行順序,例如 'AdvanceSpider.middlewares.ProxyMiddleware': 543 中的543


50.數據抓包就是中間人爬蟲的一個簡單應用。所以使用Charles也是一種中間人攻擊



奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學習
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

作業(yè)咨詢 論文咨詢
微信客服掃一掃

回到頂部