千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機構(gòu)

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  技術干貨  > 談談對scrapy的了解?

談談對scrapy的了解?

來源:千鋒教育
發(fā)布人:wjy
時間: 2022-09-13 17:42:50 1663062170

  一:對scrapy的認識:

  1.scrapy只是一個爬蟲的框架

  他把爬蟲的需要的共性的東西都默認寫下來了,只需要我們具體細化,具體分析補充里面的細節(jié)的東西。就像造房子一樣,scrapy就充當了一個房屋架構(gòu),至于房屋里面的東西 需要我們自己去補充設計。

  2.scrapy的幾個部分

  引擎(engine) 爬蟲(spider)調(diào)度器(scheduler) 下載器(downloader) items文件pipeline(管道文件) settings.py(進行對爬蟲修改的東西,比如UserAgent可以注釋掉,pipline管道文件可以將其關閉,從而不使用管道文件,robots協(xié)議可以改為False)

  3.各個部分的作用

  引擎的作用:處理scrapy這幾個部分之間的聯(lián)系,像人類的大腦,由引擎控制其他各個部分,扮演一個事情通知員的角色,是其他部分之間聯(lián)系的橋梁。

  調(diào)度器:使我們需要爬取的Url做一個個有序排列

  下載器:從云端internet上下載東西

  spider:爬蟲 對爬蟲的編寫,實現(xiàn)爬取數(shù)據(jù),是整個爬蟲的主干

  items文件:需要爬取的字段寫在里面 如:name=scrapy.Field()

  pipeline:管道文件,用來寫存儲代碼的,將爬取的數(shù)據(jù)存儲到本地或者數(shù)據(jù)庫

  ps:以上大概了解下各個部分的職能就好了。

  二.scrpay框架實現(xiàn)爬蟲的模擬的簡要過程:

  1.首先引擎告訴spider我們需要爬取的數(shù)據(jù)的網(wǎng)域domain,然后spider給引擎作出回應表示知道了

  2.引擎告訴調(diào)度器(scheduler)‘需要你排序啦’,然后spider將域告訴調(diào)度器,調(diào)度器將域里面每個需要爬取的url做一個排序,然后對引擎說‘’ 我排好序了’’

  3.引擎就對下載器說‘調(diào)度器排好序了,你待會需要從云端下載東西了’ 。。。下載器就準備開始以一個個的url里面下載我們寫的item文件,下載好后,對引擎說‘’我下載好了“

  4.引擎就開始對spider說“下載器把items文件下好了”,下載器將下載的item文件(響應文件)給spider,spider將得到的items文件(響應文件)給pipline管道進行存儲,同時將繼續(xù)要爬取的URl給調(diào)度器,然后調(diào)度器,然后周而復始 直到需要爬取的url爬完。

  寫spider(爬蟲)中需要注意的

  1. name是必要參數(shù),是scrapy爬蟲的名字。domain域可選參數(shù),可以沒有,start_urls必要的參數(shù),是指開始要爬取的url。

  2. def parse(self,response) 這個函數(shù)是就這個名字,scrapy中定了的,是對響應文件做出處理的函數(shù)。

  3. yield 生成器函數(shù),生成一個新的函數(shù),再對數(shù)據(jù)做出進一步處理 如:

對scrapy的了解

 

  ps:yield自己理解的也不是很清楚,見諒。

  4. xpath中的.extract()方法:從一個列表中(脫殼)得到一個新的列表。一心得到標簽里面的元素,以列表形式返回

  (1)第一種

  position = response.xpath(’./td[1]/a/text()’)[] 技術類 2 深圳 2018ps:沒有extract()的時候,整個標簽的東西都拿下來了。返回的是一個selector對象(2)第二種

  position = response.xpath(’./td[1]/a/text()’).extract()[‘22989-騰訊云虛擬化高級研發(fā)工程師(深圳) 技術類 2 深圳 2018’]

  (3)第三種

  position=response.xpath‘./td[1]/a/text()’).extract[0]22989-騰訊云虛擬化高級研發(fā)工程師(深圳) 技術類 2 深圳 2018

  scrapy寫爬蟲的步驟:

  1. 新建項目:scrapy startproject <項目名>,創(chuàng)建爬蟲 scrpay genspider <爬蟲名> “爬取數(shù)據(jù)的域 如:www.cqggzy.com”

  2. 明確自己需要爬取的數(shù)據(jù),寫items字段

  3. 編寫spider爬蟲

  4. 存儲:編寫管道文件

  注意事項:

  scrapy默認setting.py中管道文件是關閉的,需要打開,請求頭在settings中最好將headers也打開,UserAgent最好修改全面一點。robots協(xié)議也可以改為False。

tags:
聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
10年以上業(yè)內(nèi)強師集結(jié),手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內(nèi)將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
軟件定制開發(fā)中的敏捷開發(fā)是什么?

軟件定制開發(fā)中的敏捷開發(fā)是什么軟件定制開發(fā)中的敏捷開發(fā),從宏觀上看,是一個高度關注人員交互,持續(xù)開發(fā)與交付,接受需求變更并適應環(huán)境變化...詳情>>

2023-10-14 13:24:57
什么是PlatformIo?

PlatformIO是什么PlatformIO是一個全面的物聯(lián)網(wǎng)開發(fā)平臺,它為眾多硬件平臺和開發(fā)環(huán)境提供了統(tǒng)一的工作流程,有效簡化了開發(fā)過程,并能兼容各種...詳情>>

2023-10-14 12:55:06
云快照與自動備份有什么區(qū)別?

1、定義和目標不同云快照的主要目標是提供一種快速恢復數(shù)據(jù)的方法,它只記錄在快照時間點后的數(shù)據(jù)變化,而不是所有的數(shù)據(jù)。自動備份的主要目標...詳情>>

2023-10-14 12:48:59
服務器為什么要用Linux?

服務器為什么要用Linux作為服務器操作系統(tǒng)的優(yōu)選,Linux在眾多選擇中脫穎而出。Linux作為服務器操作系統(tǒng)的優(yōu)選,有其獨特的優(yōu)勢和特點。包括其...詳情>>

2023-10-14 12:34:11
ORM解決的主要問題是什么?

ORM(對象關系映射)解決的主要問題是將關系數(shù)據(jù)庫與面向?qū)ο缶幊讨g的映射困境。在傳統(tǒng)的關系數(shù)據(jù)庫中,數(shù)據(jù)以表格的形式存儲,而在面向?qū)ο?..詳情>>

2023-10-14 12:26:19