久久伊人一区二区三区四区-久久伊人影视-久久伊人影院-久久伊人中文字幕-亚洲成在人色婷婷-亚洲大成色www永久网

千鋒教育-做有情懷、有良心、有品質的職業(yè)教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  技術干貨  > 20天學會爬蟲之Scrapy框架通用爬蟲CrawlSpider

20天學會爬蟲之Scrapy框架通用爬蟲CrawlSpider

來源:千鋒教育
發(fā)布人:qyf
時間: 2022-09-20 14:48:03 1663656483

  上篇文章給大家分享的是Spider類的使用,本次我們繼續(xù)分享學習Spider類的子類CrawlSpider類。

  介紹CrawlSpider

  CrawlSpider其實是Spider的一個子類,除了繼承到Spider的特性和功能外,還派生除了其自己獨有的更加強大的特性和功能。

  比如如果你想爬取知乎或者是簡書全站的話,CrawlSpider這個強大的武器就可以爬上用場了,說CrawlSpider是為全站爬取而生也不為過。

  其中最顯著的功能就是”LinkExtractors鏈接提取器“。Spider是所有爬蟲的基類,其設計原則只是為了爬取start_url列表中網(wǎng)頁,而從爬取到的網(wǎng)頁中提取出的url進行繼續(xù)的爬取工作使用CrawlSpider更合適。

  CrawlSpider源碼分析

  源碼解析

  class CrawlSpider(Spider):

  rules = ()

  def __init__(self, *a, **kw):

  super(CrawlSpider, self).__init__(*a, **kw)

  self._compile_rules()

  # 首先調用parse()來處理start_urls中返回的response對象

  # parse()則將這些response對象傳遞給了_parse_response()函數(shù)處理,并設置回調函數(shù)為parse_start_url()

  # 設置了跟進標志位True

  # parse將返回item和跟進了的Request對象

  def parse(self, response):

  return self._parse_response(response, self.parse_start_url, cb_kwargs={}, follow=True)

  # 處理start_url中返回的response,需要重寫

  def parse_start_url(self, response):

  return []

  def process_results(self, response, results):

  return results

  # 從response中抽取符合任一用戶定義'規(guī)則'的鏈接,并構造成Resquest對象返回

  def _requests_to_follow(self, response):

  if not isinstance(response, HtmlResponse):

  return

  seen = set()

  # 抽取之內的所有鏈接,只要通過任意一個'規(guī)則',即表示合法

  for n, rule in enumerate(self._rules):

  links = [l for l in rule.link_extractor.extract_links(response) if l not in seen]

  # 使用用戶指定的process_links處理每個連接

  if links and rule.process_links:

  links = rule.process_links(links)

  # 將鏈接加入seen集合,為每個鏈接生成Request對象,并設置回調函數(shù)為_repsonse_downloaded()

  for link in links:

  seen.add(link)

  # 構造Request對象,并將Rule規(guī)則中定義的回調函數(shù)作為這個Request對象的回調函數(shù)

  r = Request(url=link.url, callback=self._response_downloaded)

  r.meta.update(rule=n, link_text=link.text)

  # 對每個Request調用process_request()函數(shù)。該函數(shù)默認為indentify,即不做任何處理,直接返回該Request.

  yield rule.process_request(r)

  # 處理通過rule提取出的連接,并返回item以及request

  def _response_downloaded(self, response):

  rule = self._rules[response.meta['rule']]

  return self._parse_response(response, rule.callback, rule.cb_kwargs, rule.follow)

  # 解析response對象,會用callback解析處理他,并返回request或Item對象

  def _parse_response(self, response, callback, cb_kwargs, follow=True):

  # 首先判斷是否設置了回調函數(shù)。(該回調函數(shù)可能是rule中的解析函數(shù),也可能是 parse_start_url函數(shù))

  # 如果設置了回調函數(shù)(parse_start_url()),那么首先用parse_start_url()處理response對象,

  # 然后再交給process_results處理。返回cb_res的一個列表

  if callback:

  #如果是parse調用的,則會解析成Request對象

  #如果是rule callback,則會解析成Item

  cb_res = callback(response, **cb_kwargs) or ()

  cb_res = self.process_results(response, cb_res)

  for requests_or_item in iterate_spider_output(cb_res):

  yield requests_or_item

  # 如果需要跟進,那么使用定義的Rule規(guī)則提取并返回這些Request對象

  if follow and self._follow_links:

  #返回每個Request對象

  for request_or_item in self._requests_to_follow(response):

  yield request_or_item

  def _compile_rules(self):

  def get_method(method):

  if callable(method):

  return method

  elif isinstance(method, basestring):

  return getattr(self, method, None)

  self._rules = [copy.copy(r) for r in self.rules]

  for rule in self._rules:

  rule.callback = get_method(rule.callback)

  rule.process_links = get_method(rule.process_links)

  rule.process_request = get_method(rule.process_request)

  def set_crawler(self, crawler):

  super(CrawlSpider, self).set_crawler(crawler)

  self._follow_links = crawler.settings.getbool('CRAWLSPIDER_FOLLOW_LINKS', True)

  CrawlSpider爬蟲文件字段介紹

  CrawlSpider除了繼承Spider類的屬性:name、allow_domains之外,還提供了一個新的屬性:rules。它是包含一個或多個Rule對象的集合。每個Rule對爬取網(wǎng)站的動作定義了特定規(guī)則。如果多個Rule匹配了相同的鏈接,則根據(jù)他們在本屬性中被定義的順序,第一個會被使用。

  CrawlSpider也提供了一個可復寫的方法:

  parse_start_url(response)

  當start_url的請求返回時,該方法被調用。該方法分析最初的返回值并必須返回一個Item對象或一個Request對象或者一個可迭代的包含二者的對象。

  注意:當編寫爬蟲規(guī)則時,請避免使用parse 作為回調函數(shù)。 由于CrawlSpider使用parse 方法來實現(xiàn)其邏輯,如果 您覆蓋了parse 方法,CrawlSpider將會運行失敗。

  另外,CrawlSpider還派生了其自己獨有的更加強大的特性和功能,最顯著的功能就是”LinkExtractors鏈接提取器“。

  LinkExtractor

  class scrapy.linkextractors.LinkExtractor

  LinkExtractor是從網(wǎng)頁(scrapy.http.Response)中抽取會被follow的鏈接的對象。目的很簡單: 提取鏈接?每個LinkExtractor有唯一的公共方法是 extract_links(),它接收一個 Response 對象,并返回一個 scrapy.link.Link 對象

  即Link Extractors要實例化一次,并且 extract_links 方法會根據(jù)不同的 response 調用多次提取鏈接?源碼如下:

  class scrapy.linkextractors.LinkExtractor(

  allow = (), # 滿足括號中“正則表達式”的值會被提取,如果為空,則全部匹配。

  deny = (), # 與這個正則表達式(或正則表達式列表)不匹配的URL一定不提取。

  allow_domains = (), # 會被提取的鏈接的domains。

  deny_domains = (), # 一定不會被提取鏈接的domains。

  deny_extensions = None,

  restrict_xpaths = (), # 使用xpath表達式,和allow共同作用過濾鏈接

  tags = ('a','area'),

  attrs = ('href'),

  canonicalize = True,

  unique = True,

  process_value = None

  )

  作用:提取response中符合規(guī)則的鏈接。

  參考鏈接:https://scrapy-chs.readthedocs.io/zh_CN/latest/topics/link-extractors.html

  Rule類

  LinkExtractor是用來提取的類,但是提取的規(guī)則需要通過Rule類實現(xiàn)。Rule類的定義如下:

  class scrapy.contrib.spiders.Rule(link_extractor,callback=None,cb_kwargs=None,

  follow=None,process_links=None,process_request=None)

  參數(shù)如下:

  link_extractor:是一個Link Extractor對象。其定義了如何從爬取到的頁面提取鏈接。

  callback:是一個callable或string(該Spider中同名的函數(shù)將會被調用)。從link_extractor中每獲取到鏈接時將會調用該函數(shù)。該回調函數(shù)接收一個response作為其第一個參數(shù),并返回一個包含Item以及Request對象(或者這兩者的子類)的列表。

  cb_kwargs:包含傳遞給回調函數(shù)的參數(shù)(keyword argument)的字典。

  follow:是一個boolean值,指定了根據(jù)該規(guī)則從response提取的鏈接是否需要跟進。如果callback為None,follow默認設置True,否則默認False。

  processlinks:是一個callable或string(該Spider中同名的函數(shù)將會被調用)。從linkextrator中獲取到鏈接列表時將會調用該函數(shù)。該方法主要是用來過濾。

  processrequest:是一個callable或string(該spider中同名的函數(shù)都將會被調用)。該規(guī)則提取到的每個request時都會調用該函數(shù)。該函數(shù)必須返回一個request或者None。用來過濾request。

  參考鏈接:https://scrapy-chs.readthedocs.io/zhCN/latest/topics/spiders.html#topics-spiders-ref

  通用爬蟲案例

  CrawlSpider整體的爬取流程:

  爬蟲文件首先根據(jù)url,獲取該url的網(wǎng)頁內容

  鏈接提取器會根據(jù)提取規(guī)則,對步驟1網(wǎng)頁內容中的鏈接進行提取

  規(guī)則解析器會根據(jù)指定的解析規(guī)則,將鏈接提取器中提取到的鏈接按照指定的規(guī)則進行解析

  將3中解析的數(shù)據(jù)封裝到item中,最后提交給管道進行持久化存儲

  創(chuàng)建CrawlSpider爬蟲項目

  創(chuàng)建scrapy工程:scrapy startproject projectName

  創(chuàng)建爬蟲文件(切換到創(chuàng)建的項目下執(zhí)行):scrapy genspider -t crawl spiderName www.xxx.com

  --此指令對比以前的指令多了 "-t crawl",表示創(chuàng)建的爬蟲文件是基于CrawlSpider這個類的,而不再是Spider這個基類。

  啟動爬蟲文件(基于步驟二的路徑執(zhí)行):scrapy crawl crawlDemo

  案例(爬取小說案例)

  測試小說是否可用

  本案例是17k小說網(wǎng)小說爬取,打開首頁---->選擇:分類---->選擇:已完本、只看免費,如下圖:

Picture

  鏈接:https://www.17k.com/all/book/200030101.html

  按照上面的步驟我們依次:

  scrapy startproject seventeen_k

  scrapy genspider -t crawl novel www.17k.com

  Pycharm 打開項目

  查看novel.py

  class NovelSpider(CrawlSpider):

  name = 'novel'

  allowed_domains = ['www.17k.com']

  start_urls = ['https://www.17k.com/all/book/2_0_0_0_3_0_1_0_1.html']

  rules = (

  Rule(allow = LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrict_xpaths=('//td[@class="td3"]')),

  callback='parse_book',follow=True, process_links="process_booklink"),

  )

  def process_booklink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("限制一本書:", link.url)

  yield link

  else:

  return

  def parse_book(self, response):

  item = {

  return item

  首先測試一下是否可以爬取到內容,注意rules給出的規(guī)則:

  Rule(allow = LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrictxpaths=('//td[@class="td3"]')),

  callback='parsebook',follow=True, processlinks="processbooklink")

  在allow中指定了提取鏈接的正則表達式,相當于findall(r'正則內容',response.text),在LinkExtractor中添加了參數(shù)restrict_xpaths是為了與正則表達式搭配使用,更快的定位鏈接。

  callback='parse_item'是指定回調函數(shù)

  process_links用于處理LinkExtractor匹配到的鏈接的回調函數(shù)

  然后,配置settings.py里的必要配置后運行,即可發(fā)現(xiàn)指定頁面第一本小說URL獲取正常:

Picture(1)

  執(zhí)行:scrapy crawl novel ,運行結果:

Picture(2)

  解析小說的詳細信息

  上圖鏈接對應小說的詳情頁: https://www.17k.com/book/3352644.html

Picture(3)

  通過解析書籍的URL的獲取到的響應,獲取以下數(shù)據(jù):

  catagory(分類),bookname,status,booknums,description,ctime,bookurl,chapter_url

  改寫parse_book函數(shù)內容如下:

  import scrapy

  from scrapy.linkextractors import LinkExtractor

  from scrapy.spiders import CrawlSpider, Rule

  class NovelSpider(CrawlSpider):

  name = 'novel'

  allowed_domains = ['www.17k.com']

  start_urls = ['https://www.17k.com/all/book/2_0_0_0_3_0_1_0_1.html']

  rules = (

  Rule(LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrict_xpaths=('//td[@class="td3"]')), callback='parse_book',

  follow=True, process_links="process_booklink"),

  )

  def process_booklink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("限制一本書:", link.url)

  yield link

  else:

  return

  def parse_book(self, response):

  item ={}

  print("解析book_url")

  # 字數(shù):

  book_nums = response.xpath('//div[@class="BookData"]/p[2]/em/text()').extract()[0]

  # 書名:

  book_name = response.xpath('//div[@class="Info "]/h1/a/text()').extract()[0]

  # 分類

  category = response.xpath('//dl[@id="bookInfo"]/dd/div[2]/table//tr[1]/td[2]/a/text()').extract()[0]

  # 概述

  description = "".join(response.xpath('//p[@class="intro"]/a/text()').extract())

  # 小說鏈接

  book_url = response.url

  # 小說章節(jié)

  chapter_url = response.xpath('//dt[@class="read"]/a/@href').extract()[0]

  print(book_nums, book_url,book_name,category,description,chapter_url)

  return item

  打印結果:

Picture(4)

  解析章節(jié)信息

  通過解析書籍的URL獲取的響應里解析得到每個小說章節(jié)列表頁的URL,并發(fā)送請求獲得響應,得到對應小說的章節(jié)列表頁,獲取以下數(shù)據(jù):id , title(章節(jié)名稱) content(內容),ordernum(序號),ctime,chapterurl(章節(jié)url),catalog_url(目錄url)

  在novel.py的rules中添加:

  ...

  rules = (

  Rule(LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrict_xpaths=('//td[@class="td3"]')),

  callback='parse_book',

  follow=True, process_links="process_booklink"),

  # 匹配章節(jié)目錄的url

  Rule(LinkExtractor(allow=r'/list/\d+.html',

  restrict_xpaths=('//dt[@class="read"]')), callback='parse_chapter', follow=True,

  process_links="process_chapterlink"),

  )

  def process_chapterlink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("章節(jié):", link.url)

  yield link

  else:

  return

  ...

Picture(5)

  通過上圖可以發(fā)現(xiàn)從上一個鏈接的response中,匹配第二個rule可以提取到章節(jié)的鏈接,繼續(xù)編寫解析章節(jié)詳情的回調函數(shù)parse_chapter,代碼如下:

  # 前面代碼省略

  ......

  def parse_chapter(self, response):

  print("解析章節(jié)目錄", response.url) # response.url就是數(shù)據(jù)的來源的url

  # 注意:章節(jié)和章節(jié)的url要一一對應

  a_tags = response.xpath('//dl[@class="Volume"]/dd/a')

  chapter_list = []

  for index, a in enumerate(a_tags):

  title = a.xpath("./span/text()").extract()[0].strip()

  chapter_url = a.xpath("./@href").extract()[0]

  ordernum = index + 1

  c_time = datetime.datetime.now()

  chapter_url_refer = response.url

  chapter_list.append([title, ordernum, c_time, chapter_url, chapter_url_refer])

  print('章節(jié)目錄:', chapter_list)

  重新運行測試,發(fā)現(xiàn)數(shù)據(jù)獲取正常!

Picture(6)

  獲取章節(jié)詳情

  通過解析對應小說的章節(jié)列表頁獲取到每一章節(jié)的URL,發(fā)送請求獲得響應,得到對應章節(jié)的章節(jié)內容,同樣添加章節(jié)的rule和回調函數(shù).完整代碼如下:

  import datetime

  import scrapy

  from scrapy.linkextractors import LinkExtractor

  from scrapy.spiders import CrawlSpider, Rule

  class NovelSpider(CrawlSpider):

  name = 'novel'

  allowed_domains = ['www.17k.com']

  start_urls = ['https://www.17k.com/all/book/2_0_0_0_3_0_1_0_1.html']

  rules = (

  Rule(LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrict_xpaths=('//td[@class="td3"]')),

  callback='parse_book',

  follow=True, process_links="process_booklink"),

  # 匹配章節(jié)目錄的url

  Rule(LinkExtractor(allow=r'/list/\d+.html',

  restrict_xpaths=('//dt[@class="read"]')), callback='parse_chapter', follow=True,

  process_links="process_chapterlink"),

  # 解析章節(jié)詳情

  Rule(LinkExtractor(allow=r'/chapter/(\d+)/(\d+).html',

  restrict_xpaths=('//dl[@class="Volume"]/dd')), callback='get_content',

  follow=False, process_links="process_chapterDetail"),

  )

  def process_booklink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("限制一本書:", link.url)

  yield link

  else:

  return

  def process_chapterlink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("章節(jié):", link.url)

  yield link

  else:

  return

  def process_chapterDetail(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("章節(jié)詳情:", link.url)

  yield link

  else:

  return

  def parse_book(self, response):

  print("解析book_url")

  # 字數(shù):

  book_nums = response.xpath('//div[@class="BookData"]/p[2]/em/text()').extract()[0]

  # 書名:

  book_name = response.xpath('//div[@class="Info "]/h1/a/text()').extract()[0]

  # 分類

  category = response.xpath('//dl[@id="bookInfo"]/dd/div[2]/table//tr[1]/td[2]/a/text()').extract()[0]

  # 概述

  description = "".join(response.xpath('//p[@class="intro"]/a/text()').extract())

  # 小說鏈接

  book_url = response.url

  # 小說章節(jié)

  chapter_url = response.xpath('//dt[@class="read"]/a/@href').extract()[0]

  print(book_nums, book_url, book_name, category, description, chapter_url)

  def parse_chapter(self, response):

  print("解析章節(jié)目錄", response.url) # response.url就是數(shù)據(jù)的來源的url

  # 注意:章節(jié)和章節(jié)的url要一一對應

  a_tags = response.xpath('//dl[@class="Volume"]/dd/a')

  chapter_list = []

  for index, a in enumerate(a_tags):

  title = a.xpath("./span/text()").extract()[0].strip()

  chapter_url = a.xpath("./@href").extract()[0]

  ordernum = index + 1

  c_time = datetime.datetime.now()

  chapter_url_refer = response.url

  chapter_list.append([title, ordernum, c_time, chapter_url, chapter_url_refer])

  print('章節(jié)目錄:', chapter_list)

  def get_content(self, response):

  content = "".join(response.xpath('//div[@class="readAreaBox content"]/div[@class="p"]/p/text()').extract())

  print(content)

  同樣發(fā)現(xiàn)數(shù)據(jù)是正常的,如下圖:

Picture(7)

  進行數(shù)據(jù)的持久化,寫入Mysql數(shù)據(jù)庫

  a. 定義結構化字段(items.py文件的編寫):

  class Seventeen_kItem(scrapy.Item):

  '''匹配每個書籍URL并解析獲取一些信息創(chuàng)建的字段'''

  # define the fields for your item here like:

  # name = scrapy.Field()

  category = scrapy.Field()

  book_name = scrapy.Field()

  book_nums = scrapy.Field()

  description = scrapy.Field()

  book_url = scrapy.Field()

  chapter_url = scrapy.Field()

  class ChapterItem(scrapy.Item):

  '''從每個小說章節(jié)列表頁解析當前小說章節(jié)列表一些信息所創(chuàng)建的字段'''

  # define the fields for your item here like:

  # name = scrapy.Field()

  chapter_list = scrapy.Field()

  class ContentItem(scrapy.Item):

  '''從小說具體章節(jié)里解析當前小說的當前章節(jié)的具體內容所創(chuàng)建的字段'''

  # define the fields for your item here like:

  # name = scrapy.Field()

  content = scrapy.Field()

  chapter_detail_url = scrapy.Field()

  b. 編寫novel.py

  import datetime

  import scrapy

  from scrapy.linkextractors import LinkExtractor

  from scrapy.spiders import CrawlSpider, Rule

  from sevencat.items import Seventeen_kItem, ChapterItem, ContentItem

  class NovelSpider(CrawlSpider):

  name = 'novel'

  allowed_domains = ['www.17k.com']

  start_urls = ['https://www.17k.com/all/book/2_0_0_0_3_0_1_0_1.html']

  rules = (

  Rule(LinkExtractor(allow=r'//www.17k.com/book/\d+.html', restrict_xpaths=('//td[@class="td3"]')),

  callback='parse_book',

  follow=True, process_links="process_booklink"),

  # 匹配章節(jié)目錄的url

  Rule(LinkExtractor(allow=r'/list/\d+.html',

  restrict_xpaths=('//dt[@class="read"]')), callback='parse_chapter', follow=True,

  process_links="process_chapterlink"),

  # 解析章節(jié)詳情

  Rule(LinkExtractor(allow=r'/chapter/(\d+)/(\d+).html',

  restrict_xpaths=('//dl[@class="Volume"]/dd')), callback='get_content',

  follow=False, process_links="process_chapterDetail"),

  )

  def process_booklink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("限制一本書:", link.url)

  yield link

  else:

  return

  def process_chapterlink(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("章節(jié):", link.url)

  yield link

  else:

  return

  def process_chapterDetail(self, links):

  for index, link in enumerate(links):

  # 限制一本書

  if index == 0:

  print("章節(jié)詳情:", link.url)

  yield link

  else:

  return

  def parse_book(self, response):

  print("解析book_url")

  # 字數(shù):

  book_nums = response.xpath('//div[@class="BookData"]/p[2]/em/text()').extract()[0]

  # 書名:

  book_name = response.xpath('//div[@class="Info "]/h1/a/text()').extract()[0]

  # 分類

  category = response.xpath('//dl[@id="bookInfo"]/dd/div[2]/table//tr[1]/td[2]/a/text()').extract()[0]

  # 概述

  description = "".join(response.xpath('//p[@class="intro"]/a/text()').extract())

  # # 小說鏈接

  book_url = response.url

  # 小說章節(jié)

  chapter_url = response.xpath('//dt[@class="read"]/a/@href').extract()[0]

  # print(book_nums, book_url, book_name, category, description, chapter_url)

  item = Seventeen_kItem()

  item['book_nums'] = book_nums

  item['book_name'] = book_name

  item['category'] = category

  item['description'] = description

  item['book_url'] = book_url

  item['chapter_url'] = chapter_url

  yield item

  def parse_chapter(self, response):

  print("解析章節(jié)目錄", response.url) # response.url就是數(shù)據(jù)的來源的url

  # 注意:章節(jié)和章節(jié)的url要一一對應

  a_tags = response.xpath('//dl[@class="Volume"]/dd/a')

  chapter_list = []

  for index, a in enumerate(a_tags):

  title = a.xpath("./span/text()").extract()[0].strip()

  chapter_url = a.xpath("./@href").extract()[0]

  ordernum = index + 1

  c_time = datetime.datetime.now()

  chapter_url_refer = response.url

  chapter_list.append([title, ordernum, c_time, chapter_url, chapter_url_refer])

  # print('章節(jié)目錄:', chapter_list)

  item = ChapterItem()

  item["chapter_list"] = chapter_list

  yield item

  def get_content(self, response):

  content = "".join(response.xpath('//div[@class="readAreaBox content"]/div[@class="p"]/p/text()').extract())

  chapter_detail_url = response.url

  # print(content)

  item = ContentItem()

  item["content"] = content

  item["chapter_detail_url"] = chapter_detail_url

  yield item

  c. 編寫管道文件:

  import pymysql

  import logging

  from .items import Seventeen_kItem, ChapterItem, ContentItem

  logger = logging.getLogger(__name__) # 生成以當前文件名命名的logger對象。 用日志記錄報錯。

  class Seventeen_kPipeline(object):

  def open_spider(self, spider):

  # 連接數(shù)據(jù)庫

  data_config = spider.settings["DATABASE_CONFIG"]

  if data_config["type"] == "mysql":

  self.conn = pymysql.connect(**data_config["config"])

  self.cursor = self.conn.cursor()

  def process_item(self, item, spider):

  # 寫入數(shù)據(jù)庫

  if isinstance(item, Seventeen_kItem):

  # 寫入書籍信息

  sql = "select id from novel where book_name=%s and author=%s"

  self.cursor.execute(sql, (item["book_name"], ["author"]))

  if not self.cursor.fetchone(): # .fetchone()獲取上一個查詢結果集。在python中如果沒有則為None

  try:

  # 如果沒有獲得一個id,小說不存在才進行寫入操作

  sql = "insert into novel(category,book_name,book_nums,description,book_url,chapter_url)" \

  "values(%s,%s,%s,%s,%s,%s)"

  self.cursor.execute(sql, (

  item["category"],

  item["book_name"],

  item["book_nums"],

  item["description"],

  item["book_url"],

  item["catalog_url"],

  ))

  self.conn.commit()

  except Exception as e: # 捕獲異常并日志顯示

  self.conn.rollback()

  logger.warning("小說信息錯誤!url=%s %s") % (item["book_url"], e)

  return item

  elif isinstance(item, ChapterItem):

  # 寫入章節(jié)信息

  try:

  sql = "insert into chapter (title,ordernum,c_time,chapter_url,chapter_url_refer)" \

  "values(%s,%s,%s,%s,%s)"

  # 注意:此處item的形式是! item["chapter_list"]====[(title,ordernum,c_time,chapter_url,chapter_url_refer)]

  chapter_list = item["chapter_list"]

  self.cursor.executemany(sql,

  chapter_list) # .executemany()的作用:一次操作,寫入多個元組的數(shù)據(jù)。形如:.executemany(sql,[(),()])

  self.conn.commit()

  except Exception as e:

  self.conn.rollback()

  logger.warning("章節(jié)信息錯誤!%s" % e)

  return item

  elif isinstance(item, ContentItem):

  try:

  sql = "update chapter set content=%s where chapter_url=%s"

  content = item["content"]

  chapter_detail_url = item["chapter_detail_url"]

  self.cursor.execute(sql, (content, chapter_detail_url))

  self.conn.commit()

  except Exception as e:

  self.conn.rollback()

  logger.warning("章節(jié)內容錯誤!url=%s %s") % (item["chapter_url"], e)

  return item

  def close_spider(self, spider):

  # 關閉數(shù)據(jù)庫

  self.cursor.close()

  self.conn.close()

  其中涉及到settings.py的配置:

  DATABASE_CONFIG={

  "type":"mysql",

  "config":{

  "host":"localhost",

  "port":3306,

  "user":"root",

  "password":"root",

  "db":"noveldb",

  "charset":"utf8"

  }

  }

  數(shù)據(jù)庫的表分別為:

  novel表字段有:

  id(自動增長的)

  category

  book_name

  book_nums

  description

  book_url

  chapter_url

  chapter表字段有:

  id

  title

  ordernum

  c_time

  chapter_url

  chapter_url_refer

  conent

  如果想獲取多頁的小說則需要加入對start_urls處理的函數(shù),通過翻頁觀察每頁URL的規(guī)律,在此函數(shù)中拼接得到多頁 的URL,并將請求發(fā)送給引擎!

  ......

  page_num = 1

  #start_urls的回調函數(shù)

  # 作用:拼接得到每頁小說的url。實現(xiàn)多頁小說獲取。

  def parse_start_url(self, response):

  print(self.page_num,response)

  #可以解析star_urls的response 相當于之前的parse函數(shù)來用

  #拼接下一頁的url

  self.page_num+=1

  next_pageurl='https://www.17k.com/all/book/2_0_0_0_3_0_1_0_{}.html'.format(self.page_num)

  if self.page_num==3:

  return

  yield scrapy.Request(next_pageurl)

  注意:在每個對應的processxxxx的回調函數(shù)中都是獲取index=0的小說,文章等,可以修改比如processchapterlink中的index<=20,那就是更多的章節(jié)信息了。

Picture(8)

  ok抓緊時間測試一下吧!相信你會收獲很多!

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經(jīng)許可不得擅自轉載。
10年以上業(yè)內強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
主站蜘蛛池模板: 高清FREESEXMOVIES性TV出水| 成人无码H免费动漫在线观看| 精品少妇爆乳无码av专用区| 无线乱码A区B区C区| 丰满爆乳一区二区三区| 国产成人精品午夜福利APP色多| 无码人妻精品一区二区三区不卡| 真实的国产乱ⅩXXX66小说| 国产精品扒开腿做爽爽爽| 精品人妻一区二区三区四区九九| 免费无码黄动漫在线观看| 久久国产热精品波多野结衣AV| 上司人妻互换HD无码| 巨爆乳寡妇中文在线观看| 国产对白videos麻豆高潮| 亚洲AV中文无码4区| 精品人妻一区二区三区四区九九 | 国产一区二区在线视频| 丰满少妇被猛烈进入无码| 亚洲AV午夜成人片动漫番| 久久九九兔免费精品6| 亚洲 欧美 激情 小说 另类 | 蜜桃av秘 无码一区二区三区| 每个世界都被主角睡来睡去可乐饼| 精品乱码久久久久久中文字幕 | 国产精品丝袜高跟鞋| 亚洲精品乱码久久久久久按摩| 日本毛多水多做受视频| 欧美黑人男士和白人美女a级黄片视频在线播放 | YELLOW在线观看| 国产精品免费高清在线观看| 国产精品民宅偷窥盗摄| 蜜芽AV在线新地址| 中文字幕久久波多野结衣AV| 中国在线观看免费国语版| 自拍亚洲综合在线精品| 欧美大屁股XXXX高跟欧美黑人| 无码人妻精品一区二区三区免费| 免费一对一真人视频| 成人无码WWW免费视频| 中文字幕日产无线码一区| 熟妇人妻不卡无码一区| 国产美女丝袜高潮白浆| 色悠久久久久综合网伊| 专干日本熟妇人妻| 波多野结衣AV大全| 国产成人精品一区二三区| 女BBBB槡BBBB槡BBBB| 首页 动漫 亚洲 欧美 日韩| 国产AV天堂无码一区二区三区 | 成 人 免 费 黄 色 网站无| 双腿被绑成M型调教PⅠAY照片| 饥渴老熟妇乱子在线播放| 人妻丰满熟妇AV无码区乱| 潮喷大喷水系列无码久久精品| 欧美自拍亚洲综合在线| 男女车车的车车网站W98免费| 亚洲AV无码一区二区三区国产| 国产在线无码精品电影网 | 日本丰满护士爆乳XXXX无遮挡| 漂亮人妻去按摩被按中出| 无码日韩做暖暖大全免费不卡| 锕锕锕锕锕锕锕好痛免费网址| 吃奶呻吟打开双腿做受在线视频| 粗大黑人巨精大战欧美成人| WWW夜片内射视频日韩精品成人| 高清偷自拍亚洲精品三区| 成人无码区免费A∨直播| 性VODAFONEWIFI另类| 欧美性受XXXX88喷潮| 国模无码人体一区二区| 亚洲AV无码成人精品涩涩| 日韩精品无码一区二区中文字幕 | 破外女出血视频全过程| 国产高潮刺激叫喊视频| 天堂√中文最新版在线中文| 久久久久久精品免费不卡| 成年女人午夜毛片免费视频 | 成人羞羞视频免费网站| 日产2021免费一二三四| 又黄又硬又湿又刺激视频免费| 色婷婷五月综合丁香中文字幕 | 嗯啊开小嫩苞HHH好深男男| 亚洲AV中文无码4区| 亚洲AV无码一区二区三区久久精| 国产ΑV在线ΑV天堂AⅤ国产| 日本一道综合久久AⅤ久久| 宝贝把腿张得大一点就不痛了| 国产蜜臀AV无码一区二区三区| 漂亮人妻熟睡中被公侵犯中文版| 天天影视网色香欲综合网| 无码熟妇人妻AV影片在线| 丝袜老师办公室里做好紧好爽| 小SB是不是想被C了| 无码H黄肉3D动漫在线观看| 天堂AV亚洲ITV在线AⅤ| 美丽人妻在夫前被黑人| 在线欧美精品一区二区三区| Y11111少妇无码电影| 无码人妻久久久久一区二区三区91 | 成人中文乱幕日产无线码| 中文在线中文资源| 亚洲综合国产一区二区三区| 他的舌头探入蜜源毛毛虫说说| 毛片亚洲AV无码精品国产午夜| 国产69久久精品成人看| 蜜臀成人片免费视频在线观看| 国产又色又爽又黄的网站在线| 成人精品免费视频在线观看| 巨大黑人一级毛片| 欧美精品亚洲日韩AⅤ| 一面膜上边一面膜下边视频| 公的下面好大弄得我好爽| 内射白浆一区二区在线观看| 日本多人强伦姧人妻完整版| 亚洲婷婷五月激情综合APP| 狠狠躁天天躁无码中文字幕图| 丰满的少妇XXXXX人妻| 久久久久久人妻精品一区| 色婷婷粉嫩AV精品综合在线| 亚洲AV无码国产精品夜色午夜| 宝贝把腿张得大一点就不痛了| 粗大从后面狠狠贯穿H| 成 人 网 站 在线 看 免费| 亚洲日韩精品A∨片无码加勒比| 哈昂~哈昂够了太多了男男| 国产精品三级一区二区| 白嫩少妇激情无码| 免费无码一区二区三区蜜桃大| 久久精品人人做人人综合试看 | 东京热加勒比视频一区| 粉嫩粉嫩的18在线免免费观看| 国产国语对白又大又粗又爽| 久久国产精品无码HDAV| 宝贝把腿张得大一点就不痛了| 无码中文字幕AV免费放DVD| 女士不遮阴小内搭| 未满十八18禁止免费无码网站| 久久久久亚洲AV无码专区| 办公室撕开奶罩揉吮奶漫画| 久久久久久久99精品国产片| 色综合久久久无码中文字幕波多| 国产成人久久精品一区二区三区 | 久久久久亚洲AV无码永不| 国产免费拔擦拔擦8X高清在线人 | 蜜桃av秘 无码一区二区三区| 国产高清在线精品一本大道| 好男人影视官网在线WWW| 我的大胸继拇在线观看| 日本伦奷在线播放| 忘忧草社区在线影视| 亲子乱AⅤ一区二区三区| 小东西才几天没做喷的到处都是 | 国产精品9999久久久久| 精品亚洲国产成人AV在线小说| 色老头在线一区二区三区 | 漂亮人妻被中出中文字幕| 无码精品人妻一区二区三区免费看| 草莓丝瓜榴莲绿巨人WWW| 成人片在线观看地址KK4444| 一碰就有水的女人男人喜欢?| 小寡妇一夜要了六次| 精品深夜av无码一区二区老年| 国产午夜精华无码网站| 中文字幕AV日韩精品一区二区| 西方37大但人文艺术任汾A级| 首页 动漫 亚洲 欧美 日韩 | 刺激Chinese乱叫国产高潮| 成年轻人电影WWW无码| 色欲AⅤ蜜臀AV在线播放| 国产免费拔擦拔擦8X高清在线人| 亚洲色成人一区二区三区小说| 日本一区二区在线播放| 在线人成视频播放午夜福利| 欧亚精品一区三区免费| 唔嗯啊欧美一级作爱网站| 粉嫩小泬久久久久久久久久小说| 少妇人妻一级AV片| 小奶瓶(产奶)沈姜| 丝袜老师办公室里做好紧好爽| 超清纯白嫩大学生无码网站| 国语第一次处破女| 粉嫩少妇内射浓精VIDEOS| 国产成人无码AⅤ片在线观看| 女人18毛片水真多免费看| 人妻三级日本香港三级极97| 天天天天躁天天爱天天碰2018| 亚洲AV毛茸茸av成熟女人| 中文在线中文资源| 日韩中文无码有码免费视频| 日韩A级成人免费无码视频| 无码视频一区二区三区在线观看| 无码日韩做暖暖大全免费不卡| 又粗又大又硬又爽的少妇毛片| 成人无码AV网站在线观看| 小蜜被两老头吸奶头| 久久久久久久精品成人热蜜桃| 国产男男GAY做受ⅩXX小说| らだ天堂√在线中文WWW| 孰妇XXXXXX的性生话| 国产成人无码精品XXXX网站 | 国内精品久久久久精品爽爽| 狠狠亚洲婷婷综合色香五月| 中文亚洲AV片不卡在线观看| 日本适合十八岁以上人群的护肤品| 麻豆成人精品国产免费| 中文无码制服丝袜人妻AV| 欧美性猛交XXXX乱大交视频| 丰满大爆乳波霸奶| 国产精彩乱子真实视频| 女人扒开屁股桶爽30分钟| 亚洲AV午夜成人片精品| 中国孕妇变态孕交XXXX| 亚洲一线产区和二线产区的区别| 精品人妻一区二区三区四区九九| 我和岳乱妇三级高清电影| 亚洲AV无码一区东京热| 伊人久久大香线蕉午夜| 亚洲AV成人精品午夜一区二区| 公粗挺进了我的密道在线观看| 免费女性裸体啪啪无遮挡网站| 永久免费看照片的聊骚软件| 亚洲乱码精品久久久久..| 亚洲AⅤ无码日韩AV中文AV伦| 小雪被老汉玩遍各种方式| 性妇VODAFONEWIFI精| 内射人妻视频国内| 亚洲人女屁股眼HD| 国产一区二区精品丝袜| 调教小SAO货撅起打屁股作文| 无套内谢少妇毛片免费看看| 国产精品白浆无码流出视频| 午马视频影院1区2区3区4区| 国产在线视频一区二区三区 | 玩弄放荡人妻一区二区三| 欧洲免费无码视频在线| 扒开双腿疯狂进出爽爽爽免费| 无码午夜人妻一区二区不卡视频 | 正文畸情~内裤奇缘小说| 在线观看日本亚洲一区| 国产精品成人一区二区不卡 | 亚洲人妻在线视频| 国产精品久久一区二区三区| 熟妇人妻无乱码中文字幕| 嗯啊开小嫩苞好深啊H视频| 精品丝袜人妻久久久久久| 日韩AV无码中文一区二区三区| 非洲人与性动交CCOO| 国内精品国内精品自线在拍| 欧美又粗又长XXXXBBBB疯| 人妻丰满熟妇AV无码区乱| 扒开双腿疯狂进出爽爽爽免费 | 久久久久久精品免费S| 日本护士毛茸茸XX| 国产午夜亚洲精品理论片八戒| 天堂8中文在线最新版在线| 欧美性猛交内射兽交老熟妇| 久久精品亚洲精品无码金尊 | 精品无码AV人在线观看| 国产精品免费AV片在线观看| 成人片国产精品亚洲| 伊人久久大香线蕉AV网禁呦| 男朋友要再做一次才同意分手| 无码人妻精品一区二区在线视频| 全黄H全肉边做边吃奶视频| 久久精品囯产精品亚洲| 小洞饿了想吃大香肠喝热牛奶是 | 青春草无码精品视频在线观看| 欧美性猛交XXXX乱大交视频| 亚洲AV中文AⅤ无码AV不卡| 久久成人国产精品免费| 亚洲AV中文AⅤ无码AV不卡| 男人添女人下部高潮全视频| 亚洲AV无码专区国产乱码DVD | 亚洲综合国产一区二区三区| 女士不遮阴小内搭| 日韩乱码人妻无码系列中文字幕| 成人无码AⅤ久久精品国产传媒| 人人爽人人模人人人爽人人爱| 成年美女黄网站色大片免费看 | 成人嘿咻漫画免费入口| 国产精品亚洲精品日韩动图| 毛片亚洲AV无码精品国产午夜| 少妇爆乳无码AV专区网站寝取| А√天堂BT中文在线| 亚洲成A人V在线蜜臀| 漂亮人妻被强中文字幕久久| 欧美电影在线观看| 妇女AV中文精品字幕XXX| 国产精品国产三级国AV麻豆| 久久精品欧美日韩精品| 成在线人AV免费无码高潮喷水| 粗大黑人巨精大战欧美成人| 一边做饭一边躁狂怎么办呢69| 在线精品亚洲一区二区| 久久大香伊蕉在人线国产H| 国产成人综合欧美精品久久| 成人无码WWW免费视频| 无码视频免费一区二三区| 国产男男激情VIDEOSGAY| 亚洲AV日韩AV永久无码水密桃| 人妻 白嫩 蹂躏 惨叫| 顶级欧美熟妇XXXXX欧美精品| 无码熟妇人妻AⅤ在线影片| 国产精品久久久久国产A级| 忘忧草日本社区WWW在线| 大胆GOGO高清在线观看| 男阳茎进女阳道啪啪| 少妇特殊按摩高潮爽翻天| 孕妇滴着奶水做着爱A| 久久AⅤ人妻少妇嫩草影院| 欧美黑人一级二级巨大久久天堂 | 少妇被又大又粗又爽毛片久久黑人| 日本高清在线视频WWW色| 亚洲AV无码国产精品色午夜| 中国丰满熟妇XXXX| 中文国产成人精品久久水蜜桃| 抖抈探探APP入口免费| 宝贝对着镜子CAO好不好| 国产成人久久AV免费高潮| 成人无码精品1区2区3区免费看| 欧美极品少妇XXXXⅩ喷水| 国产性夜夜春夜夜爽| 中文字幕乱妇无码AV在线| 有人有在线观看的片吗WWW| 少妇午夜AV一区| 亲孑伦一区二区三区| 成在线人AV免费无码高潮喷水| 真实国产乱子伦沙发睡午觉| 色老头在线一区二区三区| 国产免费福利在线视频| 纯肉无遮挡H肉动漫在线观看国产 纯肉无遮挡H肉动漫在线观看网址 | 色婷婷综合中文久久一本| 久久九九兔免费精品6| 中文字日产幕码三区的做法步| 忘忧草社区在线影视| 国产AⅤ无码专区亚洲AV综合网| 亚洲熟妇无码乱子AV电影| 丰满丝袜熟女HD| 国精产品一区二区三区糖心269| 成 人 免 费 黄 色 网站无| 好男人好资源电影在线播放| 无码熟妇人妻AV在线一| 亚洲AV无码1区2区久久| 中文无码人妻影音先锋| 成人无码无遮挡很H在线播放| 国精产品W灬源码1688伊在| 久久精品无码一区二区三区免费 | 女人被狂躁高潮啊的视频在线看| 嗯~啊哈好深好骚啊哼| 儿子第一次送妈妈母亲节礼物| 欧美黑大粗无码免费视频| 久久国产精品成人片免费| 解开人妻的裙子猛烈进入| 国产精品扒开腿做爽爽爽日本无码 | 丰满人妻一区二区三区视频53| 国模无码人体一区二区| 国产精品人人做人人爽人人添| 欧美亚洲一区二区三区| 嗯啊开小嫩苞HHH好深男男| 国产成人AV无码精品天堂| 一面膜上边一面膜下边视频| 日本高清在线视频WWW色| 国产精品成人AV片免费看| 少妇午夜AV一区| 国产精品久久久久久TV| 久久夜色精品国产噜噜麻豆| 超薄肉色丝袜一区二区| 寂寞视频一对一视频APP| 亚洲AV无码专区国产乱码软件| 我和亲妺妺乱的性视频| 丰满人妻被公侵犯完整版| 少妇人妻偷人精品无码视频| 久久99精品久久久久久国产| 少妇人妻一级AV片| 少妇人妻偷人精品无码视频| WC女厕撒尿七Ⅴ偷拍| 吃瓜爆料黑料网站| 中国老太卖婬HD播放| 丰满少妇高潮惨叫在线观看| 国产又猛又黄又爽| 扒开双腿疯狂进出爽爽爽免费| 国产一区二区三区精品视频| 好男人日本社区WWW| 粉嫩小泬久久久久久久久久小说| 久久久久久精品免费S| 久久久久久老熟妇人妻av| 日本少妇自慰高清喷浆| 任你躁国产自任一区二区三区| 亚洲AV成人网站在线播放| 无码精品国产一区二区免费| 天天澡夜夜澡人人澡| 狠狠色综合网久久久久久| 成年动作片AV免费网站| 日日人人爽人人爽人人片AV| 人妻少妇精品视中文字幕国语| 日本XXXX裸体XXXX自慰| 粗大的内捧猛烈进出少妇| 人妻中文乱码在线网站| 国产精品99久久精品爆乳| 天天摸日日摸狠狠添高潮喷| 男生女生一起相差差差| 成人一区二区免费中文字幕视频| 一本大道色卡1卡2卡3| 国产精品亚洲VA在线| 西方137大但人文艺术| 国产精品免费AV片在线观看| 女人脱精光让人桶爽了| 欧美性色黄大片WWW喷水| 天海翼一区二区三区高清在线 |