久久伊人一区二区三区四区-久久伊人影视-久久伊人影院-久久伊人中文字幕-亚洲成在人色婷婷-亚洲大成色www永久网

千鋒教育-做有情懷、有良心、有品質的職業教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  技術干貨  > 20天學會爬蟲之Scrapy框架Spider類(案例:披荊斬棘的哥哥)

20天學會爬蟲之Scrapy框架Spider類(案例:披荊斬棘的哥哥)

來源:千鋒教育
發布人:qyf
時間: 2022-09-19 17:59:40 1663581580

  Spider是什么?

  • Spider是一個Scrapy提供的基本類,Scrapy中包含的其他基本類(例如CrawlSpider)以及自定義的spider都必須繼承這個類。

  • Spider是定義如何抓取某個網站的類,包括如何執行抓取以及如何從其網頁中提取結構化數據。

  源碼如下:

  所有爬蟲的基類,用戶定義的爬蟲必須從這個類繼承

  class Spider(object_ref):

  #name是spider最重要的屬性,而且是必須的。一般做法是以該網站(domain)(加或不加 后綴 )來命名spider。 例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite

  name = None

  #初始化,提取爬蟲名字,start_ruls

  def __init__(self, name=None, **kwargs):

  #判斷是否存在爬蟲名字name,沒有則會報錯

  if name is not None:

  self.name = name

  elif not getattr(self, 'name', None):

  raise ValueError("%s must have a name" % type(self).__name__)

  # python對象或類型通過內置成員__dict__來存儲成員信息

  self.__dict__.update(kwargs)

  #判斷是否存在start_urls列表,從列表中獲取到頁面的URL開始請求,后續的URL將會從獲取到的數據中提取。

  if not hasattr(self, 'start_urls'):

  self.start_urls = []

  # Scrapy執行后的日志信息

  def log(self, message, level=log.DEBUG, **kw):

  log.msg(message, spider=self, level=level, **kw)

  # 判斷對象object的屬性是否存在,不存在則做斷言處理

  def set_crawler(self, crawler):

  assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler

  self._crawler = crawler

  @property

  def crawler(self):

  assert hasattr(self, '_crawler'), "Spider not bounded to any crawler"

  return self._crawler

  @property

  def settings(self):

  return self.crawler.settings

  #該方法將讀取start_urls內的地址,并為每一個地址生成一個Request對象,交給Scrapy下載并返回Response

  #注意:該方法僅調用一次

  def start_requests(self):

  for url in self.start_urls:

  # 生成Request對象的函數

  yield self.make_requests_from_url(url)

  #Request對象默認的回調函數為parse(),提交的方式為get

  def make_requests_from_url(self, url):

  return Request(url, dont_filter=True)

  #默認的Request對象回調函數,處理返回的response。

  #生成Item或者Request對象。用戶需要自己重寫該方法中的內容

  def parse(self, response):

  raise NotImplementedError

  @classmethod

  def handles_request(cls, request):

  return url_is_from_spider(request.url, cls)

  def __str__(self):

  return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self))

      __repr__ = __str__

  因此可以總結出Scrapy爬取數據的過程如下:

  Spider的入口方法(start_requests())請求start_urls列表中定義的url,返回Request對象(同時默認傳給它一個名為parse的回調函數)。

  下載器獲取Respose后,回調函數會解析Reponse,返回(yield)的結果可能是字典、Item或是Request對象,亦或是這些對象組成的可迭代類型。其中,返回的Request也會包含一個回調函數,并在被下載之后被回調函數處理(即重復第2步)。

  解析數據可以使用Scrapy自帶的Selectors工具或者lxml、BeautifulSoup等模塊。

  最后Scrapy將返回的數據字典(或是Item對象)保存為文件或者保存在數據庫中。

  scrapy.spider.Spider類介紹

  常用類屬性

  • name:是字符串。標識了每一個spider的名字,必須定義且唯一。實際中我們一般為每個獨立網站創建一個spider。

  • starturl:是包含初始請求頁面url的列表,必須定義。`startrequests()方法會引用該屬性,發出初始的Request`。

  • custom_settings:是一個字典,每一條鍵值對表示一個配置,可用于覆寫SETTINGS(Scrapy的全局配置模塊,位于settings.py文件中)。

  •

  – 例1:custom_settings = {'COOKIES_ENABLED': True,'ROBOTSTXT_OBEY': False}。覆蓋了全局屬性COOKIES_ENABLED。

  – 擴展:設置settings中的值的幾種方法,優先級從高到低如下:

  命令行選項

  custom_settings

  settings.py文件

  命令行的默認設置,每一個命令行都有它自己的默認設置

  默認的全局設置,被定義在 scrapy.settings.default_settings 中

  • allowed_domains:是一個字符串列表。規定了允許爬取的網站域名,非域名下的網頁將被自動過濾。

  •

  – 例1:allowed_domains = cnblogs.com,start_url = 'https://www.zhihu.com'。在這個例子中,知乎不屬于CSDN的域名,因此爬取過程中會被過濾。

  • crawler:是一個Crawler對象。可以通過它訪問Scrapy的一些組件(例如:extensions, middlewares, settings)。

  •

  – 例1:spider.crawler.settings.getbool('xxx')。這個例子中我們通過crawler訪問到了全局屬性。

  • settings:是一個Settings對象。它包含運行中時的Spider的配置。這和我們使用spider.crawler.settings訪問是一樣的。

  • logger:是一個Logger對象。根據Spider的name創建的,它記錄了事件日志。

  常用方法

  • start_requests:該方法是Spider的入口方法。默認下,該方法會請求start_url中定義的url,返回對應的Request,如果該方法被重寫,可以返回包含Request(作為第一個請求)的可迭代對象或者是FormRequest對象,一般POST請求重寫該方法。

  • parse:當其他的Request沒有指定回調函數時,用于處理下載響應的默認回調,主要作用:負責解析返回的網頁數據(response.body),提取結構化數據(生成item)生成需要下一頁的URL請求。。該方法用于編寫解析網頁的具體邏輯(包含解析數據,或是解析出新的頁面),所以此方法非常重要哦!。

  Spider案例:披荊斬棘的哥哥評論

  最近被披荊斬棘的哥哥所吸引,但是還是要為大家做好服務,每天更新文章啊!介紹下這個綜藝節目哈。

  《披荊斬棘的哥哥》是芒果TV推出的全景音樂競演綜藝。節目嘉賓們彼此挑戰,披荊斬棘,通過男人之間的彼此探索、家族建立的進程,詮釋“滾燙的人生永遠發光”,見證永不隕落的精神力。

  我們本次使用Scrapy爬取哥哥們的評論。

Picture

  分析思路:

  打開谷歌瀏覽器,訪問第01期的鏈接(https://www.mgtv.com/b/367750/13107580.html),把JavaScript加載關掉,刷新,發現底下的評論數據沒有了,說明這數據是異步加載的,在這個網頁鏈接的源代碼里是找不到評論數據的;

  既然是異步加載,那么就要抓包了。把剛剛關掉的JavaScript打開,重新加載網頁,右鍵檢查,Network, 數據一般都在XHR或者JS里面,所以先把這兩項勾選了,這時候點擊評論的下一頁,發現數據就在JS里面:

Picture(1)

Picture(2)

  由上面評論的真實鏈接可以知道,評論真實的請求網址是:“https://comment.mgtv.com/v4/comment/getCommentList?”,后面跟著一系列的參數(callback, _support, subjectType, subjectId, page, _),可見:

Picture(3)

  我們知道page是頁碼數,subjectId是s每個視頻對應的id,callback回調函數,最后一個大膽猜測下就是unix時間戳后面再加上3位隨機數(或者unix時間戳乘以1000再取整),應該只起一個占位的作用,可能是一個完全沒用的參數,只是用來嚇唬我們的。

  但是不確定,我們來看一下,于是我去掉最后一個參數在瀏覽器發出了一下請求,結果如下:

Picture(4)

  說明就是一個完全沒用的參數,哈哈哈用來嚇唬我們的,不要怕!我們不用它。

  鏈接有了之后我們就開始創建爬蟲項目啦!

  首先打開命令行,輸入:

  scrapy startproject mongotv_comments_crawler

  生成新的mongotvcommentscrawler項目,再輸入:

  cd mongotv_comments_crawler

  scrapy genspider mgtv_crawl mgtv.com

  生成爬蟲名。

  然后,用PyCharm打開項目。由于最后爬取到的是json數據,我們直接解析Json數據,并返回到Items中。

  因此在爬蟲文件mgtv_crawl.py的MgtvCrawlSpider類中,進行如下定義:

  class MgtvCrawlSpider(scrapy.Spider):

  name = 'mgtv_crawl'

  allowed_domains = ['mgtv.com']

  # start_urls = ['http://mgtv.com/'] 因為我們每次都需要構建芒果TV的請求,所以我們重寫start_requests方法

  subject_id = 4327535 # 視頻的id

  pages = list(range(1, 100)) # 需要爬取的評論頁數比如100頁

  因為我們要爬取多頁的內容,所以我們要不斷修改page參數,所以我們重寫start_requests方法

  def start_requests(self): # 重寫start_requests

  start_urls = [f'https://comment.mgtv.com/v4/comment/getCommentList?page={page}&subjectType=hunantv2014&subjectId={self.subject_id}&callback=jQuery18204988030991528978_1630030396693&_support=10000000&_=1630030399968' for page in self.pages]

  # 生成所有需要爬取的url保存進start_urls

  for url in start_urls: # 遍歷start_urls發出請求

  yield Request(url)

  然后重寫parse()函數,獲取json結果。但是json結果前面有下圖一樣的前綴內容,我們要去掉

Picture(5)

  def parse(self, response):

  text = response.text[response.text.find('{'):-1] # 通過字符串選取的方式把"jQuery...()去掉"

  json_data = json.loads(text) # 轉換成json格式

  for i in json_data['data']['list']: # 遍歷每頁的評論列表

  item = MongotvCommentsCrawlerItem()

  item['content'] = i['content']

  item['commentId'] = i['commentId']

  item['createTime'] = i['createTime']

  item['nickName'] = i['user']['nickName']

  yield item

  編寫item,獲取評論的:內容、創建時間、用戶名和評論ID

  class MongotvCommentsCrawlerItem(scrapy.Item):

  # define the fields for your item here like:

  # name = scrapy.Field()

  content = scrapy.Field()

  createTime = scrapy.Field()

  nickName = scrapy.Field()

  commentId = scrapy.Field()

  然后便是寫pipelines.py文件,把爬取回來的items入庫

  import pymysql

  class MongotvCommentsCrawlerPipeline(object):

  def __init__(self):

  self.conn = pymysql.connect(host='127.0.0.1', user='root', password='root',

  db='mgtv', charset='utf8')

  def process_item(self, item, spider):

  commentId = item["commentId"]

  content = item['content']

  createTime = item['createTime']

  nickName = item["nickName"]

  sql = "insert into comments(commentId,content,createTime,nickName) values(" + str(commentId) + ",'" + content + "','" + createTime + "','" + nickName + "');"

  self.conn.query(sql)

  self.conn.commit()

  return item

  def close_spider(self, spider):

  self.conn.close()

  在settings.py中開啟對應的設置項:

Picture(6)

Picture(7)

Picture(8)

  開啟爬蟲進行爬取:

  scrapy crawl mgtv_crawl

  爬取到的結果如下:

Picture(9)

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。
10年以上業內強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
主站蜘蛛池模板: 国产亚洲精品第一综合麻豆| 国产成人无码18禁午夜福利网址| 国产精品99久久久久| А√天堂 地址 在线| 久久婷婷五月综合色俺也想去 | 国产一本一道久久香蕉| 日韩乱码人妻无码中文视频 | 日本人XXXX1819HD| 哦┅┅快┅┅用力啊┅┅在线观看| 精品少妇人妻AV无码专区| 国内精品久久久久精免费| 国产精品日本亚洲欧美| 伊人久久大香线蕉AV色婷婷色| 高清FREESEXMOVIES性TV出水| 任你躁国产自任一区二区三区| 一面亲上边一面膜下边| 色综合精品无码一区二区三区| 黑人巨大进入白人美女视频| 亚洲国产精品久久久久秋霞影院| 国产猛烈高潮尖叫视频免费| 超清无码熟妇人妻AV在线电影 | 人人妻人人澡人人爽超污| 国产9 1在线 | 欧洲| 国产精品久久久久久无遮挡| 涨乳催乳改造调教公主| 欧美大屁股XXXX高跟欧美黑人| 成人欧美日韩一区二区三区| 女人被躁到高潮嗷嗷叫小说百度 | 亚洲AV无码一区二区三区观看| 顶级欧美熟妇XXXXX欧美精品| 隔壁人妻被水电工征服| 欧美体内SHE精视频| 国产精品WWW夜色视频| 小东西才几天没做喷的到处都是| 久久婷婷五月综合色D啪| 小荡货奶真大水多好紧视频| 亚洲精品无码专区| 久久综合给合久久狠狠狠97色 | 天天天天做夜夜夜夜做无码| XXXXFREE少妇过瘾| 少妇被躁爽到高潮无码| 中文人妻无码一区二区三区| 丰满少妇人妻无码| 亚洲AV最新天堂网址| 国产精品SP调教打屁股| 波多野结衣AV大全| 亚洲AV永久无码精品无码影片| 放在里面边顶边吃饭H| 中文无码不卡中文字幕| 人与畜禽CORPORATION| 麻豆传播媒体APP官网在线观看| 熟妇人妻AV无码一区二区三区| 欧美国产SE综合| 高清播放器欧美大片| 日韩AV无码久久精品免费| 精品少妇爆乳无码av专用区 | 蜜芽AV在线新地址| 成人无码AⅤ在线播放| 日本适合十八岁以上的护肤品 | 中文天堂在线最新版在线WWW| 小寡妇一夜要了六次| 久久久久久精品免费S| 色狠狠久久AV北条麻妃| 短篇公交车高H肉辣全集目录| 日本无吗无卡V免费清高清| 波多野结衣AV一区二区三区中文| 高清播放器欧美大片| 好男人好资源在线影视官网| 国精产品W灬源码1688伊| 强被迫伦姧在线观看中文版| 人妻 白嫩 蹂躏 惨叫| 秋霞鲁丝AV一区二区三区| 日本XXX色视频| 亲孑伦视频一区二区三区视频| 热RE99久久精品国99热| 好男人无码内射AV| 亚洲日韩精品A∨片无码加勒比| 国产精品三级一区二区| 无码成人H动漫在线网站| 亚洲国产精品嫩草影院久久| 久久国产精久久精产国| 真实国产乱人伦在线视频播放| 亚洲AV无码专区国产乱码DVD | 日日人人爽人人爽人人片AV| 天天拍夜夜添久久精品| 国产超碰人人爽人人做人人添| 疯狂做受XXXX高潮不断| 欧美性猛交一区二区| 苍井空无码免费换线| 精品无码成人片一区二区98| 亚洲国产另类久久久精品小说| 在线成人A毛片免费播放| 秋霞在线看片无码免费| 无码H黄肉动漫在线观看999| 好男人资源在线WWW免费| 欧美性猛交XXXX乱大交视频| 天天玩天天玩天天玩| 少妇自慰喷AV免费网站| 人妻少妇久久中文字幕| 美女图片禁欲系高级感| 欧美亚洲一区二区三区| 男人添女人下部高潮全视频| 色婷婷五月综合激情中文字幕| 校长办公室岔开腿呻吟| 小诗的公交车日记免费读| 小雪尝禁果又粗又大的中国地图| 亚洲国产欧美在线人成最新| 小SAO货水好多真紧H视频| 亚洲精品无码久久千人斩| 无码人妻精一区二区三区老牛| 午夜无码一区二区三区在线| 久久亚洲熟妇熟女ⅩXXXHD| 国产成人久久精品一区二区三区 | 成年美女黄网站色大片免费看| 国产高潮刺激叫喊视频| 亚洲午夜无码片在线观看影院| 无码口爆内射颜射后入| 成人片在线观看地址KK4444| 日本欧美大码A在线观看| 国产成人午夜在线视频A站| 亚洲午夜无码片在线观看影院| 久久久久女人精品毛片| 一区二区三区中文字幕| 粉嫩小泬久久久久久久久久小说| 色婷婷五月综合亚洲影院| 陈冠希实干阿娇13分钟| 高清偷自拍亚洲精品三区| 精品日产A一卡2卡三卡4卡乱| 无码少妇一区二区浪潮免费| 亚洲AV无码成人精品区明星换面| 久久久久久久精品免费| 丰满的少妇XXXXX人妻| 国产精品成人99一区无码| 欧美xxxxx久久短视频| 欧妇女乱妇女乱视频| 丝瓜秋葵草莓香蕉榴莲绿| 在线精品自偷自拍无码中文| 亚洲AV综合色区无码4区| 小浪货腿打开水真多真紧| 日本护士毛茸茸XX| 国产高清在线A视频大全| 伊人久久大香线蕉AV色婷婷色| 日本水蜜桃身体乳的美白效果| 久久精品国产99精品最新 | 无码人妻精品一区二区三区66| 亚洲成A人V在线蜜臀| 欧美男生射精高潮视频网站| 国产欧美日韩专区发布| 性色做爰片在线观看WW| 国产又色又爽又黄的网站在线| 岳女四人共侍一夫婷婷| 久久久久亚洲AV无码专区网站 | 国产成人精品一区二三区| 真实国产乱人伦在线视频播放 | 亚洲AV无码国产在丝袜APP| 全部免费A级毛片| 儿子比老公更大更硬朗| 丰满丝袜熟女HD| 久久国产精品99久久人人澡| 欧美性XXXX狂欢老少配| 久久国产精品99久久人人澡| 狂野AV人人澡人人添| 日韩AV无码中文一区二区三区| 国产精品亚洲一区二区三区| 美女张开腿黄网站免费| 国产精品美女久久久| 高校美女内射含羞草| 成人A级毛片免费播放| 中文在线中文资源| 小雪尝禁果又粗又大的中国地图| 亚洲AV永久无码天堂网毛片| 女人张开腿让男人桶爽的| 狠狠婷婷色五月中文字幕| 国产成人久久777777| 无码人妻av免费一区二区三区| 欧美午夜精品一区二区蜜桃| 白嫩少妇激情无码| 国产日韩AV免费无码一区二区三 | 大色综合色综合网站| 亚洲色WWW永久网站| 黑人巨茎中出人妻| 朋友人妻少妇精品系列| 差差差很疼视频无掩丰富| 蜜桃AV一区二区三区| 亚洲AV无码国产精品色| 差差漫画在线观看登录页面弹窗| 欧美free叉叉叉叉极品少妇| 下面饿了想吃大香肠| 粉嫩大学生无套内射无码卡视频| 每个世界都被主角睡来睡去可乐饼| 差差差软件大全APP推荐免费| 国精产品一区一区三区有限在线| 激情五月丁香六月综合AVXXXX| 啪啪男女爱高潮GIF| 欧美裸体XXXX| 精品少妇人妻AV免费久久久| 国产一产二产三精华液区别在哪| 久久综合给合久久狠狠狠97色| 人妻少妇精品中文字幕av蜜桃| 无码少妇xxxx| 国产精品日本亚洲欧美| 曰本真人性做爰ⅩXX| 日韩乱码人妻无码超清蜜桃| 久久国产精品香蕉成人APP| 欧美成人性生活视频| 国产成人无码精品XXXX网站| 亚洲精品456在线播放| 内射后入在线观看一区| 公和熄洗澡三级中文字幕| 亚洲精品无码AV中文字幕| 琪琪无码午夜伦埋影院| 一区二区AV在线| 日本做受高潮好舒服视频| 国产美女丝袜高潮白浆| 欧美性猛交XXXX乱大交丰满| 陈冠希实干阿娇13分钟| 国产69久久精品成人看| 少妇伦子伦精品无码STYLES| 粗大黑人巨精大战欧美成人| 国内精品国内精品自线在拍| 日本免费人成视频在线观看| 一本色道久久HEZYO无码| 丰满人妻熟妇乱又伦精品| 女人双腿搬开让男人桶| 吃奶呻吟打开双腿做受动态图| 青春草无码精品视频在线观看 | 上面一边亲下一边面膜使用方法| 高潮到不停喷水的免费视频| 久久久久高潮毛片免费全部播放| 无码H黄肉3D动漫在线观看| 有人有在线观看的片资源 | 久久国产热精品波多野结衣AV| 色婷婷AV一区二区三区在线观看| 亚洲AV永久无码天堂网毛片| 日本熟少妇裸交ⅩXX视频| 热RE99久久精品国99热| 国产精品亚洲二区在线观看| 又大又粗又爽A级毛片免费看| 丰满的继牳3中文字幕系列 | 亚洲日韩欧洲无码A∨夜夜| 人妻中文乱码在线网站| 国产成人无码A区视频在线观看| 成 人 黄 色 网 站 在线观| 精品深夜av无码一区二区老年 | 精品丝袜人妻久久久久久| 饭桌上故意张开腿让公H视频| 幼儿HIPHOP仙踪林的| 国产精品亚洲精品日韩动图 | 饭桌上故意张开腿让公H视频| 中国东北熟女老太婆内谢| 上面一边亲下一边面膜使用方法| 内地丰满浓密老熟女露脸对白| 中文乱码字幕高清一区二区| 国产精品成人一区二区三区视频| 无码人妻AV一区二区三区蜜臀| 丰满少妇被猛烈进入无码| 人妻系列综合第一页| 首页 动漫 亚洲 欧美 日韩| 少妇午夜AV一区| 精品国产AⅤ一区二区三区V视界| 九九电影网午夜理论片| 精品亚洲国产成人AV在线小说| 秋霞电影网免费观看| 欧美私人家庭影院| 国精产品一区一区三区有限在线 | 中文无码不卡中文字幕| 第九理论午夜电影院| 中文字幕人妻丝袜成熟乱 | 欧美乱人伦人妻中文字幕| 婷婷五月综合色视频| 欧美人与性动交α欧美精品| 狠狠躁天天躁中文字幕| 一线产区与二线产区的定义| 嫩小BBB揉BBB揉BBBB| 成人Α片免费视频在线观看| 欧洲熟妇色XXXXX老妇| 国产成人久久综合第一区| 脱岳裙子从后面挺进去视频| 国产精品白浆无码流出视频| 色悠久久久久综合先锋影音下载| 国产成人无码A区在线观看视频| 草棚CAOPORON已满18进| 国产成人精品无码片区在线观看| 日本适合十八岁以上的护肤品一 | 国产精品嫩草影院永久…| 亚洲欧美精品午睡沙发| 赤裸人妻撅起肥白大屁股| 无码人妻精品一区二区三区免费看| 国产免费拔擦拔擦8X高清在线人 | 国产高清在线a视频大全| 日韩乱码人妻无码超清蜜桃| 无码任你躁久久久久久久| 亚洲AV永久无码天堂网| 成人爽A毛片在线视频淮北| 国产成人精品自在钱拍| 在线精品亚洲一区二区| 张柏芝性XXXXXⅩ| 又粗又硬又大又爽免费视频播放 | 日韩人妻不卡一区二区三区| 挺进邻居丰满少妇的身体| 少妇人妻一级AV片| 精品熟女少妇AV免费久久 | 国精产品W灬源码1688伊| 国产精品久久久久久妇女| 草棚CAOPORON已满18进| 亚洲AV无码成人精品区明星换面| 人妻丰满熟妇AV无码区免| 吃奶呻吟打开双腿做受在线视频| 小SAO货边洗澡边CAO你| 久久久久久精品免费免费WEⅠ| 亚洲AV无码一区二区三区国产| 亚洲AV中文AⅤ无码AV不卡| 男同桌上课用手指进去了好爽| 张柏芝阿娇全套无删减1313| 蜜芽AV在线新地址| 人与畜禽CORPORATION| 丰满人妻被中出中文字幕| 好男人资源在线WWW免费| 女同学浮乱系列合集| 天美传媒剧国产MV在线看 | 岳丰满多毛的大隂户| 国产精品一国产精品一K频道| 色婷婷综合中文久久一本| 小雪尝禁果又粗又大的中国地图| 成人欧美日韩一区二区三区| 国产成人综合精品无码| 国产精品成人AV片免费看| 国产欧美日韩专区发布| 非洲人与性动交CCOO| 最新国产精品亚洲 | 丰满的少妇XXXXX人妻| 久久精品囯产精品亚洲| 国产福利在线 | 传媒| 丰满人妻被中出中文字幕| 国产成人年无码AV片在线观看| 曰本真人性做爰ⅩXX| 欧洲熟妇色XXXXX老妇| 干了老婆闺蜜两个小时| 五十老熟妇乱子伦免费观看| 日本护士毛茸茸XX| 大象成品W灬源码1| 久久久久亚洲AV无码网站| 中文字幕乱码人妻无码久久| 青青青国产免A在线观看| 宝贝乖女你的奶真大水真多| 忍着娇喘在公面前被夜袭| 丰满人妻被公侵犯完整版| 漂亮人妻洗澡被公强 日日躁| 国产成人香蕉久久久久| 久久久久国产一区二区| 少妇特殊按摩高潮爽翻天| 亚洲AV无码国产精品色午| 国产福利一区二区三区在线视频| 欧美亚洲熟妇少妇性A爱| 无码A级毛片视频| 亚A∨国AV综AV涩涩涩| 又黄又无遮挡AAAAA毛片| 丰满少妇发泄14P| 国产裸拍裸体女网站链接在线观看 | 国产粉嫩馒头无套内在线观看免费| 亚洲AⅤ无码日韩AV中文AV伦| 宝贝小嫩嫩好紧好爽H在线视频| 国产精品无码久久久久| 国产精品欧美久久久久无广告 | 成人免费A级毛片久久| 国产精品久久久久国产A级| 黑人巨茎中出人妻| 国产成人一区二区三区APP| 国产精品99久久久久久猫咪| 波多野结衣AV高清中文| 欧美人与性口牲恔配视频| 午夜A级理论片在线播放不卡| 欧美极品在线观看| 亚洲乱码精品久久久久.. | 亚洲AV无码专区在线电影APP | 岳的奶大又白又紧| 成人欧美日韩一区二区三区| 日本最新高清一区二区三| 亚洲AV无码专区亚洲猫咪| 蜜臀AV无码一区二区三区| 差差差无掩盖视频30分钟| 麻花豆传媒剧国产MV在线观看 | WWW国产精品内射熟女| 久久中文字幕人妻丝袜| 挺进绝色老师的紧窄小肉| 高清熟女国产一区二区三区| 男人一边吃奶一边弄下边好爽| 亚洲欧美性爱视频| 亚洲国产AV无码专区亚洲AVL| 国产精品成人VA在线播放| 久久久久亚州AⅤ无码专区首 | 久久久久亚州AⅤ无码专区首| 五十老熟妇乱子伦免费观看| 亚洲AV综合色区无码4区| 亚洲AV日韩AV高潮喷潮无码| 幼儿HIPHOP仙踪林的| 差差差很疼视频无掩丰富| 锕锕锕锕锕锕~好深啊APP下载| 国精产品一区一区三区M| 看全色黄大色黄大片 视频| 久久久久久精品成人网站蜜臀| 国产精品亚洲精品日韩已方| 陈冠希实干阿娇13分钟| 日韩精品无码AV成人观看| 久久不见久久见免费视频3 | 狠狠色综合网久久久久久| 国产精品WWW夜色视频| Y11111少妇无码电影| 精品亚洲国产成人AV在线小说| 国产精品妇女一二三区|