色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術文章
文章詳情頁

python - scrapy 再次請求的問題

瀏覽:124日期:2022-08-17 18:54:48

問題描述

如:item[’url’]=response.xpath(’a/@href’)分析出一個鏈接,然后想從這個鏈接里的網頁再獲取一些元素,放入item[’other’]。應該怎么寫,謝謝。

問題解答

回答1:

def parse_page1(self, response): for url in urls:item = MyItem()item[’url’] = urlrequest = scrapy.Request(url,callback=self.parse_page2)# request = scrapy.Request('http://www.example.com/some_page.html',dont_filter=True,callback=self.parse_page2)request.meta[’item’] = itemyield requestdef parse_page2(self, response): item = response.meta[’item’] item[’other’] = response.xpath(’/other’) yield item

最后附上官方文檔https://doc.scrapy.org/en/lat...中文翻譯版http://scrapy-chs.readthedocs...

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲欧美一区二区三区在线播放 | 免费国产a | 生活片一级播放免费 | 久久久婷| 欧美日韩一区二区在线 | 成人免费一级毛片在线播放视频 | 亚洲一区二区三区在线网站 | 亚洲精品美女国产一区 | 国产精品久久久亚洲 | 亚洲欧美日韩国产精品 | 国产人成精品 | 国产免费自拍 | 久久国产精品1区2区3区网页 | 亚洲国产精品一区二区久久 | 成年人网站在线 | 久久久久国产一级毛片高清片 | 武松金莲肉体交战在线观看 | 亚洲国产成人久久 | 欧美特欧美特级一片 | 91精品国产综合久久青草 | 91精品免费久久久久久久久 | 午夜成人影视 | 国产成人精品三级在线 | 日本不卡免费高清视频 | 国产免费午夜a无码v视频 | 三级在线网站 | 华人色 | 精品自拍一区 | 国产一国产一级毛片视频在线 | 成人国产免费 | 九九精品免视看国产成人 | 免费久久久久 | 国产精品日韩欧美 | 国产一成人精品福利网站 | 久久草在线 | 国产精品亚洲精品久久成人 | 三级毛片网站 | 精品国产免费第一区二区三区日韩 | 亚洲国产一区二区三区四区五区 | 免费看特黄特黄欧美大片 | 亚洲免费视频播放 |