色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:132日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲一区二区中文 | 毛片96视频免费观看 | 国产成人欧美视频在线 | 美女叉开腿让男人捅 | 美女扒开腿让男人桶个爽 | 97天天干| 色综合夜夜嗨亚洲一二区 | 一区二区三区视频免费 | 国产福利在线91 | 成人自拍视频在线 | 免费一级 一片一毛片 | 国产欧美一区二区三区视频在线观看 | 亚洲精品综合欧美一区二区三区 | 亚洲一区免费观看 | 亚洲一区二区免费视频 | 永久精品免费影院在线观看网站 | 农村三级孕妇视频在线 | 一级做a爱 | 91久久国产露脸精品 | 亚洲综合片 | 天天干亚洲 | 成人精品一区二区不卡视频 | 中国女警察一级毛片视频 | 两性色午夜视频免费国产 | 精品视频 九九九 | 欧美色视频日本片免费高清 | 国产一级在线观看视频 | 久久久www免费人成看片 | 亚洲自偷自偷图片在线高清 | 成人小视频在线播放 | 成年男女免费视频网站 | 五月激情丁香婷婷综合第九 | 成人免费观看国产高清 | 99热久久国产综合精品久久国产 | 亚洲精品m在线观看 | 久久久这里只有精品加勒比 | 在线亚洲欧美日韩 | 亚洲国产成人久久三区 | 国产成人无精品久久久 | 久久久久9999 | 99久久香蕉国产线看观香 |