色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:97日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 成人午夜兔费观看网站 | 亚洲欧美一区二区三区孕妇 | 国产一级视频在线 | 亚洲成a | 国产一区二区三区手机在线观看 | 国产成人夜间影院在线观看 | 手机看片1024精品国产 | 成人免费福利网站在线看 | 国产精品合集久久久久青苹果 | 一区二区三区免费在线视频 | 免费va国产高清不卡大片 | 精品视频一区二区三三区四区 | 免费99热在线观看 | 日本国产免费一区不卡在线 | a毛片成人免费全部播放 | 超级碰碰碰在线观看 | 一级高清毛片免费a级高清毛片 | 99久久精品久久久久久清纯 | 国产精品拍自在线观看 | 国产精品情人露脸在线观看 | www看片| 日韩在线手机看片免费看 | 波多野一区二区三区在线 | xxxwww黄色| 日韩综合网站 | 亚洲黄色片网站 | 亚洲高清一区二区三区久久 | 香蕉视频1024 | 亚洲美女色成人综合 | 欧美亚洲国产精品久久 | 日韩一级大毛片欧美一级 | 欧美一级做一a做片性视频 欧美一级做一级爱a做片性 | 色偷偷亚洲男人天堂 | 国产午夜精品久久久久免费视 | 亚洲精品www久久久久久久软件 | 欧美高清视频在线 | 成 人免费视频l免费观看 | 一级 黄 色 片免费 一级aaaaaa毛片免费 | 精品一区二区三区在线观看l | 天堂av影院 | 性欧美f |