亚洲免费在线视频-亚洲啊v-久久免费精品视频-国产精品va-看片地址-成人在线视频网

您的位置:首頁技術文章
文章詳情頁

關于python list 寫進txt中的問題

瀏覽:120日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標題加入到一個列表當中,在用file.write()寫進 新聞.txt的時候,為啥老是寫入列表的最后一個呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關于python list 寫進txt中的問題這個是我爬取出來的東西(print(b)的結果)

關于python list 寫進txt中的問題這個是寫入txt中的內容

問題解答

回答1:

文件操作放循環里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動作放錯地方了

標簽: Python 編程
相關文章:
主站蜘蛛池模板: aaaa级毛片| 白嫩美女直冒白浆 | 日本三级日产三级国产三级 | 欧美极品在线 | 国产高清第一页 | 久久国产精品久久 | 国产成人福利视频在线观看 | 手机看片精品高清国产日韩 | 91无套极品外围在线播放 | 性猛交毛片 | 成人免费在线视频 | 99精品欧美一区二区三区 | 亚洲免费精品 | 欧美高清日韩 | 午夜亚洲精品 | 午夜两性试爱视频免费 | 中文日韩字幕一区在线观看 | 久久精品视频6 | 色综合美国色农夫网 | 暖暖日本在线播放 | 久久精品视频网站 | 国内精品久久精品 | 国产成人午夜 | 欧美久在线观看在线观看 | 三级毛片基地 | 免费国产a国产片高清不卡 免费国产不卡午夜福在线 免费国产不卡午夜福在线观看 | 国产精品久久久久影院 | 成人三级在线播放 | 女在床上被男的插爽叫视频 | 欧美日韩在线第一页 | 欧美成在线 | 久久久久久久国产 | 国产网址在线 | 国产视频自拍一区 | 免费观看一级特黄欧美大片 | 91精品国产综合久久欧美 | 黄色成人免费观看 | 亚洲三级黄色片 | 中文字幕乱码系列免费 | 欧美一级在线观看视频 | 亚洲精品国产美女在线观看 |