这篇文章给大家分享的是有关python怎样读写csv文件的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
成都创新互联公司是一家集网站建设,西双版纳企业网站建设,西双版纳品牌网站建设,网站定制,西双版纳网站建设报价,网络营销,网络优化,西双版纳网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。1.爬取豆瓣top250书籍
import requests import json import csv from bs4 import BeautifulSoup books = [] def book_name(url): res = requests.get(url) html = res.text soup = BeautifulSoup(html, 'html.parser') items = soup.find(class_="grid-16-8 clearfix").find(class_="indent").find_all('table') for i in items: book = [] title = i.find(class_="pl2").find('a') book.append('《' + title.text.replace(' ', '').replace('\n', '') + '》') star = i.find(class_="star clearfix").find(class_="rating_nums") book.append(star.text + '分') try: brief = i.find(class_="quote").find(class_="inq") except AttributeError: book.append('”暂无简介“') else: book.append(brief.text) link = i.find(class_="pl2").find('a')['href'] book.append(link) global books books.append(book) print(book) try: next = soup.find(class_="paginator").find(class_="next").find('a')['href'] # 翻到最后一页 except TypeError: return 0 else: return next next = 'https://book.douban.com/top250?start=0&filter=' count = 0 while next != 0: count += 1 next = book_name(next) print('-----------以上是第' + str(count) + '页的内容-----------') csv_file = open('D:/top250_books.csv', 'w', newline='', encoding='utf-8') w = csv.writer(csv_file) w.writerow(['书名', '评分', '简介', '链接']) for b in books: w.writerow(b)
结果
2.把评分为9.0的书籍保存到book_out.csv文件中
''' 1.爬取豆瓣评分排行前250本书,保存为top250.csv 2.读取top250.csv文件,把评分为9.0以上的书籍保存到另外一个csv文件中 ''' import csv #打开的时候必须用encoding='utf-8',否则报错 with open('top250.csv', encoding='utf-8') as rf: reader = csv.reader(rf) #读取头部 headers = next(reader) with open('books_out.csv', 'w', encoding='utf-8') as wf: writer = csv.writer(wf) #把头部信息写进去 writer.writerow(headers) for book in reader: #获取评分 score = book[1] #把评分大于9.0的过滤出来 if score and float(score) >= 9.0: writer.writerow(book)
感谢各位的阅读!关于“python怎样读写csv文件”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!