python爬虫写文件编码
来源:互联网 发布:收购淘宝店铺可信吗 编辑:程序博客网 时间:2024/05/22 08:02
情况介绍
最近需要爬取网页上的内容,并且保存下来,在把抓取到的信息写入文件的时候,会出现乱码,需要做转码等处理,用的是python
解决的思路大概是这样的:
1. requests.get()获取网页的内容
2. 根据网页,获取编码方式
3. 解码后,统一用utf-8的编码写入文件内,因为gbk编码的时候,查看文件均是乱码
代码
import requestsfrom bs4 import BeautifulSoupimport codecs#get contentdef getContent(url): r = requests.get(url) return r.content#get code setdef getCodeSet(content): soup = BeautifulSoup(content,'html.parser') return soup.original_encoding#writedef writeToFile(content,path,codeSet): f = codecs.open(path,'w',codeSet) f.write(content.decode(codeSet).encode('utf-8').decode('utf-8')) f.close()if __name__ == '__main__': content = getContent('http://item.jd.com/1076647290.html') codeSet = getCodeSet(content) writeToHtml(content,'test.html',codeSet)
上面代码是抓取一个京东上的商品的网页,爬虫不一定是抓取一个网页,一般多是抓取某些重要的信息,此时只需要用beautifulsoup或者正则表达式找到信息后,把writeToFile函数传参的content改成相对应的信息就可完成正常信息的写入。
用utf-8统一是因为编辑器用gbk打开的时候会出现乱码,所以某些gbk编码的网页都转成utf-8的形式写入文件中,方便查看信息录入是否正确
0 0
- python爬虫写文件编码
- python 写文件编码问题
- python 写文件编码错误解决方法
- python 写爬虫
- 用python写爬虫
- python写爬虫
- python 写爬虫
- python 爬虫 怎样写能提取出文件
- python关于爬虫编码备忘
- 第一次写python--网络爬虫
- python 自己写爬虫 ----- BeautifulSoup
- Python]新手写爬虫全过程
- 用Python写简单爬虫
- python 3.5 写的爬虫
- 用python写网络爬虫
- 写Python爬虫的准备工作
- 用Python写网络爬虫
- 从零开始写Python爬虫 --- 导言
- 黑马程序员_IO流的概述和字符流
- IP 组播
- 安装NumPy和SciPy
- Remove Element
- 如何搭建Python3.4+Selenium
- python爬虫写文件编码
- C++的const类成员函数
- Ubuntu安装g++
- Mysql如何获取数据库文件的存放路径
- 在线SVN托管服务器
- 英语学习录——12月
- 6.学习操作系统之设备管理
- CentOS 6.4安装配置LNMP服务器(Nginx+PHP+MySQL)
- C语言大杀器系列 ①函数指针