一天一爬虫:day02-百度贴吧_v1
来源:互联网 发布:淘宝网珊瑚绒床单 编辑:程序博客网 时间:2024/06/06 23:57
python2,requests库和re模块爬取百度贴吧内容,并存入文件
# -*- coding:utf-8 -*-#使用requests-reimport requests# from bs4 import BeautifulSoup# import bs4import reimport sysreload(sys)sys.setdefaultencoding( "utf-8" )#处理页面标签类class Tool: #去除img标签,7位长空格 removeImg = re.compile('<img.*?>| {7}|') #删除超链接标签 removeAddr = re.compile('<a.*?>|</a>') #把换行的标签换为\n replaceLine = re.compile('<tr>|<div>|</div>|</p>') #将表格制表<td>替换为\t replaceTD= re.compile('<td>') #把段落开头换为\n加空两格 replacePara = re.compile('<p.*?>') #将换行符或双换行符替换为\n replaceBR = re.compile('<br><br>|<br>') #将其余标签剔除 removeExtraTag = re.compile('<.*?>') def replace(self,x): x = re.sub(self.removeImg,"",x) x = re.sub(self.removeAddr,"",x) x = re.sub(self.replaceLine,"\n",x) x = re.sub(self.replaceTD,"\t",x) x = re.sub(self.replacePara,"\n ",x) x = re.sub(self.replaceBR,"\n",x) x = re.sub(self.removeExtraTag,"",x) #strip()将前后多余内容删除 return x.strip()#百度贴吧爬虫类class BDTB: # 初始化,传入基地址,是否只看楼主的参数 def __init__(self, baseUrl, seeLZ, floorTag): # base链接地址 self.baseURL = baseUrl # 是否只看楼主 self.seeLZ = '?see_lz=' + str(seeLZ) # HTML标签剔除工具类对象 self.tool = Tool() # 全局file变量,文件写入操作对象 self.file = None # 楼层标号,初始为1 self.floor = 1 # 默认的标题,如果没有成功获取到标题的话则会用这个标题 self.defaultTitle = u"百度贴吧" # 是否写入楼分隔符的标记 self.floorTag = floorTag #传入页码,获取该页帖子的代码 def getPage(self,pageNum): try: # 构建URL url = self.baseURL + self.seeLZ + '&pn=' + str(pageNum) r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except : return '' def getTitle(self,text): title = re.findall('<h3 class="core_title_txt.*?>(.*?)</h3>',text,re.S) if title: return title[0] else: return '' # 获取帖子一共有多少页 def getPageNum(self,text): result = re.findall('<li class="l_reply_num" .*?<span class="red">(.*?)</span>',text,re.S) return result[0] #获取每一层楼的内容,传入页面内容 def getContent(self,text): items = re.findall('<div id="post_content_.*?>(.*?)</div>',text,re.S) #floor = 1 contents = [] for item in items: # print floor, u"楼-------------------------------------------------------------------" # print self.tool.replace(item) # floor += 1 # 将文本进行去除标签处理,同时在前后加入换行符 content = "\n" + self.tool.replace(item) + "\n" contents.append(content.encode('utf-8')) return contents def setFileTitle(self,title): #如果标题不是为None,即成功获取到标题 if title is not None: self.file = open(title + ".txt","w+") else: self.file = open(self.defaultTitle + ".txt","w+") def writeData(self,contents): #向文件写入每一楼的信息 for item in contents: if self.floorTag == '1': #楼之间的分隔符 floorLine = "\n" + str(self.floor) + u"-----------------------------------------------------------------------------------------\n" self.file.write(floorLine) self.file.write(item) self.floor += 1 def start(self): indexPage = self.getPage(1) pageNum = self.getPageNum(indexPage) title = self.getTitle(indexPage) self.setFileTitle(title) if pageNum == None: print "URL已失效,请重试" return try: print "该帖子共有" + str(pageNum) + "页" for i in range(1,int(pageNum)+1): print "正在写入第" + str(i) + "页数据" page = self.getPage(i) contents = self.getContent(page) self.writeData(contents) #出现写入异常 except IOError,e: print "写入异常,原因" + e.message finally: print "写入任务完成"print u"请输入帖子代号"baseURL = 'http://tieba.baidu.com/p/' + str(raw_input(u':>'))# baseURL = 'http://tieba.baidu.com/p/3138733512'seeLZ = raw_input("是否只获取楼主发言,是输入1,否输入0\n")floorTag = raw_input("是否写入楼层信息,是输入1,否输入0\n")bdtb = BDTB(baseURL,seeLZ,floorTag)bdtb.start()
0 0
- 一天一爬虫:day02-百度贴吧_v1
- 一天一爬虫:day02-百度贴吧_v2
- 一天一爬虫:day01-糗事百科_v1
- 百度贴吧爬虫
- 百度贴吧爬虫
- 我是一只百度贴吧的小爬虫
- python百度贴吧爬虫
- 百度贴吧爬虫【练手】
- 百度贴吧_爬虫
- python 百度贴吧爬虫
- 爬虫-百度贴吧帖子
- python- 百度贴吧爬虫
- [python]百度贴吧爬虫
- Python网络爬虫入门(一)——爬取百度贴吧图片
- Python 爬虫模块 bs4 实战一:获取百度贴吧内容
- python百度贴吧爬虫,以及爬虫简要入门
- 【python爬虫】百度贴吧帖子图片批量保存爬虫
- 【python 爬虫】百度贴吧帖子所有楼层图片爬虫
- UVa 1146 Now or Later (2-SAT)
- android中的动画以及基本的形式
- orCAD原理图中显示封装信息
- ifort编译选项
- ~小游戏开发——迷宫(复杂版)~
- 一天一爬虫:day02-百度贴吧_v1
- 设计模式--单例模式(C++实现)
- mac版phpstorm Apache Server无法启动解决办法
- 自然语言处理(NLP)四步流程:Embed->Encode->Attend->Predict
- 利用ODBC数据源连接数据库实现基础查询
- Jenkins自动化构建集成(二)
- 4.scala中的类
- java语言一切都是对象
- 为什么要去除科学计数法及去除方法