pandas 索引列、过滤、分组、求和
来源:互联网 发布:淘宝店图片怎么制作的 编辑:程序博客网 时间:2024/06/10 22:48
解析html内容,保存为csv文件
http://blog.csdn.net/github_26672553/article/details/78662563
前面我们已经把519961(基金编码)
这种基金的历史净值明细表html内容抓取到了本地,现在我们还是需要 解析html,取出相关的值,然后保存为csv文件以便pandas
来统计分析。
from bs4 import BeautifulSoupimport osimport csv# 使用 BeautifulSoup 解析html内容def getFundDetailData(html): soup = BeautifulSoup(html,"html.parser") rows = soup.find("table").tbody.find_all("tr") result = [] for row in rows: tds=row.find_all('td') result.append({"fcode": '519961' ,"fdate": tds[0].get_text() , "NAV": tds[1].get_text() , "ACCNAV": tds[2].get_text() , "DGR": tds[3].get_text() , "pstate":tds[4].get_text() , "rstate": tds[5].get_text() } ) return result# 把解析之后的数据写入到csv文件def writeToCSV(): data_dir = "../htmls/details" all_path = os.listdir(data_dir) all_result = [] for path in all_path: if os.path.isfile(os.path.join(data_dir,path)): with open(os.path.join(data_dir,path),"rb") as f: content = f.read().decode("utf-8") f.close() all_result = all_result + getFundDetailData(content) with open("../csv/519961.csv","w",encoding="utf-8",newline="") as f: writer = csv.writer(f) writer.writerow(['fcode', 'fdate', 'NAV', "ACCNAV", 'DGR', 'pstate', "rstate"]) for r in all_result: writer.writerow([r["fcode"], r["fdate"], r["NAV"], r["ACCNAV"], r["DGR"], r["pstate"], r["rstate"]]) f.close()
# 执行writeToCSV()
pandas 排序、索引列
# coding: utf-8import pandasif __name__ == "__main__" : # 读取csv文件 创建pandas对象 pd = pandas.read_csv("./csv/519961.csv", dtype={"fcode":pandas.np.str_}, index_col="fdate") # 把 fdate 这列设置为 索引列 # 根据索引列 倒序 print(pd.sort_index(ascending=False))
既然fdate
列设置为了索引列,那么如果根据索引获取呢?
# 读取csv文件 创建pandas对象 pd = pandas.read_csv("./csv/519961.csv", dtype={"fcode":pandas.np.str_}, index_col="fdate") # 把 fdate 这列设置为 索引列 pd.index = pandas.to_datetime(pd.index) print(pd["2017-11-29 "]) # 2017-11-29 519961 1.189 1.189 -1.00% 限制大额申购 开放赎回
2、直接指定fdate
列就是日期类型
# 读取csv文件 创建pandas对象 pd = pandas.read_csv("./csv/519961.csv", dtype={"fcode":pandas.np.str_}, index_col="fdate", parse_dates=["fdate"]) # 指明fdate是日期类型 print(pd["2017-11-29 "]) # 2017-11-29 519961 1.189 1.189 -1.00% 限制大额申购 开放赎回
打印索引:
print(pd.index) # 打印 索引
可以看出是DatetimeIndex
的索引:
DatetimeIndex(['2015-08-13', '2015-08-12', '2015-08-11', '2015-08-10', '2015-08-07', '2015-08-06', '2015-08-05', '2015-08-04', '2015-08-03', '2015-07-31', ... '2015-07-02', '2015-07-01', '2015-06-30', '2015-06-29', '2015-06-26', '2015-06-25', '2015-06-24', '2015-06-23', '2015-06-19', '2015-06-18'], dtype='datetime64[ns]', name='fdate', length=603, freq=None)
3、索引的高级用法
# 取出 2017年7月的 全部数据 print(pd["2017-07"]) # 取出 2017年7月到9月的 数据 print(pd["2017-07":"2017-09"]) # 到2015-07的数据 print(pd[:"2015-07"]) # 取出截至到2015-07的数据 # 然后 倒序 print(pd[:"2015-7"].sort_index(ascending=False))
获取基金日增长率下跌次数最多的月份
result = pd[pd["DGR"].notnull()] # DGR一定要有值 # 过滤掉DGR值里的%号,最后取出小于0的值(负数就表示增长率下跌了 ) result = result[result['DGR'].str.strip("%").astype(pandas.np.float)<0] # 按照月份 统计DGR跌的次数 result = result.groupby(lambda d:d.strftime("%Y-%m")).size() # 对DGR跌的次数 倒序,然后取出前面第一个 result = result.sort_values(ascending=False).head(1) print(result) # 2016-04 12 意思就是2016年4月份 是该基金DGR下跌次数最多的月份
阅读全文
0 0
- pandas 索引列、过滤、分组、求和
- pandas 按照列A分组,将同一组的列B求和,生成新的Dataframe
- Pandas 列索引操作
- pandas 索引选取和过滤(四)
- pandas学习笔记-索引、选取和过滤
- pandas之索引、选取和过滤
- MySql按列分组然后求和
- pandas索引选取和过滤和ix的各种索引
- Pandas求和
- 【pandas】对矩阵的某一行、某一列进行求和
- pandas中Groupby使用(五)-根据索引级别分组
- pandas dataframe 分组聚合时,分组组名并入列的方法
- python中pandas.DataFrame对行与列求和及添加新行与列示例
- python中pandas.DataFrame对行与列求和及添加新行与列示例
- Pandas如何将Series的复合索引提取为列?
- pandas中如何索引到某一列的特定值
- python实现对矩阵按照行、列求和,不使用numpy、pandas模块
- UITableView---分组 省份城市列表+ 右列索引
- MySQL--日期和时间
- 你所不知道的21个云服务器应用实践———云计算综合入门指南
- Gradle for Android(七)——一些使用技巧
- 仿射变换
- 我们很快就会有解码和操纵人脑的力量
- pandas 索引列、过滤、分组、求和
- HashMap类型数据读写文件
- (二十八)Amchart 界面图标显示
- 基于ERP特性的自适应QP
- 学哪种编程语言更有“钱”赚?
- 自定义view画圆
- 困扰许久的dataguard问题:error 12514 received logging on to the standby
- MySQL和Oracle的区别总结
- win10无法访问共享文件夹,登录失败,未授予用户在此计算机上的请求登录类型