php实战之使用curl抓取网站数据

来源:互联网 发布:ubuntu 漏洞提权 编辑:程序博客网 时间:2024/05/16 17:28

之前做过一个网站数据抓取的工作,让我充分感受到了计算机科学的生产力。之前为了抓取网站源数据的数据,我们公司只能依靠人多力量大的方式,一点一点从源网站抠,整整干了三天,干得头昏脑涨,听老板说以前有php人员抓取过数据,但是抓取的数据不理想,不能入库,只能换成人工的了。趁着学习这段时间,整了整这个项目,不负有心人。在研究源数据网站的数据传输方式以后,突然发现,原来获取这些数据如此简单:程序源码如下:

<?phpheader("content-type:text/html;charset=utf-8");ini_set('max_execution_time', 300);function getScholar($start,$end){$result = array();for($i=$start;$i<$end;$i++){    $url = "http://****.gov.cn*****";    $post_data = array (    "currentPage" => $i,//当前页    "pageSize" =>7 ,    );    $ch = curl_init();    curl_setopt($ch, CURLOPT_URL, $url);    curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);    // 我们在POST数据哦!    curl_setopt($ch, CURLOPT_POST, 1);    // 把post的变量加上    curl_setopt($ch, CURLOPT_POSTFIELDS, $post_data);    $output = curl_exec($ch);    $output_json = json_decode($output);    curl_close($ch);    //var_dump($output_json);    //die();    foreach($output_json->projectList as $k => $v){        $result[$v->code][]=$v->code;        $result[$v->code][]=$v->name;    };}$end_end = $end-1;$fp = fopen("output-{$start}-{$end_end}.csv",'w');//打开文件    foreach ($result as $v){        ob_clean();        if(fputcsv($fp,$v)===false){//加数组数据放到csv文件中            die("can't write csv line");        }    }fclose($fp) or die("can't close scholar.csv");if(count($result)!=($end-$start)*7){    echo "数据出现错误";    echo "<br/>";    echo count($result);    exit;}    echo "数据抓取完成,共抓取到".count($result)."条记录";}getScholar(3950,4000);//读取3950-4000页的数据

这里主要用到了curl库,在刚开始用的时候,程序显示curl_init()不可用,但是这是已经将php的curl扩展打开了,后来百度知道,原来是在window目录下少了libeay32.dll、ssleay32.dll这两个文件,将这两个文件从php/ext 复制到windows 的system32目录下,然后重启Apache就可以了。
curl logo

0 0
原创粉丝点击