htmlunit网络爬虫相关

来源:互联网 发布:花衣吹笛手 知乎 编辑:程序博客网 时间:2024/06/06 01:57

http://sourceforge.net/projects/htmlunit/files/


String url="http://news.cnblogs.com/";//想采集的网址

String refer="http://www.cnblogs.com/";

URL link=new URL(url);WebClient wc=new WebClient();WebRequest request=new WebRequest(link);request.setCharset("UTF-8");request.setProxyHost("120.120.120.x");request.setProxyPort(8080);request.setAdditionalHeader("Referer", refer);//设置请求报文头里的refer字段////设置请求报文头里的User-Agent字段request.setAdditionalHeader("User-Agent", "Mozilla/5.0 (Windows NT 5.1; rv:6.0.2) Gecko/20100101 Firefox/6.0.2");//wc.addRequestHeader("User-Agent", "Mozilla/5.0 (Windows NT 5.1; rv:6.0.2) Gecko/20100101 Firefox/6.0.2");//wc.addRequestHeader和request.setAdditionalHeader功能应该是一样的。选择一个即可。//其他报文头字段可以根据需要添加wc.getCookieManager().setCookiesEnabled(true);//开启cookie管理wc.getOptions().setJavaScriptEnabled(true);//开启js解析。对于变态网页,这个是必须的wc.getOptions().setCssEnabled(true);//开启css解析。对于变态网页,这个是必须的。wc.getOptions().setThrowExceptionOnFailingStatusCode(false);wc.getOptions().setThrowExceptionOnScriptError(false);wc.getOptions().setTimeout(10000);//设置cookie。如果你有cookie,可以在这里设置Set<Cookie> cookies=null;Iterator<Cookie> i = cookies.iterator();while (i.hasNext()){ wc.getCookieManager().addCookie(i.next());} //准备工作已经做好了HtmlPage page=null;page = wc.getPage(request);if(page==null){ System.out.println("采集 "+url+" 失败!!!");return ;} String content=page.asText();//网页内容保存在content里if(content==null){ System.out.println("采集 "+url+" 失败!!!");return ;} //搞定了CookieManager CM = wc.getCookieManager(); //WC = Your WebClient's nameSet<Cookie> cookies_ret = CM.getCookies();//返回的Cookie在这里,下次请求的时候可能可以用上啦

0 0
原创粉丝点击