public class Test2 {
public static void main(String[] args) throws HttpException, IOException {
// 构造HttpClient的实例
HttpClient httpClient = new HttpClient();
//获取xml字符串的地址
String url2="http://oa.shunde.gov.cn/egp/OAXSERVICE?ACTION=CommonChannel.CommonAction.getSelInfo&token=123";
//String url2="http://item.yixun.com/item-386275.html";
System.out.println("url------------>>" + url2);
//get方法实例
GetMethod getMethod = new GetMethod(url2);
// 使用系统提供的默认的恢复策略
getMethod.getParams().setParameter(HttpMethodParams.RETRY_HANDLER,
new DefaultHttpMethodRetryHandler());
try {
// 执行getMethod
int statusCode = httpClient.executeMethod(getMethod);
if (statusCode != HttpStatus.SC_OK) {
System.err.println("Method failed: "
+ getMethod.getStatusLine());
}
// 读取内容
byte[] responseBody = getMethod.getResponseBody();
String ISOname = "";
ISOname = new String(responseBody, "utf-8");
// 处理内容
System.out.println("ISOname----------------------->>"
+ new String(ISOname));
//解析内容
//readXml(new String(ISOname));
} catch (HttpException e) {
// 发生致命的异常,可能是协议不对或者返回的内容有问题
System.out.println("Please check your provided http address!");
e.printStackTrace();
} catch (IOException e) {
// 发生网络异常
e.printStackTrace();
} finally {
// 释放连接
getMethod.releaseConnection();
}
}
/**
* 解析抓取的xml字符串
* @param strXml
*/
public static void readXml(String strXml) {
System.out.println("111111111111111111111111");
Document document;
try {
document = DocumentHelper.parseText(strXml);
Element users = document.getRootElement();
for (Iterator iter = users.elementIterator(); iter.hasNext();) {
Element element = (Element) iter.next();
Attribute id = element.attribute("id");
Attribute name = element.attribute("name");
Attribute orgId = element.attribute("orgId");
Attribute parentId = element.attribute("parentId");
Attribute frzg = element.attribute("frzg");
Attribute addr = element.attribute("orgId");
System.out.println("id---------------------<" + id.getText());
System.out.println("name---------------------<"
+ name.getText());
System.out.println("orgId---------------------<"
+ orgId.getText());
System.out.println("parentId---------------------<"
+ parentId.getText());
System.out.println("frzg---------------------<"
+ frzg.getText());
System.out.println("addr---------------------<"
+ addr.getText());
}
} catch (DocumentException e) {
e.printStackTrace();
}
}
附件为jar包
分享到:
相关推荐
我测试了,好使的。 android获取数据,这个网页可以是aspx,也可以是php。简单的实现少量数据传递。手机获取网页数据,adroid获取C#页面数据传递也是都可以。
用LABVIEW获取网页数据,其中包含HTTP协议,做智能项目可以参考,
从一个足球数据网站循环访问不同网页获取ajax数据 ,使用了线程和委托。 不能从webbrowser1.documenttext 获取ajax数据 ,需要使用webbrowser1.document.getelementbyid获取ajax内容。每隔4秒转使用委托转到下一个...
esp8266和stm32驱动, 可以连接路由器,然后访问网站,获取网站上面的数据显示处理啊,相关问题代码里面有介绍怎么操作。
命令行下调用curl获取网页信息,例如在Java servlet中使用response.getWriter().print("success") curl就可以获取到"success",并保存到check.txt中,再从check.txt中读取数据,并做判断
用C#开发,需要.net2.0环境运行; 支持与sql server匹配抓取; 支持结果保存到txt,sql; 如果你会javascript可自己编辑提取内容,不会可与我联系帮你写分析数据提取脚本.
近期有工作任务,要获取一个目标网页的数据,然后写了下爬虫,使用了HttpWebRequest和WebClient发现都报429错误,后面采用WebBrowser伪装成浏览器访问,绕过了对方的反爬虫程序,另外目标网页还有一些比较棘手的反...
linux下C/C++实现已知url通过socket访问网页并获得网页文字内容
SerialPort访问接口获取电子称数据,c#。从网上找的可以参考一下。
NULL 博文链接:https://dai-lm.iteye.com/blog/1158470
bat获取网页源码并保存txt到指定位置
可以获取网页表格内的内容并保存到excel表格中
可用于(批量、定期)采集网站数据 利用浏览器控件实现 Doc:=wb1.Document as IHTMLDocument2; //wb1.OleObject.document.getElementsByTagName('input').item(7).click; group:=(Doc.all.item('dict_main',varEmpty...
请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则...
主要介绍了Java爬虫Jsoup+httpclient获取动态生成的数据的相关资料,需要的朋友可以参考下
该应用程序适用于各种需要定期访问网页的场景,例如监控股票行情、抓取网页数据、自动化测试等。用户可以根据自己的需求设置访问频率,并通过启动按钮开启循环访问。访问次数的记录可以帮助用户了解访问情况。 其他...
lablview 网页抓取天气预报。利用前面板的.net容器,插入.net控件(WebBrowser),调用Navigate2方法,输入URL,然后从其属性Dcument获得数据。。。。
该文件中包含有基于STM32单片机和WiFi模块开发的抓取网页信息的代码 网页抓取 Wifi stm32
c++通过Winhttp简单实现GET/POS访问读取网页源码,不需要依赖特殊类库,使用简单方便。