當前位置:首頁 » 編程語言 » java取網頁

java取網頁

發布時間: 2022-10-06 17:11:26

『壹』 如何使用java抓取網頁上指定部分的內容

1. 你可以選擇用Java代碼來找到整個網頁的html代碼,如下
(注意在處理網頁方面的內容時,需要導入htmlparser包來支持)

import org.htmlparser.util.ParserException;
import org.htmlparser.visitors.HtmlPage;
import org.htmlparser.Parser;
import org.htmlparser.filters.HasAttributeFilter;
import org.htmlparser.util.NodeList;

public class htmlmover {
public static void main(String[] args){
NodeList rt= getNodeList("http://forex.hexun.com/rmbhl/");
System.out.println(rt.toHtml());
}
public static NodeList getNodeList(String url){
Parser parser = null;
HtmlPage visitor = null;
try {
parser = new Parser(url);
parser.setEncoding("GBK");
visitor = new HtmlPage(parser);
parser.visitAllNodesWith(visitor);
} catch (ParserException e) {
e.printStackTrace();
}
NodeList nodeList = visitor.getBody();
return nodeList;
}
}

以上代碼,public static NodeList getNodeList(String url) 為主體
傳入需要分析網頁的 url(String類型),返回值是網頁Html節點List(Nodelist類型)
這個方法我沒有什麼要說的,剛開始的時候沒看懂(沒接觸過),後來用了幾次也懂點皮毛了
注意: parser.setEncoding("GBK"); 可能你的工程編碼格式是UTF-8,有錯誤的話需要改動

運行該程序

2.通過瀏覽器工具直接查看 IE是按F12 (剛開始沒發現這個方法,於是傻乎乎地找上面的代碼)

分析你所獲得的html代碼讓人眼花繚亂,不要緊,找到自己需要趴取的內容,找到它上下文有特徵的節點

<!--中行牌價 開始-->
<div id="sw01_con1">
<table width="655" border="0" cellspacing="0" cellpadding="0" class="hgtab">
<thead>
<tr>
<th width="85" align="center" class="th_l">交易幣種</th>
<th width="80" align="center">交易單位</th>
<th width="130" align="center">現價(人民幣)</th>
<th width="80" align="center">賣出價</th>
<th width="100" align="center">現匯買入價</th>
<th width="95" align="center">現鈔買入價</th>
</tr>
</thead>
<tbody>
<tr align="center">
<td> 英鎊</td>
<td>100</td>
<td>992.7</td>
<td>1001.24</td>
<td>993.26</td>
<td class="no">962.6</td>
</tr>
<tr align="center" bgcolor="#f2f3f4">
<td> 港幣</td>
<td>100</td>
<td>81.54</td>
<td>82.13</td>
<td>81.81</td>
<td class="no">81.16</td>
</tr>
<tr align="center">
<td> 美元</td>
<td>100</td>
<td>635.49</td>
<td>639.35</td>
<td>636.8</td>
<td class="no">631.69</td>
</tr>
<tr align="center" bgcolor="#f2f3f4">
<td> 瑞士法郎</td>
<td>100</td>
<td>710.89</td>
<td>707.78</td>
<td>702.14</td>
<td class="no">680.46</td>
</tr>
<tr align="center">
<td> 新加坡元</td>
<td>100</td>
<td>492.45</td>
<td>490.17</td>
<td>486.27</td>
<td class="no">471.25</td>
</tr>
<tr align="center" bgcolor="#f2f3f4">
<td> 瑞典克朗</td>
<td>100</td>
<td>93.66</td>
<td>93.79</td>
<td>93.04</td>
<td class="no">90.17</td>
</tr>
<tr align="center">
<td> 丹麥克朗</td>
<td>100</td>
<td>116.43</td>
<td>115.59</td>
<td>114.67</td>
<td class="no">111.13</td>
</tr>
<tr align="center" bgcolor="#f2f3f4">
<td> 挪威克朗</td>
<td>100</td>
<td>110.01</td>
<td>109.6</td>
<td>108.73</td>
<td class="no">105.37</td>
</tr>
<!--{2011-10-01 23:16:00}-->
</tbody>
</table>
</div>
<!--中行牌價 結束-->

大家可以看到這是一段很有規律,書寫非常規范的Html代碼(這只是第一部分,中行牌價,可以想像,接下來還會有並列的 相似的3部分)

大家想截取這些節點中的數據
以下代碼仍需導入htmlparser Java支持包
import java.util.ArrayList;
import java.util.regex.Matcher;
import java.util.regex.Pattern;

import org.htmlparser.Node;
import org.htmlparser.NodeFilter;
import org.htmlparser.Parser;
import org.htmlparser.util.NodeList;
import org.htmlparser.util.ParserException;

public class Currencyrate {
public static void main(String[] args){
String url="http://forex.hexun.com/rmbhl/";
ArrayList<String> rt= getNodeList(url);
for (int i = 0; i < rt.size(); i++){
System.out.println(rt.get(i));
}
}

public static ArrayList<String> getNodeList(String url){
final ArrayList<String> result=new ArrayList<String>();
Parser parser = null;
NodeList nodeList=null;
try {
parser = new Parser(url);
parser.setEncoding("GBK");

nodeList = parser.parse(
new NodeFilter(){
@Override
public boolean accept(Node node){
Node need=node;
if(getStringsByRegex(node.getText())){
for(int i=0;i<6;i++){
result.add(need.toPlainTextString()); need=need.getPreviousSibling().getPreviousSibling();
}
return true;
}
return false;
}
}
);
}catch (ParserException e) {
e.printStackTrace();
}
return result;
}

public static boolean getStringsByRegex(String txt) {
String regex="td class=\"no\"";
Pattern p = Pattern.compile(regex);
Matcher m = p.matcher(txt);
if (m.find()){
return true;
}
return false;
}
}

廢話不多說,
public static ArrayList<String> getNodeList(String url) 主要方法
parser.setEncoding("GBK"); 需要注意,代碼編碼格式

nodeList = parser.parse(
new NodeFilter(){
@Override
public boolean accept(Node node){
}

);
nodelist是html節點的列表,現在使用NodeFilter ( 節點過濾器 )實例, 重載NodeFilter類中的accept()方法
在parser這個Parser類訪問整個html頁面的時候,每遇到一個html節點,就會訪問這個
accept()方法,返回True的話就會將這個節點 放進nodelist中,否則就不會將這個節點放進去。這個就是NodeFilter功能。
代碼段一獲取整個html頁面時候 parser.visitAllNodesWith(visitor); 就是獲取所有節點

所以現在我們要趴取網頁上的內容,只要告訴accept()這個方法,哪些節點要放進nodelist去,即 遇到哪些節點需要返回true。
於是
public boolean accept(Node node){
Node need=node;
if(getStringsByRegex(node.getText())){
for(int i=0;i<6;i++){
result.add(need.toPlainTextString()); need=need.getPreviousSibling().getPreviousSibling();
}
return true;
}
return false;
}
Parser類在遇到節點,就把這個節點拿過去問accept(),於是accept()方法分析,如果滿足getStringsByRegex(node.getText())就要了

接下來分析getStringsByRegex(),只剩下最後一步了,大家堅持啊!

String regex="td class=\"no\"";
Pattern p = Pattern.compile(regex);
Matcher m = p.matcher(txt);
if (m.find()){
return true;
}
return false;
}
大家可以發現我們索要的每一段都是
<tr align="center">
<td> 英鎊</td>
<td>100</td>
<td>992.7</td>
<td>1001.24</td>
<td>993.26</td>
<td class="no">962.6</td>
</tr>
所以只要找到<td class="no">這個節點就行了,我們用正則表達式去比較
String regex="td class=\"no\""; 這個是比較標准(正則表達式 td class=」no」 其中兩個引號需要作為轉義字元來表示 成\「 )
變數txt是我們傳過去的需要比較的節點的node.getText(),如果符合的話m.find就是true,於是getStringsByRegex()返回true,說明這個節點就是我們所需要的哪些節點,於是
for(int i=0;i<6;i++){
result.add(need.toPlainTextString()); need=need.getPreviousSibling().getPreviousSibling();
}
每一段html,6個為一組,先是962.6,然後是993.26,1001.24,992.7,100,英鎊分別被add進result這個ArrayList<String>中去,返回,這個ArrayList裝的就是我們需要抓取的數據

大家可以把我們所獲得的String數據數出來試試看,是不是我們需要的順序,main()函數獲得ArrayList<String>,就可以顯示到我們所需要的Java widget上去了

『貳』 java 抓取網頁數據,要怎麼抓取

如果是一般允許抓取的頁面用 wget就可以抓取了,
不允許抓取的的爬蟲程序可以考慮用HttpClient

『叄』 java如何獲取網頁中的文字

package test;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.net.Authenticator;
import java.net.HttpURLConnection;
import java.net.PasswordAuthentication;
import java.net.URL;
import java.net.URLConnection;
import java.util.Properties;

public class URLTest {
// 一個public方法,返回字元串,錯誤則返回"error open url"
public static String getContent(String strUrl) {
try {
URL url = new URL(strUrl);
BufferedReader br = new BufferedReader(new InputStreamReader(url
.openStream()));
String s = "";
StringBuffer sb = new StringBuffer("");
while ((s = br.readLine()) != null) {
sb.append(s + "/r/n");
}
br.close();
return sb.toString();
} catch (Exception e) {
return "error open url:" + strUrl;
}
}

public static void initProxy(String host, int port, final String username,
final String password) {
Authenticator.setDefault(new Authenticator() {
protected PasswordAuthentication getPasswordAuthentication() {
return new PasswordAuthentication(username,
new String(password).toCharArray());
}
});
System.setProperty("http.proxyType", "4");
System.setProperty("http.proxyPort", Integer.toString(port));
System.setProperty("http.proxyHost", host);
System.setProperty("http.proxySet", "true");
}

public static void main(String[] args) throws IOException {
String url = "https://www.jb51.net";
String proxy = "http://192.168.22.81";
int port = 80;
String username = "username";
String password = "password";
String curLine = "";
String content = "";
URL server = new URL(url);
initProxy(proxy, port, username, password);
HttpURLConnection connection = (HttpURLConnection) server
.openConnection();
connection.connect();
InputStream is = connection.getInputStream();
BufferedReader reader = new BufferedReader(new
InputStreamReader(is));
while ((curLine = reader.readLine()) != null) {
content = content + curLine+ "/r/n";
}
System.out.println("content= " + content);
is.close();
System.out.println(getContent(url));
}
}

『肆』 請大家幫幫忙. 使用java爬蟲得到網頁以後怎麼提取裡面自己需要的內容呢如果會代碼請您寫一下.謝謝您

根據java網路編程相關的內容,使用jdk提供的相關類可以得到url對應網頁的html頁面代碼。
針對得到的html代碼,通過使用正則表達式即可得到我們想要的內容。
比如,我們如果想得到一個網頁上所有包括「java」關鍵字的文本內容,就可以逐行對網頁代碼進行正則表達式的匹配。最後達到去除html標簽和不相關的內容,只得到包括「java」這個關鍵字的內容的效果。

『伍』 java網頁獲取

StringBuffer用之前要初始化,eg:StringBuffer sb = new StringBuffer();
StringBuffer document=new StringBuffer();
String line; // 讀入網頁信息

while ((line = reader.readLine()) != null){
document.append(line+"\n");
}
String title = document.toString();
title = title.substring(title.indexOf("<title>") + 7,
title.indexOf("</title>"));
System.out.println(title);

『陸』 如何通過Java代碼實現對網頁數據進行指定抓取

通過Java代碼實現對網頁數據進行指定抓取方法步驟如下:
1在工程中導入Jsoup.jar包

2獲取網址url指定HTML或者文檔指定的body

3獲取網頁中超鏈接的標題和鏈接

4獲取指定博客文章的內容

5獲取網頁中超鏈接的標題和鏈接的結果

『柒』 java jsoup怎樣爬取特定網頁內的數據

1、Jsoup簡述

Java中支持的爬蟲框架有很多,比如WebMagic、Spider、Jsoup等。
​ Jsoup擁有十分方便的api來處理html文檔,比如參考了DOM對象的文檔遍歷方法,參考了CSS選擇器的用法等等,因此我們可以使用Jsoup快速地掌握爬取頁面數據的技巧。

2、快速開始

1)分析HTML頁面,明確哪些數據是需要抓取的

2)使用HttpClient讀取HTML頁面
HttpClient是一個處理Http協議數據的工具,使用它可以將HTML頁面作為輸入流讀進java程序中.

3)使用Jsoup解析html字元串
通過引入Jsoup工具,直接調用parse方法來解析一個描述html頁面內容的字元串來獲得一個Document對象。該Document對象以操作DOM樹的方式來獲得html頁面上指定的內容。

3、保存爬取的頁面數據

1)保存普通數據到資料庫
將爬取的數據封裝進實體Bean中,並存到資料庫內。

2)保存圖片到伺服器上
直接通過下載圖片的方式將圖片保存到伺服器本地。

『捌』 如何利用 java 多線程 爬取大量網頁

多線程 爬取網頁

  • 一:多線程問題,建議使用線程池的方式,線程池的優點如下:

1:減少在創建和銷毀線程上所花的時間以及系統資源的開銷

2:如不使用線程池,有可能造成系統創建大量線程而導致消耗完系統內存.

  • 二: 爬取網頁建議使用第三方的jar包

推薦JSoup ,HttpClient等

JSoup 強在爬取速度快, 解析方便

HttpClient可以提交比較復雜的請求,滿足登陸等復雜需求

『玖』 java如何獲取動態網頁內容

Htmlunit這個工具類,進行http請求訪問,獲取html網頁,以及過濾網頁html標簽獲取網頁文本。
主要的思路還是以下幾點:
1.了解你要爬取的網頁的元素,以及通訊,校驗安全機制。常用方法通過chrome瀏覽器訪問你要獲取的網頁,基本上一個老司機打開F12就差不多知道頁面的表單,數據以及通過什麼樣的請求方式請求服務,並又是怎麼樣返回,載入到頁面進行渲染。如果還不熟悉這個F12,那還不趕快去get起來啊,時間短,效率快,看一遍就知道怎麼用了的好東西不利用起來,不是太浪費了。
2.了解了你要訪問的網頁的你想要獲取的元素之後,就是怎麼發起http的request請求,模擬這個請求獲取response。那這個request就是通過在程序里模擬的瀏覽器器發起,如果成功發起,那麼你需要的數據就藏在這個response里。
3.成功獲取response之後,就是怎麼進行解析,獲取你想要的數據。當然,如果是json數據,那麼解析起來就很容易。如果返回的是整個html,那也是有辦法解析,抽取轉換成需要的文本進行入庫。
接下來,就通過實際的編碼,來如何一步步實現。
有些網站,是通過登陸來取得認證看到更多數據,有些網站可以直接發請求訪問。而我寫的這個列子,就是登陸之後,獲取的網站內部的數據。
基本思路就是,通過登陸拿到令牌,然後拿著這個令牌,去訪問這個網站內你需要訪問的地址,從而獲取數據。來,讓我們看看代碼是如何實現的。

熱點內容
php開發的網頁 發布:2025-05-14 16:22:03 瀏覽:477
伺服器內存跑滿了怎麼回事 發布:2025-05-14 16:21:16 瀏覽:223
微信qq音樂緩存 發布:2025-05-14 16:16:16 瀏覽:468
c語言回收內存 發布:2025-05-14 16:16:08 瀏覽:143
2021國產安卓頂級旗艦買哪個 發布:2025-05-14 16:15:36 瀏覽:300
linux自學視頻 發布:2025-05-14 16:14:49 瀏覽:255
我的世界伺服器崩了重啟 發布:2025-05-14 16:09:37 瀏覽:44
android深拷貝 發布:2025-05-14 16:09:35 瀏覽:153
cf電腦版轉伺服器神器還在嗎 發布:2025-05-14 16:09:02 瀏覽:211
百度文庫伺服器如何搭建 發布:2025-05-14 16:09:00 瀏覽:248