jsoup 框架的使用小結
概述
參考:
- 官方文檔
- jsoup的使用
- JSoup教程
- jsoup 在 GitHub 的開源代碼
概念簡介
jsoup 是一款基於 Java 的 HTML 解析器,它提供瞭一套非常省力的 API,不但能直接解析某個 URL 地址、HTML 文本內容,而且還能通過類似於 DOM、CSS 或者 jQuery 的方法來操作數據,所以 jsoup 也可以被當做爬蟲工具使用。
jsoup 實現 WHATWG HTML5 規范,並將 HTML 解析為與現代瀏覽器相同的 DOM。
- 從 URL,文件或字符串中提取並解析 HTML
- 查找和提取數據,使用 DOM 遍歷或 CSS 選擇器
- 操縱 HTML元素,屬性和文本
- 根據安全的白名單清理用戶提交的內容,以防止 XSS 攻擊
- 輸出整潔的 HTML
相關概念簡介
- Document :文檔對象
- 每份 HTML 頁面都是一個文檔對象,Document 是 jsoup 體系中最頂層的結構。
- Element:元素對象。
- 一個 Document 中可以著包含著多個 Element 對象,可以使用 Element 對象來遍歷節點提取數據或者直接操作 HTML。
- Elements:元素對象集合,類似於
List<Element>
。 - Node:節點對象。
- 標簽名稱、屬性等都是節點對象,節點對象用來存儲數據。
- 類繼承關系:Document 繼承自 Element ,Element 繼承自 Node。
- 一般執行流程:先獲取 Document 對象,然後獲取 Element 對象,最後再通過 Node 對象獲取數據。
依賴
<dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.15.4</version> </dependency>
jsoup 的主要類
雖然完整的類庫中有很多類,但大多數情況下,需要重點瞭解下面給出3
個類即可
org.jsoup.Jsoup 類
Jsoup 類是任何 Jsoup 程序的入口點,並將提供從各種來源加載和解析 HTML 文檔的方法。
Jsoup 類的一些重要方法如下:
// 創建並返回URL的連接。 static Connection connect(String url) // 將指定的字符集文件解析成文檔。 static Document parse(File in, String charsetName) // 將給定的html代碼解析成文檔。 static Document parse(String html) // 從本地文件中加載文檔對象 static Document parse(File in, String charsetName) // 從輸入 HTML 返回安全的 HTML,通過解析輸入 HTML 並通過允許的標簽和屬性的白名單進行過濾。 static String clean(String bodyHtml, Whitelist whitelist)
org.jsoup.nodes.Document 類
該類表示通過 Jsoup 庫加載 HTML 文檔。
可以使用此類執行適用於整個 HTML 文檔的操作。
org.jsoup.nodes.Element 類
HTML 元素是由標簽名稱,屬性和子節點組成。 使用 Element 類,可以提取數據,遍歷節點和操作 HTML。
註:繼承關系為 Document extends Element extends Node
API
Jsoup 類
Jsoup 類的一些重要方法如下:
// 創建並返回URL的連接。 static Connection connect(String url) // 將指定的字符集文件解析成文檔。 static Document parse(File in, String charsetName) // 將給定的html代碼解析成文檔。 static Document parse(String html) // 從本地文件中加載文檔對象 static Document parse(File in, String charsetName) // 從輸入 HTML 返回安全的 HTML,通過解析輸入 HTML 並通過允許的標簽和屬性的白名單進行過濾。 static String clean(String bodyHtml, Whitelist whitelist)
Connection 接口
// 將請求作為GET執行,並解析結果 Document get() throws IOException; // 將請求作為POST執行,並解析結果。 Document post() throws IOException; // 執行請求。獲取內容包含響應碼等 Connection.Response execute() throws IOException; // 將請求方法設置為使用GET或POST。默認為GET Connection method(Connection.Method method); // 創建一個新請求,使用此Connection作為會話狀態並初始化連接設置(然後可以獨立於返回的Connection.request對象) Connection newRequest(); // 設置要提取的請求URL。協議必須是HTTP或HTTPS Connection url(URL url); Connection url(String url); // 設置頭部信息 Connection header(String name, String value); Connection headers(Map<String, String> headers); // 發出請求的用戶信息 Connection userAgent(String userAgent); // 先前網頁的地址,當前請求網頁緊隨其後,即來路 Connection referrer(String referrer); // 設置用於此請求的HTTP代理。設置為null禁用以前設置的代理。 Connection proxy(Proxy proxy); Connection proxy(String host, int port); // 設置總請求超時時間。如果發生超時SocketTimeoutException將被拋出。默認超時為30秒(30000ms)。零超時被視為無限超時。 // 註意,此超時指定連接時間和讀取完整響應時間的組合最長持續時間 Connection timeout(int millis); // 在關閉連接和截斷輸入之前,設置從(未壓縮)連接讀取到正文的最大字節數(即正文內容將被修剪)。 // 默認最大值為2MB。最大大小為0被視為無限量(僅受機器上可用內存的限制)。 Connection maxBodySize(int bytes); // 設置是否遵循服務器重定向的連接。默認為true Connection followRedirects(boolean followRedirects); // 將連接配置為在發生HTTP錯誤時不引發異常(4xx-5xx,例如404或500)。默認為false;,如果遇到錯誤,將引發IOException。 // 如果設置為true,響應將填充錯誤正文,狀態消息將反映錯誤。 Connection ignoreHttpErrors(boolean ignoreHttpErrors); // 分析響應時忽略文檔的Content-Type。默認為false,未識別的內容類型將引發IOException。(例如,為瞭防止試圖解析JPEG二進制圖像而產生垃圾。)設置為true可強制解析嘗試,而不管內容類型如何。 Connection ignoreContentType(boolean ignoreContentType); // 設置自定義SSL套接字工廠 Connection sslSocketFactory(SSLSocketFactory var1); // 添加請求數據參數。請求參數在GET的請求查詢字符串中發送,在POST的請求正文中發送。一個請求可能有多個同名值。 Connection data(String key, String value); // 添加輸入流作為請求數據參數。 Connection data(String key, String filename, InputStream inputStream); // 添加輸入流作為請求數據參數。對於GET,沒有影響,但對於POST,這將上載輸入流。filename為文件名,不是路徑 Connection data(String key, String filename, InputStream InputStream, String contentType); Connection data(Collection<Connection.KeyVal> data); Connection data(Map<String, String> data); Connection data(String... keyvals); // 獲取此密鑰的數據KeyVal(如果有) Connection.KeyVal data(String var1); // 設置要在請求中發送的cookie Connection cookie(String name, String value); Connection cookies(Map<String, String> cookies); // 獲取此連接使用的cookie存儲 Connection cookieStore(CookieStore cookieStore); // 提供自定義或預先填充的CookieStore,用於此連接發出的請求。 CookieStore cookieStore(); // 提供在分析文檔響應時使用的備用解析器 Connection parser(Parser parser); // 設置請求的數據字符集,默認x-www-form-urlencoded Connection postDataCharset(String charset); // 設置連接請求 Connection request(Connection.Request var1); // 設置POST(或PUT)請求主體 Connection requestBody(String body); // 獲取與此連接關聯的請求對象 Connection.Request request(); // 設置連接的響應 Connection response(Connection.Response response); // 執行請求後,獲取響應。 Connection.Response response();
Element(元素)類
org.jsoup.nodes.Element extends Node
Elements 對象提供瞭一系列類似於 DOM 的方法來查找元素,抽取並處理其中的數據。
查找元素
// 通過 id 來查找元素 public Element getElementById(String id) // 通過標簽來查找元素 public Elements getElementsByTag(String tag) // 通過類選擇器來查找元素 public Elements getElementsByClass(String className) // 通過屬性名稱來查找元素,例如查找帶有 href 元素的標簽 public Elements getElementsByAttribute(String key) // 獲取兄弟元素。如果元素沒有兄弟元素,則返回一個空列表 public Elements siblingElements() // 獲取第一個兄弟元素 public Element firstElementSibling() // 獲取最後一個兄弟元素 public Element lastElementSibling() // 獲取下一個兄弟元素 public Element nextElementSibling() // 獲取上一個兄弟元素 public Element previousElementSibling() // 獲取此節點的父節點 public Element parent() // 獲取此節點的所有子節點 public Elements children() // 獲取此節點的指定子節點 public Element child(int index) // 使用 CSS 選擇器查找元素 public Elements select(String cssQuery)
獲取元素數據
在獲得文檔對象並且指定查找元素後,就可以獲取元素中的數據。
註:這些訪問器方法都有相應的 setter 方法來更改數據。
// 獲取單個屬性值 public String attr(String key) // 獲取所有屬性值 public Attributes attributes() // 設置屬性值 public Element attr(String key, String value) // 獲取文本內容 public String text() // 設置文本內容 public Element text(String value) // 獲取元素內的 HTML 內容 public String html() // 設置元素內的 HTML 內容 public Element html(String value) // 獲取元素外 HTML 內容 public String outerHtml() // 獲取數據內容(例如:script 和 style 標簽) public String data() // 獲得 id 值(例如:<p id="goods">衣服</p>) public String id() // 檢查這個元素是否含有一個類選擇器(不區分大小寫) public boolean hasClass(String className) // 獲得第一個類選擇器值 public String className() // 獲得所有的類選擇器值 public Set<String>classNames() // 獲取元素標簽 public Tag tag() // 獲取元素標簽名(例如:`<p>`、`<div>` 等) public String tagName()
修改數據
在解析瞭一個 Document 對象之後,可能想修改其中的某些屬性值,並把它輸出到前臺頁面或保存到其他地方,jsoup 對此提供瞭一套非常簡便的接口(支持鏈式寫法)。
設置屬性的值
以下方法當針對 Element 對象操作時,隻有一個元素會受到影響。當針對 Elements 對象進行操作時,可能會影響到多個元素。
// 設置標簽的屬性值 public Element attr(String key, String value) // 刪除標簽 public Element removeAttr(String key) // 增加類選擇器選項 public Element addClass(String className) // 刪除對應的類選擇器 public Element removeClass(String className)
代碼示例:
Document doc = Jsoup.connect("http://csdn.com").get(); // 復數,Elements Elements elements = doc.getElementsByClass("text"); // 單數,Element Element element = elements.first(); // 復數對象,所有 class="text" 的元素都將受到影響 elements.attr("name","goods"); // 單數對象,隻有一個元素會受到影響(鏈式寫法) element.attr("name","shop").addClass("red");
修改元素的 HTML 內容
可以使用 Element
中的 HTML 設置方法,具體如下:
// 在末尾追加 HTML 內容 public Element append(String html) // 在開頭追加 HTML 內容 public Element prepend(String html) // 在匹配元素內部添加 HTML 文本。這個方法將先清除元素中的 HTML 內容,然後用傳入的 HTML 代替 public Element html(String value) // 對元素包裹一個外部 HTML 內容,將元素置於新增的內容中間 public Element wrap(String value)
示例代碼:
Document doc = Jsoup.connect("http://csdn.com").get(); Element div = doc.select("div").first(); div.html("<p>csdn</p>"); div.prepend("<p>a</p>"); div.append("<p>good</p>"); // 輸出:<div"> <p>a</p> <p>csdn</p> <p>good</p> </div> Element span = doc.select("span").first(); span.wrap("<li><a href='...'></a></li>"); // 輸出: <li><a href="..."> <span>csdn</span> </a></li>
修改元素的文本內容
對於傳入的文本,如果含有像 <
, >
等這樣的字符,將以文本處理,而非 HTML。
// 清除元素內部的 HTML 內容,然後用提供的文本代替 public Element text(String text) // 在元素後添加文本節點 public Element prepend(String first) // 在元素前添加文本節點 public Element append(String last)
示例代碼:
// <div></div> Element div = doc.select("div").first(); div.text(" one "); div.prepend(" two "); div.append(" three "); // 輸出: <div> two one three </div>
基本使用
獲取文檔(Document)
獲得文檔對象 Document 一共有 4 種方法,分別對應不同的獲取方式。
從URL中加載文檔對象(常用)
使用 Jsoup.connect(String url).get()
方法獲取(隻支持 http 和 https 協議):
Document doc = Jsoup.connect("http://csdn.com/").get(); String title = doc.title();
connect(String url)
方法創建一個新的 Connection 並通過.get()
或者.post()
方法獲得數據。- 如果從該URL獲取 HTML 時發生錯誤,便會拋出 IOException,應適當處理。
Connection
接口還提供一個方法鏈來解決特殊請求,可以在發送請求時帶上請求的頭部參數。示例代碼:
Document doc = Jsoup.connect("http://csdn.com") .data("query", "Java") .userAgent("Mozilla") .cookie("auth", "token") .timeout(8000) .post();
可以使用 execute()
方法獲得完整的響應對象和響應碼:
// 獲得響應對象 Connection.Response response = Jsoup.connect("http://csdn.com").execute(); // 獲取狀態碼 int code = response.statusCode();
從本地文件中加載文檔對象
可以使用靜態的 Jsoup.parse(File in, String charsetName)
方法從文件中加載文檔。其中 in
表示路徑,charsetName
表示編碼方式。示例代碼:
File input = new File("/tmp/input.html"); Document doc = Jsoup.parse(input, "UTF-8");
從字符串文本中加載文檔對象
使用靜態的 Jsoup.parse(String html)
方法可以從字符串文本中獲得文檔對象 Document 。示例代碼:
String html = "<html><head><title>First parse</title></head>" + "<body><p>Parsed HTML into a doc.</p></body></html>"; Document doc = Jsoup.parse(html);
從 <body>
片斷中獲取文檔對象
使用 Jsoup.parseBodyFragment(String html)
方法,示例代碼:
String html = "<p>Lorem ipsum.</p>"; Document doc = Jsoup.parseBodyFragment(html); // doc 此時為:<body> <p>Lorem ipsum.</p></body> Element body = doc.body();
- parseBodyFragment 方法創建一個新的文檔,並插入解析過的 HTML 到 body 元素中。
- 雖然使用正常的 Jsoup.parse(String html) 方法,通常也能得到相同的結果,但是明確將用戶輸入作為 body 片段處理是個更好的方式。
- Document.body() 方法能夠取得文檔 body 元素的所有子元素,與 doc.getElementsByTag(“body”) 相同。
解析文檔對象並獲取數據一共有 2 種方式,分別為 DOM方式、CSS 選擇器方式,可以選擇一種自己喜歡的方式去獲取數據,效果一樣。
DOM 方式
將 HTML 解析成一個 Document
之後,就可以使用類似於 DOM 的方法進行操作。
常用方法詳見 Element(元素)類 API
示例代碼:
// 獲取 csdn 首頁所有的鏈接 Document doc = Jsoup.connect("http://csdn.com").get(); Elements elements = doc.getElementsByTag("body"); Elements contents = elements.first().getElementsByTag("a"); for (Element content : contents) { String linkHref = content.attr("href"); String linkText = content.text(); }
CSS 選擇器方式
可以使用類似於 CSS 選擇器的語法來查找和操作元素,常用的方法為 select(String cssQuery)
示例代碼:
Document doc = Jsoup.connect("http://csdn.com").get(); // 獲取帶有 href 屬性的 a 元素 Elements elements = doc.select("a[href]"); for (Element content : elements) { String linkHref = content.attr("href"); String linkText = content.text(); }
select()
方法在Document
、Element
或Elements
對象中都可以使用,而且是上下文相關的,因此可實現指定元素的過濾,或者采用鏈式訪問。select()
方法將返回一個Elements
集合,並提供一組方法來抽取和處理結果。
select(String cssQuery) 方法參數簡介
tagname
:通過標簽查找元素,例如通過 “a” 來查找<a>
標簽。#id
:通過 ID 查找元素,比如通過#logo
查找<p id="logo">
.class
:通過 class 名稱查找元素,比如通過.titile
查找<p class="titile">
ns|tag
:通過標簽在命名空間查找元素,比如使用fb|name
來查找<fb:name>
[attribute]
:利用屬性查找元素,比如通過[href]
查找<a href="...">
[^attribute]
:利用屬性名前綴來查找元素,比如:可以用[^data-]
來查找帶有HTML5 dataset
屬性的元素[attribute=value]
:利用屬性值來查找元素,比如:[width=500]
[attribute^=value]
,[attribute$=value]
,[attribute*=value]
:利用匹配屬性值開頭、結尾或包含屬性值來查找元素,比如通過[href*=/path/]
來查找<a href="a/path/c.html">
[attribute~=regex]
:利用屬性值匹配正則表達式來查找元素- 比如通過
img[src~=(?i)\.(png|jpe?g)]
來匹配所有的png 或者 jpg、jpeg 格式的圖片 *
:通配符,匹配所有元素
參數屬性組合使用
el#id
:元素 + ID,比如:div#logo
el.class
:元素 + class,比如:div.masthead
el[attr]
:元素 + class,比如:a[href]
匹配所有帶有 href 屬性的 a 元素- 任意組合,比如:
a[href].highlight
匹配所有帶有 href 屬性且 class=“highlight” 的 a 元素。 ancestor child
:查找某個元素下子元素- 比如:可以用
.body p
查找在 “body” 元素下的所有 p 元素 parent > child
:查找某個父元素下的直接子元素- 比如:可以用
div.content > p
查找p
元素,也可以用body > *
查找 body 標簽下所有直接子元素 siblingA + siblingB
:查找在 A 元素之前第一個同級元素 B,比如:div.head + div
siblingA ~ siblingX
:查找 A 元素之前的同級 X 元素,比如:h1 ~ p
el, el, el
:多個選擇器組合,查找匹配任一選擇器的唯一元素,例如:div.masthead, div.logo
特殊參數:偽選擇器
:lt(n)
:查找哪些元素的同級索引值(它的位置在 DOM 樹中是相對於它的父節點)小於 n- 比如:
td:lt(3)
表示小於三列的元素 :gt(n)
:查找哪些元素的同級索引值大於n
,比如:div p:gt(2)
表示哪些 div 中有包含 2 個以上的 p 元素:eq(n)
:查找哪些元素的同級索引值與n
相等,比如:form input:eq(1)
表示包含一個 input 標簽的 Form元素:has(seletor)
:查找匹配選擇器包含元素的元素,比如:div:has(p)
表示哪些 div 包含瞭 p 元素:not(selector)
:查找與選擇器不匹配的元素,比如:div:not(.logo)
表示不包含 class=logo 元素的所有 div 列表:contains(text)
:查找包含給定文本的元素,搜索不區分大不寫,比如:p:contains(jsoup)
:containsOwn(text)
:查找直接包含給定文本的元素(不包含任何它的後代):matches(regex)
:查找哪些元素的文本匹配指定的正則表達式,比如:div:matches((?i)login)
:matchesOwn(regex)
:查找直接包含文本匹配指定正則表達式的元素(不包含任何它的後代)
註意:上述偽選擇器索引是從 0 開始的,即第一個元素索引值為 0,第二個元素 index 為 1 等
其他功能
一些常用數據的獲取
從 HTML 獲取標題
Document document = Jsoup.parse( new File("C:/Users/xyz/Desktop/yiibai-index.html"), "utf-8"); System.out.println(document.title());
獲取 HTML 頁面的 Fav 圖標
假設 favicon
圖像將是 HTML 文檔的 <head>
部分中的第一個圖像
String favImage = "Not Found"; try { Document document = Jsoup.parse(new File("C:/Users/zkpkhua/Desktop/yiibai-index.html"), "utf-8"); Element element = document.head().select("link[href~=.*\\.(ico|png)]").first(); if (element == null) { element = document.head().select("meta[itemprop=image]").first(); if (element != null) { favImage = element.attr("content"); } } else { favImage = element.attr("href"); } } catch (IOException e) { e.printStackTrace(); } System.out.println(favImage);
獲取 HTML 頁面中的所有鏈接
try { Document document = Jsoup.parse(new File("C:/Users/zkpkhua/Desktop/yiibai-index.html"), "utf-8"); Elements links = document.select("a[href]"); for (Element link : links) { System.out.println("link : " + link.attr("href")); System.out.println("text : " + link.text()); } } catch (IOException e) { e.printStackTrace(); }
獲取 HTML 頁面中的所有圖像
try { Document document = Jsoup.parse(new File("C:/Users/zkpkhua/Desktop/yiibai-index.html"), "utf-8"); Elements images = document.select("img[src~=(?i)\\.(png|jpe?g|gif)]"); for (Element image : images) { System.out.println("src : " + image.attr("src")); System.out.println("height : " + image.attr("height")); System.out.println("width : " + image.attr("width")); System.out.println("alt : " + image.attr("alt")); } } catch (IOException e) { e.printStackTrace(); }
獲取 URL 的元信息
元信息包括 Google 等搜索引擎用來確定網頁內容的索引為目的。它們以 HTM L頁面的 HEAD
部分中的一些標簽的形式存在。
try { Document document = Jsoup.parse(new File("C:/Users/zkpkhua/Desktop/yiibai-index.html"), "utf-8"); String description = document.select("meta[name=description]").get(0).attr("content"); System.out.println("Meta description : " + description); String keywords = document.select("meta[name=keywords]").first().attr("content"); System.out.println("Meta keyword : " + keywords); } catch (IOException e) { e.printStackTrace(); }
在 HTML 頁面中獲取表單屬性
在網頁中獲取表單輸入元素非常簡單。 使用唯一 ID 查找 FORM 元素; 然後找到該表單中存在的所有 INPUT 元素。
Document doc = Jsoup.parse(new File("c:/temp/yiibai-index.html"),"utf-8"); Element formElement = doc.getElementById("loginForm"); Elements inputElements = formElement.getElementsByTag("input"); for (Element inputElement : inputElements) { String key = inputElement.attr("name"); String value = inputElement.attr("value"); System.out.println("Param name: " + key + " \nParam value: " + value); }
相對路徑轉絕對路徑
- 在 HTML 元素中,URLs 經常寫成相對於文檔位置的相對路徑,如:
<a href="/download">...</a>
。
當使用 .attr(String key) 方法來取得 a 元素的 href 屬性時,它將直接返回在 HTML 源碼中指定的值。
- 如果需要取得一個絕對路徑,有兩種方式:
- 方式1:在屬性名前加
abs:
前綴,就可以返回包含根路徑的 URL 地址attr("abs:href")
- 方式2:使用 absUrl(String key) 方法
- 方式1:在屬性名前加
示例場景
問題描述:
有一個包含相對 URLs 路徑的 HTML 文檔,現在需要將這些相對路徑轉換成絕對路徑的URLs
解決方式:
- 確保在解析文檔時有指定
base URI
路徑。 - 然後使用
abs:
屬性前綴來取得包含base URI
的絕對路徑。
示例代碼:
Document doc = Jsoup.connect("http://www.open-open.com").get(); Element link = doc.select("a").first(); String relHref = link.attr("href"); // 輸出:/ String absHref = link.attr("abs:href"); // 輸出:http://www.open-open.com/
消除不受信任的HTML (防止XSS攻擊)
- 假設在應用程序中,想顯示用戶提交的 HTML 片段。
例如用戶可以在評論框中放入 HTML 內容。 這可能會導致非常嚴重的問題,如果允許直接顯示此 HTML。 用戶可以在其中放入一些惡意腳本,並將用戶重定向到另一個臟網站。
- 為瞭清理這個 HTML,Jsoup 提供
Jsoup.clean()
方法。
此方法期望 HTML 格式的字符串,並將返回清潔的 HTML。
要執行此任務,Jsoup 使用白名單過濾器。 jsoup 白名單過濾器通過解析輸入 HTML(在安全的沙盒環境中)工作,然後遍歷解析樹,隻允許將已知安全的標簽和屬性(和值)通過清理後輸出。
它不使用正則表達式,這對於此任務是不合適的。
清潔器不僅用於避免 XSS,還限制瞭用戶可以提供的元素的范圍:可以使用文本,強元素,但不能構造 div
或表元素。
示例場景
- 問題描述:
在某些網站中經常會提供用戶評論的功能,但是有些不懷好意的用戶,會搞一些腳本到評論內容中,而這些腳本可能會破壞整個頁面的行為,更嚴重的是獲取一些機要信息,此時需要清理該 HTML,以避免跨站腳本攻擊(XSS)。
- 解決方式:
使用 clean() 方法清除惡意代碼,但需要指定一個配置的 Safelist(舊版本中是 Whitelist),通常使用 Safelist.basic() 即可。
Safelist 的工作原理是將輸入的 HTML 內容單獨隔離解析,然後遍歷解析樹,隻允許已知的安全標簽和屬性輸出。
示例代碼:
String unsafe = "<p><a href='http://csdn.com/' οnclick='attack()'>Link</a></p>"; String safe = Jsoup.clean(unsafe, Safelist.basic()); // 輸出: <p><a href="http://csdn.com/" >Link</a></p>
註:
jsoup 的 Safelist
不僅能夠在服務器端對用戶輸入的 HTML 進行過濾,隻輸出一些安全的標簽和屬性,還可以限制用戶可以輸入的標簽范圍。
jsoup 使用代理
示例代碼:
Connection.Response execute = Jsoup.connect("http://csdn.net/") .proxy("12.12.12.12", 1080) // 使用代理 .execute();
到此這篇關於jsoup 框架的使用小結的文章就介紹到這瞭,更多相關jsoup使用內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- java爬蟲jsoup解析HTML的工具學習
- java爬蟲Jsoup主要類及功能使用詳解
- Java爬蟲實現Jsoup利用dom方法遍歷Document對象
- Java實踐練習輕松幾行實現追書神器
- java編程實現簡單的網絡爬蟲示例過程