下载Jsouphttp://jsoup.org/download
查看官方提供的手册:http://jsoup.org/cookbook/
-
获取一个Document,这是Jsoup最核心的一个对象
有三种途径来加载Document:字符串,URL地址,文件
/** * */ package org.xdemo.example.jsoupdemo.input; import java.io.File; import java.io.IOException; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.safety.Whitelist; /** * @作者 Goofy * @邮件 252878950@qq.com * @日期 2014-4-2上午10:54:53 * @描述 */ public class ParseDocument { /** * 将String转换成Document * @return org.jsoup.nodes.Document */ public static Document parseHtmlFromString(){ String html = "<html><head><title>标题</title></head>" + "<body><p>段落</p></body></html>" ; Document doc = Jsoup.parse(html); return doc; } /** * 注意:这是一个不安全的方法 * 将String转换成Html片段,注意防止跨站脚本攻击 * @return Element */ public static Element parseHtmlFragmentFromStringNotSafe(){ String html = "<div><p>Lorem ipsum.</p>" ; Document doc = Jsoup.parseBodyFragment(html); Element body = doc.body(); return body; } /** * 这是一个安全的方法 * 将String转换成Html片段,注意防止跨站脚本攻击 * @return Element */ public static Element parseHtmlFragmentFromStringSafe(){ String html = "<div><p>Lorem ipsum.</p>" ; //白名单列表定义了哪些元素和属性可以通过清洁器,其他的元素和属性一律移除 Whitelist wl= new Whitelist(); //比较松散的过滤,包括 //"a", "b", "blockquote", "br", "caption", "cite", "code", "col", //"colgroup", "dd", "div", "dl", "dt", "em", "h1", "h2", "h3", "h4", "h5", "h6", //"i", "img", "li", "ol", "p", "pre", "q", "small", "strike", "strong", //"sub", "sup", "table", "tbody", "td", "tfoot", "th", "thead", "tr", "u", //"ul" Whitelist.relaxed(); //没有任何标签,只有文本 Whitelist.none(); //常规的过滤器 //"a", "b", "blockquote", "br", "cite", "code", "dd", "dl", "dt", "em", //"i", "li", "ol", "p", "pre", "q", "small", "strike", "strong", "sub", //"sup", "u", "ul" Whitelist.basic(); //常规的过滤器,多了一个img标签 Whitelist.basicWithImages(); //文本类型的标签 //"b", "em", "i", "strong", "u" Whitelist.simpleText(); //另外还可以自定义过滤规则,例如 wl.addTags( "a" ); //执行过滤 Jsoup.clean(html, wl); Document doc = Jsoup.parseBodyFragment(html); Element body = doc.body(); return body; } /** * 从URL加载 * @return Document */ public static Document parseDocumentFromUrl(){ Document doc = null ; try { doc = Jsoup.connect( "http://www.google.com/" ).get(); //获取标题 String title = doc.title(); System.out.println(title); //输出:Google //data(key,value)是该URL要求的参数 //userAgent制定用户使用的代理类型 //cookie带上cookie,如cookie("JSESSIONID","FDE234242342342423432432") //连接超时时间 //post或者get方法 doc = Jsoup.connect( "http://www.xxxxx.com/" ) .data( "query" , "Java" ) .userAgent( "Mozilla" ) .cookie( "auth" , "token" ) .timeout( 3000 ) .post(); } catch (IOException e) { e.printStackTrace(); } return doc; } /** * 从文件加载 * @return Document */ public static Document parseDocumentFromFile(){ File input = new File( "/tmp/input.html" ); Document doc= null ; try { //从文件加载Document文档 doc = Jsoup.parse(input, "UTF-8" ); System.out.println(doc.title()); } catch (IOException e) { e.printStackTrace(); } return doc; } } |
2.选择器
package org.xdemo.example.jsoupdemo.extracter; import java.util.regex.Pattern; import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; /** * @作者 Goofy * @邮件 252878950@qq.com * @日期 2014-4-2上午10:41:19 * @描述 选择器 操作示例 */ public class Selector { public static void main(String[] args) { Document doc; try { //获取文档 doc=Jsoup.connect( "http://xxx.com/" ).get(); /*****获取单一元素******/ //与JS类似的根据ID选择的选择器<div id="content"></div> Element content = doc.getElementById( "content" ); /*****一下方法的返回值都是Elements集合******/ //获取所有的a标签<a href="#"></a> content.getElementsByTag( "a" ); //类选择器<div></div> doc.getElementsByClass( "divClass" ); //获取Document的所有元素 doc.getAllElements(); //根据属性获取元素<a href="#"></a> doc.getElementsByAttribute( "href" ); //根据属性前缀获取元素 <li data-name="Peter Liu" data-city="ShangHai" data-lang="CSharp" data-food="apple"> doc.getElementsByAttributeStarting( "data-" ); //根据key-value选择如<a href="http://xdemo.org"></a> doc.getElementsByAttributeValue( "href" , "http://xdemo.org" ); //和上面的正好相反 doc.getElementsByAttributeValueNot( "href" , "http://xdemo.org" ); //根据key-value,其中value可能是key对应属性的一个子字符串,选择如<a href="http://xdemo.org"></a> doc.getElementsByAttributeValueContaining( "href" , "xdemo" ); //根据key-value,其中key对应值的结尾是value,选择如<a href="http://xdemo.org"></a> doc.getElementsByAttributeValueEnding( "href" , "org" ); //和上面的正好相反 doc.getElementsByAttributeValueStarting( "href" , "http://xdemo" ); //正则匹配,value需要满足正则表达式,<a href="http://xdemo.org"></a>,如href的值含有汉字 doc.getElementsByAttributeValueMatching( "href" ,Pattern.compile( "[\u4e00-\u9fa5]" )); //同上 doc.getElementsByAttributeValueMatching( "href" , "[\u4e00-\u9fa5]" ); //根据元素所在的z-index获取元素 doc.getElementsByIndexEquals( 0 ); //获取z-index大于x的元素 doc.getElementsByIndexGreaterThan( 0 ); //和上面的正好相反 doc.getElementsByIndexLessThan( 10 ); //遍历标签 for (Element link : content.getElementsByTag( "a" )) { String linkHref = link.attr( "href" ); String linkText = link.text(); } /**************一些其他常用的方法**************/ //获取网页标题 doc.title(); //获取页面的所有文本 doc.text(); //为元素添加一个css class content.addClass( "newClass" ); //根据属性获取值 content.attr( "id" ); //获取所有子元素 content.children(); //获取元素内的所有文本 content.text(); //获取同级元素 content.siblingElements(); } catch (Exception e) { e.printStackTrace(); } } } |
3.最后说一点,就是安全问题,解析html的时候要防止跨站脚本攻击cross-site scripting (XSS),作者也考虑到了这一点,所以真正使用时候需要注意。