一尘不染

Java如何“扫描”网站(或页面)以获取信息,并将其带入我的程序?

java

好吧,我几乎想弄清楚如何从网页中提取信息,并将其带入我的程序(使用Java)。

例如,如果我知道我想要的信息的确切页面,为了简单起见,我会从该页面上获取我需要的适当信息?喜欢标题,价格,说明吗?

这个过程甚至被称为什么?我什至不知道要开始对此进行研究。

编辑:好的,我正在为JSoup(由BalusC发布的测试)运行测试,但是我一直收到此错误:

Exception in thread "main" java.lang.NoSuchMethodError: java.util.LinkedList.peekFirst()Ljava/lang/Object;
at org.jsoup.parser.TokenQueue.consumeWord(TokenQueue.java:209)
at org.jsoup.parser.Parser.parseStartTag(Parser.java:117)
at org.jsoup.parser.Parser.parse(Parser.java:76)
at org.jsoup.parser.Parser.parse(Parser.java:51)
at org.jsoup.Jsoup.parse(Jsoup.java:28)
at org.jsoup.Jsoup.parse(Jsoup.java:56)
at test.main(test.java:12)

我有Apache Commons


阅读 650

收藏
2020-03-09

共1个答案

一尘不染

使用类似Jsoup的HTML解析器。我优先于Java中的其他HTML解析器,因为它像CSS选择器一样支持 jQuery。此外,它的代表节点列表类,工具,让你可以在遍历它增强的for循环(所以没有必要的麻烦与冗长而像一般的Java DOM解析器类)。Elements Iterable Node NodeList

这是一个基本的启动示例(只需将最新的Jsoup JAR文件放入类路径中):

package com.stackoverflow.q2835505;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class Test {

    public static void main(String[] args) throws Exception {
        String url = "https://stackoverflow.com/questions/2835505";
        Document document = Jsoup.connect(url).get();

        String question = document.select("#question .post-text").text();
        System.out.println("Question: " + question);

        Elements answerers = document.select("#answers .user-details a");
        for (Element answerer : answerers) {
            System.out.println("Answerer: " + answerer.text());
        }
    }

}

你可能已经猜到了,这会打印出你自己的问题以及所有答题者的姓名。

2020-03-09