使用java获取网页的源代码?

使用java获取网页的源代码?,java,web-scraping,Java,Web Scraping,我有一个类似的URL和以下方法 public static void saveContent( String webURL )throws Exception { URL website = new URL(webURL); URLConnection connection = website.openConnection(); BufferedReader in = new BufferedReader( ne

我有一个类似的URL和以下方法

public static void saveContent( String webURL )throws Exception 
{

    URL website = new URL(webURL);
    URLConnection connection = website.openConnection();
    BufferedReader in = new BufferedReader(
                            new InputStreamReader(
                                connection.getInputStream()));

    StringBuilder response = new StringBuilder();
    String inputLine;

    while ((inputLine = in.readLine()) != null) 
        response.append(inputLine);

    in.close();

    System.out.println(response.toString());
}
但是,当我想要打印web内容时,它总是获取主页(www.google.com)的源代码


我怎样才能解决我的问题?谢谢您的帮助。

我将您的代码复制到了netbeans,它似乎工作正常。我认为这个问题可能导致方法参数“webURL”中的内容。试着在调试模式下运行你的应用程序,看看你得到了什么

我认为你应该检查你的webURL参数。可能是在调用saveContent方法传递webURL的值时。webURL的值已设置为“www.google.com”。作为一般建议,我建议您查看Jsoup。@soewin我检查了webURL参数,结果是correct@TheHeadRush感谢您的建议它必须与此URL一起使用,因为在我的环境中它可以正常工作。。。我从facebook静态发送到这个方法的主页,我得到了一个正确的结果。。。