使用java获取网页的源代码?
我有一个类似的URL和以下方法使用java获取网页的源代码?,java,web-scraping,Java,Web Scraping,我有一个类似的URL和以下方法 public static void saveContent( String webURL )throws Exception { URL website = new URL(webURL); URLConnection connection = website.openConnection(); BufferedReader in = new BufferedReader( ne
public static void saveContent( String webURL )throws Exception
{
URL website = new URL(webURL);
URLConnection connection = website.openConnection();
BufferedReader in = new BufferedReader(
new InputStreamReader(
connection.getInputStream()));
StringBuilder response = new StringBuilder();
String inputLine;
while ((inputLine = in.readLine()) != null)
response.append(inputLine);
in.close();
System.out.println(response.toString());
}
但是,当我想要打印web内容时,它总是获取主页(www.google.com)的源代码
我怎样才能解决我的问题?谢谢您的帮助。我将您的代码复制到了netbeans,它似乎工作正常。我认为这个问题可能导致方法参数“webURL”中的内容。试着在调试模式下运行你的应用程序,看看你得到了什么 我认为你应该检查你的webURL参数。可能是在调用saveContent方法传递webURL的值时。webURL的值已设置为“www.google.com”。作为一般建议,我建议您查看Jsoup。@soewin我检查了webURL参数,结果是correct@TheHeadRush感谢您的建议它必须与此URL一起使用,因为在我的环境中它可以正常工作。。。我从facebook静态发送到这个方法的主页,我得到了一个正确的结果。。。