Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/html/81.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Curl-PHP:如何获取网页的所有内容并以浏览器的方式显示? 亚马逊_Php_Html_Curl - Fatal编程技术网

Curl-PHP:如何获取网页的所有内容并以浏览器的方式显示? 亚马逊

Curl-PHP:如何获取网页的所有内容并以浏览器的方式显示? 亚马逊,php,html,curl,Php,Html,Curl,这将在已经可以访问www.amazon.com的计算机上显示整个网页。 但是,如果计算机无法访问amazon.com域,大部分内容(图片、脚本)将不可用,因为$data只包含网页的html源。 我想知道curl(或PHP)是否有一种简单的方法可以像“右键单击-另存为-网页完成”那样获取网页的所有内容,并将其显示在浏览器上。据我所知,curl没有递归下载的选项。我找到了解决问题的方法,但只适用于curl cmd工具。但是正如您在那里看到的,您必须首先下载frontpage,解析它的链接,然后使用c

这将在已经可以访问www.amazon.com的计算机上显示整个网页。 但是,如果计算机无法访问amazon.com域,大部分内容(图片、脚本)将不可用,因为$data只包含网页的html源。
我想知道curl(或PHP)是否有一种简单的方法可以像“右键单击-另存为-网页完成”那样获取网页的所有内容,并将其显示在浏览器上。

据我所知,curl没有递归下载的选项。我找到了解决问题的方法,但只适用于curl cmd工具。但是正如您在那里看到的,您必须首先下载frontpage,解析它的链接,然后使用curl下载它们。这也是chrome、firefox等在保存网页时所做的

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN" "http://www.w3.org/TR/html4/strict.dtd">
<html lang='en'>
<head>
<meta http-equiv='Content-Type' content='text/html; charset=utf-8'>
<META name="description" content="">
<meta name="keywords" content="">
<title>Amazon</title>
</head>

<body>
<?php
$url = "http://www.amazon.com";
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
echo $data = curl_exec($ch);
?>

</body>