Php @文件\u获取\u内容失败,url为

Php @文件\u获取\u内容失败,url为,php,url,web-crawler,file-get-contents,Php,Url,Web Crawler,File Get Contents,目前,我正在尝试编写一个爬虫程序来检索网站上的信息 当我想要检索网页的代码时,@file\u get\u contents失败。 代码是: public function postInfos() { $url = Session::get('urlMember'); $page = @file_get_contents($url); $crawler = new Crawler($page); $fullName = $crawler->filter('span[c

目前,我正在尝试编写一个爬虫程序来检索网站上的信息

当我想要检索网页的代码时,
@file\u get\u contents
失败。 代码是:

public function postInfos()
{
   $url = Session::get('urlMember');
   $page = @file_get_contents($url);
   $crawler = new Crawler($page);
   $fullName = $crawler->filter('span[class="full-name"]')->text();
   $fonction = $crawler->filter('#headline p[class="title"]')->text();
   return view('/data');
}

我尝试使用cURL,但在本例中,GET请求不返回任何结果。那么,有没有替代方案或解决方案?

正如我在评论中所说的,您的web服务器(或其他东西)似乎不允许您使用文件内容发出URL请求。我认为最好的方法是卷曲。(我知道你试过了,但试一下下面的代码):



请告诉我们
var\u dump($query)的内容

您所说的失败是什么意思?你看到什么错误了吗?是否打开了错误报告?能否删除@before文件\u get\u内容?在这之后,会出现什么错误?首先,错误是:Crawler.php第94行中的InvalidArgumentException:需要一个DOMNodeList或DOMNode实例、一个数组、一个字符串或null,但得到的是“boolean”。这是因为文件获取内容出现故障。当我删除@:file\u get\u contents()时:无法打开流:HTTP请求失败!HTTP/1.0 999请求被拒绝您的web服务器允许使用URL获取文件内容?奇怪的是,它不允许这个请求。当然,
var\u dump($query)的内容
字符串(956)“
。然后我发现
页面未找到
<?php
    $curl_handle=curl_init();
    curl_setopt($curl_handle, CURLOPT_URL,'http://linkedin.com/in/barackobama');
    curl_setopt($curl_handle, CURLOPT_CONNECTTIMEOUT, 2);
    curl_setopt($curl_handle, CURLOPT_RETURNTRANSFER, 1);
    $query = curl_exec($curl_handle);
    curl_close($curl_handle);

    var_dump($query);

?>