Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/meteor/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
将数据从Wiki获取到CSV文件/数据库_Csv_Web Scraping_Data Mining - Fatal编程技术网

将数据从Wiki获取到CSV文件/数据库

将数据从Wiki获取到CSV文件/数据库,csv,web-scraping,data-mining,Csv,Web Scraping,Data Mining,从维基百科获取数据最简单的方法是什么?我想得到它作为CSV文件 基本上,我想得到的数据只是一张名单。例如,本页中所有英国演员的姓名: 所有的A-Z和名字就足够了 这可能吗?而且,这将只执行一次,因此不需要缓存或类似的操作。只需执行简单的获取数据。但我真的不知道该怎么做 PHP、JS、Jquery、JSON都很好。没有java或类似的东西 看看DBPedia和googlerefine。IIRC GoogleRefine提供了一个从维基百科中提取和清理数据的示例。DBPedia已经是维基百科的数据库

从维基百科获取数据最简单的方法是什么?我想得到它作为CSV文件

基本上,我想得到的数据只是一张名单。例如,本页中所有英国演员的姓名: 所有的A-Z和名字就足够了

这可能吗?而且,这将只执行一次,因此不需要缓存或类似的操作。只需执行简单的获取数据。但我真的不知道该怎么做


PHP、JS、Jquery、JSON都很好。没有java或类似的东西

看看DBPedia和googlerefine。IIRC GoogleRefine提供了一个从维基百科中提取和清理数据的示例。DBPedia已经是维基百科的数据库副本了。

我能问一下这有什么问题吗?为什么是-1?