Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/google-chrome/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Nlp 如何弥合维基百科数据库转储和GATE之间的鸿沟?_Nlp_Wikipedia_Gate - Fatal编程技术网

Nlp 如何弥合维基百科数据库转储和GATE之间的鸿沟?

Nlp 如何弥合维基百科数据库转储和GATE之间的鸿沟?,nlp,wikipedia,gate,Nlp,Wikipedia,Gate,总体任务是在维基百科页面上进行NLP 第一件事是以一种好的方式从GATE访问下载的Wikipedia数据库转储40GB XML文件? 实际上,我只需要医学类 这里有图书馆吗 任何提示都将不胜感激 BW就我所搜索的而言,似乎我必须: 1.在本地安装Mediawiki 2.使用mwdump将xml转储导入Mediawiki数据库MySQL 3.使用JDBC连接器访问MySQL数据库 不知道我是否在绕道而行

总体任务是在维基百科页面上进行NLP

第一件事是以一种好的方式从GATE访问下载的Wikipedia数据库转储40GB XML文件? 实际上,我只需要医学类

这里有图书馆吗

任何提示都将不胜感激


BW

就我所搜索的而言,似乎我必须: 1.在本地安装Mediawiki 2.使用mwdump将xml转储导入Mediawiki数据库MySQL 3.使用JDBC连接器访问MySQL数据库

不知道我是否在绕道而行