Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/64.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Content management system MediaWiki bot自动从外部网站复制内容_Content Management System_Automation_Mediawiki_Copy Paste_Bots - Fatal编程技术网

Content management system MediaWiki bot自动从外部网站复制内容

Content management system MediaWiki bot自动从外部网站复制内容,content-management-system,automation,mediawiki,copy-paste,bots,Content Management System,Automation,Mediawiki,Copy Paste,Bots,我正在尝试找到一个MediaWiki机器人或扩展,它将执行以下操作: 我有时会将外部内容复制到MediaWiki,以便在适当的上下文中显示并使其可搜索。那不是很干 我想使用一个特殊的标记保留一个指向原始内容的实时链接,如果原始内容发生更改,我想让一个机器人更新MediaWiki页面 例如,代码段可能是Subversion中的一个配置文件,我想在文档中引用它。我想做一些类似的事情: <external-content url="http://svn/config.txt"

我正在尝试找到一个MediaWiki机器人或扩展,它将执行以下操作:

我有时会将外部内容复制到MediaWiki,以便在适当的上下文中显示并使其可搜索。那不是很干

我想使用一个特殊的标记保留一个指向原始内容的实时链接,如果原始内容发生更改,我想让一个机器人更新MediaWiki页面

例如,代码段可能是Subversion中的一个配置文件,我想在文档中引用它。我想做一些类似的事情:

<external-content 
    url="http://svn/config.txt" 
    start="#begin snippet" 
    end="#end snippet">
</external-content>

MediaWiki机器人将下载
http://svn/config.txt
,保留
#开始片段
#结束片段
注释之间的所有内容,并将结果粘贴到外部内容标记之间

通过这种方式,我可以确保在更改
config.txt
时,我的MediaWiki文档保持同步

还有许多其他用途。我不仅仅关注引用Subversion内容,还有许多其他基于web的系统,其中包含我希望以这种方式集成的数据


有人知道机器人会这样做吗?

你可以用MediaWiki这样做。事实上,它似乎做了一些非常像你要求的事情。

太好了!我知道这样的东西一定以这样或那样的形式存在!实际上,include扩展不是我想要的。扩展将下载数据并将其作为页面的一部分呈现。我想要的是将数据直接插入到维基数据库中,这样在原始页面关闭的情况下,它可以被搜索并且安全。嗯,因为你确实需要一个机器人,或者类似的东西。基本上,当原始内容发生更改时,您需要某种方式来运行脚本(如果不能这样做,则定期轮询原始页面)。一旦您解决了这个问题,编写一个bot通过将内容插入MediaWiki页面应该非常简单。