Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/opencv/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Information retrieval 用于几乎重复页面分析的网页_Information Retrieval_Duplicate Removal - Fatal编程技术网

Information retrieval 用于几乎重复页面分析的网页

Information retrieval 用于几乎重复页面分析的网页,information-retrieval,duplicate-removal,Information Retrieval,Duplicate Removal,我正在尝试为网页构建接近重复的分析器。从那里我可以得到类似的网页作为执行此实验的输入。(对特定查询的搜索引擎进行爬网似乎不是一个好的选择)以下是一些想法: 不同网站的新闻稿 不同网站上的新闻文章 当前版本和旧版本中的Wikipedia(编辑即更改) 不同服务器上的Unix手册页 不同格式的Internet RFC:文本、XML或HTML 以下是RFC的一些示例URL: (HTML) 谢谢。这些似乎很有用,我将尝试我的应用程序的这些链接。

我正在尝试为网页构建接近重复的分析器。从那里我可以得到类似的网页作为执行此实验的输入。(对特定查询的搜索引擎进行爬网似乎不是一个好的选择)

以下是一些想法:

  • 不同网站的新闻稿
  • 不同网站上的新闻文章
  • 当前版本和旧版本中的Wikipedia(编辑即更改)
  • 不同服务器上的Unix手册页
  • 不同格式的Internet RFC:文本、XML或HTML
以下是RFC的一些示例URL:

  • (HTML)

谢谢。这些似乎很有用,我将尝试我的应用程序的这些链接。