Python 访问wiki刮板的数据并将其存储在本地数据库中

Python 访问wiki刮板的数据并将其存储在本地数据库中,python,python-2.7,scraperwiki,Python,Python 2.7,Scraperwiki,您好,我已经在scraper wiki上编写了一个scraper,它可以在scraper wiki数据库中刮取网页并存储数据。现在我想用python编写一个程序,该程序将转到scraper wiki API,获取数据并存储在本地机器的sq lite数据库中。首先,您需要查询所需的数据。以下是文件: 然后,您需要使用sqlite库存储它,它的文档可以在python的官方文档站点上找到。嘿,伙计们,幸运的是我得到了答案 在scraper wiki上,这里有一个API,它将生成您想要访问的特定wiki

您好,我已经在scraper wiki上编写了一个scraper,它可以在scraper wiki数据库中刮取网页并存储数据。现在我想用python编写一个程序,该程序将转到scraper wiki API,获取数据并存储在本地机器的sq lite数据库中。

首先,您需要查询所需的数据。以下是文件:


然后,您需要使用sqlite库存储它,它的文档可以在python的官方文档站点上找到。

嘿,伙计们,幸运的是我得到了答案 在scraper wiki上,这里有一个API,它将生成您想要访问的特定wiki scraper的表的URI,然后您可以在python的urllib模块的帮助下将其作为url打开

import urllib

def access_data():

f= urllib.urlopen('https://api.scraperwiki.com/api/1.0/datastore/sqlite?format=csv&name=example&query=select%20*%20from%20%60table%60')

data=f.read()
s = open('example.csv','w')
s.write(data)

在scraper的概览页面上还有一个下载链接,您可以将数据作为sqlite文件下载,无需代码。然后您可以在本地处理数据。

谢谢您的回答@Ghost,但我的要求有点不同,python程序应该在本地机器上运行,而不是在scraper wiki上作为第二个scraper。也许我没有完全理解。您有一个scraper,您想查询它并将其放入本地sqlite数据库,不是吗?在本地机器上运行的程序查询本地db或scraper?是的,我有一个scraper,我想从本地机器上运行的python程序中查询该scraper的swdata,并将结果存储在本地db中,但您所指的文档是关于使用命令scraperwiki.sqlite.attach(“new\u americ\u foundation\u drone\u strikes”,“src”)打印scraperwiki.sqlite.table\u info(“src.swdata”)检查直接SQL以选择节
print scraperwiki.sqlite.select(“*fromtt”)[{u'yy':u'hello',u'xx':9},{u'yy':u'reach',u'xx':10}]