在scraperwiki中导入python库时出错
我正在使用scraperwiki在Python中运行一些代码。但是,当我运行此代码时,出现以下错误: 回溯(最近一次呼叫最后一次): 文件“/code/scraper”,第4行,在 从scrapemark导入scrape ImportError:没有名为scrapemark的模块 代码如下:在scraperwiki中导入python库时出错,python,importerror,scraperwiki,Python,Importerror,Scraperwiki,我正在使用scraperwiki在Python中运行一些代码。但是,当我运行此代码时,出现以下错误: 回溯(最近一次呼叫最后一次): 文件“/code/scraper”,第4行,在 从scrapemark导入scrape ImportError:没有名为scrapemark的模块 代码如下: import scraperwiki from scrapemark import scrape import scraperwiki for page in range(1,40): URL = "
import scraperwiki
from scrapemark import scrape
import scraperwiki
for page in range(1,40):
URL = "https://appexchange.salesforce.com/results?pageNo="+str(page)+"&filter=a0L3000000OvSOGEA3" #Marketing
print URL
html = scraperwiki.scrape(URL)
scrape_data = scrape("""
{*
<a class="tile-title" href="{{ [mobile].[link] }}" id="{{ [mobile].[id] }}" title="{{ [mobile].[title1] }}"></a>
*}
""", html=html);
data = [{'Title':p['title1'][0], 'URL':p['link'][0], 'ID':p['id'][0], 'Format':'Managed'} for p in scrape_data['mobile']]
scraperwiki.sqlite.save(unique_keys=["URL"], data=data)
导入scraperwiki
从scrapemark导入scrape
进口刮刀
对于范围(1,40)内的页面:
URL=”https://appexchange.salesforce.com/results?pageNo=“+str(page)+”&filter=A0L300000000OVSOGEA3”#营销
打印URL
html=scraperwiki.scrape(URL)
刮取数据=刮取(“”)
{*
*}
“”,html=html);
数据=[{'Title':p['title1'][0],'URL':p['link'][0],'ID':p['ID'][0],'Format':'Managed'}用于刮除数据['mobile']]中的p
scraperwiki.sqlite.save(唯一的_键=[“URL”],数据=数据)
有人能告诉我如何解决这个问题吗?我想你给出的目录名不正确。检查ScraperMark是否拼写正确,或者上层目录是否有其他名称我得到了相同的名称,以及用于scraperwiki classic的相同代码。我想知道他们是否没有取消scrapemark的使用…:/