Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/328.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在scraperwiki中导入python库时出错_Python_Importerror_Scraperwiki - Fatal编程技术网

在scraperwiki中导入python库时出错

在scraperwiki中导入python库时出错,python,importerror,scraperwiki,Python,Importerror,Scraperwiki,我正在使用scraperwiki在Python中运行一些代码。但是,当我运行此代码时,出现以下错误: 回溯(最近一次呼叫最后一次): 文件“/code/scraper”,第4行,在 从scrapemark导入scrape ImportError:没有名为scrapemark的模块 代码如下: import scraperwiki from scrapemark import scrape import scraperwiki for page in range(1,40): URL = "

我正在使用scraperwiki在Python中运行一些代码。但是,当我运行此代码时,出现以下错误:

回溯(最近一次呼叫最后一次): 文件“/code/scraper”,第4行,在 从scrapemark导入scrape ImportError:没有名为scrapemark的模块

代码如下:

import scraperwiki
from scrapemark import scrape
import scraperwiki

for page in range(1,40):
  URL = "https://appexchange.salesforce.com/results?pageNo="+str(page)+"&filter=a0L3000000OvSOGEA3" #Marketing

  print URL
  html = scraperwiki.scrape(URL)
  scrape_data = scrape("""
   {*

   <a class="tile-title" href="{{ [mobile].[link] }}" id="{{ [mobile].[id] }}" title="{{ [mobile].[title1] }}"></a>

   *}
   """, html=html);

  data = [{'Title':p['title1'][0], 'URL':p['link'][0], 'ID':p['id'][0], 'Format':'Managed'} for p in scrape_data['mobile']]

  scraperwiki.sqlite.save(unique_keys=["URL"], data=data)
导入scraperwiki
从scrapemark导入scrape
进口刮刀
对于范围(1,40)内的页面:
URL=”https://appexchange.salesforce.com/results?pageNo=“+str(page)+”&filter=A0L300000000OVSOGEA3”#营销
打印URL
html=scraperwiki.scrape(URL)
刮取数据=刮取(“”)
{*
*}
“”,html=html);
数据=[{'Title':p['title1'][0],'URL':p['link'][0],'ID':p['ID'][0],'Format':'Managed'}用于刮除数据['mobile']]中的p
scraperwiki.sqlite.save(唯一的_键=[“URL”],数据=数据)

有人能告诉我如何解决这个问题吗?

我想你给出的目录名不正确。检查ScraperMark是否拼写正确,或者上层目录是否有其他名称我得到了相同的名称,以及用于scraperwiki classic的相同代码。我想知道他们是否没有取消scrapemark的使用…:/