Python 2.7 “如何修复”;属性错误:';模块';对象没有属性';存储'&引用;python2.7中的错误
在ApacheBeam管道中,我从云存储获取输入,并尝试将其写入biqguery表。但是在执行管道的过程中得到了这个错误。“AttributeError:‘模块’对象没有‘存储’属性”Python 2.7 “如何修复”;属性错误:';模块';对象没有属性';存储'&引用;python2.7中的错误,python-2.7,google-bigquery,google-cloud-storage,google-cloud-dataflow,apache-beam,Python 2.7,Google Bigquery,Google Cloud Storage,Google Cloud Dataflow,Apache Beam,在ApacheBeam管道中,我从云存储获取输入,并尝试将其写入biqguery表。但是在执行管道的过程中得到了这个错误。“AttributeError:‘模块’对象没有‘存储’属性” 这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗 尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗 尝试删除它,看看
这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗
尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗
尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。可能是a,在这种情况下,问题是需要安装
谷歌云存储
,而不是谷歌云
可能是a,在这种情况下,问题是需要安装谷歌云存储
,不是googlecloud
你能显示你的导入和你安装的libs吗?你能显示你的导入和你安装的libs吗?
def run(argv=None):
with open('gl_ledgers.json') as json_file:
schema = json.load(json_file)
schema = json.dumps(schema)
parser = argparse.ArgumentParser()
parser.add_argument('--input',
dest='input',
default='gs://bucket_name/poc/table_name/2019-04-12/2019-04-12 13:47:03.219000_file_name.csv',
help='Input file to process.')
parser.add_argument('--output',
dest='output',
required=False,
default="path to bigquery table",
help='Output file to write results to.')
known_args, pipeline_args = parser.parse_known_args(argv)
pipeline_options = PipelineOptions(pipeline_args)
pipeline_options.view_as(SetupOptions).save_main_session = True
p = beam.Pipeline(options=pipeline_options)
(p
| 'read' >> ReadFromText(known_args.input)
# | 'Format to json' >> (beam.ParDo(self.format_output_json))
| 'Write to BigQuery' >> beam.io.WriteToBigQuery(known_args.output, schema=schema)
)
result = p.run()
result.wait_until_finish()
if __name__ == '__main__':
run()
Traceback (most recent call last):
File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/batchworker.py", line 773, in run
self._load_main_session(self.local_staging_directory)
File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/batchworker.py", line 489, in _load_main_session
pickler.load_session(session_file)
File "/usr/local/lib/python2.7/dist-packages/apache_beam/internal/pickler.py", line 269, in load_session
return dill.load_session(file_path)
File "/usr/local/lib/python2.7/dist-packages/dill/_dill.py", line 410, in load_session
module = unpickler.load()
File "/usr/lib/python2.7/pickle.py", line 864, in load
dispatch[key](self)
File "/usr/lib/python2.7/pickle.py", line 1139, in load_reduce
value = func(*args)
File "/usr/local/lib/python2.7/dist-packages/dill/_dill.py", line 828, in _import_module
return getattr(__import__(module, None, None, [obj]), obj)
AttributeError: 'module' object has no attribute 'storage'```