Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 2.7 “如何修复”;属性错误:';模块';对象没有属性';存储'&引用;python2.7中的错误_Python 2.7_Google Bigquery_Google Cloud Storage_Google Cloud Dataflow_Apache Beam - Fatal编程技术网

Python 2.7 “如何修复”;属性错误:';模块';对象没有属性';存储'&引用;python2.7中的错误

Python 2.7 “如何修复”;属性错误:';模块';对象没有属性';存储'&引用;python2.7中的错误,python-2.7,google-bigquery,google-cloud-storage,google-cloud-dataflow,apache-beam,Python 2.7,Google Bigquery,Google Cloud Storage,Google Cloud Dataflow,Apache Beam,在ApacheBeam管道中,我从云存储获取输入,并尝试将其写入biqguery表。但是在执行管道的过程中得到了这个错误。“AttributeError:‘模块’对象没有‘存储’属性” 这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗 尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗 尝试删除它,看看

在ApacheBeam管道中,我从云存储获取输入,并尝试将其写入biqguery表。但是在执行管道的过程中得到了这个错误。“AttributeError:‘模块’对象没有‘存储’属性”


这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗


尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。

这可能与管道选项有关。查看为(设置选项)。保存主会话=True。你需要那条线吗


尝试删除它,看看它是否解决了问题。很可能你们的一种进口产品不能腌制。没有导入,我无法帮助您进一步调试。您也可以尝试将导入移动到运行函数中。

可能是a,在这种情况下,问题是需要安装
谷歌云存储
,而不是
谷歌云
可能是a,在这种情况下,问题是需要安装
谷歌云存储
,不是
googlecloud

你能显示你的导入和你安装的libs吗?你能显示你的导入和你安装的libs吗?
def run(argv=None):
    with open('gl_ledgers.json') as json_file:
        schema = json.load(json_file)
    schema = json.dumps(schema)
    parser = argparse.ArgumentParser()
    parser.add_argument('--input',
                        dest='input',
                        default='gs://bucket_name/poc/table_name/2019-04-12/2019-04-12 13:47:03.219000_file_name.csv',
                        help='Input file to process.')
    parser.add_argument('--output',
                        dest='output',
                        required=False,
                        default="path to bigquery table",
                        help='Output file to write results to.')
    known_args, pipeline_args = parser.parse_known_args(argv)
    pipeline_options = PipelineOptions(pipeline_args)
    pipeline_options.view_as(SetupOptions).save_main_session = True
    p = beam.Pipeline(options=pipeline_options)
    (p
     | 'read' >> ReadFromText(known_args.input)
     # | 'Format to json' >> (beam.ParDo(self.format_output_json))
     | 'Write to BigQuery' >> beam.io.WriteToBigQuery(known_args.output, schema=schema)
     )

    result = p.run()
    result.wait_until_finish()

if __name__ == '__main__':
    run()
Traceback (most recent call last):
  File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/batchworker.py", line 773, in run
    self._load_main_session(self.local_staging_directory)
  File "/usr/local/lib/python2.7/dist-packages/dataflow_worker/batchworker.py", line 489, in _load_main_session
    pickler.load_session(session_file)
  File "/usr/local/lib/python2.7/dist-packages/apache_beam/internal/pickler.py", line 269, in load_session
    return dill.load_session(file_path)
  File "/usr/local/lib/python2.7/dist-packages/dill/_dill.py", line 410, in load_session
    module = unpickler.load()
  File "/usr/lib/python2.7/pickle.py", line 864, in load
    dispatch[key](self)
  File "/usr/lib/python2.7/pickle.py", line 1139, in load_reduce
    value = func(*args)
  File "/usr/local/lib/python2.7/dist-packages/dill/_dill.py", line 828, in _import_module
    return getattr(__import__(module, None, None, [obj]), obj)
AttributeError: 'module' object has no attribute 'storage'```