如何在docker容器中使用Pentaho S3 CSV输入步骤?
我在docker容器中设置了Pentaho 9.1和AWS CLI,并在docker compose文件中定义了相关的AWS环境变量。从容器外壳内运行aws s3 ls可以确认环境变量已正确设置,因为它确实列出了我的s3存储桶。但是,在Pentaho中使用S3 CSV输入步骤时,作业运行会失败,直到我通过运行如何在docker容器中使用Pentaho S3 CSV输入步骤?,docker,amazon-s3,etl,pentaho,aws-cli,Docker,Amazon S3,Etl,Pentaho,Aws Cli,我在docker容器中设置了Pentaho 9.1和AWS CLI,并在docker compose文件中定义了相关的AWS环境变量。从容器外壳内运行aws s3 ls可以确认环境变量已正确设置,因为它确实列出了我的s3存储桶。但是,在Pentaho中使用S3 CSV输入步骤时,作业运行会失败,直到我通过运行AWS configure并输入AWS_访问密钥\u ID、AWS_SECRET_访问密钥和AWS_DEFAULT_区域在容器外壳中手动输入AWS CLI配置设置 虽然我不确定,但它看起来像
AWS configure
并输入AWS_访问密钥\u ID、AWS_SECRET_访问密钥和AWS_DEFAULT_区域在容器外壳中手动输入AWS CLI配置设置
虽然我不确定,但它看起来像一只Pentaho虫子。有人遇到过类似的问题吗
谢谢,
Seb你能分享一下你的转变或工作吗?