Python 有人知道我们是否可以在极光基于SQS启动StoredProcess吗

Python 有人知道我们是否可以在极光基于SQS启动StoredProcess吗,python,amazon-web-services,amazon-sqs,aurora,Python,Amazon Web Services,Amazon Sqs,Aurora,我正在尝试将数据从Aurora导出到S3中,我创建了一个存储过程来执行此操作。我可以在Aurora调度程序上安排它在特定时间点运行 然而,我有多个表-可以上升到100;因此,我希望我的进程控制器(位于Lambda中的一个python脚本)发送一条队列消息——基于此队列消息,将启动Aurora中的存储过程 我考虑这个问题的原因如下 我不想在开始两次出口之间有太多的时间差 我也不希望两个导出在执行时间上重叠 没有任何内置集成允许SQS与Aurora交互 显然,您可以通过从队列读取并调用过程的队列使

我正在尝试将数据从Aurora导出到S3中,我创建了一个存储过程来执行此操作。我可以在Aurora调度程序上安排它在特定时间点运行

然而,我有多个表-可以上升到100;因此,我希望我的进程控制器(位于Lambda中的一个python脚本)发送一条队列消息——基于此队列消息,将启动Aurora中的存储过程

我考虑这个问题的原因如下

  • 我不想在开始两次出口之间有太多的时间差
  • 我也不希望两个导出在执行时间上重叠

    • 没有任何内置集成允许SQS与Aurora交互


      显然,您可以通过从队列读取并调用过程的队列使用者从外部执行此操作,但这似乎与此无关。

      我使用lambda和alembic包创建了模式和结构。我知道我们可以创建用户并执行其他数据库命令,就像执行存储过程一样


      Lambda可能会很昂贵-我们可能会有一个容器来完成这项工作

      正如您所说,您正在尝试按计划将数据从Aurora导出到S3中。
      我建议您使用这项服务。
      这是解决这类问题的正确方法

      AWS数据管道是一种web服务,可帮助您以指定的时间间隔在不同的AWS计算和存储服务以及本地数据源之间可靠地处理和移动数据。有了AWS数据管道,您可以定期访问存储数据的位置,进行大规模转换和处理,并将结果高效地传输到AWS服务,如Amazon S3、Amazon RDS、Amazon DynamoDB和Amazon EMR


      你是对的——这将是另一个python程序,除非我们在Aurora中有函数来监听SQS——有人知道它们是否存在——它们不存在。正如我指出的,没有任何内置的集成。。。Aurora不允许您添加用户定义的函数(可以与外部世界交互,并且是用C/C++编写的,不要与存储函数混淆,存储函数是用SQL编写的,当然受支持,但在这里没有帮助)。这也是我的猜测。想发帖,看看是否有人做过类似的事情,他们可以分享