Python 在supervisord运行的子进程之间共享数据

Python 在supervisord运行的子进程之间共享数据,python,multiprocessing,supervisord,Python,Multiprocessing,Supervisord,我有python脚本,它必须执行给定次数的操作。我使用supervisord运行此脚本的多个实例。每个脚本都有如下代码: count = 0 while count != MAX_COUNT: try: perform_action() count += 1 except Exception, e: print 'Error happened...' p

我有python脚本,它必须执行给定次数的操作。我使用supervisord运行此脚本的多个实例。每个脚本都有如下代码:

    count = 0
    while count != MAX_COUNT:
        try:
            perform_action()
            count += 1
        except Exception, e:
            print 'Error happened...'
            print e
例如,我运行10个进程,最大计数=1000。在这种情况下,每个脚本将执行1000次。但我需要1000次。因此,我需要在所有supervisord子流程之间以某种方式共享执行的次数

我怎么做


我考虑使用redis\memcached\sqlite-但也许这里有另一个解决方案?

变量“count”在每个脚本的开头初始化为0,您应该将count存储到共享位置,并由每个进程以独占方式访问它。

所以,您认为-使用简单文件(例如)将是一个好主意?我更喜欢共享内存。或者,在这种情况下,使用线程比多进程更容易修改共享变量。