Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/python-3.x/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server pyodbc.ERROR远程主机已强制关闭现有连接_Sql Server_Python 3.x_Pandas_Sqlalchemy_Pyodbc - Fatal编程技术网

Sql server pyodbc.ERROR远程主机已强制关闭现有连接

Sql server pyodbc.ERROR远程主机已强制关闭现有连接,sql-server,python-3.x,pandas,sqlalchemy,pyodbc,Sql Server,Python 3.x,Pandas,Sqlalchemy,Pyodbc,我正在处理来自SQL server的数据,并在经过一些处理后将其写回 处理时间有点长(4-5个小时),因此当我开始加载时,我得到一个pyodbc.ERROR。远程主机强制关闭了一个现有连接 我想询问以下情况: 如何保持连接的活力?在哪里可以配置超时 当您在SQL Alchemy中定义引擎时,它是否会自动将您连接到数据库 将数据帧导出到SQL Server的更快方法 以下是我的流程示例: #read data = pd.read_sql_table(src, engine, s

我正在处理来自SQL server的数据,并在经过一些处理后将其写回

处理时间有点长(4-5个小时),因此当我开始加载时,我得到一个pyodbc.ERROR。远程主机强制关闭了一个现有连接

我想询问以下情况:

  • 如何保持连接的活力?在哪里可以配置超时
  • 当您在SQL Alchemy中定义引擎时,它是否会自动将您连接到数据库
  • 将数据帧导出到SQL Server的更快方法
以下是我的流程示例:

    #read
    data = pd.read_sql_table(src, engine, schema=myschema)

    #step 1
    data = myfunc1(<args>)

    #step 2
    data = myfunc2(<args>)

    #step 3
    data = myfunc3(<args>)

    #write

    data.to_sql(tgt, engine, schema , index=False, if_exists="append")
#读取
data=pd.read\u sql\u表(src,engine,schema=myschema)
#第一步
data=myfunc1()
#步骤2
data=myfunc2()
#步骤3
数据=myfunc3()
#写
data.to_sql(tgt、引擎、模式、索引=False,如果_exists=“append”)
尽量利用:

engine=create\u engine(,pool\u pre\u ping=True)

谢谢你的建议。很抱歉,我不太熟悉池,当我的数据库是MS SQL时,如何实现这一点?我正在浏览你提供的链接,但它似乎在调用一些只针对Postgres的东西?如果我错了,请纠正我。
engine = create_engine(<your_connection_string>, pool_pre_ping=True)