Sql server 尝试使用spark从SQL Server读取表时出错
我试图从安装在我机器上的SQL Server读取表。当我尝试执行代码时,会出现如下错误: com.microsoft.sqlserver.jdbc.SQLServerException:到主机膝上型电脑081IVYQP端口1433的TCP/IP连接失败。错误:“LAPTOP-081IVYQP。请验证连接属性。确保SQL Server实例正在主机上运行,并在端口接受TCP/IP连接。确保到端口的TCP连接未被防火墙阻止。” 这就是我执行的代码:Sql server 尝试使用spark从SQL Server读取表时出错,sql-server,pyspark,databricks,pyspark-dataframes,Sql Server,Pyspark,Databricks,Pyspark Dataframes,我试图从安装在我机器上的SQL Server读取表。当我尝试执行代码时,会出现如下错误: com.microsoft.sqlserver.jdbc.SQLServerException:到主机膝上型电脑081IVYQP端口1433的TCP/IP连接失败。错误:“LAPTOP-081IVYQP。请验证连接属性。确保SQL Server实例正在主机上运行,并在端口接受TCP/IP连接。确保到端口的TCP连接未被防火墙阻止。” 这就是我执行的代码: InputDf= spark.read.format
InputDf= spark.read.format("jdbc")\
.option("url", "jdbc:sqlserver://LAPTOP-xxxxx:1433;database=Demoxxxxx")\
.option("dbtable", "dbo.DemoTb")\
.option("user", "xxxxxx")\
.option("password", "xxxxxxxxx")\
.option("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")\
.load()
有人能解释并指导我如何绕过这个错误并在databricks中加载表吗