pyspark的控制台输入

pyspark的控制台输入,pyspark,bigdata,Pyspark,Bigdata,Pyspark中是否有一个input()函数,我可以通过它获取控制台输入。 如果是,请详细说明 如何在PySpark中编写以下代码: directory_change = input("Do you want to change your working directory ? (Y/N)") sc.input("Do you want to change your working directory ? (Y/N)") a = directory_change.upper() if a ==

Pyspark中是否有一个input()函数,我可以通过它获取控制台输入。 如果是,请详细说明

如何在PySpark中编写以下代码:

directory_change = input("Do you want to change your working directory ? (Y/N)")
sc.input("Do you want to change your working directory ? (Y/N)")
a = directory_change.upper()
if a == "Y" or a == "YES" :
        directory = input("Enter your working directory")
        directory = directory.replace("\\","/")
        os.chdir(directory)

`它不是那样工作的


为了达到同样的效果,您可以在提交任务时尝试使用
应用程序参数
为脚本提供参数。C.f.

您能否详细说明如何实现这一目标?spark submit上的文档未提供任何有关提交输入的信息。这都是标准的用户定义您不能“提交输入”,但您可以通过
--应用程序参数
向脚本提供参数,并在
sys.argv
中找到它们。为什么不呢?在某些情况下,这绝对是合法的。在scala spark中是可行的。在纯python中也是如此。但pyspark input()函数中的某些行为不正常,因为spark应用程序/脚本是在没有tty打开的工作实例上执行的。您可以创建一个包装器python脚本来获取输入,然后启动spark脚本——但在这种情况下,您只是从python执行
input