Python 忽略带反斜杠的代码检查
是否有一种方法可以忽略带有\的代码部分的flake8检查?我不能在\之后添加noqa 例如,下面是我的代码。配置'spark.driver.maxResultSize',os.getenv'spark\u driver\u max\u result\u size'超过79个字符Python 忽略带反斜杠的代码检查,python,pep8,flake8,Python,Pep8,Flake8,是否有一种方法可以忽略带有\的代码部分的flake8检查?我不能在\之后添加noqa 例如,下面是我的代码。配置'spark.driver.maxResultSize',os.getenv'spark\u driver\u max\u result\u size'超过79个字符 session = SparkSession \ .builder \ .appName(os.getenv('app_name')) \ .config('spark.yarn.queue',
session = SparkSession \
.builder \
.appName(os.getenv('app_name')) \
.config('spark.yarn.queue', os.getenv('spark_yarn_queue')) \
.config('spark.driver.memory', os.getenv('spark_driver_memory')) \
.config('spark.executor.memory', os.getenv('spark_executor_memory')) \
.config('spark.driver.maxResultSize', os.getenv('spark_driver_max_result_size')) \
.enableHiveSupport() \
.getOrCreate()
这是行不通的
session = SparkSession \
.builder \
.appName(os.getenv('app_name')) \
.config('spark.yarn.queue', os.getenv('spark_yarn_queue')) \
.config('spark.driver.memory', os.getenv('spark_driver_memory')) \
.config('spark.executor.memory', os.getenv('spark_executor_memory')) \
.config('spark.driver.maxResultSize', os.getenv('spark_driver_max_result_size')) \ # noqa: E501
.enableHiveSupport() \
.getOrCreate()
您可以将表达式包装在括号中,然后通常在这些括号中使用换行符
session = (SparkSession
.builder
.appName(os.getenv('app_name'))
.config('spark.yarn.queue', os.getenv('spark_yarn_queue'))
.config('spark.driver.memory', os.getenv('spark_driver_memory'))
.config('spark.executor.memory', os.getenv('spark_executor_memory'))
.config('spark.driver.maxResultSize', os.getenv('spark_driver_max_result_size')) # noqa: E501
.enableHiveSupport()
.getOrCreate())
您可以将表达式包装在括号中,然后通常在这些括号中使用换行符
session = (SparkSession
.builder
.appName(os.getenv('app_name'))
.config('spark.yarn.queue', os.getenv('spark_yarn_queue'))
.config('spark.driver.memory', os.getenv('spark_driver_memory'))
.config('spark.executor.memory', os.getenv('spark_executor_memory'))
.config('spark.driver.maxResultSize', os.getenv('spark_driver_max_result_size')) # noqa: E501
.enableHiveSupport()
.getOrCreate())
与其试图让弗莱克停止抱怨,我建议用以下方式打破界限:
session = (SparkSession
.builder
.appName(os.getenv('app_name'))
.config('spark.yarn.queue', os.getenv('spark_yarn_queue'))
.config('spark.driver.memory', os.getenv('spark_driver_memory'))
.config('spark.executor.memory', os.getenv('spark_executor_memory'))
.config('spark.driver.maxResultSize',
os.getenv('spark_driver_max_result_size'))
.enableHiveSupport()
.getOrCreate()
)
:
包装长行的首选方法是在括号、方括号和大括号内使用Python的隐含行继续。通过将表达式括在括号中,可以在多行上打断长行。应该优先使用这些选项,而不是使用反斜杠作为行延续
有时反斜杠可能仍然合适。例如,long、multiple with语句不能使用隐式延续,因此可以接受反斜杠:
与其试图让弗莱克停止抱怨,我建议用以下方式打破界限:
session = (SparkSession
.builder
.appName(os.getenv('app_name'))
.config('spark.yarn.queue', os.getenv('spark_yarn_queue'))
.config('spark.driver.memory', os.getenv('spark_driver_memory'))
.config('spark.executor.memory', os.getenv('spark_executor_memory'))
.config('spark.driver.maxResultSize',
os.getenv('spark_driver_max_result_size'))
.enableHiveSupport()
.getOrCreate()
)
:
包装长行的首选方法是在括号、方括号和大括号内使用Python的隐含行继续。通过将表达式括在括号中,可以在多行上打断长行。应该优先使用这些选项,而不是使用反斜杠作为行延续
有时反斜杠可能仍然合适。例如,long、multiple with语句不能使用隐式延续,因此可以接受反斜杠:
如果您将noqa放在.getOrCreate?之后,仍然可以通过将noqa放在.getOrCreate之后获得test.py:7:80:E501行过长86>79个字符。如果您对默认行长不满意:-max line length=nAnd如果您将noqa放在.getOrCreate之后,仍然可以通过将noqa放在.py:7:80:E501行过长86>79个字符之后获得test.py:E501行过长86>79个字符.GetOrCreate如果您对默认行长度不满意:-max line length=n