pyspark的Pylint抛出错误警告
我想用派林。但当我将其应用到使用pyspark的代码中时,我得到了警告“drop_duplicates是不可调用的”。如果我将代码从“drop_duplicates”更改为“dropDuplicates”,警告将消失。如何在不更改整个代码的情况下修复它?我认为drop_duplicates更像python风格。我尝试添加pyspark存根,但没有帮助。pyspark是一个需要处理的噩梦,然后由于JVM生成的成员,它会导致linting(即使是存根),但您有两个选择:pyspark的Pylint抛出错误警告,pyspark,pylint,Pyspark,Pylint,我想用派林。但当我将其应用到使用pyspark的代码中时,我得到了警告“drop_duplicates是不可调用的”。如果我将代码从“drop_duplicates”更改为“dropDuplicates”,警告将消失。如何在不更改整个代码的情况下修复它?我认为drop_duplicates更像python风格。我尝试添加pyspark存根,但没有帮助。pyspark是一个需要处理的噩梦,然后由于JVM生成的成员,它会导致linting(即使是存根),但您有两个选择: 将以下内容添加到项目根目录中
.pylintrc
文件中,并确保您的过梁配置为拾取它:希望这会有所帮助。PySpark是一个需要处理的噩梦,然后由于JVM生成的成员,它会导致linting(即使是存根),但您有两个选择:
.pylintrc
文件中,并确保您的过梁配置为拾取它:extension-pkg-whitelist=pyspark
generated-members=pyspark.*
ignored-modules=pyspark.sql.functions
pylint -j 0 --ignored-modules=pyspark.sql.functions --extension-pkg-whitelist=pyspark --generated-members=pyspark.*