Python Jupyter+;Pypark自动完成
很抱歉我是新手Jupyter quesion- 我已经使用本手册安装了Jupyter&PypSpark- 所有这些似乎都能工作,但对于某些“嵌套”函数,我没有自动完成功能 例如,运行“spark”->我得到spark会话 当我在“spark.”之后按tab键时->我会得到可能的建议列表,如“read” 但在spark.read之后按tab键。什么都不要展示。虽然我希望显示诸如“csv”、“parquat”等选项 重要提示-运行“spark.read.csv(“1.txt”)”有效 还尝试应用来自的建议,但不起作用Python Jupyter+;Pypark自动完成,python,pyspark,jupyter-notebook,ipython,jupyter,Python,Pyspark,Jupyter Notebook,Ipython,Jupyter,很抱歉我是新手Jupyter quesion- 我已经使用本手册安装了Jupyter&PypSpark- 所有这些似乎都能工作,但对于某些“嵌套”函数,我没有自动完成功能 例如,运行“spark”->我得到spark会话 当我在“spark.”之后按tab键时->我会得到可能的建议列表,如“read” 但在spark.read之后按tab键。什么都不要展示。虽然我希望显示诸如“csv”、“parquat”等选项 重要提示-运行“spark.read.csv(“1.txt”)”有效 还尝试应用来
我缺少什么?我开发了一个基于TabNine的Jupyter笔记本扩展,它提供了基于深度学习的代码自动完成功能。当然,它还支持
Pyspark
。以下是我工作的Github链接:
现在有空。只需发出以下命令,然后享受它:)
这可以通过手动导入或设置python的.env变量来完成
理由可能更平淡无奇;我认为spark很重,因此解析依赖关系需要很多时间。如果返回的建议数量太大(或花费太多时间),则可能会终止该过程,您可能需要检查。感谢您的建议!我怎么检查这个?顺便说一下,当我运行a=spark.read时。然后运行a。我得到了我所希望的所有建议,您可以观察资源使用情况并让流程负责完成,我假设在解析库的过程中CPU的使用率会急剧上升。你上面写的可能表明事实就是这样,也许其他人可以进一步指出这个问题。
pip3 install jupyter-tabnine
jupyter nbextension install --py jupyter_tabnine
jupyter nbextension enable --py jupyter_tabnine
jupyter serverextension enable --py jupyter_tabnine
import rlcompleter, readline
readline.parse_and_bind("tab: complete")
export PYTHONSTARTUP="$HOME/.pythonrc"
import rlcompleter, readline
readline.parse_and_bind("tab: complete")