如何在hdfs中使用python读取.pkl文件

如何在hdfs中使用python读取.pkl文件,python,hdfs,Python,Hdfs,我正在IBMCloud中使用Python 3.5.2。我需要在集群环境中运行pyspark代码。对于这项工作,我需要使用python上传hdfs中的pickle文件。我看到了 我想上传terrs.pkl。附件屏幕截图中给出了文件位置 根据我共享的链接中给出的建议,我正在使用以下命令 pickle.load( open( '/user/clsadmin/terrs.pkl', "rb" ) ) 但这是一个错误 No such file or directory: '/user/clsadmin/

我正在IBMCloud中使用Python 3.5.2。我需要在集群环境中运行pyspark代码。对于这项工作,我需要使用python上传hdfs中的pickle文件。我看到了

我想上传terrs.pkl。附件屏幕截图中给出了文件位置

根据我共享的链接中给出的建议,我正在使用以下命令

pickle.load( open( '/user/clsadmin/terrs.pkl', "rb" ) )
但这是一个错误

No such file or directory: '/user/clsadmin/terrs.pkl'
请参阅随附的屏幕截图。
你能建议我如何使用python加载这个.pkl文件吗?

当你导入os和os.path.exists('/user/clsadmin/terrs.pkl')时,你得到的是真还是假?我得到的是假,这意味着文件不在那个位置,或者你的路径名有输入错误。你的pickle代码调用是正确的。确保您的文件存在于该确切位置。在Open file语句中,我还会收到错误消息FileNotFoundError:[Errno 2]没有这样的文件或目录:'/user/clsadmin/terrs.pkl'尝试添加绝对路径。您正在使用什么操作系统?我正在尝试从windows 10连接IBM Cloud。我正在使用git工具连接IBM Cloud
open_file = open("/user/clsadmin/terrs.pkl", "rb")
data = pickle.load(open_file)
open_file.close()