Google colaboratory 在colab中重复读取驱动器中的多个脚本

Google colaboratory 在colab中重复读取驱动器中的多个脚本,google-colaboratory,Google Colaboratory,我正在使用神经网络解决大型非线性偏微分方程系统,在colab的驱动器上安装了10个python脚本类。我在主python脚本中的算法来回调用这10个类,以迭代方式找到解决方案。即使使用GPU,培训也需要很多时间,我想知道这是否是因为主脚本在驱动器中反复调用类。脚本的大小不大(每个脚本最多1000行),而且我没有导入任何数据(所有数据都是从主脚本中模拟的) 如果您对此有任何想法,我们将不胜感激。谢谢您可以尝试将文件复制到虚拟机并从那里运行它们: %%shell cp <path to fil

我正在使用神经网络解决大型非线性偏微分方程系统,在colab的驱动器上安装了10个python脚本类。我在主python脚本中的算法来回调用这10个类,以迭代方式找到解决方案。即使使用GPU,培训也需要很多时间,我想知道这是否是因为主脚本在驱动器中反复调用类。脚本的大小不大(每个脚本最多1000行),而且我没有导入任何数据(所有数据都是从主脚本中模拟的)


如果您对此有任何想法,我们将不胜感激。谢谢

您可以尝试将文件复制到虚拟机并从那里运行它们:

%%shell
cp <path to file in drive> /usr/local/bin
python /usr/local/bin/file_name.py
%%shell
cp/usr/local/bin
python/usr/local/bin/file_name.py

如果其他人也有同样的问题,我通过做两件简单的事情来解决

  • 正如rchurt提到的,我将文件复制到了路径
  • 重要的是,我创建了一个.py模块(编写类而不是函数,并将它们嵌入到同一个文件中),以避免在多个文件中来回切换。这很有魅力

  • 只是想看看它是否有用,您是否可以尝试通过执行
    将它们从驱动器复制到VM!cp/usr/local/bin
    ?@rchurt谢谢你的提示。如何引用/usr/local/bin来执行该文件?是“cd/usr/local/bin”吗?然后呢!python文件_name.py'?谢谢!它对CPU绝对有效。它也适用于GPU吗?我无法测试它,因为colab GPU从昨天开始就不可用(奇怪!)。我刚刚检查过,即使按照您的建议将文件复制到bin,GPU仍然比CPU慢。我不知道为什么:(您编写的代码是在GPU上运行的吗?通常您不能只运行为在GPU上的CPU上运行而编写的代码,而且速度更快。您必须对其进行修改,以利用GPUI安装的tensorflow GPU版本的并行性,并在colab运行时选择“GPU”选项。这还不够吗?谢谢。可能不行,我会作为separ来问这个问题回答问题并发布您想要在GPU上运行的代码