Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/android/207.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google plus 使用Picasa API访问旧照片_Google Plus_Gdata_Picasa - Fatal编程技术网

Google plus 使用Picasa API访问旧照片

Google plus 使用Picasa API访问旧照片,google-plus,gdata,picasa,Google Plus,Gdata,Picasa,是否有可能从Picasa(或仍然使用Picasa API的Google Plus)获得一份超过某个日期的照片列表?我想从一个大相册“InstantUpload”中获取一年前今天的所有照片 以下是我调查过的事情: 中的示例仅检索有限数量的“最近上载”照片 明确PicasaWeb查询不允许published min(或published max)作为参数 此查询中的开始索引似乎没有任何效果 grab....@gmail.com在上述问题中提出的使用“”的方法不适用于在某个日期之前(看起来相当随机)

是否有可能从Picasa(或仍然使用Picasa API的Google Plus)获得一份超过某个日期的照片列表?我想从一个大相册“InstantUpload”中获取一年前今天的所有照片

以下是我调查过的事情:

  • 中的示例仅检索有限数量的“最近上载”照片
  • 明确PicasaWeb查询不允许
    published min
    (或
    published max
    )作为参数
  • 此查询中的
    开始索引
    似乎没有任何效果
  • grab....@gmail.com在上述问题中提出的使用“”的方法不适用于在某个日期之前(看起来相当随机)获取照片
编辑: 已经停产了。Picasa不再接受其已弃用的OAuth版本。下面描述的方法不再有效。你可以在这里找到另一种选择


我自动完成了与Picasa相关的任务。我在Linux上使用它,但也有Windows版本。是的,它是一个命令行工具;不要让它吓跑你,你应该能够调用这个工具并从你最喜欢的编程语言(Java、C#等等)获取它的输出

第一次在你的机器上运行googlecl需要你用你的Google帐户登录,但是在你登录一次之后,googlecl会记住你的身份验证,不会再打扰你了

因此,您的相册名为InstantUpload。以下命令将下载照片列表(发布日期/时间+URL)

另外,没有命令行选项可以在特定日期范围内进行筛选。您可以根据标签进行筛选,但这需要为相册中的每张照片指定一个类似日期的标签。除非列表的下载时间让你感到困扰(而且你有很好的理由不把一张大专辑分成多张小专辑),否则我建议你自己在下载后立即进行过滤

我觉得CLI很方便,所以我将演示一些简单的shell脚本。当然,您可以用任何喜欢的编程语言进行过滤

首先,让我们检索一年前的UTC日期(格式为yyyy-mm-dd):

使用您喜欢的过滤工具(grep、sed、awk、perl)过滤列表;仅保留发布日期
awk "\$1 < \"$maxdate\" { print \$2; }" FullList.txt > FilteredList.txt
awk“\$1<\”$maxdate\“{print\$2;}”FullList.txt>FilteredList.txt
(几乎适用于所有操作系统。)

你甚至可以自动下载照片。确保先将cd刻录到适当的数据文件夹

while read url; do
    wget "$url"
done < FilteredList.txt
读取url时
;做
wget“$url”
完成
将所有这些放在一个shell脚本文件中,一个调用就足以为您完成所有艰巨的工作。

解决方法(您的最后一个要点)对我来说似乎很好。将
更改为

awk "\$1 < \"$maxdate\" { print \$2; }" FullList.txt > FilteredList.txt
while read url; do
    wget "$url"
done < FilteredList.txt