是否有用于翻译短url';回到常规链接?
我想翻译大量来自twitter的短url。我不想访问每个单独的请求,而是希望使用API来接受短URL或小URL列表并返回原始URL。这样的API可用吗?不是真正的API,但这会让您快速获得URL是否有用于翻译短url';回到常规链接?,url,twitter,friendly-url,bit.ly,short-url,Url,Twitter,Friendly Url,Bit.ly,Short Url,我想翻译大量来自twitter的短url。我不想访问每个单独的请求,而是希望使用API来接受短URL或小URL列表并返回原始URL。这样的API可用吗?不是真正的API,但这会让您快速获得URL curl-I在此处插入短URL| grep Location | awk'{print$2}不是真正的API,但这会让您快速获得URL curl-I在此处插入短URL| grep Location | awk'{print$2}查看或查看或99%的URL开启器都有API 例如,有一个名为PEAR的包(P
curl-I
在此处插入短URL| grep Location | awk'{print$2}
不是真正的API,但这会让您快速获得URL
curl-I
在此处插入短URL| grep Location | awk'{print$2}
查看或查看或99%的URL开启器都有API
例如,有一个名为PEAR的包(PHP),它支持:
- 稍微
- 迪格
- is.gd
- 短文
- tinyurl.com
- 稍微
- 迪格
- is.gd
- 短文
- tinyurl.com
- 有一些网站专门提供将缩短的URL转换回原始URL的服务
据我所知,有两个API是和。我正在编写一个java库来使用这两个。 < P>有几个网站是专门的服务,用来把缩短的URL转换回原来的URL。
据我所知,有两个API是和。我正在编写一个java库来使用这两个。我已经写了一个小的转短网址到它的原始链接。它基于短URL返回的http头 我写了一篇小文章,将短URL转换为它的原始链接。它基于短URL返回的http头 来自Untiny.me的在线服务,这很有用:
http://untiny.me/api/1.0/extract/?format=text&url=bit.ly/GFscreener12
因此,可以想象,一个简单的Bash脚本将每一行作为一个简短的URL进行读取是可行的:
#!/bin/bash
# urlexpander.sh by MarcosK
while read URLline; do
curl -s "untiny.me/api/1.0/extract/?format=text&url=$URLline"
done
要进行测试,请向它提供一个带有echo“bit.ly/GFscreener12”|/urlexpander.sh
或者将整个输入文件发送给它,每行一个简短的URL,带有:
cat urllist.txt | ./urlexpander.sh
从Untiny.me的在线服务中,这非常有用:
http://untiny.me/api/1.0/extract/?format=text&url=bit.ly/GFscreener12
因此,可以想象,一个简单的Bash脚本将每一行作为一个简短的URL进行读取是可行的:
#!/bin/bash
# urlexpander.sh by MarcosK
while read URLline; do
curl -s "untiny.me/api/1.0/extract/?format=text&url=$URLline"
done
要进行测试,请向它提供一个带有echo“bit.ly/GFscreener12”|/urlexpander.sh
或者将整个输入文件发送给它,每行一个简短的URL,带有:
cat urllist.txt | ./urlexpander.sh
可能重复的可能重复的是bit.ly API。。。它将如何帮助所有其他短URL服务?他特别要求API。这是bit.ly API。。。它将如何帮助所有其他短URL服务?他特别要求API。但是对于我自己的代码,我实际上更喜欢它,因为它不需要检查第三方服务,也不需要额外的web获取,而且最重要的是,它同样适用于标准URL,而不仅仅是短URL——不改变返回它们。因此,将while循环中的
curl
行更改为curl-sI“$URLline”| grep Location | awk'{print$2}'
,但是对于我自己的代码,我实际上更喜欢,因为它不需要检查第三方服务,也不需要进行额外的web获取,而且最重要的是,同样适用于标准URL,而不仅仅是短URL——返回它们不变。因此,将while循环中的curl
行更改为curl-sI“$URLline”| grep Location | awk'{print$2}'