使用Python can'进行实时链接检查;无法从文件中运行它

使用Python can'进行实时链接检查;无法从文件中运行它,python,Python,我写了一个脚本,检查网站上是否有链接,在本例中是“twitter.com” 我可以欣赏我这样做的方式,这可能不是最好的,但我对Python和编程一般来说是相当陌生的 无论如何,我正试图从一个链接文件中运行它,这样一个URL的原始输入将被删除,并且我将从一个文件中运行多个URL检查,以查看它们是否包含“twitter.com” 这是我的代码,正在使用原始输入() 为了澄清,我有一个URL文件,一行一行,我想检查它们是否包含“twitter.com” 我试过很多方法,但都不管用 非常感谢您的帮助 如

我写了一个脚本,检查网站上是否有链接,在本例中是“twitter.com”

我可以欣赏我这样做的方式,这可能不是最好的,但我对Python和编程一般来说是相当陌生的

无论如何,我正试图从一个链接文件中运行它,这样一个URL的原始输入将被删除,并且我将从一个文件中运行多个URL检查,以查看它们是否包含“twitter.com”

这是我的代码,正在使用原始输入()

为了澄清,我有一个URL文件,一行一行,我想检查它们是否包含“twitter.com”

我试过很多方法,但都不管用


非常感谢您的帮助

如果要打开文件并将行读入数组,很容易:

with open(filename) as f:
    urls = f.readlines()
之后,
url
将是一个名称列表

然后您可以迭代此列表:

for url in urls:
    link_list = []
    r  = requests.get('http://www.' +url)
    data = r.text
    soup = BeautifulSoup(data)

    for link in soup.find_all('a'):
        links = (link.get('href'))
        link_list.append(links)

    if domain in ', '.join(link_list):
        print url +status

嘿,谢谢你的帮助,我确实试过了,但我错了。我试过你的例子只是为了确定,我仍然得到一个错误。你成功地让它运行了吗?
for url in urls:
    link_list = []
    r  = requests.get('http://www.' +url)
    data = r.text
    soup = BeautifulSoup(data)

    for link in soup.find_all('a'):
        links = (link.get('href'))
        link_list.append(links)

    if domain in ', '.join(link_list):
        print url +status