Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/314.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
为什么我不能使用python请求来请求某个网页_Python_Http_Web Scraping_Python Requests - Fatal编程技术网

为什么我不能使用python请求来请求某个网页

为什么我不能使用python请求来请求某个网页,python,http,web-scraping,python-requests,Python,Http,Web Scraping,Python Requests,我进不去了。 当我尝试使用requests.get(url)时,它一点也没有进展,我没有收到HTTP错误,只是挂起,就像它在反复尝试一样 我尝试过使用session和header,但它们都不适合我 import bs4 from bs4 import BeautifulSoup as bs import requests url="https://www.gogoanime1.com/watch/hangyakusei-million-arthur-2nd-season/episode/ep

我进不去了。 当我尝试使用
requests.get(url)
时,它一点也没有进展,我没有收到HTTP错误,只是挂起,就像它在反复尝试一样

我尝试过使用session和header,但它们都不适合我

import bs4
from bs4 import BeautifulSoup as bs
import requests


url="https://www.gogoanime1.com/watch/hangyakusei-million-arthur-2nd-season/episode/episode-1"
epn=int(input("enter which episode link is it?: "))
newses=requests.Session()
newses.headers.update({'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36'})
ssn=newses.get(url)
page=ssn.text
print()

soup=bs(page,'html.parser')
a=soup.find('div',{'class':'vmn-buttons'})
links=a.find_all('a')

for link in links:
    print(link)
    if link.text=="Download":
        print("found")
        dl=link['href']
        break
print(dl)

bom=newses.get(dl)
print(bom.text)

我至少想要一个响应,但它整天都挂在那里,我如何才能像真正的用户一样访问页面并刮取其内容?

我没有注意到它实际上是一个文件,而不是一个需要解析的网页。下载文件时需要更多时间