Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/333.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Can';无法通过请求获取url 在我的工作中,我正在尝试自动化网络搜索和数据查询,我们每周在线监测商业零件号的价格,这至少需要2小时。这是重复和无聊的,我想自动化它。_Python_Python Requests - Fatal编程技术网

Python Can';无法通过请求获取url 在我的工作中,我正在尝试自动化网络搜索和数据查询,我们每周在线监测商业零件号的价格,这至少需要2小时。这是重复和无聊的,我想自动化它。

Python Can';无法通过请求获取url 在我的工作中,我正在尝试自动化网络搜索和数据查询,我们每周在线监测商业零件号的价格,这至少需要2小时。这是重复和无聊的,我想自动化它。,python,python-requests,Python,Python Requests,这基本上是我第一次尝试beautifulsoup,我阅读并观看了一些关于它的视频。如果有人有完美的芭蕾舞曲,请分享,我有点迷路了;) 因此,我尝试从url获取HTML代码: '',但我收到一条错误消息,无论我给出什么url。 //目前,我严格遵循我在网上找到的例子 //我尝试了更简单的网站,一个维基百科页面,我非常基本的html页面。。。始终显示相同的错误消息 import requests import urllib.request import time from bs4 import Be

这基本上是我第一次尝试beautifulsoup,我阅读并观看了一些关于它的视频。如果有人有完美的芭蕾舞曲,请分享,我有点迷路了;)

因此,我尝试从url获取HTML代码: '',但我收到一条错误消息,无论我给出什么url。 //目前,我严格遵循我在网上找到的例子 //我尝试了更简单的网站,一个维基百科页面,我非常基本的html页面。。。始终显示相同的错误消息

import requests
import urllib.request
import time
from bs4 import BeautifulSoup

def create_website(CP):
    return(str('https://www.bom.ai/ic/'+str(CP)+'.html'))

url=create_website('STM32F030C8T6')

response=requests.get(url)
ConnectionError:HTTPSConnectionPool(host='en.wikipedia.org', 端口=443):url:/wiki/Cam%C3%A9lia_Jordana超过最大重试次数 (原因) NewConnectionError(':未能建立新连接: [WinError 10060]连接尝试失败,因为已连接 一段时间后,该方未作出适当回应,或 连接失败,因为连接的主机未能响应“”)


你提到你正在工作,你可能有公司代理阻止你的请求!您可以尝试以下操作:

  • 使用代理(如果您在计算机上配置了代理(可能由您的公司完成)):
  • 无代理:

两个都试试

Beautifulsoup是一个HTML解析器。您的
请求有问题。这里没有问题。可能是网站关闭了一会儿,或者你有本地网络问题。你的错误应该与你的实际代码相匹配。你的代码对我有用
import requests
r = requests.get('your_url')
print(r.text)
import requests
proxy = {
    'http_proxy': '',
    'https_proxy': ''}
r = requests.get('your_url', proxies=proxy)
print(r.text)