Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/selenium/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python I‘;我试图用Selenium从web上抓取一个表,但始终会出现一个代理身份验证窗口_Python_Selenium_Web Scraping - Fatal编程技术网

Python I‘;我试图用Selenium从web上抓取一个表,但始终会出现一个代理身份验证窗口

Python I‘;我试图用Selenium从web上抓取一个表,但始终会出现一个代理身份验证窗口,python,selenium,web-scraping,Python,Selenium,Web Scraping,Python中是否有一个简单的解决方案,可以在抓取站点之前自动输入用户名和密码等身份验证信息 代理窗口如下所示: 这里的input\u 1是标签,您的\u id是您的电子邮件 密码也同样适用。简单的答案是使用pyautogui import pyautogui class WS: def __init__(self, driver_path): self.driver = webdriver.Chrome(driver_path) def enter_pr

Python中是否有一个简单的解决方案,可以在抓取站点之前自动输入用户名和密码等身份验证信息

代理窗口如下所示:

这里的
input\u 1
是标签,
您的\u id
是您的电子邮件


密码也同样适用。

简单的答案是使用pyautogui

import pyautogui

class WS: 
    def __init__(self, driver_path):
        self.driver = webdriver.Chrome(driver_path)

    def enter_proxy_auth(self, proxy_username, proxy_password):
        pyautogui.typewrite(proxy_username)
        pyautogui.press('tab')
        pyautogui.typewrite(proxy_password)
        pyautogui.press('enter')
    
    
    def open_page(self, url):
        self.driver.get(url)
使用pyautogui,您只需填写用户名和密码

    proxy_username = 'USERNAME'
    proxy_password = 'PASSWORD'
    driver_path = 'C:/... /chromedriver.exe'
    url = 'https://...'
    
    
w = WS(driver_path)
w.open_page(url)
w.enter_proxy_auth(proxy_username, proxy_password)
    proxy_username = 'USERNAME'
    proxy_password = 'PASSWORD'
    driver_path = 'C:/... /chromedriver.exe'
    url = 'https://...'
    
    
w = WS(driver_path)
w.open_page(url)
w.enter_proxy_auth(proxy_username, proxy_password)