无法使用python中的Selenium对网站进行爬网(没有错误,但不起作用)

无法使用python中的Selenium对网站进行爬网(没有错误,但不起作用),python,selenium,Python,Selenium,我正在尝试从链接中涂鸦评论:。这是我使用的代码: find_comment = browser.find_elements_by_css_selector("div[class='_3-8y _5nz1 clearfix']") for i in find_comment: element_comment = i.find_element_by_css_selector("span[class='_5mdd']") print(element_comment.text) 但什么

我正在尝试从链接中涂鸦评论:。这是我使用的代码:

find_comment = browser.find_elements_by_css_selector("div[class='_3-8y _5nz1 clearfix']")
for i in find_comment:
    element_comment = i.find_element_by_css_selector("span[class='_5mdd']")
    print(element_comment.text)
但什么也没发生:没有错误,没有异常,也没有打印任何内容

网站锁爬网了吗?如果是,请帮助我如何知道

find_comment = browser.find_elements_by_css_selector("._3-8y _5nz1 clearfix")
for i in read_more:
    element_comment = i.find_element_by_css_selector("._5mdd")
    print(element_comment.text)
参考资料:

您在网站上发布的评论位于
iframe
中,因此您需要切换到
iframe
,然后才能找到评论

from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC


# first switch to the iframe
WebDriverWait(browser, 10).until(
        EC.frame_to_be_available_and_switch_to_it((By.XPATH, "//iframe[contains(@title, 'fb:comments')]")))

# then get comments
comments_list = browser.find_elements_by_xpath("//span[@class='_5mdd']/span")

# iterate the comments
for comment in comments_list:

    # print the comment text element -- the span which contains the commment text
    print(comment.text)


最可能的情况是
find_comment
是一个空列表,没有任何内容被迭代。您找到的第一条语句
find_comment
可能需要更新选择器。它不工作,您能再次检查吗?你为什么知道iframe中的评论网站?我检查了网页,发现了这些评论。在DOM的上方,您将看到一个
iframe
元素。您是否收到错误消息?我已尝试了您的代码,但没有任何错误消息。这意味着
注释\u列表
仍然返回为空。我已经修改了我的代码,改为使用XPath,看看这个新的选择器策略是否适合您。我在StackOverflow中搜索,找到了一个解决方案来更改iframe:
driver。切换到.frame(f1c86504a69cf1c)
。注释中iframe的名称是f1c86504a69cf1c,但我有一条错误消息:
NoSuchFrameException
感谢您的帮助,但您的代码与我的代码相同(因为selenium有更多的语法来执行此操作)