Selenium+Chrome Driver 爬取搜狐页面信息

这篇具有很好参考价值的文章主要介绍了Selenium+Chrome Driver 爬取搜狐页面信息。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

进行selenium包和chromedriver驱动的安装

安装selenium包

在命令行或者anaconda prompt 中输入 pip install Selenium

安装 chromedriver

先查看chrome浏览器的版本
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
这里是 123.0.6312.106
然后在http://npm.taobao.org/mirrors/chromedriver/或者https://googlechromelabs.github.io/chrome-for-testing/
中下载对应版本的chromediver
由于没有106版的这里下的是105版
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
下载解压后
把exe文件复制到chrome浏览器的安装目录和
python的安装目录scripts文件夹下 或者 放到Anaconda的scripts文件夹下
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

测试
from selenium import webdriver
browser=webdriver.Chrome()
browser.get('https://www.sohu.com/')

自动打开搜狐页面即可

注: 浏览器自动更新后,chromediver 也需要重新下载,并按以上路径配置

Selenium+Chrome Driver 爬取搜狐页面信息

在selenium中不同的版本,语法的用法具有差异
按照书上的用chromedriver访问搜狐页面代码报错如下
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
chrome_driver_path传给webdriver.Chrome()时方式不对
可参考下面这位博主的语法进行修改
http://t.csdnimg.cn/xxGhp

from selenium.webdriver.chrome.service import Service

# 设置 ChromeDriver 的路径
chrome_driver_path = 'F:/chromedriver/chromedriver-win64/chromedriver.exe'

# 创建 Chrome WebDriver
service = Service(chrome_driver_path)
driver = webdriver.Chrome(service=service)

代码实现

导入包
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By

from selenium import webdriver:
导入了Selenium库中的webdriver模块,它包含了各种WebDriver的实现,用于模拟不同的浏览器行为。

from selenium.webdriver.chrome.service import Service:
导入了Service类,它用于配置和启动ChromeDriver服务。

from selenium.webdriver.chrome.options import Options:
导入了Options类,它用于配置Chrome浏览器的选项,例如设置浏览器的头less模式等。

from selenium.webdriver.common.by import By:
导入了By类,它定义了一些用于查找元素的方法,例如通过class name、id等。

配置ChromeDriver 的路径并启动浏览器
# 设置 ChromeDriver 的路径
chrome_driver_path = 'F:/chromedriver/chromedriver-win64/chromedriver.exe'

# 创建 Chrome WebDriver

# # 创建 Chrome Options 对象
# chrome_options = Options()
# chrome_options.add_argument('--headless')  # 无头模式,即不显示浏览器窗口

service = Service(chrome_driver_path)
driver = webdriver.Chrome(service=service)

# 打开搜狐网站
driver.get("https://www.sohu.com/")
获取当前页面的Html源码
# 获取当前网页的 HTML 源码
html_source = driver.page_source
print("HTML 源码:")
print(html_source)
运行结果如图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

获取当前页面的URL
# 获取当前网页的 URL
current_url = driver.current_url
print("\n当前网页的 URL:")
print(current_url)
运行结果如图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

获取classname为‘txt’的页面元素

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

# 使用 find_elements 方法查找 class 属性为 'txt' 的元素
txt_elements = driver.find_elements(By.CLASS_NAME, "txt")

# 遍历输出每个元素的文本内容
for element in txt_elements:
    print(element.text)
运行结果如图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

获取 标签 属性为 ‘footer’ 的元素文本
# 使用 find_elements 方法查找 标签 属性为 'footer' 的元素
txt_elements = driver.find_elements(By.TAG_NAME, "footer")

# 遍历输出每个元素的文本内容
for element in txt_elements:
    print(element.text)
运行结果如下图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

获取 class 属性为 ‘titleStyle’ 的元素的文本及href链接
# 使用 find_elements 方法查找 class 属性为 'titleStyle' 的元素
title_elements = driver.find_elements(By.CLASS_NAME, "titleStyle")

# 遍历输出每个元素的文本内容
for element in title_elements:
    text = element.text
    href = element.get_attribute("href")
    print(f"Text: {text}, Href: {href}")
运行结果如下图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习

获取 xpath 搜狐首页的导航栏标签 及 href链接
# 使用 find_elements 方法查找 xpath 搜狐首页的导航栏标签 
title_elements = driver.find_elements(By.XPATH, "/html/body/div[2]/div/nav[@class='nav area']//a")

# 遍历输出每个元素的文本内容
for element in title_elements:
    text = element.get_attribute("innerHTML").strip()
    if text:
        href = element.get_attribute("href")
        print(f"Text: {text}, Href: {href}")
运行结果如下图示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习
这里运行出来后大的标签会有<strong></strong>
可以通过正则表达式进行优化

优化代码如下
import re

# 使用 find_elements 方法查找 xpath 搜狐首页的导航栏标签 
title_elements = driver.find_elements(By.XPATH, "/html/body/div[2]/div/nav[@class='nav area']//a")

# 遍历输出每个元素的文本内容
for element in title_elements:
    inner_html = element.get_attribute("innerHTML")
    text = re.sub(r'<[^>]*>', '', inner_html).strip()
    if text:
        href = element.get_attribute("href")
        print(f"Text: {text}, Href: {href}")

<:匹配左尖括号,表示 HTML 标签的开始。
[^>]:匹配除了右尖括号之外的任何字符。
*:匹配前面的字符零次或多次,即匹配任意数量的除右尖括号之外的字符。 >:匹配右尖括号,表示 HTML 标签的结束。

re.sub(pattern, repl, string)
pattern:要匹配的正则表达式模式。
repl:用于替换匹配文本的字符串。
string:要进行替换操作的原始字符串。

运行结果如下图所示

chrome 123.0.6312.106 chromedriver,python集合,selenium,chrome,学习文章来源地址https://www.toymoban.com/news/detail-858272.html

关闭 WebDriver
# 关闭 WebDriver
driver.quit()

完整代码

import re
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By

# 设置 ChromeDriver 的路径
chrome_driver_path = 'F:/chromedriver/chromedriver-win64/chromedriver.exe'

# 创建 Chrome WebDriver

# # 创建 Chrome Options 对象
# chrome_options = Options()
# chrome_options.add_argument('--headless')  # 无头模式,即不显示浏览器窗口

service = Service(chrome_driver_path)
driver = webdriver.Chrome(service=service)

# 打开搜狐网站
driver.get("https://www.sohu.com/")

# 获取当前网页的 HTML 源码
html_source = driver.page_source
print("HTML 源码:")
print(html_source)

# 获取当前网页的 URL
current_url = driver.current_url
print("\n当前网页的 URL:")
print(current_url)

# 使用 find_elements 方法查找 class 属性为 'txt' 的元素
txt_elements = driver.find_elements(By.CLASS_NAME, "txt")

# 遍历输出每个元素的文本内容
for element in txt_elements:
    print(element.text)

# 使用 find_elements 方法查找 标签 属性为 'footer' 的元素
txt_elements = driver.find_elements(By.TAG_NAME, "footer")

# 遍历输出每个元素的文本内容
for element in txt_elements:
    print(element.text)

# 使用 find_elements 方法查找 class 属性为 'titleStyle' 的元素
title_elements = driver.find_elements(By.CLASS_NAME, "titleStyle")

# 遍历输出每个元素的文本内容
for element in title_elements:
    text = element.text
    href = element.get_attribute("href")
    print(f"Text: {text}, Href: {href}")


# # 使用 find_elements 方法查找 xpath 搜狐首页的导航栏标签 
# title_elements = driver.find_elements(By.XPATH, "/html/body/div[2]/div/nav[@class='nav area']//a")

# # 遍历输出每个元素的文本内容
# for element in title_elements:
#     text = element.get_attribute("innerHTML").strip()
#     if text:
#         href = element.get_attribute("href")
#         print(f"Text: {text}, Href: {href}")


# 使用 find_elements 方法查找 xpath 搜狐首页的导航栏标签 
title_elements = driver.find_elements(By.XPATH, "/html/body/div[2]/div/nav[@class='nav area']//a")

# 遍历输出每个元素的文本内容
for element in title_elements:
    inner_html = element.get_attribute("innerHTML")
    text = re.sub(r'<[^>]*>', '', inner_html).strip()
    if text:
        href = element.get_attribute("href")
        print(f"Text: {text}, Href: {href}")

# 关闭 WebDriver
driver.quit()

到了这里,关于Selenium+Chrome Driver 爬取搜狐页面信息的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • chrome driver下载、selenium安装及报错解决

    目录 一、Chrome驱动下载 1.查看Chrome版本 2.下载驱动 3.驱动的路径 无法运行驱动 二、selenium的安装与使用 1.安装selenium 2.使用selenium 参考   打开Chrome浏览器,点击右上角的三个点,再点击设置。 点击左下方的“设置”,右侧可以看到Chrome的版本,“119.0.6045.106”。 bing搜索“

    2024年02月05日
    浏览(17)
  • Selenium 4.11 正式发布--再也不用手动更新chrome driver 了

    Selenium 4.11.0 正式发布了,先来看一下主要特性。 Chrome DevTools支持的版本现在是:v113、v114和v115(Firefox仍然对所有版本使用v85) 通过Selenium Manager支持Chrome For Testing(CfT) Selenium Manager现在可以在PATH或配置的路径上定位driver的二进制文件,检查潜在的不兼容性,并提供更好的

    2024年02月08日
    浏览(14)
  • chromedriverUnable to obtain driver for chrome using ,selenium找不到chromedriver

    1、下载chromedriver chromedriver下载网址:CNPM Binaries Mirror 老版本在:chromedriver/ 较新版本在:chrome-for-testing/  2、设置了环境变量还是找不到chromedriverUnable to obtain driver for chrome using  方法: 第一种:chromedriver.exe复制文件放入python安装目录的Scripts文件夹中 例如:C:Users***AppDat

    2024年04月28日
    浏览(6)
  • 安装selenium和关于chrome高版本对应的driver驱动下载安装【Win/Mac 】

    目录 一、查看自己电脑上chrome的版本 二、下载 ChromeDriver  三、安装selenium 法一:打开pycharm,点击File,Setting进入配置页面,点击Project下面的Python Interpreter进入环境配置页面,点击+。输入selenium。之后install 四、环境配置 五、验证安装 一、查看自己电脑上chrome的版本 二、下

    2024年04月11日
    浏览(17)
  • 关于使用 Python 和 Selenium chrome driver 访问 url 时修改 source ip 的问题

    在讨论如何在使用 Python 和 Selenium 的 Chrome driver 访问一个 URL 时修改自己的 source IP 之前,我们必须理解几个核心概念。IP 地址是互联网上每个设备的唯一标识符,用于设备间的通信。通常情况下,一个设备的 IP 地址是由其互联网服务提供商(ISP)分配的,因此直接更改自己

    2024年04月13日
    浏览(9)
  • selenium.common.exceptions.NoSuchDriverException: Message: Unable to obtain driver for chrome using

    这个报错可能原因:1、驱动下载错误   2、驱动存放位置错误  3、解释器不匹配对应目录 搞了半天才在一个评论里点醒我,新建的项目自带了一个python解释器一直没管,更换到原装的解释器就可以自动识别浏览器驱动了,特此记录

    2024年04月17日
    浏览(10)
  • Python selenium中出现错误:driver = webdriver.chrome() TypeError: ‘module‘ object is not callable

    chrome的首字母应该为大写,如下: driver=webdriver.Chrome() 修改代码后程序即可正常运行 你也可以将路径传递给你的Chromedriver,将executable_path设置为你的chromedriver所在的位置(指向chromedriver.exe的路径,或者,对于非Windows用户,它被称为chromedriver): driver = webdriver.Chrome()是因为没有

    2024年02月12日
    浏览(15)
  • 用Selenium给chrome添加任意请求头信息

    我配置了代理,走burp。通过burp抓包可以看到运行结果如下,说明请求头字段更改完成。

    2024年02月11日
    浏览(26)
  • 华为云云耀云服务器L实例评测|Python Selenium加Chrome Driver构建UI自动化测试实践

    🏆作者简介,黑夜开发者,CSDN领军人物,全栈领域优质创作者✌,CSDN博客专家,阿里云社区专家博主,2023年6月CSDN上海赛道top4。 🏆数年电商行业从业经验, AWS/阿里云资深使用用户 ,历任核心研发工程师,项目技术负责人。 🎉欢迎 👍点赞✍评论⭐收藏 随着云计算时代

    2024年02月08日
    浏览(15)
  • selenium 使用chrome_driver自动化操作Google浏览器,调试的时候没有提示,但是编译后就提示一些错误的解决方法

    使用chrome_driver自动化操作Google浏览器,调试的时候没有提示,但是编译后就提示一些错误的解决方法: 1、提示  ERROR:ssl_client_socket_impl.cc(975)] handshake failed; returned -1, SSL error code 1, net_error -101: 添加: 2、提示  USB: usb_device_win.cc:95 Failed to read descriptors from \\\\?usb#vid_0e8dpid_201d

    2024年02月04日
    浏览(15)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包