星星博客 »  > 

用python的selenium实现自动化搜索

嘿嘿,今天我来交给大家爬虫基础中的基础selenium!!来看看吧

对于爬虫的话,我个人常用的浏览器是Google Chrome浏览器。

谷歌浏览器想要使用Python实现简单的爬虫,需要下载chromedriver以下是下载的网址:

http://chromedriver.storage.googleapis.com/index.html

首先我们需要先查看Google Chrome的版本

在这里插入图片描述
在这里插入图片描述
为什么要看这个版本呢,是因为我们的chromedriver是必须与我们的Google chrome的版本相同才能够运行的。不是相同的版本它会报错。

现在我们知道了Google Chrome的版本了,去找与之对应的chromedriver的版本。
在这里插入图片描述
在这里插入图片描述

我用的是MAC系统,所以要把chromedriver.exe放进usr/local/bin中

在这里插入图片描述

#这里我们先导入包
from selenium import webdriver
import time
#我习惯于把url放在前面
url =  "https://www.baidu.com"

#我用的是Google Chrome浏览器
driver = webdriver.Chrome()
driver.get(url=url)

#我还是比较喜欢网页最大化
driver.maximize_window()

#接下来就是准备在搜索框中输入东西啦,不过不是自己输入。
#使用id关键字的查找
input = driver.find_element_by_id("kw")
#查找到后搜索框输入
input.send_keys("csdn")

#使用id关键字查找,后点击
key = driver.find_element_by_id("su")
key.click()

#使用time 模块的sleep方法,暂停给定的秒数后执行后面的程序
time.sleep(5)

#然后就是关闭啦
driver.quit()

这样就可以简单的实现简单的爬虫自动化啦。
在这里插入图片描述

相关文章