小猪的Python学习之旅 —— 5.使用Selenium抓取JavaScript动态变化数据的网页

3.Selenium 粗略实战:抓取煎蛋妹子图

直白解析Elements页面结构,找到想要的重中之重结点:

图片 1

不问可知那就是我们抓取的小四嫂图片,复制下那一个UXC60L,看下大家打印出的
页面结构有没有其一东西:

图片 2

可以,很棒,有这些页面数据,接下去就走一波Beautiful Soup得到到我们
想要的数目啦~

图片 3

透过地点的过滤就可见得到大家的阿妹图片U帕杰罗L:

图片 4

随手打开多个注脚下,啧啧:

图片 5

    

图片 6

看了下一页唯有二二十一个小大姨子,这明摆着是知足不断我们的,大家在率先次加载
的时候先得到一波页码,然后就精晓有稍许页了,然后本身再去拼接UEscortL加载
今非昔比的页面,比如那里一起又448页:

图片 7

东拼西凑成这么的U汉兰达L即可:http://jandan.net/ooxx/page-448
过滤下得到页码:

图片 8

图片 9

接下去就把代码补齐咯,循环抓取每一页的小妹妹,然后下载到本地,
完整代码如下:

import os
from selenium import webdriver
from bs4 import BeautifulSoup
import urllib.request
import ssl
import urllib.error

base_url = 'http://jandan.net/ooxx'
pic_save_path = "output/Picture/JianDan/"


# 下载图片
def download_pic(url):
    correct_url = url
    if url.startswith('//'):
        correct_url = url[2:]
    if not url.startswith('http'):
        correct_url = 'http://' + correct_url
    print(correct_url)
    headers = {
        'Host': 'wx2.sinaimg.cn',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/61.0.3163.100 Safari/537.36 '
    }
    try:
        req = urllib.request.Request(correct_url, headers=headers)
        resp = urllib.request.urlopen(req)
        pic = resp.read()
        pic_name = correct_url.split("/")[-1]
        with open(pic_save_path + pic_name, "wb+") as f:
            f.write(pic)
    except (OSError, urllib.error.HTTPError, urllib.error.URLError, Exception) as reason:
        print(str(reason))


# 打开浏览器模拟请求
def browser_get():
    browser = webdriver.Chrome()
    browser.get('http://jandan.net/ooxx')
    html_text = browser.page_source
    page_count = get_page_count(html_text)
    # 循环拼接URL访问
    for page in range(page_count, 0, -1):
        page_url = base_url + '/page-' + str(page)
        print('解析:' + page_url)
        browser.get(page_url)
        html = browser.page_source
        get_meizi_url(html)
    browser.quit()


# 获取总页码
def get_page_count(html):
    soup = BeautifulSoup(html, 'html.parser')
    page_count = soup.find('span', attrs={'class': 'current-comment-page'})
    return int(page_count.get_text()[1:-1]) - 1


# 获取每个页面的小姐姐
def get_meizi_url(html):
    soup = BeautifulSoup(html, 'html.parser')
    ol = soup.find('ol', attrs={'class': 'commentlist'})
    href = ol.findAll('a', attrs={'class': 'view_img_link'})
    for a in href:
        download_pic(a['href'])


if __name__ == '__main__':
    ssl._create_default_https_context = ssl._create_unverified_context
    if not os.path.exists(pic_save_path):
        os.makedirs(pic_save_path)
    browser_get()

运行结果

图片 10

看下大家输出文件夹~

图片 11

图片 12

学习Python爬虫,日渐消瘦…


6.Selenium 常用函数

Seleninum作为自动化测试的工具,自然是提供了广大自动化操作的函数,
上面罗列下个人觉得相比较常用的函数,越来越多可知官方文档:
官方API文档http://seleniumhq.github.io/selenium/docs/api/py/api.html


6) 页面等待

近来的网页越多应用了 Ajax技术,那样程序便不能够鲜明哪一天有些成分完全
加载出来了。假如实际页面等待时间过长导致有些dom成分还没出来,不过你的
代码直接动用了那么些WebElement,那么就会抛出NullPointer的格外。

为了防止那种成分定位困难而且会增长发生
ElementNotVisibleException的概率。
所以 Selenium
提供了两种等待格局,一种是隐式等待,一种是显式等待

显式等待

显式等待内定有些条件,然后设置最长等待时间。若是在这些时刻还未曾
找到成分,那么便会抛出极度了。

from selenium import webdriver
from selenium.webdriver.common.by import By
# WebDriverWait 库,负责循环等待
from selenium.webdriver.support.ui import WebDriverWait
# expected_conditions 类,负责条件出发
from selenium.webdriver.support import expected_conditions as EC

driver = webdriver.PhantomJS()
driver.get("http://www.xxxxx.com/loading")
try:
    # 每隔10秒查找页面元素 id="myDynamicElement",直到出现则返回
    element = WebDriverWait(driver, 10).until(
        EC.presence_of_element_located((By.ID, "myDynamicElement"))
    )
finally:
    driver.quit()

倘使不写参数,程序暗中认同会 0.5s 调用一遍来查阅成分是不是已经变更,
若果本来元素就是存在的,那么会及时赶回。

上边是部分放置的守候条件,你可以平昔调用这个条件,而不用自身
写一些等待条件了。

title_is
title_contains
presence_of_element_located
visibility_of_element_located
visibility_of
presence_of_all_elements_located
text_to_be_present_in_element
text_to_be_present_in_element_value
frame_to_be_available_and_switch_to_it
invisibility_of_element_located
element_to_be_clickable – it is Displayed and Enabled.
staleness_of
element_to_be_selected
element_located_to_be_selected
element_selection_state_to_be
element_located_selection_state_to_be
alert_is_present

隐式等待

隐式等待相比简单,就是简单地设置一个等候时间,单位为秒。

from selenium import webdriver

driver = webdriver.PhantomJS()
driver.implicitly_wait(10) # seconds
driver.get("http://www.xxxxx.com/loading")
myDynamicElement = driver.find_element_by_id("myDynamicElement")

自然如若不设置,暗许等待时间为0。


4)页面前进,后退,切换

切换窗口: driver.switch_to.window(“窗口名”)
可能通过window_handles来遍历
for handle in driver.window_handles:
      driver.switch_to_window(handle)
driver.forward() #前进
driver.back() # 后退


1) 定位成分

  • find_element_by_class_name:根据class定位
  • find_element_by_css_selector:根据css定位
  • find_element_by_id:根据id定位
  • find_element_by_link_text:按照链接的文件来恒定
  • find_element_by_name:依据节点名稳定
  • find_element_by_partial_link_text:依照链接的文件来稳定,只要包括在整整文件中即可
  • find_element_by_tag_name:通过tag定位
  • find_element_by_xpath:使用Xpath进行一定

PS:把element改为elements会一定有所符合条件的要素,再次来到壹个List
比如:find_elements_by_class_name

2.下载浏览器驱动

因为Selenium是不带浏览器的,所以需求依赖第一方的浏览器,要调用第②方
的浏览器的话,必要下载浏览器的驱动,因为笔者用到是Chrome,那里就以
Chrome为例子吗,其余浏览器的自动检索相关材料了!打开Chrome浏览器,键入:

chrome://version

可以查阅Chrome浏览器版本的连锁音讯,这里关键是关怀版本号就行了:

图片 13

61,好的,接下来到上边的那一个网站查阅相应的驱动版本号:

https://chromedriver.storage.googleapis.com/2.34/notes.txt

图片 14

好的,那就下载v2.34本子的浏览器驱动吧:

https://chromedriver.storage.googleapis.com/index.html?path=2.34/

图片 15

下载完结后,把zip文件解压下,解压后的chromedriver.exe拷贝到Python
的Scripts目录下。(那里并非纠结win32,在六十几人的浏览器上也是足以健康使用的!)

PS:Mac的话把解压后的文件拷贝到usr/local/bin目录下
Ubuntu的话拷贝到:usr/bin目录下

接下去大家写个简易的代码来测试下:

from selenium import webdriver

browser = webdriver.Chrome()  # 调用本地的Chrome浏览器
browser.get('http://www.baidu.com')  # 请求页面,会打开一个浏览器窗口
html_text = browser.page_source  # 获得页面代码
browser.quit()  # 关闭浏览器
print(html_text)

执行那段代码,会活动调起浏览器,并且访问百度:

图片 16

而且决定台会输出HTML的代码,就是向来拿走的Elements页面结构
JS执行完后的页面接下来我们就可以来抓我们的煎蛋妹子图啦


1.安装Selenium

这一个就很简短了,直接通过pip命令行进行设置:

sudo pip install selenium

PS:想起以前集团青年伴问过我pip在win上怎么实施不断,又其余下了众多pip,
实则只要您安装了Python3的话,已经专断认同带有pip了,你须要此外配置下环境
变量,pip的路子在Python安装目录的Scripts目录下~

图片 17

Path后边加上这一个路子就好~

图片 18


7.执行JS语句

driver.execute_script(js语句)
比如说滚动到底层:
js = document.body.scrollTop=10000
driver.execute_script(js)


2) 鼠标动作

有时必要在页面上模仿鼠标操作,比如:单击,双击,右键,按住,拖拽等
可以导入ActionChains类:selenium.webdriver.common.action_chains.ActionChains
使用ActionChains(driver).XXX调用对应节点的作为

  • click(element):单击有个别节点;
  • click_and_hold(element):单击某些节点并按住不放;
  • context_click(element):右键单击有个别节点;
  • double_click(element):双击某些节点;
  • drag_and_drop(source,target):按住有些节点拖拽到另多少个节点;
  • drag_and_drop_by_offset(source, xoffset,
    yoffset)
    :按住节点按偏移拖拽
  • key_down:按下特殊键,只可以用(Control, Alt and
    Shift),比如Ctrl+C
    ActionChains(driver).key_down(Keys.CONTROL).send_keys(‘c’).key_up(Keys.CONTROL).perform();
  • key_up:释放特殊键;
  • move_by_offset(xoffset, yoffset):按偏移移动鼠标;
  • move_to_element(element):鼠标移动到某些节点的职位;
  • move_to_element_with_offset(element, xoffset,
    yoffset)
    :鼠标移到有些节点并偏移;
  • pause(second):暂停全数的输入多少秒;
  • perform():执行操作,能够设置多少个操作,调用perform()才会进行;
  • release():释放鼠标按钮
  • reset_actions:重置操作
  • send_keys(keys_to_send):模拟按键,比如输入框节点.send_keys(Keys.CONTROL,’a’)
    全选输入框内容,输入框节点.send_keys(Keys.CONTROL,’x’)剪切,模拟回退:
    节点.send_keys(keys.RETU卡宴N);只怕直接设置输入框内容:输入框节点.send_keys(‘xxx’);
  • *send_keys_to_element(element,keys_to_send)**:和send_keys类似;

4.PhantomJS

PhantomJS一贯不界面的浏览器,特点:会把网站加载到内存并举办页面上的
JavaScript,因为不会突显图形界面,所以运转起来比完全的浏览器要高效
(在局地Linux的主机上从未有过图形化界面,就不可以装Chrome这类浏览器了,
可以由此PhantomJS来避开那么些题目)。

Win上安装PhantomJS

  • 1.官网下载http://phantomjs.org/download.html
    压缩包;
  • 2.解压:phantomjs-2.1.1-windows.zip 放到自个儿想放的职位;
  • 3.布局环境变量目录/bin 比如作者的:
    图片 19

  • 4.打开cmd,键入:phantomjs –version 验证是不是配备成功;
    图片 20

Ubuntu/MAC上安装PhantomJS

sudo apt-get install phantomjs

!!!关于PhantomJS的要紧表明

在当年的三月份,Phantom.js的帮衬者(Maintainer)揭橥脱离PhantomJS,
表示那几个序列项目只怕不会再开展保证了!!!Chrome和FireFox也开始
提供Headless模式(无需吊起浏览器),所以,推断应用PhantomJS的伴儿
也会日益迁移到那五个浏览器上。Windows Chrome需求60上述的本子才支撑
Headless格局,启用Headless方式也非凡简单:

图片 21

selenium官方文档也写了:

图片 22

运营的时候也会报那个警示:

图片 23


引言

事先抓的妹子图都以一贯抓Html就足以的,就是Chrome的浏览器F12的
Elements页面结构和Network抓包回来一样的结果。前面在抓取一些
网站(比如煎蛋,还有那种小网站的时候)就发现了,Network那里抓包
取得的数目尚未,而Elements却有些意况,原因就是:页面的数码是
通过JavaScript来动态变化的:

图片 24

图片 25

抓不到数量怎么破,一初始自笔者还想着自学一波JS基本语法,再去模拟抓包
得到旁人的JS文件,本人再去分析逻辑,然后捣鼓出真正的UENCOREL,后来或许
扬弃了,终归要抓的页面那么多,各个那样分析分析到何等时候…

图片 26

背后竟然发现有个自动化测试框架Selenium
可以帮大家应对那些难点。
粗略说下这些东西有什么样用吗,大家能够编纂代码让浏览器

  • 1.自动加载网页;
  • 2.模拟表单提交(比如效仿登录),获取需求的多寡;
  • 3.页面截屏;
  • 4.判定网页某个动作是还是不是爆发,等等。

接下来那么些事物是不帮助浏览器成效的,你须求和第叁方的浏览器联合搭配使用,
辅助下述浏览器,需求把相应的浏览器驱动下载到Python的对应路径下:

Chromehttps://sites.google.com/a/chromium.org/chromedriver/home
FireFoxhttps://github.com/mozilla/geckodriver/releases
PhantomJShttp://phantomjs.org/
IEhttp://selenium-release.storage.googleapis.com/index.html
Edgehttps://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/
Operahttps://github.com/operasoftware/operachromiumdriver/releases

直接发轫本节的内容呢~


3) 弹窗

对应类:selenium.webdriver.common.alert.Alert,感觉应该用得不多…

即便您触发了某些时间,弹出了对话框,可以调用下述方法得到对话框:
alert = driver.switch_to_alert(),然后可以调用下述方法:

  • accept():确定
  • dismiss():关闭对话框
  • send_keys():传入值
  • text():拿到对话框文本

5) 页面截图

driver.save_screenshot(“截图.png”)


小结

本节教师了一波行使Selenium自动化测试框架来抓取JavaScript动态变化数据,
Selenium需器重于第二方的浏览器,要专注PhantomJS无界面浏览器过时的
题材,可以应用Chrome和FireFox提供的HeadLess来替换;通过抓取煎蛋妹子
图以及模仿CSDN自动登录的事例来熟练Selenium的骨干接纳,照旧收货良多的。
当然Selenium的水只怕很深的,当前大家可以利用它来敷衍JS动态加载数据页面
数据的抓取就够了。

另近日天气骤冷,各位小伙伴记得及时添衣~

图片 27

顺路记录下团结的想到的东西:

  • 1.不是各样网站都以像CSDN一样不须求验证码就可见登录的,验证码还分几代,
    普通的数字模糊下,滑条,而像简书掘金队用这种人机检测的是相比新的,近来还
    不通晓怎么消除,有精通的同伙告诉下呗~
  • 2.像丹佛掘金队,简书等那种抓取小说,为了反爬虫,必要登录才能查看全文…

本节源码下载

https://github.com/coder-pig/ReptileSomething


本节参考文献


5.Selenium实战:模拟登录CSDN,并保留Cookie

CSDN登录网站https://passport.csdn.net/account/login

解析下页面结构,不难找到相应的记名输入框,以及登录按钮:

图片 28

图片 29

大家要做的就是在那八个结点输入账号密码,然后触发登录按钮,
再者把Cookie保存到本地,前边就可以带着库克ie去访问相关页面了~

先编制模拟登录的点子呢:

图片 30

找到输入账号密码的节点,设置下自身的账号密码,然后找到登录
按钮节点,click一下,然后坐等登录成功,登录成功后可以相比
current_url是不是爆发了改动。然后把Cookies给保存下去,那里
本人用的是pickle库,能够用任何,比如json,恐怕字符串拼接,
然后保留到地头。如无意外应该是能得到库克ie的,接着就应用
Cookie去访问主页。

图片 31

通过add_cookies方法来设置Cookie,参数是字典类型的,此外要先
走访get一回链接,再去设置cookie,不然会报不只怕设置cookie的荒谬!

看下右下角是还是不是成为登录状态就足以领略是还是不是使用Cookie登录成功了:

图片 32


相关文章