网页爬虫JavaScript页面渲染技术与应用

粤讯 中字

廖雨寒 杨彦松 张斌

睿哲科技股份有限公司

一、背景

随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫(web crawler)随之而生。但是现在的网站很少有纯静态网页,大部分网站都通过JavaScript渲染、ajax异步等实现网页数据加载。对于目前的爬虫框架来说,基本都是爬取到的未渲染过的HTML源码,所以对于爬虫来说没真正做到浏览器的所见即所爬。对于scrapy来说,官方有一个scrapy-splash项目支持页面渲染解析,然而scrapy-splash在高并发状态下极其不稳定。一种方案是通过webkit浏览器引擎直接渲染,另一种方案是通过调用浏览器渲染。通过几种方案比较,最终选择了Google Chrome Devtools Protocol开发渲染功能。

二、渲染方案可行性分析

1.Scrapy-Splash

Scrapy-splash是scrapy官方团队提供的一个解决js渲染问题的方案。Splash是处理网页渲染的模块,它内部使用的开源的webkit浏览器引擎,通过HTTP API来使用渲染服务。在scrapy中通过DownloaderMiddleware处理网页请求,实际是去请求splash接口并得到渲染后的数据。

blob.png

Splash优点:

可以并行处理多个网页

获取HTML结果和/或截取屏幕截图

关掉加载图片或使用 Adblock Plus规则使得渲染速度更快

使用JavaScript处理网页内容

使用Lua脚本

能够获得具体的HAR格式的渲染信息

然而在实际使用scrapy-splash的过程中,也遇到过一些splash的问题:

对于一些特殊网站,并不能很好的处理重定向,比如一些需要通过js渲染Cookie的页面,需要通过location对象重定向好几次才能到真正的页面,但是splash只是处理了第一次的渲染Cookie后并没有实现跳转

在并发的情况下,获取到的数据有时候是没有内容的

2.Scrapy-QtWebkit

Splash是采用Webkit引擎实现的网页渲染,可直接采用Webkit对接Scrapy实现渲染网页。在Qt库中有相应的QtWebkit模块,但是在Qt5.6版本以上QtWebkit就被淘汰了,代替它的是QtWebEngine,因此,选择QtWebKit时,建议使用Qt4或者Qt5.6之前的版本。

blob.png

Webkit大致通过View-->Page-->Frame的流程来加载网页。通过这些模块,对于上面splash遇到重定向问题和空页面问题都能得到解决。

Webkit优点:

细粒度处理网页渲染

资源加载可控

直接交与webkit处理更效率

Webkit缺点:

内存资源占用较大

高并发处理网页过多容易引起C底层错误

三、Google Chrome Devtools Protocol

以上两种方案,都存在各自的缺点, 那有没有可能直接通过调用浏览器加载网页呢?事实上selenium可以操作浏览器。selenium操作chrome是使用chromedriver,chromedriver底层应用的是Chrome Devtools Protocol,因此,何不直接使用Chrome Devtools Protocol。

Chrome Devtools Protocol介绍

在Chrome/Chromium浏览器中,按F12会弹出调试工具,它是通过Chrome Devtools Protocol的协议来进行数据通讯。Chrome Devtools Protocol用来与浏览器页面(pages)交互和调试的协议通道。它采用websocket来与页面建立通信通道,由发送给页面的Commands和它所产生的Events组成。

在Chrome Devtools Protocol中,有很多不同的功能模块域(domains),类似于Chrome开发这工具的个功能模块。

然而对于此例的爬虫来说,只需要用到Network,Page,Runtime等几个功能模块域:

Network允许跟踪页面的网络活动,它公开http, file, data,网络请求和响应等数据信息

Page会检查与页面相关的动作和事件

Runtime主要用作运行JavaScript操作代码

启动调试实例

要使用Chrome Devtools Protocol,需要开启调试。我们的项目运行在服务器中,所以需要开启无头模式 --headless --disable-gpu --no-sandbox。

chrome.exe --remote-debugging-port=9222 --headless --disable-gpu --no-sandbox

如果需要远程调试,可以加上参数--remote-debugging-address='0.0.0.0'。

操作Chrome Devtools Protocol

通过以上命令可以启动一个Chrome调试实例,通过HTTP调用接口:

http://loacalhost:9222/json

会得到接口返回的JSON数据:

"description": "",

"devtoolsFrontendUrl": "/devtools/inspector.html?ws=localhost:9222/devtools/page/A6C1F7B23DFF222A87143ACB37CBF7C4",

"id": "A6C1F7B23DFF222A87143ACB37CBF7C4",

"title": "about:blank",

"type": "page",

"url": "about:blank",

"webSocketDebuggerUrl": "ws://localhost:9222/devtools/page/A6C1F7B23DFF222A87143ACB37CBF7C4"

默认开启实例后会有一个空的标签页(Tab),要创建新的Tab,只需要通过调用接口

http://loacalhost:9222/json/new

或者在后面直接添加网址,Tab将会创建并加载网页

http://loacalhost:9222/json/new?http://www.example.com/

在每个Tab中有一个webSocketDebuggerUrl字段,它提供了一个WebSocket接口与Chrome交互。比如要启用Page模块域,通过WebSocket发送以下命令开启:

{"id":1, "method":"Page.enable", "params":{}}

关闭Tab

http://loacalhost:9222/json/close/A6C1F7B23DFF222A87143ACB37CBF7C4

四、Scrapy实现Chrome Protocol下载渲染页面

Scrapy是一个爬虫框架,它使用了Twisted异步网络库来处理网络通讯,他的大致架构流程如图

blob.png

图 1  Scrapy框架

在图1中我们看到scrapy处理网络请求的是Downloader模块,他通过DownloaderHandler下载处理器完成下载网络请求,下载处理器使用的是Twisted网络库实现的,对于Chrome Protocol来说我们通过接口操作命令实现网页加载本质上是Chrome加载网页,也就是说下载处理是通过Chrome Protocol接口操作Chrome浏览器请求加载并渲染网页,因此我们需要拿到渲染后的网页HTML源码,需要改写DownloaderHandler。

然而原生操作Chrome Protocol太繁琐,我们需要封装它。在Github上有多种语言实现了Chrome Devtools Protocol的封装。对于Python来说,我们使用Pychrome库来操作Chrome Protocol,可以直接用pip安装模块:

pip install pychrome

当然要使用该模块得要启动Chrome调试实例,通过实例的地址和端口号连接:

browser = pychrome.Browser(url="http://<your_ip>:9222")

通过new_tab()方法创建tab标签页,通过tab.start()启动当前tab的websocket链接,例如需要启动Network功能域,通过调用tab.Network.enable()来启动,通过tab.Page.navigate(url="http://www.example.com")加载网页,该页面加载时的一切网络活动都可以通过接收websocket响应得到json数据。

这时会有一个问题,何时才算是真正渲染完成页面?

blob.png

图 2  JS渲染流程

在图2中是浏览器从输入网址到页面加载完成的处理流程,loadEventEnd是真正加载完成,但是在一些使用ajax异步请求的网页使用loadEventEnd并不能很好的判断为渲染结束,所以这里我们使用JavaScript命令获取readyState状态判断页面是否加载完成:

document.readyState

readyState一共有五种状态:

uninitialized - XML 对象被产生,但没有任何文件被加载

loading - 加载程序进行中,但文件尚未开始解析

loaded - 部分的文件已经加载且进行解析,但对象模型尚未生效

interactive - 仅对已加载的部分文件有效,在此情况下,对象模型是有效但只读的

complete - 文件已完全加载,代表加载成功

通过document.readyState == complate来判断数据的加载进度。当加载完成时通过javascript命令获取渲染后的HTML源码:

document.documentElement.outerHTML

在这里我们就可以使用Pychrome替代scrapy的twisted下载处理。

五、结语

使用chrome devtools protocol来操作chrome浏览器来渲染页面,能基本完成渲染页面的需求,一些需要与浏览器交互的页面也大致能使用JavaScript操作命令,重点是使用chrome操作页面渲染会很占用资源,因此不宜过多的开启渲染进程,多线程下载尽量重用Tab标签页,因为每多创建一个Tab相当于开了一个进程,最后,爬虫结束时,应该调用相关接口关闭所有Tab,释放资源。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存