Ruby中爬虫的实现
Ruby 中实现网页抓取,一般用的是 mechanize,使用非常简单。安装
sudo gem install mechanize |
抓取网页
require 'rubygems' |
模拟点击事件
page = agent.page.link_with(:text => 'News').click |
模拟表单提交
google_form = page.form('f') |
分析页面,mechanize 用的是 nokogiri 解析网页的,所以可以参照 nokogiri 的文档
table = page.search('a') |
有几点注意的地方: 如果需要先登录的网页,那么可以在网站先登录,登录后记录 JSESSIONID,然后赋值给 agent
cookie = Mechanize::Cookie.new("JSESSIONID", "BA58528B76124698AD033EE6DF12B986:-1") |
如果需要保存网页,使用。save_as,(或许 save 也可以,我没试过) 例如
agent.get("http://google.com").save_as |
The Why·Liam·Blog by WhyLiam is licensed under a Creative Commons BY-NC-ND 4.0 International License.
由WhyLiam创作并维护的Why·Liam·Blog采用创作共用保留署名-非商业-禁止演绎4.0国际许可证。
本文首发于Why·Liam·Blog (https://blog.naaln.com),版权所有,侵权必究。
本文永久链接:https://blog.naaln.com/2013/09/realization-of-reptiles-in-ruby/