新手爬虫,教你爬掘金(二)

2,802 阅读5分钟

距离上次教程已经过了快两周了,没办法啊,学业繁忙(¬、¬) (¬_¬)

本文用到的三个工具为

  • cheerio:jQuery语法,帮助你在非浏览器环境下解析网页用的
    • 上次没用到,这个肯定用到啦
  • segment 一个基于盘古词库的中文分词工具,cnode大神写的,手动@leizongmin大神

cheerio用法

const cheerio = require('cheerio'),
    $ = cheerio.load('<h2 class="title">Hello world</h2>');

$('h2.title').text('Hello there!');
$('h2').addClass('welcome');

$.html();
//=> <h2 class="title welcome">Hello there!</h2>

额外用法戳这里

segment 用法

const Segment = require('segment');
// 创建实例
const segment = new Segment();
// 使用默认的识别模块及字典,载入字典文件需要1秒,仅初始化时执行一次即可
segment.useDefault();

// 开始分词
console.log(segment.doSegment('这是一个基于Node.js的中文分词模块。'));
// [ { w: '这是', p: 0 },
//   { w: '一个', p: 2097152 },
//   { w: '基于', p: 262144 },
//   { w: 'Node.js', p: 8 },
//   { w: '的', p: 8192 },
//   { w: '中文', p: 1048576 },
//   { w: '分词', p: 4096 },
//   { w: '模块', p: 1048576 },
//   { w: '。', p: 2048 } ]

但是我们一般不需要输出词性,也不需要输出多余的标点符号,所以

const result = segment.doSegment(text, {
  simple: true,          //不输出词性
  stripPunctuation: true //去除标点符号
});
//  [ '这是', '一个', '基于', 'Node.js', '的', '中文', '分词', '模块' ]

更高级用法见segment

全部代码见github

基本用法也了解了,接下来进入正题吧╰(●’◡’●)╮

爬取图片

image.png
image.png
爬取到的图片

image.png

可以看到img元素上面src和自定义的data-src属性都带有图片地址,至于为什么再下面的代码中我没有获取src的值 完全是我太菜了◔ ‸◔?,img.eq(i).src 获取不到值,只能 prop('data-src')

自定义属性兼容性很差劲

Internet Explorer 11+ Chrome 8+ Firefox 6.0+ Opera 11.10+ Safari 6+

熟悉正则的同学,稍微分析下图片的地址就可以通过正则来获取url了,以下是我给出的示例 /(https:\/\/user-gold-cdn).+?\/ignore-error\/1/g 需要注意的是/的转义,以及惰性匹配.+?,关于惰性匹配我这里不打算说了(稍微提一下下(//▽//),其实就是匹配符合要求的最短串),要是说起来又可以写一大堆了

想详细了解的同学可以看看这个解释

/**
 * 
 * @param {any} $ cheerio
 * @param {any} request 请求函数
 */
function saveImg($, request) {
  const img = $('.lazyload');
  const origin = request.default();  //这里是我对request进行了一个简单的封装,default返回未封装的request
  for (let i = 0; i < img.length; ++i) {
    //data.body.match(/(https:\/\/user-gold-cdn).+?\/ignore-error\/1/g)
    let src = img.eq(i).prop('data-src');
    let name = src.match(/\/.{16}\?/g) && src.match(/\/.{16}\?/g)[0].slice(1, -1); //匹配出图片名称
    if (name) {
      origin.get(src).pipe(fs.createWriteStream(`./images/${name}.png`)); //愉快的下载图片
    }
  }
}

数据处理

介绍下用的数据结构Map,用来存储词频(词-词出现的次数)

类似于对象,也是键值对的集合,但是“键”的范围不限于字符串,各种类型的值(包括对象)都可以当作键。也就是说,Object 结构提供了“字符串—值”的对应,Map 结构提供了“值—值”的对应,是一种更完善的 Hash 结构实现。如果你需要“键值对”的数据结构,Map 比 Object 更合适。

其实对于本文来讲,键都为字符串,用对象也完全没有问题,使用Map完全是为了尝鲜 (●’◡’●)ノ 关于Map复制的解释,这一点和对象又不一样

Map复制

image.png
Object复制,作为参数传进构造函数并不可以复制
image.png

async function getPage(request, url) {
  const data = await request.get({ url });
  const $ = cheerio.load(data.body);
  saveImg($, request);
  //获取内容
  let length = $('p').length;
  for (let i = 0; i < length; ++i) {
    let result = segment.doSegment(
      $('p')  //大部分内容都是p标签包裹的,这里不做过复杂的处理
        .eq(i)
        .text(),
      {
        simple: true, //不输出词性
        stripPunctuation: true //去除标点符号
      }
    );
    result.forEach((item, key) => {
      map.set(item, map.get(item) + 1 || 1); //1 + undefined || 1 => 1
    });
  }
  map = sortToken(map);
}

function sortToken(map) {
  const words = {}; //存储词
  let mapCopy = new Map(map); //获取副本,Map直接赋值应该也是地址引用,参见上文
  map.forEach((value, key) => {
    //分词长度大于1
    if (value !== 1 && key.length > 1) { //词频大于1且不是单个字的留下,单字没有什么号分析的吧?
      words[key] = value;
    }
    if (value === 1) { //词频过低,直接刷了
      mapCopy.delete(key);
    }
  });
  const keys = Object.keys(words);
  //排序
  keys.sort((a, b) => {
    return words[b] - words[a];
  });
  //  每篇文章词频最高的20个词,有兴趣了解的同学可以去看看top k算法(我们是获取前k个,它是获取第k个,但是它这样需要把前k个都保存下来,用来比较哪些是前k大)
  //  我这个方法只是粗略的获取词频最高的20个词,实际上会有偏差,假设第一次排序,第十一个词词频为23,而第二次排序,第十个词词频为12,这样本来之前词频高的反被刷了
  //  但这样的好处是节省内存(其实是假的),真正的可以利用最大堆和利用数据库存储,这样就不用存在内存了
  //  最后爬取完了,从数据库取出数据,再参照top k思想算法得出结果
  keys.slice(0, 20).forEach(item => {
    console.log(item, words[item]);
  });
  //返回分词中词频为1的分词
  return mapCopy;
}

image.png
我爬取了最新评论前100个文章的内容进行了分析,得出了以上结果 可以看到,代码方法函数对象执行调用组件等等跟代码有关的中文词语都出现了 不过还是一个最受欢迎,出现次数快1000次了 (」゜ロ゜)」 有兴趣的同学,可以使用英文分词进行分析,分析下程序员们写文章喜欢写什么代码
image.png
以上是我分析的一篇文章里面的英文

还可以再分析标题,然后还可以改进排序算法,直接把整个article-content(class)的text进行分析,而不是像我一样,只是分析p标签 (๑•̀_•́๑) ,最后用可视化工具(例如e-cahrt)把数据展示出来

喜欢的同学可以star哦github

以上,如有错误,欢迎大家指正