栗子-爬取开源中国的开源资讯

介绍

为了演示Hutool-http的http请求功能,因此这个栗子用红薯家的开源资讯开刀,在此做个简单的Demo。

开始

分析页面

  • 打开红薯家的主页,我们找到最显眼的开源资讯模块,然后点击“更多”,打开“开源资讯”板块。案例1-爬取开源中国的开源资讯 - 图1

  • 打开F12调试器,点击快捷键F12打开Chrome的调试器,点击“Network”选项卡,然后在页面上点击“全部资讯”。案例1-爬取开源中国的开源资讯 - 图2

案例1-爬取开源中国的开源资讯 - 图3

  • 由于红薯家的列表页是通过下拉翻页的,因此下拉到底部会触发第二页的加载,此时我们下拉到底部,然后观察调试器中是否有新的请求出现。如图,我们发现第二个请求是列表页的第二页。案例1-爬取开源中国的开源资讯 - 图4

  • 我们打开这个请求地址,可以看到纯纯的内容。红框所指地址为第二页的内容,很明显p参数代表了页码page。案例1-爬取开源中国的开源资讯 - 图5

  • 我们右键点击后查看源码,可以看到源码。案例1-爬取开源中国的开源资讯 - 图6

  • 找到标题部门的HTML源码,然后搜索这个包围这个标题的HTML部分,看是否可以定位标题。案例1-爬取开源中国的开源资讯 - 图7

案例1-爬取开源中国的开源资讯 - 图8

至此分析完毕,我们拿到了列表页的地址,也拿到了可以定位标题的相关字符(在后面用正则提取标题用),就可以开始使用Hutool编码了。

模拟Http请求爬取页面

使用Hutool-http配合ReUtil请求并提取页面内容非常简单,代码如下:

  1. //请求列表页
  2. String listContent = HttpUtil.get("https://www.oschina.net/action/ajax/get_more_news_list?newsType=&p=2");
  3. //使用正则获取所有标题
  4. List<String> titles = ReUtil.findAll("<span class=\"text-ellipsis\">(.*?)</span>", listContent, 1);
  5. for (String title : titles) {
  6. //打印标题
  7. Console.log(title);
  8. }

抓取结果为:案例1-爬取开源中国的开源资讯 - 图9

其实核心就前两行代码,第一行请求页面内容,第二行正则定位所有标题行并提取标题部分。

这里我解释下正则部分:ReUtil.findAll方法用于查找所有匹配正则表达式的内容部分,第二个参数1表示提取第一个括号(分组)中的内容,0表示提取所有正则匹配到的内容。这个方法可以看下core模块中ReUtil章节了解详情。

<span class=\"text-ellipsis\">(.?)</span>这个正则就是我们上面分析页面源码后得到的正则,其中(.?)表示我们需要的内容,.表示任意字符,*表示0个或多个,?表示最短匹配,整个正则的意思就是。,以<span class=\"text-ellipsis\">开头,</span>结尾的中间所有字符,中间的字符要达到最短。?的作用其实就是将范围限制到最小,不然</span>很可能匹配到后面去了。

关于正则表达式这块可以看下我的博客:正则表达式简明参考

结语

不得不说,抓取本身并不困难,尤其配合Hutool会让这项工作变得更加简单快速,而其中的难点便是分析页面和定位我们需要的内容。

真正的内容抓取分为连个部分:

  • 找到列表页(很多网站都没有一个总的列表页)
  • 请求列表页,获取详情页地址
  • 请求详情页并使用正则匹配我们需要的内容
  • 入库或将内容保存为文件而且在抓取过程中我们也会遇到各种问题,包括但不限于:

  • 封IP

  • 对请求Header有特殊要求
  • 对Cookie有特殊要求
  • 验证码这些问题都有一些解决办法,具体要在具体的开发中分析解决。

希望大家看到这个栗子有所启发,也为Hutool提供更多更好的意见~