当前位置:AIGC资讯 > AIGC > 正文

AIGC爬虫实战(一)

前言

传统的网络爬虫系统效率较低且难以应对复杂多变的网页环境

基于AIGC技术的智能化爬虫,则可以大幅提升爬虫的自主性和适应性,从而更高效地完成网络数据的采集和分析任务

本文将通过一系列实战案例,深入探讨AIGC技术在网络爬虫开发中的具体应用

代码实现

首先安装一下request-promise和cheerio

npm install request-promise

npm install cheerio

request-promise:

request-promise 是一个基于 request 库的 Promise 封装库。它使得发出 HTTP 请求变得更加简单和优雅。

与原生的 fetch API 相比,request-promise 提供了更丰富的功能,如支持 cookie、代理设置、自定义报头等。

使用 request-promise 可以轻松地进行异步 HTTP 请求,并通过 Promise 链处理结果,大大简化了回调嵌套的问题。

示例代码:

const rp = require('request-promise');

rp('https://www.example.com')
  .then((htmlString) => {
    console.log(htmlString);
  })
  .catch((err) => {
    console.error(err);
  });

cheerio:

cheerio 是一个用于解析和处理 HTML 的 jQuery 核心功能的实现。

它提供了一套类似于浏览器中 jQuery 的 API,让开发者可以使用熟悉的选择器语法来遍历、搜索和操作 HTML 文档。

与 JSDOM 等完整的 DOM 解析器相比,cheerio 更加轻量级和高效,适合在服务器端进行 HTML 解析和数据提取。

示例代码:

const cheerio = require('cheerio');

const $ = cheerio.load('<h2 class="title">Hello, cheerio</h2>');

$('h2.title').text('Hello, world.');
$('h2').addClass('welcome');

console.log($.html());
// Output: <h2 class="title welcome">Hello, world.</h2>

接下来我们开始书写我们的代码

引入所需的Node.js模块:

request-promise: 用于发送HTTP请求并获取页面内容 cheerio: 用于解析HTML页面,提取所需的数据 fs: 用于写入JSON文件

定义基础URL:

basicUrl = 'https://movie.douban.com/top250'

定义getMovieInfo函数:

该函数接受一个HTML节点作为参数 使用cheerio解析节点,提取电影的标题、信息和评分 将提取的数据封装成一个对象并返回

定义getPage函数:

该函数接受一个URL和页码作为参数 使用request-promise发送HTTP请求获取页面内容 使用cheerio解析页面,提取每部电影的信息 将提取的数据封装成一个数组并返回

定义main函数:

该函数为程序入口点 设置需要爬取的页数为25页(250部电影) 使用for循环遍历每页,调用getPage函数获取数据 将所有页面的数据合并成一个列表 使用fs.writeFile将列表写入到output.json文件中
let request = require('request-promise') // 需要安装
let cheerio = require('cheerio') // 需要安装
let fs = require('fs')
let basicUrl = 'https://movie.douban.com/top250'

function getMovieInfo(node) {
    let $ = cheerio.load(node)
    let titles = $('.info .hd span')
    titles = ([]).map.call(titles, t => {
        return $(t).text()
    })
    let bd = $('.info .bd')
    let info = bd.find('p').text()
    let score = bd.find('.star .rating_num').text()
    return { titles, info, score }
}
async function getPage(url, num) {
    let html = await request({
        url
    })
    console.log('连接成功!', `正在爬取第${num + 1}页数据`)
    let $ = cheerio.load(html)
    let movieNodes = $('#content .article .grid_view').find('.item')
    let movieList = ([]).map.call(movieNodes, node => {
        return getMovieInfo(node)
    })
    return movieList
}
async function main() {
    let count = 25
    let list = []
    for (let i = 0; i < count; i++) {
        let url = basicUrl + `?start=${25 * i}`
        list.push(... await getPage(url, i))
    }
    console.log(list.length)
    fs.writeFile('./output.json', JSON.stringify(list), 'utf-8', () => {
        console.log('生成json文件成功!')
    })
}
main()

可以看到我们爬取的数据都在json文件中

可以看到我们的数据格式还是有点问题的

接下来我们将第一个数据将它交给AI处理一下

可以看到AI给我们处理的不错,所以AI能够有效的提高我们爬取处理数据的效率

下篇文章我们将讲解一下如何在项目中调用AI的API去快捷处理数据

总结

本文将通过实战案例,深入探讨AIGC技术在网络爬虫开发中的具体应用

基于AIGC技术的智能化爬虫,则可以大幅提升爬虫的自主性和适应性,从而更高效地完成网络数据的采集和分析任务,AI在项目中的大力使用能够有效得提升项目的能力

总结

**基于AIGC技术的网络爬虫应用总结**
**问题描述与需求**:
在互联网大行其道的今天,网络数据的采集与分析显得尤为重要。然而传统的网络爬虫系统面对复杂多变的网页环境时常常显得效率低下且难以应对。因此,开发更为高效、适应性强的网络爬虫成为了一个迫切的需求。
**解决方案**:
借助AIGC(人工智能生成内容)技术,开发智能化爬虫,实现网络数据采集与分析的高效性和自适应性。具体来说,通过引入`request-promise`和`cheerio`等工具库,结合Node.js开发环境,搭建了一套能够自动化爬取并解析网页数据的系统。该系统可以爬取豆瓣电影排行榜TOP250的详细信息,并将数据保存为JSON文件。
**核心技术与功能**:
1. **request-promise**:用于发送HTTP请求并获取页面内容,简化了异步网络请求的处理,易于维护代码结构。
2. **cheerio**:作为一款轻量、高效的DOM解析和操作库,将浏览器的jQuery功能迁移到服务器端,极大提升了HTML解析和数据提取的效率。
3. **AIGC技术应用**:展示了AI如何对数据初步处理进行优化和改进,通过AI处理修正了JSON文件格式上的一些缺陷,显著提高了数据处理的质量和效率。
**实现过程**:
1. **安装并初始化**:通过npm安装了必要的工具库,如`request-promise`和`cheerio`,建立了基础的爬虫项目结构。
2. **代码编写**:定义了爬虫的基本逻辑,包括页面数据的爬取、解析和存储。构建了一个`getMovieInfo`函数来提取电影的具体信息,然后通过`getPage`和`main`函数实现批量数据的爬取和处理。
3. **数据调优**:针对爬虫抓取到的数据,使用AI技术进行了初步处理,改善了数据的格式和质量。
**结果**:
成功地爬取了豆瓣电影网的TOP250排行榜数据,并将数据以JSON文件的形式保存至本地。此外,通过AI对数据的处理,展示了AI在数据处理方面的高效性和准确性。
**亮点与总结**:
AIGC技术的引入,尤其是在网络爬虫开发中,为网络数据的采集和分析带来了革命性的变革。它提升了爬虫系统的自主性和适应性,使网络数据的采集更为高效、准确。同时,AI在数据处理方面的应用,进一步提高了数据的利用率和效率。未来,我们将继续探索AIGC技术在更广泛领域的应用,为数字化社会的发展贡献力量。

更新时间 2024-07-17