1.爬虫是什么?
网络爬虫是一种按照一定的规则、自动的抓取万维网信息的脚本或者程序
简单来说:爬虫是用事先写好的程序去抓取网络上的数据,这样的程序叫爬虫
2.爬虫的分类
按照使用场景来分,可以分为两类:通用爬虫 和 聚焦爬虫
通用爬虫:搜索引擎爬虫(百度)
聚焦爬虫:获取想要的数据
3.爬虫就是在模仿人类的操作
4.爬虫的知识体系和相关工具(必须掌握)
 1.概念
        利用HTTP协议,从网站采集、提取数据的过程
    2.知识结构及路线图
        1)web前端
            (1)HTML
            (2)CSS  层级样式表
            (3)JS
        2)HTTP超文本传输协议
        3)Python语言
        4)HTTP编程
            (1)Python标准库:urllib
            (2)第三方库:requests(需要安装、下载)
        5)数据采集
            (1)文本类型
            (2)图片
            (3)媒体文件(e.g. :音乐、视频)
        6)数据提取
            (1)XPath
            (2)正则表达式
            (3)Beautiful Soup
        7)数据存储
            (1)文本文档
            (2)MySQL数据库
            (3)Excel
            (4)MongoBD数据库
            (5)Redis数据库
        8)反爬虫技术应用
            (1)图片验证码
            (2)滑块验证码
            (3)IP代理池
            (4)封装请求头
            (5)动态内容处理
                1>Ajax
                2>Selenium
            (6)JS加密
            (7)Cookie加密
            (8)CSS加密
            (9)Base64加密
        9)爬虫框架
            (1)Scrapy框架
                1>scrapy-redis分布式爬虫
            (2)pyspider框架
    3.工具
        1)环境
            (1)windows
            (2)Linux系统
        2)开发
            (1)Python
                1>pycharm
            (2)数据库
                1>MySQL
                2>MongolianDB
                3>Redis
            (3)浏览器
                1>谷歌浏览器
                2>火狐浏览器5.HTTP请求
客户端--发送请求(request)-->服务器
客户端<--返回响应(response)--服务器请求方式:get请求/post请求
get请求:会将请求的参数放到地址栏(URL)/网址后面,不安全
post请求:不会将请求的参数放到网址后面,相对安全