目录
15种工商数据的采集方法
1、目前常用的15种数据网站
2.如何写Python爬虫:
(1)爬虫的流程描述:
(2)爬虫需要解决问题:
(3)写爬虫需要安装的环境和工具:
3.人生第一个 爬虫代码示例:
另外:
15种工商数据的采集方法
如何收集工商数据,来实现数据分析、AI数据训练、数据拓客使用,是目前所有人面临的一个技术问题。如果市场上有个技术或者有个工具可以聚合这些数据的话,我觉得将会促进大数据+AI的发展。数据采集根据采集数据的类型可以分为不同的方式,主要方式有:传感器采集、爬虫、录入。对于新闻资讯类、行业互联网和政府开放的数据,可以通过编写网络爬虫,设置好数据源后进行有目标性的爬取数据。下面是我对除了工商数据外,把平时大家接用比较多各种数据源的网址、开放类型、采集方法进行整理分类,希望可以帮助到大家快速找到时候自己的方法。
1、目前常用的15种数据网站
名称 种类 网址 公开方式 获取方式工商网
工商信息
http://www.gsxt.gov.cn
工商局免费公示
1.通过自己写python爬虫,自动爬取信息(需要采用图像识别技术识别处理验证码)
2、通过下载近探拓客这种工具自动采集
3、通过调用百度 阿里云那种接口付费
天眼查网
工商信息
http://www.tianyancha.com
免费查询
会员收费下载
1.通过注册会员付费下载
2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)
企查查网
工商信息
http://www.qichacha.com
免费查询
会员收费下载
1.通过注册会员付费下载
2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)
企信宝网
工商信息
https://www.qixin.com/
免费查询
会员收费下载
1.通过注册会员付费下载
2.通过写爬虫采集(模拟VIP登录技术,可以用python、selenium等技术采集)
淘宝网
电商信息
http://www.taobao.com
开放搜索
1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集
虎赢工商信息
电商信息
外贸信息
行业信息
http://data.itdakaedu.com 数据库打包查询1.可以通过近探拓客工具直接下载
2.通过接口调取
天猫 电商信息 https://www.tmall.com/ 开放搜索1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集
美团网 外卖信息 https://www.meituan.com/开放搜索
1.这种只有通过自己写爬虫代码采集,可以用python、selenium等技术采集
商标网 商标信息 http://sbj.cnipa.gov.cn/ 商标局免费公开1.自己用python写代码采集(需要处理反爬)
2.下载近探拓客这些工具下载
3.可以调取像虎赢、阿里、京东云接口付费下载
专利网 专利信息 https://www.cnipa.gov.cn/ 知识产权局免费公开1.可自己写python爬虫采集
2.可以调取像虎赢接口付费下载
外贸 外贸信息 http://www.customs.gov.cn/ 海关公开1.通过自己写python爬虫采集
58网 租房信息 http://www.58.com 公开搜索1.通过自己写python爬虫可实现采集
2.虎赢postMan工具也可以采集
智联网
招聘信息
http://www.zhaopin.com
公开搜索
1.通过自己写爬虫可实现采集
抖音
视频信息
抖音APP
App搜索
1.通过解析APP接口采集
快手
视频红信息
快手APP
App搜索
1.通过解析APP接口采集
2.如何写Python爬虫:
下面给大家提供我们用python采集数据时候,需要安装的环境和如何写一个python爬虫给大家做个详细介绍。
(1)爬虫的流程描述:
爬虫就是通过模拟人打开浏览器方式去打开网站 然后把网页的数据采集下来,只是人通过浏览器打开网页比较慢,比如您打开1万页的数据,估计需要1天时间,但是爬虫是代码自己循环打开,估计就10秒钟就扫描网了,所以爬虫其实没有什么高难度,就是通过代码技术解决人力效率问题
(2)爬虫需要解决问题:
因为爬虫是模仿人的行为像操作浏览器一样去打开网站,但是毕竟不是人的真实行为,他打开网站的速度太卡,会被网站的反爬机制识别出来是机器访问,就会进行拦截或者屏蔽,所以您在写爬虫打开某个网站的时候估计就会面临 IP被封或者出现验证码 或者出现需要vip登录。这个就是所有爬虫必须要解决的三座大山。其实要解决这个很简单, 就采用代理IP池解决封IP,采用图像识别进行验证码处理,采用模拟登录cookie池解决需要账号登录问题。
(3)写爬虫需要安装的环境和工具:
1.安装 selenium工具(专门模仿浏览器的)
2.安装python3.7
3.安装 xml 库 (python解析网页时候用的)
4.安装 bs4 (解析网页数据用)
5.安装 request (模拟请求网站的时候 核心库)
3.人生第一个 爬虫代码示例:
当您安装完上面基本的爬虫环境和工具后,我们可以开始一个用request方法采集天眼的试一试。
from bs4 import BeautifulSoup
import os
import requests
#定义您要爬取哪个网站
url = 'http://www.tianyancha.com'
#开始采集这个地址
data = requests.get(url)
#打印看看采集结果
print(data.text)
#后面就是 通过bs4解析网页结构 得到数据即可
Print(data)
另外:
这只是简单第一步request示例代码,高级的爬虫架构还有 scrapy、cookie池搭建、代理IP池搭建、分布式多进程等、,像这种采集微信、微信加人、商标、工商、专利、电商、外贸等网站真正采集起来都是需要处理绕过验证码、需要解决封IP、需要解模拟决账号登录等问题,解决这种问题需要根据每个网站的情况来写不同的爬虫策略的,我现在主要是聚合数据来做AI训练和分析,还要标记各种数据训练集,比如我2021年光工商的就有1.5亿数、商标的就有4000万、外贸的有600亿,还有各种音频、视频、文本海量的这些数据都采集下来后,下面就是就需要构建图谱和做AI训练,或者做数据分析,有问题技术交流我。