从底层的socket到高层的文件操作函数,一共有3种方法可以实现采集。
1. 使用socket技术采集:
socket采集是最底层的,它只是建立了一个长连接,然后我们要自己构造http协议字符串去发送请求。
例如要想获取这个页面的内容,http://tv.youku.com/?spm=a2hww.20023042.topNav.5~1~3!2~A,用socket写如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<?php
//连接,$error错误编号,$errstr错误的字符串,30s是连接超时时间
$fp
=
fsockopen
(
"www.youku.com"
,80,
$errno
,
$errstr
,30);
if
(!
$fp
)
die
(
"连接失败"
.
$errstr
);
//构造http协议字符串,因为socket编程是最底层的,它还没有使用http协议
$http
=
"GET /?spm=a2hww.20023042.topNav.5~1~3!2~A HTTP/1.1\r\n"
;
// \r\n表示前面的是一个命令
$http
.=
"Host:www.youku.com\r\n"
;
//请求的主机
$http
.=
"Connection:close\r\n\r\n"
;
// 连接关闭,最后一行要两个\r\n
//发送这个字符串到服务器
fwrite(
$fp
,
$http
,
strlen
(
$http
));
//接收服务器返回的数据
$data
=
''
;
while
(!
feof
(
$fp
)) {
$data
.=
fread
(
$fp
,4096);
//fread读取返回的数据,一次读取4096字节
}
//关闭连接
fclose(
$fp
);
var_dump(
$data
);
?>
打印出的结果如下,包含了返回的头信息及页面的源码:
2. 使用curl_一套函数
curl把HTTP协议都封装成了很多函数,直接传相应参数即可,降低了编写HTTP协议字符串的难度。
前提:在php.ini中要开启curl扩展。
1
2
3
4
5
6
7
8
//生成一个curl对象
$curl
=curl_init();
//设置URL和相应的选项
curl_setopt(
$curl
, CURLOPT_URL,
"http://www.youku.com"
);
curl_setopt(
$curl
, CURLOPT_RETURNTRANSFER, 1);
//将curl_exec()获取的信息以字符串返回,而不是直接输出。
//执行curl操作
$data
=curl_exec(
$curl
);
var_dump(
$data
);
打印出的结果如下,只包含页面的源码:
3. 直接使用file_get_contents(最顶层的)
前提:在php.ini中设置允许打开一个网络的url地址。
1
2
3
//使用file_get_contents()
$data
=
file_get_contents
(
"http://www.youku.com"
);
var_dump(
$data
);
3种方式的选择
网络之间通信主要使用的是以上三种。其中后两种用的较多:如果要批量采集大量的数据时使用第二种【CURL】,性能好、稳定。
偶尔发几个请求发的频繁不密集时使用第三种。
扩展:图片的防盗链如何破?
比如7060网站上的图片做了防盗链:在他的网站中可以看到图片,把图片拿到站外就无法访问。
原理:在HTTP协议中有一个referer项,代表发这个请求的来源地址,服务器会判断如果这个请求不是这个网站发来的就会过滤掉这个请求:
解决办法:发HTTP时自己模拟referer即可:
扩展:有些要采集数据时时必须先登录,可以使用模拟的试模拟在登录状态下的采集:
a. 先用浏览登录一下,登录完,浏览器的COOKIE中就会有SESSIONID
b. 发PHP发HTTP协议时,把浏览器中的SESSIONID放到PHP的HTTP协议请求里,这样就在以登录的状态发请求。
总结:所有客户端发过来的数据都可以被模拟,所以服务器上的程序必须要必要的地方过滤客户端的数据。
什么时候用以上东西?接口开发时、采集时。
数据采集
例如我要采集这个url里的所有美国电影的信息,
http://list.youku.com/category/show/c_96_a_%E7%BE%8E%E5%9B%BD_s_1_d_1_p_3.html
则先要知道电影所在的节点的结构,我们使用firebug查看。
然后开始写代码:完整代码如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
/**
* 发一个GET请求获取数据
*/
function
get(
$url
)
{
global
$curl
;
// 配置curl中的http协议->可配置的荐可以查PHP手册中的curl_
curl_setopt(
$curl
, CURLOPT_URL,
$url
);
curl_setopt(
$curl
, CURLOPT_RETURNTRANSFER, TRUE);
curl_setopt(
$curl
, CURLOPT_HEADER, FALSE);
// 执行这个请求
return
curl_exec(
$curl
);
}
// 生成一个curl对象
$curl
= curl_init();
$url
=
'http://list.youku.com/category/show/c_96_a_%E7%BE%8E%E5%9B%BD_s_1_d_1_p_3.html'
;
$data
=get(
$url
);
// 匹配电影所在位置
$list_preg
=
'/<li class="yk-col4 mr1">.+<\/li>/Us'
;
// 匹配img标签上的src和alt
$img_preg
=
'/<img _src="(.*)" src="https://blog.csdn.net/qq_40970275/article/details/(.*)" alt="(.*)" \/>/U'
;
//匹配电影的url
$video_preg
=
'/<a href="https://blog.csdn.net/qq_40970275/article/details/(.*)" rel="external nofollow" title="(.*)" target="(.*)"><\/a>/U'
;
//把所有的li存到$list里,$list是个二维数组
preg_match_all(
$list_preg
,
$data
,
$list
);
//var_dump($list);
foreach
(
$list
[0]
as
$k
=>
$v
) {
//这里$v就是每一个li标签
/* 获取图片及电影名称
preg_match($img_preg,$v,$img); //把匹配到的图片的信息存到$img里
var_dump($img);
*/
/*获取电影地址
preg_match($video_preg,$v,$video); //把匹配到的电影的信息存到$video里
var_dump($video);
*/
preg_match(
$img_preg
,
$v
,
$img
);
preg_match(
$video_preg
,
$v
,
$video
);
echo
$img
[0].
'<a href="https://blog.csdn.net/qq_40970275/article/details/127648330'
.
$video
[1].
'" rel="external nofollow" >'
.
$video
[2].
'</a>'
;
}
测试:
打印$list;
打印$img
打印$video
最终效果:
如果需要把图片拷贝到硬盘上,则在foreach循环里加上以下代码:
1
2
3
4
5
$imgData
= get(
$img
[1]);
// 把图片文件写到硬盘上【下载】
// 因为操作系统是GBK的,所以要把UTF8转成GBK
is_dir
(
'./youkuimg/'
) ?
''
:
mkdir
(
'./youkuimg/'
);
file_put_contents
(
'./youkuimg/'
.mb_convert_encoding(
$img
[3],
'gbk'
,
'utf-8'
).
'.jpg'
,
$imgData
);
效果如下:在当前目录下的youkuimg目录下就会有下载好的图片。