python爬虫可以爬视频吗


本文摘自php中文网,作者爱喝马黛茶的安东尼,侵删。

网络爬虫又称网络蜘蛛,是指按照某种规则在网络上爬取所需内容的脚本程序。众所周知,每个网页通常包含其他网页的入口,网络爬虫则通过一个网址依次进入其他网址获取所需内容。

爬虫结构

爬虫调度程序(程序的入口,用于启动整个程序)

url管理器(用于管理未爬取得url及已经爬取过的url)

网页下载器(用于下载网页内容用于分析)

网页解析器(用于解析下载的网页,获取新的url和所需内容)

网页输出器(用于把获取到的内容以文件的形式输出)

第一步

分析网页源码。 例如:http://video.weibo.com/show?fid=1034:0988e59a12e5178acb7f23adc3fe5e97,右键查看源码,一般视频都是mp4后缀,搜索发现没有,但是有的直接就能看到了比如美拍的视频。

相关推荐:《python视频教程》

第二步

抓包,分析请求和返回。这个也可以通过强大的chrome实现,还是上面的例子,右键->审查元素->NetWork,然后F5刷新网页

发现有很多请求,只能一条一条的分析了,其实视频格式就是那几种mp4,flv,avi了,一下就能看到了,复制到浏览器中打开,果然就是我们想要的下载链接了。

第三步

分析下载链接和视频链接的规律。即http://video.weibo.com/show?fid=1034:0988e59a12e5178acb7f23adc3fe5e97与xxx.mp4的关系。这个又需要分析网页源码了,其实可以注意上面那个以.m3u8后缀的链接,m3u8记录了一个索引纯文本文件,打开它时播放软件并不是播放它,而是根据它的索引找到对应的音视频文件的网络地址进行在线播放,打开看,里面确实记录着我们想要的下载链接。而且.m3u8后缀的链接就在网页源码中。

总结

经过前三步的分析,获取视频下载链接的思路就是先从网页源码中获取.m3u8后缀的链接,下载该文件,从里面得到视频下载链接,最后下载视频就好了

源码

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

#coding=utf-8

import os

import re

import urllib2

import urllib

from common import Common

class SinaVideo():

  

    URL_PIRFIX = "http://us.sinaimg.cn/"

    def getM3u8(self,html):

        reg = re.compile(r'list=([\s\S]*?)&fid')

        result = reg.findall(html)

        return result[0]

  

  

    def getName(self,url):

         return url.split('=')[1]

  

    def getSinavideoUrl(self,filepath):

        f = open(filepath,'r')

        lines = f.readlines()

        f.close()

        for line in lines:

            if line[0] !='#':

                return line

  

    def download(self,url,filepath):

        #获取名称

        name = self.getName(url)

        html = Common.getHtml(url)

        m3u8 = self.getM3u8(html)

        Common.download(urllib.unquote(m3u8),filepath,name + '.m3u8')

        url = self.URL_PIRFIX + self.getSinavideoUrl(filepath+name+'.m3u8')

        Common.download(url,filepath,name+'.mp4')

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

#common.py

#coding=utf-8

import urllib2

import os

import re

  

  

class Common():

    #  获取网页源码

    @staticmethod

    def getHtml(url):

        html = urllib2.urlopen(url).read()

        print  "[+]获取网页源码:"+url

        return html

  

    # 下载文件

    @staticmethod

    def download(url,filepath,filename):

        headers = {

            'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',

            'Accept-Charset': 'UTF-8,*;q=0.5',

            'Accept-Encoding': 'gzip,deflate,sdch',

            'Accept-Language': 'en-US,en;q=0.8',

            'User-Agent': 'Mozilla/5.0 (Linux; Android 4.4.2; Nexus 4 Build/KOT49H)

            AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.114 Mobile Safari/537.36'

        }

        request = urllib2.Request(url,headers = headers);

        response = urllib2.urlopen(request)

        path = filepath + filename

        with open(path,'wb') as output:

            while True:

                buffer = response.read(1024*256);

                if not buffer:

                    break

                # received += len(buffer)

                output.write(buffer)

  

        print "[+]下载文件成功:"+path

  

    @staticmethod

    def isExist(filepath):

        return os.path.exists(filepath)

  

    @staticmethod

    def createDir(filepath):

         os.makedirs(filepath,0777)

调用方式:

1

2

url = "http://video.weibo.com/show?fid=1034:0988e59a12e5178acb7f23adc3fe5e97"sinavideo = SinaVideo()       

sinavideo.download(url,""/Users/cheng/Documents/PyScript/res/"")

结果:

以上就是python爬虫可以爬视频吗的详细内容,更多文章请关注木庄网络博客!!

相关阅读 >>

Python中转换模块codecs的讲解(附示例)

Python中if语句的基本格式

Python最详细之数据类型讲解

Python画圆运用了什么函数

Python映射类型的相关介绍

零基础写Python爬虫之爬虫编写全记录_Python

Python实现一个搜索引擎(pylucene)实例教程

使用Python可以做什么

Python读写sqlite3数据库的方法并且将数据写入excel的实例详解

Python除了爬虫还可以做什么

更多相关阅读请进入《Python》频道 >>




打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...