本文摘自php中文网,作者coldplay.xixi,侵删。
python实现网络爬虫的方法:1、使用request库中的get方法,请求url的网页内容;2、【find()】和【find_all()】方法可以遍历这个html文件,提取指定信息。

python实现网络爬虫的方法:
第一步:爬取
使用request库中的get方法,请求url的网页内容
编写代码
1 2 | [root@localhost demo]# touch demo.py
[root@localhost demo]# vim demo.py
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 | #web爬虫学习 -- 分析
#获取页面信息
#输入:url
#处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式
#输出:爬取到的内容
import requests
def getHTMLText(url):
try :
r = requests.get( url, timeout=30 )
r.raise_for_status() #如果状态码不是200,产生异常
r.encoding = 'utf-8' #字符编码格式改成 utf-8
return r.text
except:
#异常处理
return " error "
url = "http://www.baidu.com"
print ( getHTMLText(url) )
|
1 | [root@localhost demo]# python3 demo.py
|

第二步:分析
使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个html文件,提取指定信息。
编写代码
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 | [root@localhost demo]# touch demo1.py
[root@localhost demo]# vim demo1.py
#web爬虫学习 -- 分析
#获取页面信息
#输入:url
#处理:request库获取页面信息,并从爬取到的内容中提取关键信息
#输出:打印输出提取到的关键信息
import requests
from bs4 import BeautifulSoup
import re
def getHTMLText(url):
try :
r = requests.get( url, timeout=30 )
r.raise_for_status() #如果状态码不是200,产生异常
r.encoding = 'utf-8' #字符编码格式改成 utf-8
return r.text
except:
#异常处理
return " error "
def findHTMLText(text):
soup = BeautifulSoup( text, "html.parser" ) #返回BeautifulSoup对象
return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配
url = "http://www.baidu.com"
text = getHTMLText(url) #获取html文本内容
res = findHTMLText(text) #匹配结果
print (res) #打印输出
|
1 | [root@localhost demo]# python3 demo1.py
|

相关免费学习推荐:python视频教程
以上就是python如何实现网络爬虫的详细内容,更多文章请关注木庄网络博客!!
相关阅读 >>
配置Python连接oracle,读取excel数据写入数据库
Python中next和send的用法介绍(代码)
Python安装到哪个盘
在Python中对self的理解
怎么通过Python挣外快
Python怎么计数
Python是机器语言吗
Python怎么取余数
Python输出水仙花数
Python怎么导入random
更多相关阅读请进入《Python》频道 >>
人民邮电出版社
python入门书籍,非常畅销,超高好评,python官方公认好书。
转载请注明出处:木庄网络博客 » python如何实现网络爬虫