本文摘自php中文网,作者巴扎黑,侵删。
Python网络数据采集1-Beautifulsoup的使用
来自此书: [美]Ryan Mitchell 《Python网络数据采集》
,例子是照搬的,觉得跟着敲一遍还是有作用的,所以记录下来。
import requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page1.html') soup = BeautifulSoup(res.text, 'lxml')print(soup.h1)
1 |
|
使用urllib访问页面是这样的,read返回的是字节,需要解码为utf-8的文本。像这样a.read().decode('utf-8')
,不过在使用bs4解析时候,可以直接传入urllib库返回的响应对象。
import urllib.request a = urllib.request.urlopen('https://www.pythonscraping.com/pages/page1.html') soup = BeautifulSoup(a, 'lxml')print(soup.h1)
1 |
|
抓取所有CSS class属性为green的span标签,这些是人名。
import requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/warandpeace.html') soup = BeautifulSoup(res.text, 'lxml') green_names = soup.find_all('span', class_='green')for name in green_names:print(name.string)
1 2 3 4 5 6 7 8 9 10 11 |
|
孩子(child)和后代(descendant)是不一样的。孩子标签就是父标签的直接下一代,而后代标签则包括了父标签下面所有的子子孙孙。通俗来说,descendant包括了child。
import requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page3.html') soup = BeautifulSoup(res.text, 'lxml') gifts = soup.find('table', id='giftList').childrenfor name in gifts:print(name)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 |
|
找到表格后,选取当前结点为tr,并找到这个tr之后的兄弟节点,由于第一个tr为表格标题,这样的写法能提取出所有除开表格标题的正文数据。
import requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page3.html') soup = BeautifulSoup(res.text, 'lxml') gifts = soup.find('table', id='giftList').tr.next_siblingsfor name in gifts:print(name)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
|
查找商品的价格,可以根据商品的图片找到其父标签<td>
,其上一个兄弟标签就是价格。
import requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page3.html') soup = BeautifulSoup(res.text, 'lxml') price = soup.find('img', src='../img/gifts/img1.jpg').parent.previous_sibling.stringprint(price)
1 |
|
采集所有商品图片,为了避免其他图片乱入。使用正则表达式精确搜索。
import reimport requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page3.html') soup = BeautifulSoup(res.text, 'lxml') imgs= soup.find_all('img', src=re.compile(r'../img/gifts/img.*.jpg'))for img in imgs:print(img['src'])
1 2 3 4 5 |
|
find_all()
还可以传入函数,对这个函数有个要求:就是其返回值必须是布尔类型,若是True则保留,若是False则剔除。
import reimport requestsfrom bs4 import BeautifulSoup res = requests.get('https://www.pythonscraping.com/pages/page3.html') soup = BeautifulSoup(res.text, 'lxml')# lambda tag: tag.name=='img'tags = soup.find_all(lambda tag: tag.has_attr('src'))for tag in tags:print(tag)
1 2 3 4 5 6 |
|
tag是一个Element对象,has_attr
用来判断是否有该属性。tag.name则是获取标签名。在上面的网页中,下面的写法返回的结果一样。lambda tag: tag.has_attr('src')
或lambda tag: tag.name=='img'
相关阅读 >>
更多相关阅读请进入《Python》频道 >>
Python编程 从入门到实践 第2版
python入门书籍,非常畅销,超高好评,python官方公认好书。