爬虫是一段定向抓取相关网页资源的程序或脚本,Python爬虫是用Python编程语言实现的网络爬虫,相较于其他语言,Python内的大量内置包可以轻松实现网络爬虫功能。
本期聚焦
▶ BeautifulSoup(bs4)库介绍
▶ find()、find_all()函数介绍
▶ 实战代码Part1——地铁线路网址的获取
▶ 实战代码Part2——具体线路下线路数据的获取
▶ 实战代码Part3——整合数据
BeautifulSoup(bs4)库介绍
BeautifulSoup:“美味的汤,绿色的浓汤”,是一个可以从HTML或XML文件中提取数据的Python库。BeautifulSoup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
BeautifulSoup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,BeautifulSoup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。
安装BeautifulSoup
BeautifulSoup3目前已经停止开发,推荐在现在的项目中使用BeautifulSoup4,不过它已经被移植到BS4了,也就是说导入时我们需要import bs4。所以这里我们用的版本是BeautifulSoup4.3.2(简称BS4)。
可以直接使用pip安装:
pip install BeautifulSoup
BeautifulSoup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,如,lxml,XML,html5lib等,但是需要安装相应的库:
pip install lxml
如果我们不安装它,则Python会使用Python默认的解析器,lxml解析器更加强大,速度更快,推荐安装。
find()、find_all()函数介绍
BeautifulSoup的find()和find_all()是搜索文档时常用的函数,它们的入参称为过滤器。一般的过滤器有以下几种:字符串,正则表达式,列表,布尔值以及函数。不同的参数过滤可以应用到以下情况:基于name参数查找标签、基于text参数查找文本、基于attrs参数查找标签的属性、基于正则表达式的查找和基于函数的查找。
BeautifulSoup主要用来遍历子节点及子节点的属性,通过点取属性的方式只能获得当前文档中的第一个tag。find_all()方法搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件,返回文档中符合条件的所有tag。而当文档中只有一个<body>标签,那么使用find_all()方法来查找<body>标签就不太合适,使用find_all方法并设置limit=1参数不如直接使用find()方法。两者唯一的区别是find_all()方法的返回结果是值包含一个元素的列表,而find()方法直接返回结果。
以下是下文实例中将会出现的通过find()方法的attrs 参数定义一个字典参数来搜索包含特殊属性的tag:
soup = BeautifulSoup(response.content, 'lxml').find(attrs={'class': 'fs-fdLink'})routes = soup.find('tr').find('td').findAll('a')
接下来我们以爬取8684网站上的深圳地铁线路数据为例来进行爬虫实战。
实战代码Part1——地铁线路网址的获取
首先导入库bs4、lxml、requests:
import requestsimport jsonfrom bs4 import BeautifulSoupimport lxml.html
获取地铁线路网址
etree = lxml.html.etreedef get_urls():url = 'https://dt.8684.cn/so.php?k=pp&dtcity=sz&q=wedwed'response = requests.get(url=url)soup = BeautifulSoup(response.content, 'lxml').find(attrs={'class': 'fs-fdLink'})routes = soup.find('tr').find('td').findAll('a')route_list = []for i in routes:per = {}per['key'] = i.stringper['value'] = 'https://dt.8684.cn' + i.get('href')route_list.append(per)return route_list
其中,
soup = BeautifulSoup(response.content, 'lxml')
为创建BeautifulSoup对象,其意义是将发送网络请求返回的响应数据创建为soup对象,数据格式为lxml。
实战代码Part2——具体线路下线路数据的获取
def get_schedule(url):response = requests.get(url['value'])soup = BeautifulSoup(response.content, 'lxml').find(attrs={'class': 'ib-mn'})table_head = soup.find(attrs={'class': 'pi-table tl-table'})per_info = table_head.findAll('tr')route_list = []if (url['key'].find('内圈') == -1 and url['key'].find('外圈') == -1):#地铁线路名称既无内环也无外环route_info = {} #定义地铁内环字典route_info_wai = {}#定义地铁外环字典stations_nei = [] #定义地铁内环站台列表route_info['name'] = url['key'] + '内环'#定义内环线路字典name键的值route_info_wai['name'] = url['key'] + '外环'# 定义外环线路字典name键的值time_nei_1 = []#定义地铁内环发车时间列表time_nei_2 = []#定义地铁内环收班时间列表time_wai_1 = [] #定义地铁外环发车时间列表time_wai_2 = []# 定义地铁外环收班时间列表for i in per_info:if (i != []):j = i.findAll('td')if (j != []):for k in j[0]:stations_nei.append(k.text)#内外环站点名for k in j[3]:time_nei_2.append(k)#内环收车时间for k in j[1]:time_nei_1.append(k)#内环发车时间for k in j[4]:time_wai_2.append(k) #外环收车时间for k in j[2]:time_wai_1.append(k)#外环发车时间try:if (time_nei_1[0] != '--' and time_nei_1[0] != '—'):route_info['startTime'] = startTime = time_nei_1[0]#筛除地铁内环线路发车时间为空的数值else:route_info['startTime'] = time_nei_1[1]#定义地铁内环线路发车时间if (time_nei_2[len(time_nei_2) - 1] != '--' and time_nei_2[len(time_nei_2) - 1] != '—'):route_info['endTime'] = time_nei_2[len(time_nei_2) - 1]#筛除地铁内环线路收车时间为空的数值else:route_info['endTime'] = time_nei_2[len(time_nei_2) - 2]# 定义地铁内环线路收车时间if (time_wai_1[len(time_wai_1) - 1] != '--' and time_wai_1[len(time_wai_1) - 1] != '—'):route_info_wai['startTime'] = time_wai_1[len(time_wai_1) - 1]# 筛除地铁外环线路发车时间为空的数值else:route_info_wai['startTime'] = time_wai_1[len(time_wai_1) - 2]# 定义地铁外环线路发车时间if (time_wai_2[0] != '--' and time_wai_2[0] != '—'):route_info_wai['endTime'] = startTime = time_wai_2[0]# 筛除地铁外环线路收车时间为空的数值else:route_info_wai['endTime'] = time_wai_2[1]# 定义地铁外环线路收车时间except IndexError as e:route_info_wai['startTime'] = '06:00'route_info_wai['endTime'] = '23:00'route_info['startTime'] = '06:00'route_info['endTime'] = '23:00'#若无法找到数据,则捕捉索引异常错误,并对运行时间赋默认值route_info['stations'] = stations_nei #内环线路字典stations值赋为内环站点名route_info_wai['stations'] = list(reversed(stations_nei))#反转列表值并强制转换数据类型为列表,作为外环站点名route_list.append(route_info)route_list.append(route_info_wai)#将内外环线路字典插入列表else:#地铁线路名称包含“内环”或“外环”route_info = {}stations = []route_info['name'] = url['key']# 定义线路字典name键的值time_1 = [] # 定义地铁发车时间列表time_2 = []#定义地铁收车时间列表for i in per_info:if (i != []):j = i.findAll('td')if (j != []):# 筛除表头相关空数据for k in j[0]:stations.append(k.text)#地铁线路站点名for k in j[1]:time_1.append(k)#地铁线路发车时间for k in j[2]:time_2.append(k)#地铁线路收车时间if (time_1[0] != '--' and time_1[0] != '—'):route_info['startTime'] = startTime = time_1[0]# 筛除地铁线路发车时间为空的数值else:route_info['startTime'] = time_1[1]#定义地铁线路发车时间if (time_2[len(time_2) - 1] != '--' and time_2[len(time_2) - 1] != '—'):route_info['endTime'] = time_2[len(time_2) - 1]#筛除地铁线路收车时间为空的数值else:route_info['endTime'] = time_2[len(time_2) - 2]#定义地铁线路收车时间route_info['stations'] = stations# 线路字典stations值赋为站点名route_list.append(route_info)#将线路字典插入列表return route_list
其中,if语句(Part2的大部分代码)都是用于对非常规线路数据进行特殊处理,这也印证了“80%的代码处理20%的情况”,常规线路数据只需前六行代码即可爬取,最终返回线路列表rout_list。
实战代码Part3——整合数据
for i in get_urls():#遍历城市地铁线路网址for j in get_schedule(i):json_str = json.dumps(j, ensure_ascii=False)#转换数据格式为json格式,忽略格式转换错误进行强制转换print(json_str)
部分结果展示
{"name": "1号线内环", "startTime": "06:30", "endTime": "00:04", "stations": ["罗湖", "国贸", "老街", "大剧院", "科学馆", "华强路", "岗厦", "会展中心", "购物公园", "香蜜湖", "车公庙", "竹子林", "侨城东", "华侨城", "世界之窗", "白石洲", "高新园", "深大", "桃园", "大新", "鲤鱼门", "前海湾", "新安", "宝安中心", "宝体", "坪洲", "西乡", "固戍", "后瑞", "机场东"]}
以上就是本期的全部内容了,希望对大家有所帮助。
本期作者:孙艺方
本期编辑校对:李嘉楠
长按二维码关注我们

