本文通过一个例子带领大家了解爬虫数据解析中的正则表达式与xpath这两种解析方法。
正则表达式(regular expression)描述了一种字符串匹配的模式(pattern),可以用来检查一个串是否含有某种子串、将匹配的子串替换或者从某个串中取出符合某个条件的子串等。
xpath是在XML文档中搜索内容的一门语言。
关于python中正则表达式和xpath的用法,本文就不详细展开,有兴趣的同学可以点赞评论私信我,感兴趣的人多我就会把正则表达式和xpath写出来。
本文以爬取虎牙直播视频为例介绍这两种方法。
受害网址:https://v.huya.com/g/all?set_id=67&order=hot&page=1
通过分析,可以发现页面中的视频地址链接就存在页面源代码里,为得到视频链接就需要进行数据解析。
爬虫中常用的正则表达式的就是贪心算法,python写为(.?)
导入re库,定义提取规则,即r’
import requests
import re
url = 'https://v.huya.com/g/all?set_id=67&order=hot&page=1'
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.52',
'referer': 'https://v.huya.com/g/'
}
resp = requests.get(url,headers=headers)
obj = re.compile(r'.*?)" class="video-wrap"',re.S)
url_list = obj.findall(resp.text)
# print(name_list)
xpath我们需要知道它的基本用法,会用即可,本文介绍一个简单的办法。
在元素中找到需要的东西,把鼠标放在对应行,点击右键,选择复制->复制Xpath
将下图蓝箭头所指行的xpath,内容为//[@id=“root”]/p/article/section/ul[2],因为我们要提取的是下一层所有li标签里的a标签里的href属性,所以用 * (任意的节点)表示提取ul和a标签中的所有内容,接上/a/@href提取a标签的href属性,即视频地址链接。
提取视频名字信息同理。
import requests
from lxml import etree
url = 'https://v.huya.com/g/all?set_id=67&order=hot&page=1'
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.52',
'referer': 'https://v.huya.com/g/'
}
resp = requests.get(url,headers=headers)
tree = etree.HTML(resp.text)
url_list = tree.xpath('//*[@id="root"]/p/article/section/ul[2]/*/a/@href')
name_list = tree.xpath('//*[@id="root"]/p/article/section/ul[2]/*/a/@title')
for i in range(len(url_list)):
url = 'http:'+url_list[i]
print(url)
本文用例子介绍了正则表达式和xpath两种数据解析方法,此外还有Beautifulsoup这一方法。本文的例子只是得到了视频的地址,后续会为大家带来虎牙视频的爬取下载,喜欢的话记得点赞关注哟!谢谢大家。欢迎大家在评论区讨论学习。
#头条创作挑战赛#
页面更新:2024-03-30
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号