python爬虫之bs4数据的功能实例
内容摘要
这篇文章主要为大家详细介绍了python爬虫之bs4数据的功能实例,具有一定的参考价值,可以用来参考一下。
文章正文
这篇文章主要为大家详细介绍了python爬虫之bs4数据的功能实例,具有一定的参考价值,可以用来参考一下。
感兴趣的小伙伴,下面一起跟随php教程的雯雯来看看吧!
一、实现数据解析
因为正则表达式本身有难度,所以在这里为大家介绍一下 bs4 实现数据解析。除此之外还有 xpath 解析。因为 xpath 不仅可以在 python 中使用,所以 bs4 和 正则解析一样,仅仅是简单地写两个案例(爬取可翻页的图片,以及爬取三国演义)。以后的重点会在 xpath 上。
二、安装库
闲话少说,我们先来安装 bs4 相关的外来库。比较简单。
1.首先打开 cmd 命令面板,依次安装bs4 和 lxml。
2. 命令分别是 pip install bs4 和 pip install lxml 。
3. 安装完成后我们可以试着调用他们,看看会不会报错。
因为本人水平有限,所以如果出现报错,兄弟们还是百度一下好啦。(总不至于 cmd 命令打错了吧 ~~)
三、bs4 的用法
闲话少说,先简单介绍一下 bs4 的用法。
四、爬取图片
代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 | <code> import requests from bs4 import BeautifulSoup import os if __name__ == "__main__" : # 创建文件夹 if not os.path.exists( "./糗图(bs4)" ): os. mkdir ( "./糗图(bs4)" ) # UA伪装 header = { "user-agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.72 Safari/537.36" } # 指定 url for i in range(1, 3): # 翻两页 url = "https://www.qiushibaike.com/imgrank/page/%s/" % str(i) # 获取源码数据 page = requests.get(url = url, headers = header).text # 数据解析 soup = BeautifulSoup(page, "lxml" ) data_list = soup.select( ".thumb > a" ) for data in data_list: url = data.img[ "src" ] title = url.split( "/" )[-1] new_url = "https:" + url photo = requests.get(url = new_url, headers = header).content # 存储 with open( "./糗图(bs4)/" + title, "wb" ) as fp: fp.write(photo) print (title, "下载完成!!!" ) print ( "over!!!" ) </code> |
python爬虫之bs4数据解析
五、爬取三国演义
代码如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 | <code> import requests from bs4 import BeautifulSoup if __name__ == "__main__" : # UA 伪装 header = { "user-agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36" } # URL url = "http://sanguo.5000yan.com/" # 请求命令 page_text = requests.get(url = url, headers = header) page_text.encoding = "utf-8" page_text = page_text.text soup = BeautifulSoup(page_text, "lxml" ) # bs4 解析 li_list = soup.select( ".sidamingzhu-list-mulu > ul > li" ) for li in li_list: print (li) new_url = li.a[ "href" ] title = li.a.text # 新的请求命令 response = requests.get(url = new_url, headers = header) response.encoding = "utf-8" new_page_text = response.text new_soup = BeautifulSoup(new_page_text, "lxml" ) page = new_soup.find( "div" , class_ = "grap" ).text with open( "./三国演义.txt" , "a" , encoding = "utf-8" ) as fp: fp.write( "\n" + title + ":" + "\n" + "\n" + page) print (title + "下载完成!!!" ) </code> |
到此这篇关于python爬虫之bs4数据解析的文章就介绍到这了,更多相关python bs4数据解析内容请搜索php教程以前的文章或继续浏览下面的相关文章希望大家以后多多支持php教程!
注:关于python爬虫之bs4数据的功能实例的内容就先介绍到这里,更多相关文章的可以留意
代码注释