网页数据的解析提取之Beautiful Soup

前面博客介绍了正则表达式的相关用法,只是一旦正则表达式写得有问题,得到的结果就可能不是我们想要的了。而且每一个网页都有一定的特殊结构和层级关系,很多节点都用id或 class 作区分所以借助它们的结构和属性来提取不也可以吗?

本篇博客我们就介绍一个强大的解析工具–Beautiful Soup,其借助网页的结构和属性等特性来解析网页。有了它,我们不需要写复杂的正则表达式,只需要简单的几个语句,就可以完成网页中某个元素的提取。

Beautiful Soup简介

简单来说,Beautiful Soup是 Python 的一个 HTML或 XML的解析库,我们用它可以方便地从网页中提取数据,其官方解释如下:

Beautiful Soup 提供一些简单的、Python 式的函数来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以无须很多代码就可以写出一个完整的应用程序。 Beautiful Soup 自动将输人文档转换为 Unicode 编码,将输出文档转换为 utf-8 编码。你不需要考虑编码方式,除非文档没有指定具体的编码方式,这时你仅仅需要说明一下原始编码方式就可以了。 Beautiful Soup 已成为和 Ixml、html5lib 一样出色的 Python 解释器,为用户灵活提供不同的解析策略或强劲的速度。

总而言之,利用 Beautiful Soup 可以省去很多烦琐的提取工作,提高解析网页的效率。

解释器

实际上,BeautifulSoup在解析时是依赖解析器的,它除了支持 Python 标准库中的 HTML解析器还支持一些第三方解析器(例如 Ixml )。下表列出了 Beautiful Soup 支持的解析器。

在这里插入图片描述
通过上表的对比可以看出,LXML,解析器有解析 HTML和 XML的功能,而且速度快、容错能力强,所以推荐使用它。

使用 LXML,解析器,只需在初始化 Beautiful Soup 时,把第二个参数改为 lxml 即可:

from bs4 import BeautifulSoup

soup = BeautifulSoup('<p>Hello</p>', 'lxml')
print(soup.p.string)

在后面,统一用这个解析器演示 Beautiful Soup 的用法实例。

准备工作

在开始之前,请确保已经正确安装好 Beautiful Soup 和 lxml 这两个库。Beautiful Soup 直接使用pip3 安装即可,命令如下:

pip3 install beautifulsoup4

另外,我们使用的是Ixml这个解析器,所以还需要额外安装lxml这个库。

pip3 install lxml

以上两个库都安装完成后,就可以进行接下来的学习了。

基本使用

下面首先通过实例看看 Beautiful Soup 的基本用法:

from bs4 import BeautifulSoup

html = '''
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href-"http://example.com/lacie" class="sister" id="link1"><!-- Elsie --><</a>
<a href-"http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href-"http://example.com/tillie" class="sister" id-"link3">Tillie </a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.prettify())
print(soup.title.string)

运行结果如下:

<html>
 <head>
  <title>
   The Dormouse's story
  </title>
 </head>
 <body>
  <p class="title" name="dromouse">
   <b>
    The Dormouse's story
   </b>
  </p>
  <p class="story">
   Once upon a time there were three little sisters; and their names were
   <a class="sister" href-="" id="link1">
    <!-- Elsie -->
    &lt;
   </a>
   <a class="sister" href-="" id="link2">
    Lacie
   </a>
   and
   <a class="sister" href-="" id-="">
    Tillie
   </a>
   ;
and they lived at the bottom of a well.
  </p>
  <p class="story">
   ...
  </p>
 </body>
</html>

The Dormouse's story

这里首先声明一个变量 html,这是一个 HTML 字符串。但是需要注意的是,它并不是一个完整的 HTML 字符串,因为 body 节点和 html节点都没有闭合。接着,我们将它当作第一个参数传给BeautifulSoup 对象,该对象的第二个参数为解析器的类型(这里使用 lxml ),此时就完成了Beaufulsoup 对象的初始化。然后,将这个对象赋值给soup 变量。

之后就可以调用 soup 的各个方法和属性解析这串 HTML 代码了。

首先,调用 prettify方法。这个方法可以把要解析的字符串以标准的缩进格式输出。这里需要注意的是,输出结果里包含 body 和 html 节点,也就是说对于不标准的 HTML 字符串 Beautifulsoup,可以自动更正格式。这一步不是由 prettify方法完成的,而是在初始化 Beautifulsoup的时候就完成了。

然后调用 soup.title.string,这实际上是输出 HTML 中 title 节点的文本内容。所以,通过soup.title 选出 HTML 中的 title节点,再调用 string属性就可以得到 title节点里面的文本了。你看,我们通过简单调用几个属性就完成了文本提取,是不是非常方便?

节点选择器

直接调用节点的名称即可选择节点,然后调用 string 属性就可以得到节点内的文本了。这种选择方式速度非常快,当单个节点结构层次非常清晰时,可以选用这种方式来解析。

下面再用一个例子详细说明选择节点的方法:

from bs4 import BeautifulSoup

html = '''
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href-"http://example.com/lacie" class="sister" id="link1"><!-- Elsie --><</a>
<a href-"http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href-"http://example.com/tillie" class="sister" id-"link3">Tillie </a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.title)
print(type(soup.title))
print(soup.title.string)
print(soup.head)
print(soup.p)

运行结果:

<title>The Dormouse's story</title>
<class 'bs4.element.Tag'>
The Dormouse's story
<head><title>The Dormouse's story</title></head>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>

这里依然使用刚才的 HTML代码,首先打印出 title 节点的选择结果,输出结果正是title 节点及里面的文字内容。接下来,输出 title 节点的类型,是 bs4.element.Tag,这是 Beautiful Soup 中一个重要的数据结构,经过选择器选择的结果都是这种 Tag类型。Tag具有一些属性,例如 string属性调用该属性可以得到节点的文本内容,所以类型的输出结果正是节点的文本内容。

输出文本内容后,又尝试选择了 head节点,结果也是节点加其内部的所有内容。最后,选择了p节点。不过这次情况比较特殊,因为结果是第一个p节点的内容,后面的几个p节点并没有选取到。也就是说,当有多个节点时,这种选择方式只会选择到第一个匹配的节点,后面的其他节点都会忽略。

提取信息

上面演示了通过调用 string 属性获取文本的值,那么如何获取节点名称?如何获取节点属性的值呢?接下来我们就统一梳理一下信息的提取方式。

  1. 获取名称

利用 name属性可以获取节点的名称。还是以上面的文本为例,先选取 title 节点,再调用name 属性就可以得到节点名称:

print(soup.title.name)

运行结果:

title
  1. 获取属性

一个节点可能有多个属性,例如 id 和 class 等,选择这个节点元素后,可以调用 attrs 获取其所有属性:

print(soup.p.attrs)
print(soup.p.attrs['name'])

运行结果:

{'class': ['title'], 'name': 'dromouse'}
dromouse

可以看到,调用 attrs属性的返回结果是字典形式,包括所选择节点的所有属性和属性值。因此要获取 name 属性,相当于从字典中获取某个键值,只需要用中括号加属性名就可以了。例如通过attrs[‘name’]获取 name 属性。

其实这种方式有点烦琐,还有一种更为简单的获取属性值的方式:不用写 attrs,直接在节点元素后面加中括号,然后传入属性名就可以了。样例如下:

print(soup.p['name' ])
print(soup.p['class'])

运行结果如下:

dromouse
['title']

这里需要注意,有的返回结果是字符串,有的返回结果是由字符串组成的列表。例如,name 属性的值是唯一的,于是返回结果就是单个字符串。而对于class 属性,一个节点元素可能包含多个class,所以返回的就是列表。在实际处理过程中,我们要注意判断类型。

  1. 获取内容

这点在前面也提到过,可以利用 string 属性获取节点元素包含的文本内容,例如用如下实例获取第一个p节点的文本:

print(soup.p.string)

运行结果如下:

The Dormouse's story

再次注意一下,这里选取的p节点是第一个p节点,获取的文本也是第一个p节点里面的文本。

  1. 嵌套选择

在上面的例子中,我们知道所有返回结果都是 bs4.element.Tag类型,Tag类型的对象同样可以继续调用节点进行下一步的选择。例如,我们获取了 head 节点,就可以继续调用 head 选取其内部的 head节点:

from bs4 import BeautifulSoup

html = '''
<html><head><title>The Dormouse's story</title></head>
<body>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.head.title)
print(type(soup.head.title))
print(soup.head.title.string)

运行结果如下:

<title>The Dormouse's story</title>
<class 'bs4.element.Tag'>
The Dormouse's story

运行结果的第一行是调用 head 之后再调用 title,而选择的 title 节点。第二行打印出了它的类型,可以看到,仍然是 bs4.element.Tag 类型。也就是说,我们在 Tag 类型的基础上再次选择,得到的结果依然是 Tag 类型。既然每次返回的结果都相同,那么就可以做嵌套选择了。

最后一行结果输出了 title 节点的 string 属性,也就是节点里的文本内容。

关联选择

在做选择的过程中,有时不能一步就选到想要的节点,需要先选中某一个节点,再以它为基准选子节点、父节点、兄弟节点等,下面就介绍一下如何选择这些节点。

  1. 子节点和子孙节点
    选取节点之后,如果想要获取它的直接子节点,可以调用contents 属性,实例如下:
from bs4 import BeautifulSoup

html = '''
<html>
<head>
    <title>The Dormouse's story</title>
</head>
<body>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href_"http://example.com/elsie" class="sister" id="link1">
    <span>Elsie</span>
    </a>
    <a href-"http://example.com/lacie" class="sister" id="link2">Lacie</a>
    and<a href_"http://example.com/tillie" class="sister" id="link3">Tillie</a>
    and they lived at the bottom of a well.
    </p>
    <p class="story">...</p>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.p.contents)

运行结果如下:

['Once upon a time there were three little sisters; and their names were\n    ', <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>, '\n', <a class="sister" href-="" id="link2">Lacie</a>, '\n    and', <a class="sister" href_="" id="link3">Tillie</a>, '\n    and they lived at the bottom of a well.\n    ']

可以看到,返回结果是列表形式。p节点里既包含文本,又包含节点,这些内容会以列表形式统一返回。

需要注意的是,列表中的每个元素都是p节点的直接子节点。像第一个a节点里面包含的 span节点,就相当于孙子节点,但是返回结果并没有把 span 节点单独选出来。所以说,contents 属性得到的结果是直接子节点组成的列表。

同样,我们可以调用 children 属性得到相应的结果:

soup = BeautifulSoup(html, 'lxml')
print(soup.p.children)
for i, child in enumerate(soup.p.children):
    print(i, child)

运行结果如下:

<list_iterator object at 0x000001DF442F5B80>
0 Once upon a time there were three little sisters; and their names were
    
1 <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
2 

3 <a class="sister" href-="" id="link2">Lacie</a>
4 
    and
5 <a class="sister" href_="" id="link3">Tillie</a>
6 
    and they lived at the bottom of a well.

还是同样的 HTML 文本,这里调用 children 属性来选择,返回结果是生成器类型。然后,我们用 for 循环输出了相应的内容。

如果要得到所有的子孙节点,则可以调用 descendants 属性:

soup = BeautifulSoup(html, 'lxml')
print(soup.p.descendants)
for i, child in enumerate(soup.p.descendants):
    print(i, child)

运行结果如下:

**<generator object Tag.descendants at 0x000001ED5B9B5D60>
0 Once upon a time there were three little sisters; and their names were
    
1 <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
2 

3 <span>Elsie</span>
4 Elsie
5 

6 

7 <a class="sister" href-="" id="link2">Lacie</a>
8 Lacie
9 
    and
10 <a class="sister" href_="" id="link3">Tillie</a>
11 Tillie
12 
    and they lived at the bottom of a well.**

你会发现,此时返回结果还是生成器。遍历输出一下可以看到,这次的输出结果中就包含了 span节点,因为 descendants 会递归查询所有子节点,得到所有的子孙节点。

  1. 父节点和祖先节点

如果要获取某个节点元素的父节点,可以调用 parent 属性:

from bs4 import BeautifulSoup

html = '''
<html>
<head>
    <title>The Dormouse's story</title>
</head>
<body>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href_"http://example.com/elsie" class="sister" id="link1">
    <span>Elsie</span>
    </a>
    </p>
    <p class="story">...</p>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.a.parent)

运行结果如下:

<p class="story">Once upon a time there were three little sisters; and their names were
    <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
</p>

这里我们选择的是第一个a节点的父节点元素。很明显,a节点的父节点是p节点,所以输出结果便是p节点及其内部内容。

需要注意,这里输出的仅仅是a节点的直接父节点,而没有再向外寻找父节点的祖先节点。如果想获取所有祖先节点,可以调用 parents 属性:

from bs4 import BeautifulSoup

html = '''
<html>
<body>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href_"http://example.com/elsie" class="sister" id="link1">
    <span>Elsie</span>
    </a>
    </p>
    <p class="story">...</p>
'''

soup = BeautifulSoup(html, 'lxml')
print(type(soup.a.parents))
print(list(enumerate(soup.a.parents)))

运行结果如下:

<class 'generator'>
[(0, <p class="story">Once upon a time there were three little sisters; and their names were
    <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
</p>), (1, <body>
<p class="story">Once upon a time there were three little sisters; and their names were
    <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
</p>
<p class="story">...</p>
</body>), (2, <html>
<body>
<p class="story">Once upon a time there were three little sisters; and their names were
    <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
</p>
<p class="story">...</p>
</body></html>), (3, <html>
<body>
<p class="story">Once upon a time there were three little sisters; and their names were
    <a class="sister" href_="" id="link1">
<span>Elsie</span>
</a>
</p>
<p class="story">...</p>
</body></html>)]

可以发现,返回结果是生成器类型。这里用列表输出了其索引和内容,列表中的元素就是a节点的祖先节点。

  1. 兄弟节点

子节点和父节点的获取方式已经介绍完毕,如果要获取同级节点,也就是兄弟节点,又该怎么办呢?实例如下:

from bs4 import BeautifulSoup

html = '''
<html>
<body>
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href_"http://example.com/elsie" class="sister" id="link1">
    <span>Elsie</span>
    </a>
    Hello
    <a href-"http://example.com/lacie" class="sister" id="link2">Lacie</a>
    and
    <a href_"http://example.com/tillie" class="sister" id="link3">Tillie</a>
    and they lived at the bottom of a well.
    </p>
'''

soup = BeautifulSoup(html, 'lxml')
print('Next Sibling', soup.a.next_sibling)
print('Prev Sibling', soup.a.previous_sibling)
print('Next Siblings', list(enumerate(soup.a.next_siblings)))
print('Prev Siblings', list(enumerate(soup.a.previous_siblings)))

运行结果如下:

Next Sibling 
    Hello
    
Prev Sibling Once upon a time there were three little sisters; and their names were
    
Next Siblings [(0, '\n    Hello\n    '), (1, <a class="sister" href-="" id="link2">Lacie</a>), (2, '\n    and\n    '), (3, <a class="sister" href_="" id="link3">Tillie</a>), (4, '\n    and they lived at the bottom of a well.\n    ')]
Prev Siblings [(0, 'Once upon a time there were three little sisters; and their names were\n    ')]

可以看到,这里调用了4个属性。next_sibling和 previous_sibling 分别用于获取节点的下一个和上一个兄弟节点,next_siblings 和 previous_siblings 则分别返回后面和前面的所有兄弟节点。

  1. 提取信息

前面讲过关联元素节点的选择方法,如果想要获取它们的一些信息,例如文本、属性等,也可以用同样的方法,实例如下:

from bs4 import BeautifulSoup

html = '''
<html>
<body>
    <p class="story">
    Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1">Bob</a><a 
    href="http://example.com/lacie" class="sister" id="link2">Lacie</a>
    </p>
'''

soup = BeautifulSoup(html, 'lxml')
print('Next Sibling:')
print(type(soup.a.next_sibling))
print(soup.a.next_sibling)
print(soup.a.next_sibling.string)
print('Parent:')
print(type(soup.a.parents))
print(list(soup.a.parents)[0])
print(list(soup.a.parents)[0].attrs['class'])

运行结果如下:

Next Sibling:
<class 'bs4.element.Tag'>
<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>
Lacie
Parent:
<class 'generator'>
<p class="story">
    Once upon a time there were three little sisters; and their names were
    <a class="sister" href="http://example.com/elsie" id="link1">Bob</a><a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>
</p>
['story']

如果返回结果是单个节点,那么可以直接调用 string、attrs 等属性获得其文本和属性;如果返回结果是包含多个节点的生成器,则可以先将结果转为列表,再从中取出某个元素,之后调用 string、attrs 等属性即可获取对应节点的文本和属性。

方法选择器

前面讲的选择方法都是基于属性来选择的,这种方法虽然快,但是在进行比较复杂的选择时,会变得比较烦琐,不够灵活。幸好,BeautifulSoup还为我们提供了一些査询方法,例如 find_all和 find等,调用这些方法,然后传人相应的参数,就可以灵活查询了。

  1. find_all

find_all,顾名思义就是查询所有符合条件的元素,可以给它传人一些属性或文本来得到符合条件的元素,功能十分强大。它的API如下:

find all(name ,attrs,recursive ,text ,**kwargs)
  1. name

我们可以根据 name 参数来查询元素,下面用一个实例来感受一下:

from bs4 import BeautifulSoup

html = '''
<div class="panel">
    <div class="panel-heading">
        <h4>Hello</h4>
    </div>
<div class="panel-body">
    <ul class="list" id="list-1">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
        <li class="element">Jay</li>
    </ul>
    <ul class="list list-small" id="list-2">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
   </ul>
   </div>
</div>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.find_all(name='ul'))
print(type(soup.find_all(name='ul')[0]))

运行结果如下:

[<ul class="list" id="list-1">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>, <ul class="list list-small" id="list-2">
<li class="element">Foo</li>
<li class="element">Bar</li>
</ul>]
<class 'bs4.element.Tag'>

这里我们调用了 find_all 方法,向其中传人 name 参数,其参数值为 ul,意思是査询所有 ul 节返回结果是列表类型,长度为2,列表中每个元素依然都是 bs4.element.Tag 类型。

因为都是 Tag类型,所以依然可以进行嵌套查询。下面这个实例还是以同样的文本为例,先查询所有 ul节点,查出后再继续查询其内部的 li 节点:

for ul in soup.find_all(name='ul'):
    print(ul.find_all(name='li'))

运行结果如下:

[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>]
[<li class="element">Foo</li>, <li class="element">Bar</li>]
  1. attrs

除了根据节点名查询,我们也可以传人一些属性进行查询,下面用一个实例感受一下:

from bs4 import BeautifulSoup

html = '''
<div class="panel">
    <div class="panel-heading">
        <h4>Hello</h4>
    </div>
<div class="panel-body">
    <ul class="list" id="list-1" name = "elements">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
        <li class="element">Jay</li>
    </ul>
    <ul class="list list-small" id="list-2">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
   </ul>
   </div>
</div>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.find_all(attrs={'id': 'list-1'}))
print(soup.find_all(attrs={'name': 'elements'}))

运行结果如下:

[<ul class="list" id="list-1" name="elements">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>]
[<ul class="list" id="list-1" name="elements">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>]

这里查询的时候,传入的是 attrs 参数,其属于字典类型。例如,要査询id为 list-1的节点,就可以传入 attrs={‘id’:‘list-1’}作为查询条件,得到的结果是列表形式,列表中的内容就是符合id为 list-1这一条件的所有节点。在上面的实例中,符合条件的元素个数是1,所以返回结果是长度为1的列表。

对于一些常用的属性,例如 id 和 class 等,我们可以不用 attrs 传递。例如,要査询id为list-1的节点,可以直接传人 id这个参数。还是使用上面的文本,只不过换一种方式来查询:
``python
soup = BeautifulSoup(html, ‘lxml’)
print(soup.find_all(id=‘list-1’))
print(soup.find_all(class_=‘element’))


运行结果如下:
```text
[<ul class="list" id="list-1" name="elements">
<li class="element">Foo</li>
<li class="element">Bar</li>
<li class="element">Jay</li>
</ul>]
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>, <li class="element">Foo</li>, <li class="element">Bar</li>]

这里直接传入 id=‘list-1’,就可以査询id为list-1的节点元素了。而对于class 来说,由于 class在 Python 里是一个关键字,所以后面需要加一个下划线,即 class_=‘element’,返回结果依然是 Tag对象组成的列表。

  • string(老版本是text)
    string 参数可以用来匹配节点的文本,其传人形式可以是字符串,也可以是正则表达式对象,实例如下:
from bs4 import BeautifulSoup
import re

html = '''
<div class="panel">
    <div class="panel-body">
    <a>Hello,this is a link</a>
    <a>Hello,this is a link,too</a>
    </div>
</div>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.find_all(string=re.compile('link')))

运行结果如下:

['Hello,this is a link', 'Hello,this is a link,too']

这里有两个a节点,其内部包含文本信息。这里在 find_all方法中传入 text 参数,该参数为正则表达式对象,返回结果是由所有与正则表达式相匹配的节点文本组成的列表。

  • find
    除了 find_all方法,还有 find方法也可以査询符合条件的元素,只不过 find方法返回的是单个元素,也就是第一个匹配的元素,而 find_all 会返回由所有匹配的元素组成的列表。实例如下:
from bs4 import BeautifulSoup

html = '''
<div class="panel">
    <div class="panel-heading">
        <h4>Hello</h4>
    </div>
<div class="panel-body">
    <ul class="list" id="list-1" name = "elements">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
        <li class="element">Jay</li>
    </ul>
    <ul class="list list-small" id="list-2">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
   </ul>
   </div>
</div>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.find(name='ul'))
print(type(soup.find(name='ul')))
print(soup.find(class_='list'))

可以看到,返回结果不再是列表形式,而是第一个匹配的节点元素,类型依然是Tag 类型。

另外还有许多查询方法,用法与介绍过的find_all、find完全相同,区别在于查询范围不同,在此做一下简单的说明。

  • find parents 和 find parent:前者返回所有祖先节点,后者返回直接父节点。
  • find_next_siblings 和 find_next_sibling:前者返回后面的所有兄弟节点,后者返回后面第一个兄弟节点。
  • find_previous_siblings 和 find_previous_sibling:前者返回前面的所有兄弟节点,后者返回前面第一个兄弟节点。
  • find_all_next 和 find_next:前者返回节点后面所有符合条件的节点,后者返回后面第一个符合条件的节点。
  • find_all_previous 和 find_previous:前者返回节点前面所有符合条件的节点,后者返回前面第一个符合条件的节点。

CSS选择器

BeautifulSoup还提供了另外一种选择器–CSS 选择器。如果你熟悉 Web开发,那么肯定对 CSS
选择器不陌生。

使用 CSS 选择器,只需要调用 select 方法,传入相应的 CSS 选择器即可。我们用一个实例感受一下:

from bs4 import BeautifulSoup

html = '''
<div class="panel">
    <div class="panel-heading">
        <h4>Hello</h4>
    </div>
<div class="panel-body">
    <ul class="list" id="list-1" name = "elements">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
        <li class="element">Jay</li>
    </ul>
    <ul class="list list-small" id="list-2">
        <li class="element">Foo</li>
        <li class="element">Bar</li>
   </ul>
   </div>
</div>
'''

soup = BeautifulSoup(html, 'lxml')
print(soup.select('.panel .panel-heading'))
print(soup.select('ul li'))
print(soup.select('#list-2 .element'))
print(type(soup.select('ul')[0]))

运行结果如下:

[<div class="panel-heading">
<h4>Hello</h4>
</div>]
[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>, <li class="element">Foo</li>, <li class="element">Bar</li>]
[<li class="element">Foo</li>, <li class="element">Bar</li>]
<class 'bs4.element.Tag'>

这里我们用了3次 CSS 选择器,返回结果均是由符合CSS 选择器的节点组成的列表。例如,select(‘u1 li’)表示选择所有 u1 节点下面的所有 li 节点,结果便是所有 li 节点组成的列表。

在最后一句中,我们打印输出了列表中元素的类型。可以看到,类型依然是Tag类型。

  1. 嵌套选择

select方法同样支持嵌套选择,例如先选择所有ul节点,再遍历每个ul节点,选择其 li节点实例如下:

soup = BeautifulSoup(html, 'lxml')
for ul in soup.select('ul'):
    print(ul.select('li'))

运行结果如下:

[<li class="element">Foo</li>, <li class="element">Bar</li>, <li class="element">Jay</li>]
[<li class="element">Foo</li>, <li class="element">Bar</li>]

可以看到,正常输出了每个叫节点下所有li节点组成的列表。

  1. 获取属性

既然知道节点是 Tag类型,于是获取属性依然可以使用原来的方法。还是基于上面的 HTML文本,这里尝试获取每个ul节点的id 属性:

soup = BeautifulSoup(html, 'lxml')
for ul in soup.select('ul'):
    print(ul['id'])
    print(ul.attrs['id'])

运行结果如下:

list-1
list-1
list-2
list-2

可以看到,直接将属性名传入中括号和通过 attrs 属性获取属性值,都是可以成功获取属性的。

  1. 获取文本

要获取文本,当然也可以用前面所讲的 string属性。除此之外,还有一个方法,就是 get_text,实例如下:

soup = BeautifulSoup(html, 'lxml')
for li in soup.select('li'):
    print('Get Text:',li.get_text())
    print('string:',li.string)

运行结果如下:

Get Text: Foo
string: Foo
Get Text: Bar
string: Bar
Get Text: Jay
string: Jay
Get Text: Foo
string: Foo
Get Text: Bar
string: Bar

二者的实现效果完全一致,都可以获取节点的文本值。

总结

到此,Beautiful Soup 的介绍基本就结束了,最后做一下简单的总结。

  • 推荐使用 LXML解析库,必要时使用 html.parser。
  • 节点选择器筛选功能弱,但是速度快。
  • 建议使用 find、find_all方法查询匹配的单个结果或者多个结果口如果对 CSS 选择器熟悉,则可以使用 select 选择法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/944247.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

电脑缺失sxs.dll文件要怎么解决?

一、文件丢失问题&#xff1a;以sxs.dll文件缺失为例 当你在运行某个程序时&#xff0c;如果系统提示“找不到sxs.dll文件”&#xff0c;这意味着你的系统中缺少了一个名为sxs.dll的动态链接库文件。sxs.dll文件通常与Microsoft的.NET Framework相关&#xff0c;是许多应用程序…

进军AI大模型-环境配置

语言环境配置 合法上网工具&#xff1a; 这个T子试试&#xff0c;一直稳定。走我链接免费用5天: https://wibnm.com/s/ywtc01/pvijpzy python版本&#xff1a; python3.12 Langchain: Introduction | &#x1f99c;️&#x1f517; LangChain v0.3 9月16日升级的版本 pip3…

WebStorm的下载安装指南

下载 打开网站https://www.jetbrains.com/webstorm/download/#sectionwindows 或者直接网盘下载 通过网盘分享的文件&#xff1a;WebStorm-2024.3.1.1.exe 链接: https://pan.baidu.com/s/16JRZjleFYshLbVvZB49-FA?pwdn5hc 提取码: n5hc –来自百度网盘超级会员v6的分享 安…

Vue使用pages构建多页应用

经过上一篇文章&#xff0c;大家对单页应用配置的都有了一定的了解。相信大家应该对如何构建一个 Vue 单页应用项目已经有所收获和体会&#xff0c;在大部分实际场景中&#xff0c;我们都可以构建单页应用来进行项目的开发和迭代&#xff0c;然而对于项目复杂度过高或者页面模块…

springboot506基于Springboot的小区疫情购物系统录(论文+源码)_kaic

摘 要 信息数据从传统到当代&#xff0c;是一直在变革当中&#xff0c;突如其来的互联网让传统的信息管理看到了革命性的曙光&#xff0c;因为传统信息管理从时效性&#xff0c;还是安全性&#xff0c;还是可操作性等各个方面来讲&#xff0c;遇到了互联网时代才发现能补上自古…

复习打卡大数据篇——Hadoop MapReduce

目录 1. MapReduce基本介绍 2. MapReduce原理 1. MapReduce基本介绍 什么是MapReduce MapReduce是一个分布式运算程序的编程框架&#xff0c;核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序&#xff0c;并发运行在Hadoop集群上。 MapRed…

RK3506开发板:智能硬件领域的新选择,带来卓越性能与低功耗

在现代智能硬件开发中&#xff0c;选择一款性能稳定、功耗低的开发板是确保产品成功的关键。Rockchip最新推出的RK3506芯片&#xff0c;凭借其卓越的能效比、多功能扩展性和优秀的实时性能&#xff0c;已经成为智能家电、工业控制、手持终端等领域的热门选择。而基于RK3506的Ar…

Python学习(2):注释、数字、文本、列表

1 关于注释 Python 使用井号#作为单行注释的符号&#xff0c; 使用三个连续的单引号’’或者三个连续的双引号"""注释多行内容。 2 数字 2.1 基本运算 解释器像一个简单的计算器&#xff1a;你可以输入一个表达式&#xff0c;它将给出结果值。 表达式语法很直观…

加载Tokenizer和基础模型的解析及文件介绍:from_pretrained到底加载了什么?

加载Tokenizer和基础模型的解析及文件介绍 在使用Hugging Face的transformers库加载Tokenizer和基础模型时&#xff0c;涉及到许多文件的调用和解析。这篇博客将详细介绍这些文件的功能和它们在加载过程中的作用&#xff0c;同时结合代码片段进行解析。 下图是我本地下载好模…

Excel批量设置行高,Excel表格设置自动换行后打印显示不全,Excel表格设置最合适的行高后打印显示不全,完美解决方案!!!

文章目录 说个问题&#xff08;很严重&#xff01;&#xff01;&#xff01;&#xff09;写个方案会Python看这里Python环境搭建不存在多行合并存在多行合并 不会Python看这里 说个问题&#xff08;很严重&#xff01;&#xff01;&#xff01;&#xff09; 平时处理Excel表格…

goview——vue3+vite——数据大屏配置系统

低代码数据大屏配置系统&#xff1a; 数据来源是可以动态api配置的&#xff1a; 配置上面的api接口后&#xff0c;在数据过滤中进行数据格式的转化。 以上内容&#xff0c;来源于https://gitee.com/dromara/go-view/tree/master-fetch/ 后端代码如下&#xff0c;需要更改…

ADC相关算法以及热敏电阻测温

目录 前言 一、平均值滤波算法 二、快速排序算法的使用 三、中位值滤波算法 四、二分查找法 4.1 二分查找法查找某个元素是否存在 4.2 二分查找法查找接近目标数值的元素的下标 五、NTC热敏电阻实现测温 5.1 分层设计 5.2 软件流程图 ​编辑 5.3 API接口及数据结构 5…

计算机的错误计算(一百九十四)

摘要 用两个大模型计算 其中&#xff0c;一个大模型通过化简&#xff0c;得出正确结果 0&#xff1b;而另外一个在化简过程中出现错误&#xff0c;得出了错误结果。 例1. 计算 下面是一个大模型的推导化简过程。 以上为一个大模型的回答。 下面是另外一个大模型的回复。 点评…

任意文件包含漏洞原理解析及演示

原理 文件包含漏洞&#xff1a;即file inclusion&#xff0c;意思是文件包含&#xff0c;是指当服务器开启allow_url_include选项时&#xff0c;就可以通过PHP的某些特性函数&#xff08;include()&#xff0c;require()和include_once()&#xff0c;requir_once()&#xff09;…

Linux系统之tree命令的基本使用

Linux系统之tree命令的基本使用 一、tree命令介绍二、tree工具安装三、tree命令帮助3.1 查询帮助信息3.2 tree命令帮助解释 四、tree命令的基本使用4.1 直接使用4.2 *限制显示的层级4.3 仅显示目录4.4 不显示隐藏文件4.5 显示文件大小4.6 彩色输出4.7 输出到文件4.8 输出不同格…

微信小程序性能优化、分包

性能优化是任何应用开发中的重要组成部分&#xff0c;尤其是在移动环境中。对于微信小程序而言&#xff0c;随着用户量的增加和应用功能的丰富&#xff0c;性能优化显得尤为关键。良好的性能不仅提升用户体验&#xff0c;还能增加用户留存率和应用的使用频率。我们将探讨如何在…

【星海随笔】删除ceph

cephadm shell ceph osd set noout ceph osd set norecover ceph osd set norebalance ceph osd set nobackfill ceph osd set nodown ceph osd set pause参考文献&#xff1a; https://blog.csdn.net/lyf0327/article/details/90294011 systemctl stop ceph-osd.targetyum re…

Unity游戏环境交互系统

概述 交互功能使用同一个按钮或按钮列表&#xff0c;在不同情况下显示不同的内容&#xff0c;按下执行不同的操作。 按选项个数分类 环境交互系统可分为两种&#xff0c;单选项交互&#xff0c;一般使用射线检测&#xff1b;多选项交互&#xff0c;一般使用范围检测。第一人…

DVWA安装

这里讲的很清楚&#xff0c;如果是win10的话可能会出现端口80占用的情况&#xff0c; 使用管理员身份运行 cmdnet stop http //停止系统http服务sc config http start disabled //禁用服务的自动启动&#xff0c;此处注意等号后面的空格不可少

Oracle考试多少分算通过?

OCP和OCM认证的考试及格分数并不是固定的&#xff0c;而是根据考试的难度和考生的整体表现来确定。对于OCP认证&#xff0c;考生需要全面掌握考试要求的知识和技能&#xff0c;并在考试中表现出色才有可能通过。而对于OCM认证&#xff0c;考生则需要在每个模块中都达到一定的水…