文本分析
- 相关知识
- 1. 文本数据处理
- 2. 文本可视化
- 3. Python编程
- 4. 词频统计
- 5. 人名提取
- 6. 自然段划分
- 7. 人物出现频率分布分析
- 8. 词云生成
- 实验内容
- 数据下载地址:
- 1.对纯英文小说进行分析。
- 2.对中文小说进行分析。
- 问题与解决
- 附录
- 1.对纯英文小说进行分析。
- 2.对中文小说进行分析。
相关知识
当涉及到文本数据处理和可视化的任务时,我们可以通过了解下面的知识和使用Python的一些主要库和工具来完成这些任务。
1. 文本数据处理
包括读取文本文件、对文本进行分词、去除停用词等基本文本处理步骤。
- 读取文本文件:
- 在Python中,我们使用open函数打开文件,指定文件名、打开模式(这里是’r’表示读取)、以及字符编码(通常是’utf-8’)。
with open('filename.txt', 'r', encoding='utf-8') as file:
text_data = file.read()
- 分词和去除停用词:
- 使用Natural Language Toolkit(NLTK)库进行分词和去除停用词。分词是将文本拆分成单词的过程,而停用词是指那些在文本中频繁出现但没有实际含义的词汇,可以通过NLTK提供的停用词列表进行去除。
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
stop_words = set(stopwords.words('english'))
words = word_tokenize(text_data)
filtered_words = [word.lower() for word in words if word.isalpha() and word.lower() not in stop_words]
2. 文本可视化
通过词云制作实现文本数据的可视化呈现。
- 使用wordcloud生成词云图:
- WordCloud是一个用于生成词云图的库,它根据文本中单词的频率生成具有可视化效果的图形。在示例代码中,我们通过WordCloud生成词云图,并使用matplotlib展示。
from wordcloud import WordCloud
import matplotlib.pyplot as plt
wordcloud = WordCloud().generate(' '.join(filtered_words))
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis("off")
plt.show()
使用 wordcloud
库生成词云图的过程主要分为以下几个步骤:
-
安装
wordcloud
库:
在命令行或终端中运行以下命令安装wordcloud
:pip install wordcloud
-
导入库:
from wordcloud import WordCloud import matplotlib.pyplot as plt
-
准备文本数据:
获取需要生成词云的文本数据,确保文本数据是字符串形式。 -
创建
WordCloud
对象并生成词云:wordcloud = WordCloud(width=800, height=400, background_color='white').generate(text_data)
在这里,我们创建了一个
WordCloud
对象,指定了词云的宽度、高度和背景颜色。可以根据需要调整其他参数,比如字体、最大词汇量等。 -
可选步骤 - 自定义词云形状:
如果你想要词云的形状为特定图形,可以使用自定义形状的图片。首先,你需要准备一张形状的图片,然后使用WordCloud
的mask
参数指定该图片。from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator from PIL import Image # 读取形状图片 mask = np.array(Image.open("your_shape_image.png")) # 使用形状图片生成词云 wordcloud = WordCloud(mask=mask, background_color="white").generate(text_data)
-
显示或保存词云图:
plt.imshow(wordcloud, interpolation='bilinear') plt.axis("off") # 显示词云图 plt.show() # 或保存词云图 wordcloud.to_file("wordcloud_output.png")
使用
plt.show()
可以在运行脚本时显示词云图,而to_file
方法可以保存词云图为图片文件。
总体来说,使用wordcloud
库生成词云图是一个相对简单的过程,主要涉及创建WordCloud
对象并调整相关参数,然后通过imshow
方法显示或通过to_file
方法保存生成的词云图。
3. Python编程
可看Python专栏
要求通过Python实现上述功能,因此需要熟悉Python编程语言及其相关库和模块。
4. 词频统计
对文本中各个词汇的出现频率进行统计分析。
- 使用Counter进行词频统计:
- Counter是Python的一个内置库,用于统计可哈希对象的出现次数。在这里,我们使用Counter来统计文本中单词的出现频率。
from collections import Counter
word_freq = Counter(filtered_words)
5. 人名提取
从文本中提取人物名称,这可能需要使用一些自然语言处理(NLP)的技术或者规则来实现。
- 使用spaCy进行实体识别:
- spaCy是一个自然语言处理库,它提供了实体识别功能,可以用于从文本中提取人名等实体。在示例代码中,我们加载了英文的spaCy模型,并使用它来获取文本中的人物名称。
import spacy
nlp = spacy.load('en_core_web_sm')
doc = nlp(text_data)
person_names = [ent.text for ent in doc.ents if ent.label_ == 'PERSON']
6. 自然段划分
将文本划分成自然段,可能涉及到对文本的分段或分句处理。
- 使用正则表达式进行自然段划分:
- 正则表达式是一种强大的文本匹配工具,可以根据特定的模式来划分文本。在这里,我们使用\n\n来划分自然段,表示两个换行符之间的文本。
import re
paragraphs = re.split('\n\n', text_data)
7. 人物出现频率分布分析
分析文本中人物出现的频率分布情况,可以通过统计每个人物在文本中出现的次数来实现。
- 统计人物出现频率:
- 通过使用Counter,我们可以轻松地统计从文本中提取的人物名称的出现频率,从而进行人物出现频率分布分析。
character_freq = Counter(person_names)
8. 词云生成
使用wordcloud模块生成词云图,这需要将词频等信息传递给词云模块,并对生成的图像进行一定的定制。
综合来看,这涉及到文本处理、数据统计、可视化和一定的自然语言处理方面的知识和技能。
- 定制词云图:
- 在生成词云图时,可以通过调整WordCloud的参数来定制图形的外观,包括图像的大小、背景颜色等。示例代码中展示了如何设置词云的宽度、高度和背景颜色。
wordcloud = WordCloud(width=800, height=400, background_color='white').generate_from_frequencies(word_freq)
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis("off")
plt.show()
实验内容
数据下载地址:
文本分析所用小说(数据)
1.对纯英文小说进行分析。
主要步骤如下:
下载一篇纯英文小说,保存为txt文档。
打开小说文件,通过对字符串的处理(注意统计中要去掉各种标点符号,除英文以外的内容。),统计小说中所有英文单词的使用频次,结果保存在一个字典中。
对字典中的数据进行排序,按照使用频次从高到低进行排序,并把统计结果写到一个文本文件中。
把单词的使用频次的信息用词云的方式显示出来。
小说文件截图(处理小说源文件):
代码截图:
运行结果(词云):
生成词典并排序截图:
2.对中文小说进行分析。
对于中文小说的词频统计、人名提取、自然段划分和人物出现频率分布分析,并利用wordcloud模块生成词云图。
主要步骤如下:
下载一篇中文小说,字数在十万字以上。使用中文分词库进行分词。统计使用最多的人名和中文词汇并输出。
列出小说中的主要人物,包括主人公,以及另外相关人物5人或以上。
把小说分段,分析出小说一共有多少自然段。并统计出上面列出的人物共在多少个自然段中出现。并用某种输出模式体现出这种分布情况,例如在第一段出现,输出一个字符,在第二段没有出现,输出一个空格。可以直观的看出人物出现的位置和频率。
分析主人公以及其他相关人物之间的亲密度,两个人在同一个自然段同时出现亲密度加1,最后得到统计结果。
把词频的统计结果用词云的方式显示出来。
小说原文件截图(处理小说源文件):
代码截图:
运行结果(词云):
段落数截图:
细节:
人物出现频率截图
主角(阿龙纳斯):
配角1(康赛尔):
配角2(尼德•兰):
配角3(尼摩船长):
配角4(何伯逊敬启):
配角5(教授):
亲密度:
问题与解决
操作异常:在使用中文分词库jieba
时,可能会遇到编码问题,导致分词不准确。
解决方案:在打开和处理文件时,使用正确的编码格式进行操作。可以尝试使用UTF-8编码,因为它在处理中文文本时通常表现良好。
操作异常:在使用wordcloud
模块时,可能由于依赖 matplotlib 和 NumPy 的安装问题而导致出现ImportError。
解决方案:可以尝试重新安装matplotlib
和numpy
模块,或者在虚拟环境中安装这些模块,以解决依赖库安装问题。
异常问题:处理中文小说时候,因为没有安装Python和jieba分词库代码无法运行。
解决方案:使用以下命令安装jieba:pip install jieba
异常问题:在处理英文小说时,代码中使用了nltk库和wordcloud库,但是用户没有提前安装这两个库,导致代码运行时报错。
解决方案:用户在运行代码前应该使用以下命令安装所需的库:pip install nltk
和pip install wordcloud
操作异常:因为没有设置中文字体路径词云图无法读出中文。
解决方案:下载该文件并加入代码font_path = 'zitiaozichangyinghedianshan.ttf # 设置中文字体路径
附录
1.对纯英文小说进行分析。
#英文小说单词使用频次统计和词云制作:
# 导入需要的库
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import string
# 读取小说文件
with open('H:/其他/小说/after twenty years.txt', 'r' ,encoding='utf-8') as f:
novel = f.read()
# 去除标点符号和数字
translator = str.maketrans('', '', string.punctuation + string.digits)
novel = novel.translate(translator)
# 将小说中的单词转换为小写,并按照空格分割成列表
words = novel.lower().split()
# 统计单词出现频次
word_freq = {}
for word in words:
if word in word_freq:
word_freq[word] += 1
else:
word_freq[word] = 1
# 按照单词出现频次从高到低排序
sorted_word_freq = sorted(word_freq.items(), key=lambda x: x[1], reverse=True)
# 将排序结果写入文件
with open('H:/其他/小说/word_after twenty years.txt', 'w' ,encoding='utf-8') as f:
for word, freq in sorted_word_freq:
f.write(f'{word}: {freq}\n')
# 生成词云
wordcloud = WordCloud(width=800, height=800, background_color='white').generate_from_frequencies(word_freq)
plt.figure(figsize=(8, 8), facecolor=None)
plt.imshow(wordcloud)
plt.axis('off')
plt.tight_layout(pad=0)
plt.show()
2.对中文小说进行分析。
from wordcloud import WordCloud
import jieba
from collections import Counter
import matplotlib.pyplot as plt
# 设置中文字体路径
font_path = 'zitiaozichangyinghedianshan.ttf'
# 读取中文小说文件
with open('H:/其他/小说/海底两万里.txt', 'r', encoding='utf-8') as file:
chinese_novel_text = file.read()
# 中文分词
seg_list = jieba.lcut(chinese_novel_text)
# 统计词频
word_counts = Counter(seg_list)
# 将词频字典转换为单个字符串
wordcloud_text = ' '.join(seg_list)
# 生成词云
wordcloud = WordCloud(width=800, height=400, background_color='white', font_path=font_path).generate(wordcloud_text)
# 显示词云图像
plt.figure(figsize=(10, 5))
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis('off')
plt.show()
# 填入小说中的主要人物,包括主人公和其他相关人物5人或以上
main_characters = ["阿龙纳斯", "康赛尔", "尼德•兰", "尼摩船长", "何伯逊敬启", "教授"]
# 分析小说自然段
paragraphs = chinese_novel_text.split('\n')
print("小说一共有{}自然段。".format(len(paragraphs)))
# 列出主要人物在每个自然段的出现情况
character_occurrence = {char: [0] * len(paragraphs) for char in main_characters}
for i, paragraph in enumerate(paragraphs):
for char in main_characters:
if char in paragraph:
character_occurrence[char][i] = 1
# 输出人物在自然段中的出现情况
for char in main_characters:
print("{}在各自然段的出现情况:".format(char), character_occurrence[char])
# 统计主要人物之间的亲密度
intimacy_matrix = [[0] * len(main_characters) for _ in range(len(main_characters))]
for i in range(len(main_characters)):
for j in range(i + 1, len(main_characters)):
for k in range(len(paragraphs)):
if character_occurrence[main_characters[i]][k] and character_occurrence[main_characters[j]][k]:
intimacy_matrix[i][j] += 1
# 输出亲密度矩阵
print("人物亲密度矩阵:")
for row in intimacy_matrix:
print(row)