Audio Language Learning (Audio-Text Learning) 是一个新兴的研究领域,专注于处理、理解和描述声音。它的发展动力是机器学习技术的进步以及越来越多地将声音与其相应的文本描述相结合的数据集的可用性。 Audio Language Models (ALMs) 是这个领域的关键技术,它们能够处理声音,并提供关于声音产生事件和场景的语音描述。随着计算能力和数据集创建方面的最新进展,该领域取得了显著进展。
1 背景
1.1 领域发展主要驱动因素
计算能力的进步及数据集的创建相互促进,共同推动了音频语言学习领域的快速发展。计算能力的进步使得处理和分析大量音频数据成为可能,而数据集的创建则提供了丰富的数据资源,支持了各种音频语言学习任务的研究。
1.1.1 计算能力的进步
- 大语言模型 (LLM) 的出现: LLM 的出现为音频语言学习提供了强大的工具。LLM 能够处理和理解大量文本数据,并生成相应的文本输出。这为将音频数据与文本描述相结合提供了可能性,从而推动了音频语言学习的发展。
- Transformer 模型的应用: Transformer 模型在自然语言处理领域取得了革命性的进展,并成功应用于音频语言学习。它们能够有效地处理序列数据,并捕捉音频和文本之间的复杂关系。
1.1.2 数据集的创建
- Freesound 平台的发布: Freesound 平台提供了一个庞大的音频数据库,为音频语言学习提供了丰富的数据资源。用户可以上传和下载各种类型的音频文件,并将其与文本描述相关联。
- AudioSet 的创建: AudioSet 是由 Google 开发的一个大规模音频分类数据集,包含超过 200 万个音频片段和 527 个音频事件类别。它为音频语言学习提供了标准化的数据格式和标签,并促进了该领域的研究进展。
1.2 音频语言学习的主要任务
1.2.1 音频到语言 (Audio-to-Language)
这类模型将音频输入转换为文本输出,通常通过模型生成或从数据集中检索。该类别包含几个子领域:
- 音频字幕 (Audio Captioning, AAC): 生成音频事件的自然语言描述。
- 音频-文本检索 (Audio-Text Retrieval, ATR): 使用音频-语言对数据库查找给定音频输入的相关文本。
- 音频问答 (Audio-Question Answering, AQA): 回答关于特定音频内容的自然语言问题。
- 音频差异字幕 (Audio Difference Captioning, ADC): 生成描述,强调相似音频片段之间内容差异。
1.2.2 语言到音频 (Language-to-Audio)
这类模型使用语言输入来生成或检索音频。
- 音频生成 (Audio Generation, AG): 根据自然语言提示创建音频。
- 文本到音频检索 (Text-to-Audio Retrieval, TAR): 使用自然语言查询从包含音频-语言对的数据库中查找匹配的音频片段。
- 语言查询音频源分离 (Language-Queried Audio Source Separation, LASS): 使用自然语言描述来确定(并隔离)混合声音中的特定声音来源。
1.3 音频语言模型 (ALM) 的训练方法
音频语言模型 (ALM) 的训练方法主要分为三大类,每种方法都有其独特的优缺点和适用场景。
1.3.1 基于跨注意力机制的方法
利用跨注意力机制将音频特征与文本输出进行对齐,实现音频和文本之间的信息融合。
1.3.1.1 常见模型架构
编码器 (如 CNN 或 Transformer) 处理音频信号,输出特征作为注意力机制的键和查询。文本解码器则利用这些特征生成文本描述。
1.3.1.2 优点
- 能够有效地融合音频和文本信息,即使直接从音频到文本的学习不可行。
- 可以使用静态 (或冻结) 的音频编码器和文本解码器,降低训练成本。
1.3.1.3 缺点
- 需要映射网络来适配编码器输出和文本解码器的输入,可能引入额外的复杂性。
- 跨注意力机制的计算成本较高。
1.3.2 基于音频前缀的方法
将音频编码器的输出映射到文本解码器的序列起始位置,将音频信息作为文本生成的先验知识。
1.3.2.1 常见模型架构
音频编码器 (如 CNN 或 Transformer) 的输出与文本解码器的输入进行拼接,文本解码器根据先验信息和当前文本生成文本描述。
1.3.2.2 优点
- 计算成本较低,训练速度较快。
- 可以将多种音频类型进行统一编码,实现模型泛化。
- 可以使用冻结的编码器进行预训练,降低训练成本。
1.3.2.3 缺点
- 音频信息对文本生成的影响程度难以控制。
- 可能导致文本生成过程中音频信息的过度强调。
1.3.3 基于预训练模型的方法 (零样本)
利用预训练的多模态网络或大型语言模型 (LLM) 进行音频描述的生成,无需针对音频描述任务进行特定训练。
1.3.3.1 常见模型架构
使用预训练的多模态网络提取音频特征,LLM 根据文本描述和音频特征生成文本描述。
1.3.3.2 优点
- 可以利用预训练模型的知识和经验,提高模型性能。
- 可以快速生成音频描述,无需进行特定训练。
1.3.3.3 缺点
- 预训练模型可能存在偏差,影响音频描述的准确性。
- 难以控制音频信息对文本生成的影响程度。
2 音频语言数据集
2.1 调查方法
通过手动审查2019年至2023年在Google Scholar上列出的出版物来识别的。
2.2 数据集分类
- YouTube 数据集:AudioSet, AudioCaps, FAVDBench, Take It Seriously, SoundWords
- Freesound 数据集:Clotho, Clotho-Detail, ClothoAQA, FSD50k
- 音效数据集:WavText5k, BBC Sound Effects, SoundDescs, Pro Sound Effects
- 其他类别:MACS, Hospital & Car Dataset (AudioCaption), AnimalSpeak, CAPTDURE, SAM-S, SoundingEarth
- 音频问答数据集:ClothoAQA, mClothoAQA, DAQA, AQUALLM, Audio Conversation 10k (MULTIS), LTU / OpenAQA-5M
- 音频差异字幕数据集:MIMII-Change, AudioDiffCaps
- 音频语言汇总数据集:Auto-ACD, ONE-PEACE Pretraining set, LAION-Audio-630k, MS-CLAP, TangoPromptBank, WavCaps, NetEase AAC Dataset
- 音频-语音-音乐汇总数据集:HEAR benchmark, SALMONN, Comp-A, Qwen-Audio, Pengi, Mix-185K, Uniaudio, AudioLDM, CLARA
2.3 音频语言数据集的特点
- 音频长度: 音频片段的长度可能有所不同,从几秒钟到几分钟不等。
- 文本长度: 字幕的长度也可能不同,从单个单词到完整的段落不等。
- 音频类型: 数据集中的音频类型可能包括人声、音乐、环境声音、动物声音等。
- 文本语言: 字幕的语言可能包括多种语言,包括英语、中文、西班牙语等。
- 数据来源: 数据集的来源可能包括 YouTube、Freesound、音效库、现场录音、电视节目等。
2.4 音频语言数据集的应用
- 音频字幕: 使用模型将音频转换为文本描述。
- 音频-文本检索: 使用模型查找与给定音频输入相关的文本描述。
- 音频问答: 使用模型回答关于特定音频内容的问题。
- 音频差异字幕: 使用模型生成描述,强调相似音频片段之间内容差异。
2.5 音频语言数据集的挑战
- 数据稀缺: 可用的音频语言数据集相对较少,限制了模型的发展。
- 数据质量: 一些数据集可能包含噪声或低质量的文本描述,影响模型的性能。
- 数据偏差: 数据集可能存在偏差,例如性别、种族或语言偏差,影响模型的公平性。
- 数据重叠: 一些数据集可能存在重叠,影响模型的学习效果。
3 评估
我们将对本文中的主要音频数据集进行评估。首先,我们将提供基于大规模主成分分析的音频和文本嵌入的可视化,这些可视化图示说明了不同数据集之间音频和文本内容的相对距离以及它们在AudioSet顶级类别中的绝对数量。其次,我们将提供数据泄露的定量评估。数据泄露发生在评估数据在训练期间对机器学习模型可访问时。
3.1 评估音频数据集的主要指标
- 数据质量: 评估数据集的噪声水平、文本描述的准确性和一致性等。
- 数据多样性: 评估数据集中音频类型、语言、场景和事件的范围。
- 数据完整性: 评估数据集的完整性,例如是否有缺失的音频文件或文本描述。
- 数据分布: 评估数据集中音频和文本的分布,例如是否存在类别不平衡或分布偏移。
- 数据重叠: 评估数据集中不同数据集之间的重叠,例如是否存在相同的音频文件或文本描述。
3.2 评估音频数据集的方法
- 可视化: 使用图表和图形来展示数据集中音频和文本的特征,例如音频-文本嵌入的主成分分析 (PCA)。
- 统计分析: 使用统计方法来分析数据集的特征,例如计算音频和文本的平均长度、标准差、唯一单词数等。
- 数据泄露分析: 检查训练数据中是否存在关于测试数据的任何信息,这可能导致模型在测试数据上的过度拟合。
- 重复数据分析: 检查数据集中是否存在重复的音频文件或文本描述,这可能导致模型学习到不必要的模式。
3.3 评估结果
3.3.1 音频和文本嵌入的可视化
- 通过大规模的主成分分析 (PCA),将音频和文本嵌入进行了可视化,并计算了数据点之间的距离。结果显示,不同的数据集在音频和文本内容方面存在着显著差异,例如 AnimalSpeak 在音频嵌入方面与其它数据集差异最大,而 mAQA 在文本嵌入方面与其它数据集差异最大。
- 通过将音频和文本分类到 AudioSet 的顶级类别中,展示了不同数据集中声音的相对分布。结果显示,音乐、人类声音和物体声音是数据集中最常见的类别,这与 AudioSet 中语音和音乐的广泛存在有关。
3.3.2 重复分析
通过比较音频文件的梅尔谱图,发现了一些数据集之间存在重叠,例如 AudioCaps 和 Clotho 与 WavCaps 之间存在重叠。这表明,在训练模型时,可能存在数据泄露,导致模型在测试集上获得过高的性能。
AnimalSpeak和Audioset数据集与其他数据集有相对较高的重叠。AudioDiffCaps、MACS相对很少有其他相似的数据集。
3.3.3 数据质量
由于公开数据集中高质量训练数据的稀缺,研究人员通常依赖于大规模的噪声数据集。然而,这些数据集可能会引入分布偏移,导致模型在实际应用中的性能下降。
建议使用经过筛选和处理的数据集,例如 Revised-Clotho 和没有数据泄露的 SoundDescs 分割版本,以提高数据质量并改善模型性能。
3.3.4 数据偏差
- 交叉污染: 当训练数据与测试数据重叠时,会导致模型在测试集上获得过高的性能,掩盖模型在真实世界数据上的真实性能。
- 视觉支持数据集: 一些数据集包含与视觉内容相关的标签或注释,这可能会导致模型学习到与音频无关的视觉信息,从而引入偏差。
- 多样性偏差: 音频数据集可能存在不平衡,这可能会影响模型对代表性不足的群体的性能。
3.4 评估音频数据集的重要性
- 指导数据集开发: 评估可以帮助研究人员了解数据集的局限性,并指导未来的数据集开发工作,例如增加数据多样性、改进数据质量或减少数据重叠。
- 选择合适的模型: 评估可以帮助研究人员选择最适合特定任务的数据集,例如使用具有更多与任务相关的音频类型和场景的数据集。
- 提高模型的性能: 评估可以帮助研究人员了解数据集对模型性能的影响,并指导未来的模型训练工作,例如使用数据增强或数据清洗技术。
3.5 评估音频数据集的挑战
- 缺乏标准化的评估指标: 目前没有标准化的评估指标来衡量音频数据集的质量和适用性。
- 数据获取困难: 一些数据集可能难以获取,例如受版权保护的数据集。
- 数据标注成本高: 音频数据标注是一个耗时且成本高昂的过程。