今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理

还记得2022年末ChatGPT的横空出世,带来了整个NLP乃至AI领域的震动,随后如LLaMA、ChatGLM、Qwen等类ChatGPT大模型(LLM)开始如雨后春笋般涌现,这些先进的模型不仅展示了在零样本学习中的出色表现,还在多种NLP任务中展示了其强大的能力,例如文本摘要、机器翻译、信息提取和情感分析等,使得多种NLP任务得以在单一模型中得到解决。

那种勃勃生机,万物竞发的境界,犹在眼前。

一年多时间过去,尽管LLMs在NLP任务中的应用已经取得了诸多成果,但关于它们的系统性研究和未来潜力的探索仍处于初级阶段。本文旨在通过详细分析LLMs在NLP中的应用现状,探讨它们当前的进展、面临的挑战以及未来的发展方向。通过引入新的分类体系,包括参数冻结范式和参数微调范式,本研究提供了一个统一的视角来理解LLMs在NLP任务中的应用,并探讨了新的研究前沿和挑战,旨在激发未来的突破性进展。

论文标题:
Large Language Models Meet NLP - A Survey

论文链接:
https://arxiv.org/pdf/2405.12819.pdf

大模型的分类和应用

参数冻结范式

参数冻结范式是指在不对模型的参数进行任何微调的情况下,直接使用LLMs来处理NLP任务(下图a部分)。这种应用方式主要包括零样本学习(Zero-shot Learning)和少样本学习(Few-shot Learning)两种形式。

零样本学习利用模型的指令遵循能力,通过给定的指令提示来解决NLP任务。这种方式不需要额外的示例或训练数据,模型能够直接根据指令执行任务。

少样本学习则是通过在上下文中提供少量的示例来引导模型学习。这种方法需要一些相关的示例来展示任务的执行方式,从而帮助模型更好地理解和完成任务。

3.5研究测试:
hujiaoai.cn
4研究测试:
askmanyai.cn
Claude-3研究测试:
hiclaude3.com

参数微调范式

参数微调范式涉及到对LLMs的参数进行微调,以适应特定的NLP任务(下图b部分)。这类范式可以进一步分为全参数微调(Full-parameter Tuning)和参数高效微调(Parameter-efficient Tuning)两种形式。

全参数微调指的是对模型的所有参数进行微调,以便模型能够更好地适应特定的任务或数据集。这种方法通常需要大量的计算资源和时间,但可以显著提高模型在特定任务上的表现。

参数高效微调则是一种更为高效的微调方式,它只微调模型的一部分参数或引入可调整的额外参数,如Bottleneck Adapter或Low-Rank Adaptation等,从而在不显著增加计算负担的情况下提升模型的表现。

NLP任务

本文从“是否调整参数”的角度,将NLP学习方式分为了两个大类,四个小类,并分别对各个类别下NLP的两大任务类型,自然语言理解(Natural Language Understanding, NLU)和自然语言生成(Natural Language Generation, NLG),进行了以下汇总:

自然语言理解

自然语言理解涉及对文本内容的深入分析和解释。

  • 情感分析:情感分析旨在识别文本中的情感倾向,如正面意见或批评。LLMs在情感分析任务中表现出色,尤其是通过指令微调和上下文学习来实现零样本学习和少样本学习。

  • 信息抽取:信息提取任务旨在从纯文本中提取结构化信息,包括关系提取、命名实体识别和事件提取。

  • 对话理解:对话理解包括口语理解和对话状态跟踪。

  • 表格理解:表格理解涉及理解和分析表格中呈现的结构化数据,重点关注解释和提取有意义信息。

自然语言生成

自然语言生成涉及将数据或信息转换成自然语言文本的过程。

  • 摘要:摘要的目标是从文本文档中提取最核心的信息,生成简洁且连贯的概要,同时保留原始内容的主要主题。LLMs在参数冻结范式下生成摘要方面表现出色,挑战了传统微调方法的必要性。

  • 代码生成:代码生成涉及根据自然语言规范自动创建可执行代码,为编程提供了更直观的界面。LLMs在代码生成方面取得了显著进展,展示了在零、少样本情况下生成代码的能力。

  • 机器翻译:机器翻译是自动将一种语言的信息翻译成另一种语言的经典任务,旨在实现准确性并保留原始材料的语义本质。

  • 数学推理:数学推理任务涉及使用NLP技术来理解数学文本中的信息,执行逻辑推理,并生成答案。

未来工作和新前沿

多语言LLM的挑战与机遇

多语言LLM在处理多种语言的NLP任务中展示了巨大的潜力。例如,最近的研究表明,通过使用多语言情感词典,LLM能够在零样本情况下进行情感分析,即使在资源较少的语言中也能表现出色[1]。然而,这种模型在处理低资源语言时仍面临挑战,如何提高这些语言的性能是未来研究的一个重要方向。此外,和跨语言对齐也是多语言LLM需要解决的关键问题,有效的跨语言对齐可以极大地提高模型在跨语言NLP任务中的表现。

多模态LLM的探索与实践

随着AI领域对多模态学习的兴趣日益增加,多模态LLM成为了研究的热点。这些模型不仅处理文本数据,还能处理图像、视频等多种类型的数据。尽管当前的多模态LLM在简单的多模态推理任务中表现良好,如图像识别,但在更复杂的多模态推理任务中仍然存在挑战[2]。此外,如何设计有效的多模态交互机制,以弥合不同模态之间的差异,是实现有效多模态NLP的关键[3]。

LLM在NLP中的工具使用与优化

LLM在实际应用中往往需要与各种工具和代理一起使用,以解决更复杂的NLP任务。例如,通过与任务相关的工具链配合,LLM可以更有效地处理任务导向的对话任务。然而,如何选择合适的工具,并有效地规划工具的使用,是提高LLM在实际应用中表现的关键[4]。此外,当前的研究主要集中在单一工具的使用上,如何协调多个工具的使用,以达到最佳的性能,是未来研究的一个重要方向[5]。

LLMs在NLP中的X-of-Thought

当LLMs解决复杂的NLP问题时,它们通常需要复杂的思考过程[6]。因此,一些工作采用了X-of-Thought(XoT)进行高级逻辑推理[7]。主要挑战包括如何开发一种普遍适用的步骤分解方法,以将LLMs推广到各种NLP任务;以及如何更好地整合不同XoT的知识以解决NLP问题。

LLMs在NLP中的幻觉问题

在解决NLP任务时,LLMs不可避免地会产生与世界知识、用户请求或自生成上下文偏离的幻觉输出。因此,如何找到合适的统一评估基准和指标,对追踪并改善幻觉起到了重要作用。另一方面,合理利用幻觉也可以在某种程度上促进创造力,比如产生更好的创新知识[8]。

LLMs在NLP中的安全性问题

将LLM应用于下游NLP任务也引发了不可避免的安全问题,包括版权问题、仇恨毒性、社会偏见和心理安全问题。目前仍然缺乏针对各种NLP任务的LLM的安全相关基准,此外在多语言环境中识别和减轻这些风险是一个重要挑战[9][10]。

总结

LLM在NLP领域的应用已经取得了显著的进展。通过对模型参数的冻结和微调,LLM能够在多种NLP任务中表现出色,如文本摘要、机器翻译和情感分析等。未来,随着多语言和多模态LLM的进一步研究,以及工具使用和优化策略的改进,我们有理由相信LLM将在NLP领域发挥更大的作用,推动该领域的发展。同时,随着研究的深入,我们也期待LLM能够在处理更复杂的NLP任务中展现出更强的能力,为人工智能技术的应用开辟新的道路。

参考资料

[1]Fajri Koto, Tilman Beck, Zeerak Talat, Iryna Gurevych, and Timothy Baldwin. 2024. Zero-shot sentiment analysis in low-resource languages using a multilingual sentiment lexicon. arXiv preprint arXiv:2402.02113.
[2] Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, and Lijuan Wang. 2023b. Mm-react: Prompting chatgpt for multimodal reasoning and action. arXiv preprint arXiv:2303.11381.
[3]Weihan Wang, Qingsong Lv, Wenmeng Yu, Wenyi Hong, Ji Qi, Yan Wang, Junhui Ji, Zhuoyi Yang, Lei Zhao, Xixuan Song, Jiazheng Xu, Bin Xu, Juanzi Li, Yuxiao Dong, Ming Ding, and Jie Tang. 2023e. Cogvlm: Visual expert for pretrained language models. ArXiv.
[4]Mengkang Hu, Yao Mu, Xinmiao Yu, Mingyu Ding, Shiguang Wu, Wenqi Shao, Qiguang Chen, Bin Wang, Yu Qiao, and Ping Luo. 2023a. Tree-planner: Efficient close-loop task planning with large language models. arXiv preprint arXiv:2310.08582.
[5]Lei Wang, Chen Ma, Xueyang Feng, Zeyu Zhang, Hao Yang, Jingsen Zhang, Zhiyuan Chen, Jiakai Tang, Xu Chen, Yankai Lin, et al. 2023c. A survey on large language model based autonomous agents. arXiv preprint arXiv:2308.11432.
[6]Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, and Yusuke Iwasawa. 2022. Large language models are zero-shot reasoners. Advances in neural information processing systems, 35:22199– 22213.
[7]Bin Lei, Chunhua Liao, Caiwen Ding, et al. 2023. Boosting logical reasoning in large language models through a new framework: The graph of thought. arXiv preprint arXiv:2308.08614.
[8]Sewon Min, Kalpesh Krishna, Xinxi Lyu, Mike Lewis, Wen-tau Yih, Pang Wei Koh, Mohit Iyyer, Luke Zettlemoyer, and Hannaneh Hajishirzi. 2023. Factscore: Fine-grained atomic evaluation of factual precision in long form text generation. arXiv preprint arXiv:2305.14251.
[9]Deep Ganguli, Liane Lovitt, Jackson Kernion, Amanda Askell, Yuntao Bai, Saurav Kadavath, Ben Mann, Ethan Perez, Nicholas Schiefer, Kamal Ndousse, et al. 2022. Red teaming language models to reduce harms: Methods, scaling behaviors, and lessons learned. arXiv preprint arXiv:2209.07858.
[10]Hao Sun, Zhexin Zhang, Jiawen Deng, Jiale Cheng, and Minlie Huang. 2023a. Safety assessment of chinese large language models. arXiv preprint arXiv:2304.10436.

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/685275.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

ToonCrafter——自动生成动画中间帧与动画上色

1、引言 动画制作对许多人来说都是一项专业且复杂的工作,需要学习专门的知识、掌握特定的工具,并投入大量的时间和精力才能获得成果。不过,最近推出的一款 AI 动画制作工具 ToonCrafter 有望改变这一现状。 它只需两张图像即可生成连贯流畅…

Turntin查重报告解读,如何根据颜色标准修改essay作业

留学生是学术生涯,撰写essay作业时是最常见的学习状态。在这样一个过程中,常常会遇到许多问题,当然,最需要注意便是抄袭问题。为了确定我们的essay符合标准,通常许多学生会选择使用Turnitin查重(www.checkt…

神经网络搭建(1)----nn.Sequential

神经网络模型构建 采用CIFAR10中的数据,并对其进行简单的分类。以下图为例 输入:3通道,3232 ( 经过一个55的卷积) → 变成32通道,3232的图像 (经过22的最大池化) → 变成32通道,1616的图像 ( 经过一个55的卷积) → 变…

英伟达再创历史,市值超越苹果,跃居全球第二大上市公司

进入2024年,英伟达股价依然突飞猛进。 今天凌晨,英伟达凭借其在AI领域强劲的创新能力和市场势头,达成了历史性的里程碑——市值首次突破3万亿美元,成功超越苹果,成为全球市值第二大上市公司。 排名仅次于微软。 英伟达…

从零开始实现自己的串口调试助手(7) -隐藏面板/刷新串口号/实现多文本

隐藏/拓展面板/历史: ui界面操作: 选中隐藏面板按钮,勾选checkable 创建bool类型的槽函数 隐藏/拓展面板槽函数: void Widget::on_btnHideTable_clicked(bool checked) {if(checked){ui->btnHideTable->setText("拓展面板");ui->groupBoxTexts-…

Kotlin 网络请求小例子(Ktor)

文章目录 导入依赖创建 Http 客户端 其实还是借着 Ktor 学一学 Kotlin 如何导入依赖,这应该是我们 Kotlin 基础专栏的最后一期了。 Ktor 是 Kotlin 官方的一个网络请求库,它具有优秀且精炼的 API,并且是跨平台的。 本教程参考自 Ktor 文档 …

f1c100s 荔枝派 系统移植

一。交叉编译环境配置 1.1下载交叉工具链:https://releases.linaro.org/components/toolchain/binaries/7.2-2017.11/arm-linux-gnueabi/ 1.2解压安装 在home目录下新建 工程目录:mkdir f1c100s_project 将windows下的gcc-linaro-7.2.1-2017.11-x86…

AI大模型日报#0606:智谱AI开源GLM-4-9B、Pika再融5.8亿

导读:AI大模型日报,爬虫LLM自动生成,一文览尽每日AI大模型要点资讯!目前采用“文心一言”(ERNIE 4.0)、“零一万物”(Yi-Large)生成了今日要点以及每条资讯的摘要。欢迎阅读&#xf…

Ubuntu虚拟机安装(基于Vmware17)

Ubuntu虚拟机安装(基于Vmware17) Ubuntu和CentOS是两种流行的Linux发行版,Ubuntu默认安装了图形化桌面环境,对于新手来学习相对来说较为友好,能够满足日常的学习和使用。CentOS则通常被用于服务器环境,常运…

【再探】Java—Java 沙箱机制与类加载器

沙箱(Sandbox)机制是将Java程序限定在JVM特定的运行范围内,并严格限制代码对本地系统资源的访问,以保证代码的有效隔离,防止对本地系统造成破坏。 1 安全模型 类在加载过程中,类加载器会为类设置初始的安…

天润融通助力浪鲸卫浴,智能化革新引领客户服务新高度

头部家装品牌如何用优质服务抓住客户? 每年初春,万物复苏的同时,家装市场也正式进入旺季。 因为春天气温回升,潮气逐渐散去,开始进入最适合施工的季节,木材不易变形、油漆不易起皮,再加上春季…

【iOS】——Runtime学习

文章目录 一、Runtime介绍二、Runtime消息传递三、实例对象、类对象、元类对象四、isa_t结构体的具体实现五、cache_t的具体实现六、class_data_bits_t的具体实现七、Runtime消息转发动态方法解析备用接收者完整消息转发 一、Runtime介绍 iOS的Runtime,通常称为Obj…

人形机器人:工业领域的得力助手

人行机器人近2年显示出强劲的增长势头,根据最新数据预测,到2026年,中国人形机器人产业规模将突破200亿元,这一数字预示着人形机器人在未来社会中将扮演更加重要的角色。 在工业领域,由于工业环境复杂多变,对…

音视频直播(一)

协议基础篇 直播协议基础推流与拉流推流拉流 直播传输协议RTMP传输协议 && HTTP-FLV协议为什么RTMP做推流,反而很少做拉流?HTTP-FLV协议 RTSP协议HLS协议SRT协议 WebRTC协议应用于直播 直播协议基础 从网络上搜寻到的有关推流与拉流的示意图 从…

STM32F103VE和STM32F407VE的引脚布局

STM32F103VE vs STM32F407VE 引脚对比表 引脚 STM32F103VE STM32F407VE 备注 1 VSS VSS 地 2 VDD VDD 电源 3 VSSA VSSA 模拟地 4 VDDA VDDA 模拟电源 5 OSC_IN OSC_IN 外部时钟输入 6 OSC_OUT OSC_OUT 外部时钟输出 7 NRST NRST 复位 8 PC13 (GPIO) PC13 (GPIO) GPIO 9 PC14 (…

【MySQL】sql语句之表操作(上)

序言 在上一篇的数据库操作的内容中,学习了两种属性和常用的七种操作,学习是循序渐进的,库的操作学完了,就要开始学习表的操作了,而表可与数据强相关,比如DDL,即数据定义语言,DML&am…

JVMの静、动态绑定异常捕获JIT即时编译

在说明静态绑定和动态绑定之前,我们首先要了解在字节码指令的层面,JVM是如何调用方法的: 例如我有以下的代码,很简单就是在main方法中调用了另一个静态方法: public class MethodTest {public static void main(Strin…

小程序 UI 风格美不胜收

小程序 UI 风格美不胜收 小程序 UI 风格美不胜收

论文阅读《SELECTIVE DOMAIN-INVARIANT FEATURE FOR GENERALIZABLE DEEPFAKEDETECTION》

作者:Yingxin Lai、 Guoqing Yang1、Yifan He2、Zhiming Luo、Shaozi Li 期刊:ICASSP-2024 目的:解决泛化性的问题,提出了3个模块 论文整体的架构图:(挑选域特征不变,减少对图像内容或者风格…

完全平方数

完全平方数 完全平方数动态规划 完全平方数 给你一个整数 n ,返回 和为 n 的完全平方数的最少数量 。 完全平方数 是一个整数,其值等于另一个整数的平方;换句话说,其值等于一个整数自乘的积。例如,1、4、9 和 16 都是…