为什么LLM都在卷上下文长度?不是其他卷不起,而是上下文更有性价比!

大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普AI工具测评AI效率提升AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。

如果用一个成语来形容AI行业近两年的发展,用“日新月异”毫不为过。特别是最近,各大LLM开始卷起了上下文长度,尤其是国内的LLM大语言模型们。在2023年,大家还沉浸在类似ChatGPT这样的聊天机器人带来的震撼中,上下文长度可以说是“够用就行”,比如最新GPT-4模型长度是128K tokens,Claude 2.1模型则拥有200K tokens的上下文窗口。然后,2023年10月,AI初创公司月之暗面发布了支持20万汉字长文本处理的AI工具Kimi Chat。紧接着,2024年2月15日,谷歌官宣了100万tokens上下文的模型Gemini 1.5 Pro。随后,2024年3月4日,Anthropic发布了媲美GPT-4的模型Claude 3,最大上下文窗口也是达到了100万tokens。接下来就是国内的LLM们的表演时刻了。首先是月之暗面宣布Kimi Chat开启200万字上下文内测,然后是前几天阿里宣布通义千问已经开放了1000万字长文档处理功能,同一天,百度表示文心一言下个月将开放200万-500万长度的长文本处理能力。

时间公司/团队模型/工具上下文长度
2023年OpenAIGPT-4128K tokens
2023年AnthropicClaude 2.1200K tokens
2023年10月月之暗面Kimi Chat20万字
2024年2月15日谷歌Gemini 1.5 Pro100万tokens
2024年3月4日AnthropicClaude 3100万tokens
2024年3月18日月之暗面Kimi Chat(内测)200万字
2024年3月22日阿里通义千问1000万字
2024年3月22日百度文心一言(预告)200万-500万字

关于如何使用这些AI工具,新来的朋友可以看我之前写的相关文章:

  1. 谷歌Gemini 1.5 Pro向所有人开放,无需waitlist!阿里通义千问升级1000万字长文档处理功能!

  2. 卷起来!Kimi Chat开启200万字上下文内测!苹果与谷歌商谈在新iPhone中使用Gemini AI!

  3. 【全网首发】上周申请的谷歌Gemini 1.5 Pro已通过!百万token的Gemini 1.5 Pro开箱测试(一)

  4. 重磅更新!谷歌发布Gemini 1.5 Pro!多模态,1000K上下文!附Waitlist链接!

那么,AI里面的上下文长度到底是什么?为什么这么多大语言模型都在卷上下文长度这个指标?

AI在语言理解和文本处理方面的发展

从最初的规则驱动系统到今天的深度学习模型,AI在语言理解和文本处理方面经历了翻天覆地的变化。早期的AI系统受限于预设的逻辑和有限的数据库,它们在处理自然语言时往往显得笨拙且缺乏灵活性。然而,随着时间的推移,AI开始展现出对语言的深刻理解和处理能力,尤其是在近年来,深度学习技术的突破使得AI在自然语言处理(NLP)领域取得了显著的进步。深度学习,尤其是循环神经网络(RNNs)和后来的Transformer架构,为AI提供了前所未有的上下文理解能力。这些模型能够捕捉到文本中长距离的依赖关系,使得AI在处理语言时更加灵活和准确。BERT、GPT等基于Transformer的模型,通过自注意力机制,进一步提升了AI对上下文的敏感度,使得机器能够更好地理解语言中的细微差别。

尽管如此,AI在处理自然语言时,仍然面临着一系列挑战,尤其是在理解上下文方面。上下文,或者说文本的语境信息,对于人类来说是自然而然的理解过程,但对于AI来说却是一个复杂的问题。一方面,语言的多样性和歧义性使得上下文理解变得异常复杂。AI需要在处理大量文本数据时,不仅捕捉到单个词汇的含义,还要理解这些词汇在特定上下文中的意义,这要求AI具备更为复杂的语言模型和更大的上下文理解能力。另一方面,随着AI应用场景的不断扩大,对AI上下文理解的要求也在不断提高。例如,在法律、医疗等专业领域,AI需要处理大量的专业术语和复杂的语句结构,这对AI的上下文理解能力提出了更高的要求。

大语言模型LLM中的上下文长度

上下文长度是指在人工智能处理信息时,尤其是在自然语言处理(NLP)中,AI能够同时考虑的最大词汇数量或文本片段。这一概念对于AI理解语言的连贯性、捕捉语义关联以及处理复杂信息至关重要,因为它直接影响到AI系统理解和生成信息的能力。对于AI模型来说,更长的上下文长度意味着能够更好地理解文本的整体含义,包括隐含的语境、情感色彩以及潜在的逻辑关系。这对于提高AI的准确性和可靠性,特别是在需要深入理解人类语言细微差别的场景中,具有决定性的作用。在语言模型中,上下文长度决定了AI能够捕捉到的语句间的关联程度,从而影响其对语言的理解和生成的自然度。在图像识别领域,上下文长度则涉及到AI在识别图像中的对象时,能够考虑到周围环境信息的范围,这对于提高识别的准确性至关重要。

那么,上下文长度的增加意味着什么?当上下文长度达到1万字时,AI模型已经能够理解和分析相当长的文本,如完整的小说章节、详细的研究报告或长篇幅的法律文件。然而,当上下文长度进一步提升至20万字时,AI的处理能力将达到一个新的层次。在这样的上下文长度下,AI不仅能够理解单篇文章的内容,还能够理解一整本书的内容,以及跨文档进行信息的关联和整合。例如,在进行历史研究时,AI可以分析大量历史文档,识别出不同时期、不同来源之间的历史事件关联。在医疗领域,这样的上下文长度允许AI整合患者的完整病历,包括多年的诊断报告、治疗方案和病情变化,从而提供更为精准的诊断建议。

此外,20万字的上下文长度也对AI的创造性写作和复杂对话生成提出了新的可能。AI可以创作出具有丰富背景设定和深层次人物关系的故事,或者在模拟对话中维持长时间的连贯性和一致性。在法律领域,这样的上下文长度使得AI能够处理复杂的案件,分析相关法律法规、历史判例以及具体案件的详细记录,为律师提供有力的支持。

为什么卷上下文长度

技术推动

技术的进步是推动上下文长度增加的根本原因之一。随着计算能力的显著提升,尤其是GPU和TPU等专用硬件的发展,处理大规模数据集变得更加高效,为AI模型训练提供了强大的技术支持。此外,模型架构的创新,如Transformer的引入,极大地提高了模型处理长序列数据的能力,使其能够捕捉到更长距离的依赖关系。这些技术进步不仅使得模型能够处理更长的上下文,而且还提高了模型训练和推理的速度,使得在实际应用中处理大量数据成为可能。

算法和优化技术的突破也在促进上下文长度的扩展。例如,稀疏化技术和参数共享机制减少了模型的参数量,同时保持了模型性能,这使得模型能够在有限的计算资源下处理更长的上下文。此外,注意力机制的优化和新型的记忆管理策略,如滑动窗口技术和动态注意力分配,进一步提升了模型处理长上下文的效率和准确性。这些技术进展不仅推动了上下文长度的增长,还为AI模型处理更复杂、更细粒度的任务提供了可能。

性能提升

从性能提升的角度来看,更长的上下文长度直接关系到AI模型的理解和生成能力。当AI模型能够接触和分析更广泛的上下文信息时,它们对于语言的理解将更加深入,生成的内容也更加连贯和准确。这一点在自然语言处理(NLP)任务中尤为重要,长上下文使得模型能够捕捉到更多的语境信息,从而更好地理解问题的背景,理解句子之间复杂的逻辑关系和隐含意义,从而在文本摘要、对话问答等任务上表现出更高的性能。在文本生成任务中,长上下文的AI能够创作出更加连贯和逻辑一致的文本,因为它能够记住并参考之前的叙述,避免出现不一致或突兀的内容转换。

此外,更长的上下文长度对于提高模型的泛化能力也至关重要。通过训练模型以理解和处理更广泛的信息,模型能够在遇到未见过的数据或情境时,更好地利用其学习到的知识进行推理和决策。这不仅提升了模型在特定任务上的表现,还增强了模型在多领域、跨任务的适应性和灵活性。

应用需求

应用需求的不断提升是推动上下文长度增长的重要外部因素。随着AI技术的广泛应用,从金融、法律、医疗到教育、娱乐,对AI的依赖日益增加,这些专业领域对AI处理信息的精度和复杂度提出了更高的要求。在处理专业领域的文档、对话或者是数据分析时,长上下文的处理能力能够帮助AI更准确地理解专业术语和上下文中的细微差别,提供更为精准的服务和建议。

同时,随着人工智能技术向消费者市场的渗透,用户对AI交互体验的要求和期望也在提高。人们期待与AI进行更自然、更深入的对话,这需要AI模型能够理解和记忆对话历史中的详细信息,以实现更加连贯和个性化的交互。长上下文的处理能力直接关联到提升用户体验和满足用户需求的能力,从而推动了AI模型在上下文长度上的持续进步。

更有性价比

大语言模型们在“卷上下文长度”方面的竞争,部分原因也是因为相比于提升LLM的“智商”——即其理解、推理、创造等复杂能力的提升,扩大上下文长度在技术实现上相对容易一些。这一现象背后涉及到AI发展的技术路线选择、资源投入的效率,以及市场和应用需求等多方面因素。

从技术角度看,扩大上下文长度主要依赖于计算资源的提升和算法优化,这些改进相对直接,而且进步的路径较为清晰。例如,通过增加计算资源、优化模型结构或使用更高效的训练方法,可以在不改变模型基本架构的情况下实现上下文长度的增加。这些方法往往能够在短期内看到明显效果,且对于已有的模型架构改动较小,技术风险和开发成本相对较低。相比之下,提升模型的“智商”,例如改进模型的理解能力、推理能力、甚至创新能力,则需要在模型架构、算法创新等方面进行更深层次的探索和突破。这不仅涉及基础理论的研究,还需要在模型训练方法、数据处理等多个环节进行创新。这类改进往往需要较长的研发周期,且成功的不确定性较大,需要较高的技术积累和大量的资源投入。

从市场和应用需求的角度来看,上下文长度的提升能够直接扩展模型的应用场景,如处理更长的文档、支持更复杂的对话等,这些都是用户直接感知到的改进,能够迅速增强用户体验和满意度。因此,从产品竞争的角度出发,快速提升上下文长度成为了一个相对效率高、回报快的选择。


精选推荐

  1. 完全免费白嫖GPT4的三个方法,都给你整理好了!

  2. AI领域的国产之光,ChatGPT的免费平替:Kimi Chat!

  3. Kimi Chat,不仅仅是聊天!深度剖析Kimi Chat 5大使用场景!

  4. 我用AI工具5分钟制作一个动画微电影!这个AI现在免费!

  5. 当全网都在疯转OpenAI的Sora时,我们普通人能做哪些准备?——关于Sora,你需要了解这些!

  6. 文心一言4.0 VS ChatGPT4.0哪家强?!每月60块的文心一言4.0值得开吗?

  7. ChatGPT和文心一言哪个更好用?一道题告诉你答案!

  8. 字节推出了“扣子”,国内版的Coze,但是我不推荐你用!

  9. 白嫖GPT4,Dalle3和GPT4V - 字节开发的Coze初体验!附教程及提示词Prompt

  10. 2024年了你还在用百度翻译?手把手教会你使用AI翻译!一键翻译网页和PDF文件!


都读到这里了,点个赞鼓励一下吧,小手一赞,年薪百万!😊👍👍👍。关注我,AI之路不迷路,原创技术文章第一时间推送🤖。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/484177.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

深度学习pytorch——2D函数优化实例(持续更新)

课程:课时46 优化问题实战_哔哩哔哩_bilibili 这就是我们今天要求的2D函数: 下图是使用python绘制出来的图像: 但是可以看出有4个最小值,但是还是不够直观,还是看课程里面给的比较好,蓝色是最低点位置&am…

哲学♂家带你用动态内存函数实现二维数组

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 目录 前言 一、思路分析 二、实现 总结 前言 最近在做题的时候发现一个比较考验技术的问题,用内存函数模拟实现二维数组,接下来给大家演示一下我的做…

20240318-2-推荐算法Graph_Embedding

Graph Embedding 在许多推荐场景下,可以用网络结构数据来刻画对象(用户、商品等)之间的关系。例如:可以将用户和商品作为网络中的结点,用户和商品之间的边代表购买关系。 Graph Embedding 是一种将网络中对象之间的关…

python项目格式代码风格

Visual Studio Code 选择使用 black 作为代码格式化工具,保证提交代码风格的统一 1. Install black pip install black2. Install black and isort extension for vscode: 3. 设定black及isort的格式化配置 3.1. ctrl , 打开配置面板 3.2. 在弹出的json配置中添…

域名防红源码-再次启用已经红掉拦截的域名-提示跳转浏览器打开

比如说你的域名已经红掉了被拦截了,还想继续在使用,那么你用这个系统后呢,他就会提示跳转浏览器打开。以此达到再次启用的效果。 假如你的域名是A,已经红掉的;使用此方法新加一个域名B;之后你每次发域名B或…

【理解机器学习算法】之Clustering算法(K-Means)

实现 K-means 聚类从零开始涉及几个关键步骤:初始化质心、将点分配给最近的质心、根据分配更新质心,以及重复这个过程直到收敛。这里是一个基本的 Python 实现: K-means 算法步骤: 初始化质心:从数据点中随机选择 k …

docker推拉时的数据交换详解

前言 docker用了这么久了, 有没有想过, 在执行docker push 和 docker pull命令的时候, 数据是如何传递的呢? 换句话说, 如果要实现一个镜像仓库, 针对推拉的服务, 如何实现接口呢? 根据OCI 分发规范文档 的描述, 已经对整个推拉过程中要调用的接口有描述了. 但是, 纸上学来…

何为布控球?布控球的分类对比

主要的分类有: 根据内部的主控板卡的系统分类,典型的是基于海思芯片的嵌入式LINUX系统的,一般出国标GB28181,另外一种是剑走偏锋的安卓系统的,需要把球机的输出YUV转换为UVC接入安卓主板,作为外接USB摄像头…

Java进阶—GC回收(垃圾回收)

1. 什么是垃圾回收 垃圾回收(Garbage Collection,GC)是Java虚拟机(JVM)的一项重要功能,用于自动管理程序中不再使用的内存。在Java中,程序员不需要手动释放内存,因为GC会自动检测并回收不再使用的对象,从而减少内存泄…

param参数

param参数介绍及使用 在 Web 开发中,param 是指路由中的参数,用于捕获 URL 中的动态部分,并将其作为参数传递给路由处理函数。当定义包含参数的路由时,可以使用 param 方法来捕获 URL 中的动态部分,并将其传递给路由处…

用户多部门切换部门,MySQL根据多个部门id递归获取所有上级(祖级)、获取部门的全路径(全结构名称)

背景 之前做过的项目,都是一个用户就一个部门的,现在碰到个一个用户在多个部门的需求,而且需要可以切换不同部门查看不同数据。 就比如说一个大公司下面有多个子公司,每个子公司有好多部门、子部门等等,然后有部分用…

chrome浏览器插件extension开发中content内容脚本和background脚本通讯

有时候我们想监听页面中的数据变化,然后将监听到的数据传递给background脚本处理,比如根据不同的数据,来处理不同的业务逻辑,存储到服务器?或者控制浏览器显示效果?都可以,问题的重点是怎么让co…

口袋条件下的Lead优化几何深度模型-Delete 评测

Delete (Deep lead optimization enveloped in protein pocket) 是一个基于口袋的,3D分子生成的,应用于lead优化过程中侧链修饰、骨架跃迁,linker设计,片段生长的几何深度学习模型。 一、模型介绍 Delete 模型是浙江大学侯廷军老…

第一篇:概述、 目录、适用范围及术语 --- IAB/MRC《增强现实(AR)广告(效果)测量指南1.0 》

第一篇:概述、目录、适用范围及术语 - IAB与MRC及《增强现实广告效果测量指南1.0》 --- 我为什么要翻译美国IAB科技公司系列标准 ​​​​​​​​​​​​​​ 翻译计划 第一篇概述—IAB与MRC及《增强现实广告效果测量指南》之目录、适用范围及术语第二篇广告效…

STM32通信协议

STM32通信协议 STM32通信协议 STM32通信协议一、通信相关概念二、通信协议引脚作用三、通信方式四、采样方式五、电平信号六、通信对象 一、通信相关概念 通信接口 通信的目的:将一个设备的数据传送到另一个设备,扩展硬件系统 通信协议:制定…

Mapmost Alpha —— 数字孪生创作新引擎,一键开启未来视界!

文章目录 一、关于 Mapmost Alpha1.1 Mapmost Alpha 应用创作工具1.2 Mapmost 数字孪生平台 二、Mapmost Alpha 产品能力与平台优势2.1 Mapmost Alpha 产品能力2.1 Mapmost Alpha 平台优势 三、Mapmost Alpha 成功案例3.1 美食地图3.2 同城活动3.3 智慧商业楼宇管理3.4 智慧交通…

C++之移动语义与智能指针

目录 移动语义 1、几个基本概念的理解 2、复制控制语义的函数 3、移动控制语义的函数 3.1、移动构造函数: 3.2、移动赋值函数 4.区别 5、std::move函数 6.代码演示: 资源管理与智能指针 一、C语言中的问题 二、C的解决办法(RAII技术): 三、四种智能指针…

水果检测15种YOLOV8

水果检测15种YOLOV8,只需要OPENCV,采用YOLOV8训练得到PT模型,然后转换成ONNX,OPENCV调用,支持C/PYTHON/ANDROID开发

宝塔面板优惠券在哪里领取?

随着科技的飞速发展,网站搭建和管理变得越来越简单。宝塔面板作为一款优秀的服务器管理面板,深受广大站长用户喜爱。为了帮助站长们更好地使用宝塔面板,本文将为大家详细介绍如何领取宝塔面板优惠券。 一、宝塔面板优惠券领取入口 领取入口&a…

Ubuntu Desktop 安装谷歌拼音输入法

Ubuntu Desktop 安装谷歌拼音输入法 1. Installation1.1. 汉语语言包​1.2. 谷歌拼音输入法1.3. 安装语言包1.4. 键盘输入方式系统1.5. 重启电脑1.6. 输入法配置 2. configuration2.1. Text Entry Settings… 3. ExecutionReferences 1. Installation 1.1. 汉语语言包 strong…