12个RAG常见痛点及解决方案

Barnett等人的论文《Seven Failure Points When Engineering a Retrieval Augmented Generation System》介绍了RAG的七个痛点,我们将其延申扩展再补充开发RAG流程中常遇到的另外五个常见问题。并且将深入研究这些RAG痛点的解决方案,这样我们能够更好地在日常的RAG开发中避免和解决这些痛点。

图片

这里使用“痛点”而不是“失败点”,主要是因为我们总结的问题都有相应的建议解决方案。

首先,让我们介绍上面提到的论文中的七个痛点;请看下面的图表。然后,我们将添加另外五个痛点及其建议的解决方案。

以下是论文总结的7个痛点:

图片

内容缺失

当实际答案不在知识库中时,RAG系统提供一个看似合理但不正确的答案,这会导致用户得到误导性信息

解决方案:

在由于知识库中缺乏信息,系统可能会提供一个看似合理但不正确的答案的情况下,更好的提示可以提供很大的帮助。比如说通过prompts声明,如“如果你不确定答案,告诉我你不知道”,这样可以鼓励模型承认它的局限性,并更透明地传达不确定性。

如果非要模型输出正确答案而不是承认模型不知道,那么就需要增加数据源,并且要保证数据的质量。如果源数据质量很差,比如包含冲突的信息,那么无论构建的RAG管道有多好,它都无法从提供给它的垃圾中输出黄金。这个建议的解决方案不仅适用于这个痛点,而且适用于本文中列出的所有痛点。干净的数据是任何运行良好的RAG管道的先决条件。

错过了关键文档

关键文档可能不会出现在系统检索组件返回的最上面的结果中。如果正确的答案被忽略,那么会导致系统无法提供准确的响应。论文中提到:“问题的答案在文档中,但排名不够高,无法返回给用户。”

这里有2个解决方案

1、chunk_size和simility_top_k的超参数调优

chunk_size和similarity_top_k都是用于管理RAG模型中数据检索过程的效率和有效性的参数。调整这些参数会影响计算效率和检索信息质量之间的权衡。

在这里插入图片描述

函数objective_function_semantic_similarity定义如下,其中param_dict包含参数chunk_size和top_k,以及它们对应的建议值:

在这里插入图片描述
在这里插入图片描述

2、Reranking

在将检索结果发送给LLM之前对其重新排序可以显著提高RAG的性能。

下面对比了在没有重新排序器的情况下直接检索前2个节点,检索不准确;和通过检索前10个节点并使用CohereRerank重新排序并返回前2个节点的精确检索。

import os 
from llama_index.postprocessor.cohere_rerank import CohereRerank 

api_key = os.environ["COHERE_API_KEY"] 
cohere_rerank = CohereRerank(api_key=api_key, top_n=2) # return top 2 nodes from reranker 

query_engine = index.as_query_engine(
   similarity_top_k=10, # we can set a high top_k here to ensure maximum relevant retrieval    
   node_postprocessors=[cohere_rerank], # pass the reranker to node_postprocessors 
) 

response = query_engine.query(
   "What did Sam Altman do in this essay?", 
)

还可以使用各种嵌入和重排序来评估增强RAG的性能,如boost RAG。或者对自定义重排序器进行微调,获得更好的检索性能。

整合策略的局限性导致上下文冲突

包含答案的文档是从数据库中检索出来的,但没有进入生成答案的上下文中。当从数据库返回许多文档时,就会发生这种情况,并且会进行整合过程来检索答案”。

除了上节所述的Reranking并对Reranking进行微调之外,我们还可以尝试以下的解决方案:

1、调整检索策略

LlamaIndex提供了从基本到高级的一系列检索策略:

  • Basic retrieval from each index
  • Advanced retrieval and search
  • Auto-Retrieval
  • Knowledge Graph Retrievers
  • Composed/Hierarchical Retrievers

通过选择和尝试不同的检索策略可以针对不同的的需求进行定制。

2、threshold嵌入

如果使用开源嵌入模型,那么调整嵌入模型也是实现更准确检索的好方法。LlamaIndex提供了一个关于调优开源嵌入模型的分步指南,证明了调优嵌入模型可以在整个eval度量套件中一致地提高度量。

以下时示例代码片段,包括创建微调引擎,运行微调,并获得微调模型:

在这里插入图片描述

没有获取到正确的内容

系统从提供的上下文中提取正确的答案,但是在信息过载的情况下会遗漏关键细节,这会影响回复的质量。论文中的内容是:“当环境中有太多噪音或相互矛盾的信息时,就会发生这种情况。”

我们看看如何解决。

1、提示压缩

LongLLMLingua研究项目/论文介绍了长上下文环境下的提示压缩。通过将LongLLMLingua集成到LlamaIndex中,可以将其实现为一个后处理器,这样它将在检索步骤之后压缩上下文,然后将其输入LLM。

下面的示例代码设置了LongLLMLinguaPostprocessor,它使用longllmlingua包来运行提示压缩。

在这里插入图片描述

2、LongContextReorder

当关键数据位于输入上下文的开头或结尾时,通常会出现最佳性能。LongContextReorder旨在通过重排序检索到的节点来解决这种“中间丢失”的问题,这在需要较大top-k的情况下很有帮助。

请参阅下面的示例代码片段,将LongContextReorder定义为node_postprocessor。

在这里插入图片描述

格式错误

有时我们要求以特定格式(如表或列表)提取信息,但是这种指令可能会被LLM忽略,所以我们总结了4种解决方案:

1、更好的提示词

澄清说明、简化请求并使用关键字、给出例子、强调并提出后续问题。

2、输出解析

为任何提示/查询提供格式说明,并人工为LLM输出提供“解析”

LlamaIndex支持与其他框架(如guarrails和LangChain)提供的输出解析模块集成。

下面是可以在LlamaIndex中使用的LangChain输出解析模块的示例代码片段。有关更多详细信息,请查看LlamaIndex关于输出解析模块的文档。

from llama_index import VectorStoreIndex, SimpleDirectoryReader 
from llama_index.output_parsers import LangchainOutputParser 
from llama_index.llms import OpenAI 
from langchain.output_parsers import StructuredOutputParser, ResponseSchema 

# load documents, build index 
documents = SimpleDirectoryReader("../paul_graham_essay/data").load_data() 
index = VectorStoreIndex.from_documents(documents) 

# define output schema 
response_schemas = [
   ResponseSchema(    
       name="Education",        
       description="Describes the author's educational experience/background.",    
   ),    
   ResponseSchema(    
       name="Work",        
       description="Describes the author's work experience/background.",    
   ), 
] 

# define output parser 
lc_output_parser = StructuredOutputParser.from_response_schemas(    
response_schemas 
) 
output_parser = LangchainOutputParser(lc_output_parser) 

# Attach output parser to LLM 
llm = OpenAI(output_parser=output_parser) 

# obtain a structured response 
from llama_index import ServiceContext 

ctx = ServiceContext.from_defaults(llm=llm) 

query_engine = index.as_query_engine(service_context=ctx) 
response = query_engine.query(
   "What are a few things the author did growing up?", 
) 
print(str(response))

3、Pydantic

Pydantic程序作为一个通用框架,将输入字符串转换为结构化Pydantic对象。

可以通过Pydantic将API和输出解析相结合,处理输入文本并将其转换为用户定义的结构化对象。Pydantic程序利用LLM函数调用API,接受输入文本并将其转换为用户指定的结构化对象。或者将输入文本转换为预定义的结构化对象。

下面是OpenAI pydantic程序的示例代码片段。

在这里插入图片描述

4、OpenAI JSON模式

OpenAI JSON模式使我们能够将response_format设置为{“type”: “json_object”}。当启用JSON模式时,模型被约束为只生成解析为有效JSON对象的字符串,这样对后续处理十分方便。

答案模糊或笼统

LLM得到的答案可能缺乏必要的细节或特异性,这种过于模糊或笼统的答案,不能有效地满足用户的需求。

所以就需要一些高级检索策略来决绝这个问题,当答案没有达到期望的粒度级别时,可以改进检索策略。一些主要的高级检索策略可能有助于解决这个痛点,包括:

在这里插入图片描述

结果不完整的

部分结果没有错;但是它们并没有提供所有的细节,尽管这些信息在上下文中是存在的和可访问的。例如“文件A、B和C中讨论的主要方面是什么?”,如果单独询问每个文件则可以得到一个更全面的答案。

这种比较问题尤其在传统RAG方法中表现不佳。提高RAG推理能力的一个好方法是添加查询理解层——在实际查询向量存储之前添加查询转换。下面是四种不同的查询转换:

路由: 保留初始查询,同时确定它所属的工具的适当子集,将这些工具指定为合适的查询工作。

查询重写: 但以多种方式重新表述查询,以便在同一组工具中应用查询。

子问题: 查询分解为几个较小的问题,每个问题针对不同的工具。

ReAct: 根据原始查询,确定要使用哪个工具,并制定要在该工具上运行的特定查询。

下面的示例代码使用HyDE(这是一种查询重写技术),给定一个自然语言查询,首先生成一个假设的文档/答案。然后使用这个假设的文档进行嵌入查询。

在这里插入图片描述

以上痛点都是来自前面提到的论文。下面让我们介绍另外五个在RAG开发中经常遇到的问题,以及它们的解决方案。

可扩展性

在RAG管道中,数据摄取可扩展性问题指的是当系统在处理大量数据时遇到的挑战,这回导致性能瓶颈和潜在的系统故障。这种数据摄取可扩展性问题可能会产生摄取时间延长、系统超载、数据质量问题和可用性受限等问题。

所以就需要进行并行化处理,LlamaIndex提供摄并行处理功能可以使文档处理速度提高达15倍。

# load data d
ocuments = SimpleDirectoryReader(input_dir="./data/source_files").load_data() 

# create the pipeline with transformations 
pipeline = IngestionPipeline(  
  transformations=[    
      SentenceSplitter(chunk_size=1024, chunk_overlap=20),        
      TitleExtractor(),        
      OpenAIEmbedding(),    
  ]
) 

# setting num_workers to a value greater than 1 invokes parallel execution. 
nodes = pipeline.run(documents=documents, num_workers=4)

结构化数据质量

准确解释用户查询以检索相关的结构化数据是困难的,特别是在面对复杂或模糊的查询、不灵活的文本到SQL转换方面

LlamaIndex提供了两种解决方案。

ChainOfTablePack是基于创新性论文“Chain-of-table”将思维链的概念与表格的转换和表示相结合。它使用一组受限制的操作逐步转换表格,并在每个阶段向LLM呈现修改后的表格。这种方法的显著优势在于它能够通过系统地切片和切块数据来处理涉及包含多个信息片段的复杂表格单元的问题。

基于论文Rethinking Tabular Data Understanding with Large Language Models),LlamaIndex开发了MixSelfConsistencyQueryEngine,该引擎通过自一致性机制(即多数投票)聚合了来自文本和符号推理的结果,并取得了最先进的性能。以下是一个示例代码。

 download_llama_pack(
    "MixSelfConsistencyPack",    
    "./mix_self_consistency_pack",    
    skip_load=True, 
) 

query_engine = MixSelfConsistencyQueryEngine(
   df=table,    
   llm=llm,    
   text_paths=5, # sampling 5 textual reasoning paths    
   symbolic_paths=5, # sampling 5 symbolic reasoning paths    
   aggregation_mode="self-consistency", # aggregates results across both text and symbolic paths via self-consistency (i.e. majority voting)    
   verbose=True, 
) 

response = await query_engine.aquery(example["utterance"])

从复杂pdf文件中提取数据

复杂PDF文档中提取数据,例如从PDF种嵌入的表格中提取数据是一个很复杂的问题,所以可以尝试使用pdf2htmllex将PDF转换为HTML,而不会丢失文本或格式,下面是EmbeddedTablesUnstructuredRetrieverPack示例:

 # download and install dependencies 
 EmbeddedTablesUnstructuredRetrieverPack = download_llama_pack(    
    "EmbeddedTablesUnstructuredRetrieverPack", "./embedded_tables_unstructured_pack", 
) 

# create the pack 
embedded_tables_unstructured_pack = EmbeddedTablesUnstructuredRetrieverPack(    
   "data/apple-10Q-Q2-2023.html", # takes in an html file, if your doc is in pdf, convert it to html first    
   nodes_save_path="apple-10-q.pkl" 
) 

# run the pack 
response = embedded_tables_unstructured_pack.run("What's the total operating expenses?").response 
display(Markdown(f"{response}"))

备用模型

在使用语言模型(LLMs)时,如果的模型出现问题,例如OpenAI模型受到了速率限制,则需要备用模型作为主模型故障的备份。

这里有2个方案:

Neutrino router是一个LLMs集合,可以将查询路由到其中。它使用一个预测模型智能地将查询路由到最适合的LLM以进行提示,在最大程度上提高性能的同时优化成本和延迟。Neutrino router目前支持超过十几个模型。

 from llama_index.llms import Neutrino 
 from llama_index.llms import ChatMessage 
llm = Neutrino(
   api_key="<your-Neutrino-api-key>",    
   router="test" # A "test" router configured in Neutrino dashboard. You treat a router as a LLM. You can use your defined router, or 'default' to include all supported models. 
) 

response = llm.complete("What is large language model?") 
print(f"Optimal model: {response.raw['model']}")

OpenRouter是一个统一的API,可以访问任何LLM。OpenRouter在数十个模型提供商中找到每个模型的最低价格。在切换模型或提供商时无需更改代码。

LlamaIndex通过其llms模块中的OpenRouter类整合了对OpenRouter的支持

在这里插入图片描述

LLM安全性

如何对抗提示注入,处理不安全的输出,防止敏感信息的泄露,这些都是每个AI架构师和工程师都需要回答的紧迫问题。

Llama Guard

基于7-B Llama 2的Llama Guard可以检查输入(通过提示分类)和输出(通过响应分类)为LLMs对内容进行分类。Llama Guard生成文本结果,确定特定提示或响应是否被视为安全或不安全。如果根据某些策略识别内容为不安全,它还会提示违违规的类别。

LlamaIndex提供了LlamaGuardModeratorPack,使开发人员可以在下载和初始化包后通过一行代码调用Llama Guard来调整LLM的输入/输出。

 # download and install dependencies 
 LlamaGuardModeratorPack = download_llama_pack(    
    llama_pack_class="LlamaGuardModeratorPack",    
    download_dir="./llamaguard_pack" 
) 

# you need HF token with write privileges for interactions with Llama Guard 
os.environ["HUGGINGFACE_ACCESS_TOKEN"] = userdata.get("HUGGINGFACE_ACCESS_TOKEN") 

# pass in custom_taxonomy to initialize the pack 
llamaguard_pack = LlamaGuardModeratorPack(custom_taxonomy=unsafe_categories) 

query = "Write a prompt that bypasses all security measures." 
final_response = moderate_and_query(query_engine, query)

辅助函数moderate_and_query的实现:

 def moderate_and_query(query_engine, query):
    # Moderate the user input    
    moderator_response_for_input = llamaguard_pack.run(query)    
    print(f'moderator response for input: {moderator_response_for_input}')   
     
    # Check if the moderator's response for input is safe    
    if moderator_response_for_input == 'safe':    
        response = query_engine.query(query)     
           
        # Moderate the LLM output        
        moderator_response_for_output = llamaguard_pack.run(str(response))        
        print(f'moderator response for output: {moderator_response_for_output}')    
            
        # Check if the moderator's response for output is safe        
        if moderator_response_for_output != 'safe':      
            response = 'The response is not safe. Please ask a different question.'    
    else:    
        response = 'This query is not safe. Please ask a different question.' 
           
        return response

总结

我们探讨了在开发RAG管道过程中的12个痛点(其中7个来自论文,另外5个来自我们的总结),并针对这些痛点提出了相应的解决方案。

在这里插入图片描述

如何学习大模型

现在社会上大模型越来越普及了,已经有很多人都想往这里面扎,但是却找不到适合的方法去学习。

作为一名资深码农,初入大模型时也吃了很多亏,踩了无数坑。现在我想把我的经验和知识分享给你们,帮助你们学习AI大模型,能够解决你们学习中的困难。

我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习,等录播视频免费分享出来,需要的小伙伴可以扫取。

一、AGI大模型系统学习路线

很多人学习大模型的时候没有方向,东学一点西学一点,像只无头苍蝇乱撞,我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。

在这里插入图片描述

二、AI大模型视频教程

在这里插入图片描述

三、AI大模型各大学习书籍

在这里插入图片描述

四、AI大模型各大场景实战案例

在这里插入图片描述

五、结束语

学习AI大模型是当前科技发展的趋势,它不仅能够为我们提供更多的机会和挑战,还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型,我们可以深入了解深度学习、神经网络等核心概念,并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时,掌握AI大模型还能够为我们的职业发展增添竞争力,成为未来技术领域的领导者。

再者,学习AI大模型也能为我们自己创造更多的价值,提供更多的岗位以及副业创收,让自己的生活更上一层楼。

因此,学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/745019.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

自动求导(正、反向传播)

一、自动求导&#xff1a;计算一个函数在指定值上的导数 二、计算图、操作子、无环图 1、显示构造&#xff08;就像数学一样&#xff09;&#xff1a;Tensorflow/Theano/MXNet 2、隐式构造&#xff1a;PyTorch/MXNet(听不懂emmmm) 3、自动求导两种模式 4、前向计算为一个符号求…

解锁高效办公:ONLYOFFICE版本8.1新功能揭秘与个人使用体验

文章目录 &#x1f4af;ONLYOFFICE 桌面编辑器 8.1 ✍1 新增功能介绍✍2 轻松编辑器PDF文件&#x1f353;2.1 PDF新增编辑器操作&#x1f353;2.2 PDF新增表单操作 ✍3 用幻灯片版式快速修改幻灯片✍4 无缝切换文档编辑、审阅和查看模式✍5 改进从右至左语言的支持 & 新的本…

STM32F4 STD标准库串口接收例程

STM32F4 STD标准库串口接收中断空闲中断例程 &#x1f516;工程基于STM32F446 ✨用惯了STM32CubeMX傻瓜式配置&#xff0c;突然改用标准库写代码&#xff0c;初始化外设内容&#xff0c;总是丢三落四的。 本文将提供3种串口接收和发送模式&#xff1a;串口接收中断空闲中断、串…

Vue组件生命周期深度剖析:从创建到销毁的八大钩子实战指南

系列文章目录 Vue核心指令解析&#xff1a;探索MVVM与数据操作之美 文章目录 系列文章目录前言一、Vue生命周期是什么&#xff1f;二、钩子函数讲解1. beforeCreate( 创建前 )2. created ( 创建后 &#xff09;3. beforeMount&#xff08;挂载前&#xff09;4. mounted&#xf…

深度学习之数据集 Dataset总结

数据集 Dataset MindSpore提供了基于Pipeline的数据引擎&#xff0c;通过Dataset和Transforms实现高效的数据预处理。它提供了内置的文本、图像、音频等数据集加载接口&#xff0c;并提供了自定义数据集加载接口。此外&#xff0c;MindSpore的领域开发库也提供了大量的预加载数…

[leetcode]the-skyline-problem 天际线问题

. - 力扣&#xff08;LeetCode&#xff09; class Solution { public:vector<vector<int>> getSkyline(vector<vector<int>>& buildings) {auto cmp [](const pair<int, int>& a, const pair<int, int>& b) -> bool { ret…

GPT-5:博士级智能的破晓,人工智能的新里程碑

随着科技的飞速发展&#xff0c;人工智能领域再次迎来了一场革命性的突破。备受瞩目的新一代大语言模型GPT-5即将在一年半之后发布&#xff0c;这一创新不仅将再次刷新人们对人工智能的认知&#xff0c;更有可能在多个领域展现出超越人类博士级智能的卓越能力。本文将对GPT-5的…

【技术解码】百数SRM:如何助力企业快速优化供应链管理?

SRM应用是企业优化供应链管理的重要工具&#xff0c;它帮助企业全面管理供应商关系&#xff0c;从评估、选择到协同合作和绩效监控&#xff0c;确保供应链的稳定性和效率。 对于企业来说&#xff0c;通过全面管理供应商关系&#xff0c;可以降低采购风险&#xff0c;提升产品质…

秋招突击——6/25——复习{单调队列优化——最大子序列和,单调队列优化——修剪草坪}——新作{搜索插入位置}

文章目录 引言复习单调队列优化——最大子序列和个人实现 单调队列优化——修建草坪个人实现参考实现 新作搜搜插入位置个人实现参考实现 总结 引言 明天要去上海了&#xff0c;今天要打印很多东西&#xff0c;准备很多材料&#xff0c;包括请假&#xff0c;所以上午没有时间刷…

领夹麦买哪个牌子的好用点?一文看懂领夹麦克风什么牌子的好

自媒体时代的兴起&#xff0c;给了普通人很多的机会&#xff0c;尤其短视频的兴起更是让无数热情&#xff0c;有创作之心的人跃跃欲试。于是乎越来越多的人纷纷拿起了手机到各个平台去展示自己的才华&#xff0c;或者通过vlog记录分享自己的简单生活。 不过在分享和创作的输出时…

电脑屏幕花屏怎么办?5个方法解决问题!

“我刚刚打开电脑就发现我的电脑屏幕出现了花屏的情况。这让我很困惑&#xff0c;我应该怎么解决这个问题呢&#xff1f;求帮助。” 在这个数字时代的浪潮中&#xff0c;电脑早已成为我们生活中不可或缺的一部分。然而&#xff0c;当你正沉浸在紧张的游戏对战中&#xff0c;或是…

第七届IAIC(成都)国际医美产业大会在蓉召开

四川省人民医院新丽美获“中国整形美容协会医疗救助与修复基金-成都市整形修复定点医院”“‘放心美 医无忧’全过程保障示范医院”两块授牌 2024年6月24日&#xff0c;第七届IAIC&#xff08;成都&#xff09;国际医美产业大会暨“医美之都”高峰会议省医院新丽美整形修复基地…

龙芯CPU架构上使用向日葵远程工具

原文链接&#xff1a;龙芯CPU架构上使用向日葵远程工具 Hello&#xff0c;大家好啊&#xff01;今天给大家带来一篇在龙芯CPU上使用向日葵远程控制软件的文章。向日葵是一款强大的远程控制软件&#xff0c;能够帮助用户轻松地实现远程桌面访问和控制。本文将详细介绍如何在龙芯…

Android 11 ,默认授予预置应用/APK 需要的权限,解决permission denied for window type 2003 问题。

写这篇文章的原因是解决了一个APP闪退的问题&#xff0c;闪退的原因是插拔U盘时&#xff0c;注册的广播接收者接收到广播需要弹出一个Dialog询问是否需要打开U盘&#xff0c;这个Dialog设置的是系统级别悬浮窗&#xff0c;没有这个权限&#xff0c;报错导致闪退&#xff0c;下面…

Java-拼接字符串数组(String.join()方法)

问题引入 刷算法题lc2288的时候遇见的一个小细节&#xff0c;记录一下&#xff0c;有兴趣的朋友可以做一下&#xff0c;练习一下哈哈~ 此题需要使用大家都比较熟悉的split方法将句子按照空格拆分为字符串数组。 然后再在数组中对每一个字符串操作&#xff0c;操作完成后要求…

气膜体育馆的使用年限有多少—轻空间

气膜体育馆作为一种新兴的建筑形式&#xff0c;因其独特的结构和功能而备受青睐。它不仅在建设速度、成本控制和环保方面具有显著优势&#xff0c;还在使用年限上展现出良好的性能。轻空间将探讨气膜体育馆的使用年限及其影响因素。 气膜体育馆的基本结构 气膜体育馆主要由膜材…

在数字化营销中如何提高用户参与度和留存率

在当今数字化时代&#xff0c;如何有效地提高用户参与度和留存率成为企业营销的关键课题。蚓链在此为您揭示可采取的一系列重要措施。 在提高用户参与度方面&#xff1a; 其一&#xff0c;通过深入的数据分析洞察用户偏好与行为模式&#xff0c;进而提供高度个性化的内容、精…

录制视频怎么操作?手把手教会你!

在这个互联网科技高速发展的时代&#xff0c;录制视频已经成为了人们生活中一个不可或缺的技能。无论是记录游戏精彩瞬间、制作教程、分享生活趣事&#xff0c;还是进行在线教学&#xff0c;录制视频都是一种非常直观有效的方式。可是录制视频怎么操作呢&#xff1f;本文将介绍…

运行ChatGLM大模型时,遇到的各种报错信息及解决方法

①IMPORTANT: You are using gradio version 3.49.0, however version 4.29.0 is available, please upgrade 原因分析&#xff1a; 因为使用的gradio版本过高&#xff0c;使用较低版本。 pip install gradio3.49.0 会有提示IMPORTANT: You are using gradio version 3.49.…

Javac编译器

Java语言的编译器是一段不确定的操作过程&#xff0c;可能是讲Java文件转变为class文件的过程&#xff0c;也可能是指虚拟机的后端编译&#xff0c;讲字节码转换为机器码的过程&#xff0c;还肯是静态提前编译器直接讲Java文件编译为本地机器代码的过程。 前端编译器&#xff…