大模型概述

文章目录

    • 大语言模型的起源
    • 大语言模型的训练方式
    • 大语言模型的发展
    • 大语言模型的应用场景
    • 大语言模型的基础知识
    • LangChain与大语言模型

大语言模型的起源

    在人类社会中,我们的交流语言并非单纯由文字构成,语言中富含隐喻、讽刺和象征等复杂的含义,也经常引用社会、文化和历史知识,这些都使得理解语言成为一项高度复杂的科学。随着计算机技术的发展,科学家们想到模拟人脑神经元结构来创造一种人工智能,让人工智能从大量的文本数据中自己学习和总结语言的规则与模式。20世纪90年代以后,因为网络的普及和数据存储技术的发展,人们可以获取前所未有的大规模文本数据,这为机器学习及训练提供了发展的土壤。

    在机器学习方法中,神经网络在处理复杂的模式识别任务(如图像和语音识别等)上展示出了强大的能力。研究者们开始尝试使用神经网络来处理语言理解任务,进而诞生了大语言模型。大语言模型是一种建立在Transformer架构上的大规模神经网络程序,其功能主要是理解和处理各种语言文字。这种模型的优势在于,其能够在多种任务中实现通用学习,无须对特定语言文字进行大量定制,是目前人类世界中第一个通用的人工智能模型。当我们讨论大语言模型时,主要是关注如何让计算机能够理解和生成人类语言。

    简单来说,大语言模型是一种算法,其目标是理解语言的规则和结构,然后应用这些规则和结构生成有意义的文本。这就像让计算机学会了“文字表达”。这个过程涉及大量的数据和计算。大语言模型首先需要“阅读”大量的文本数据,然后使用复杂的算法来学习语言的规则和结构,包括词汇的意义、语法的规则,甚至文本的风格和情感。学习训练过程完成后,大语言模型可以根据学习到的知识生成新的文本。

    大语言模型在训练前后有很大的不同。在训练前,模型就像一个新生儿,只有最基础的语言处理结构。它的“大脑”就是神经网络,参数都是随机初始化的。它不具备任何语言知识,就像刚出生的婴儿一样“一无所知”。用户向模型输人任何句子,它都无法进行有意义的处理。

大语言模型的训练方式

    大语言模型的训练和做游戏很类似。假设你正在玩一个单字接龙游戏,游戏的规则是,你需要根据前面的几个字猜出下一个字可能是什么。比如给你一个句子:“我今天去公园看到了一只…”你可能会接“狗”或者“鸟”。这就是语言模型做的“游戏”,它试图猜出下一个字可能是什么。你可以把大语言模型想象成一个非常聪明的单字接龙游戏玩家,它可以处理非常长且复杂的句子,并且猜得准确度很高。下图为一个单字接龙游戏示意图。

图片名称

    大语言模型经过长时间的单字接龙训练,就像婴儿逐渐长大一样,对文字的理解能力也逐步提高。它通过阅读海量语料,不断学习各种词汇、语法和语义知识。这种知识被编码进了数百亿个神经网络参数中,因此,模型开始具备理解和生成语言的能力。刚开始,它就像婴儿学习说话一样,也许自己都不知道表达的意思是什么,但通过大量的训练和重复,慢慢地,模型的神经网络里就写满了关于语言知识的公式与算法,能够进行复杂的语言运算与推理。从无到有,模型逐步获得了语言智能,就像一个婴儿成长为儿童那样,经历了能力上质的飞跃。

    AI科学家为了让大语言模型变得聪明,会让它读很多书和文章。这些书和文章就是它的学习材料。通过阅读,大语言模型可以学习到很多词汇和句子,并了解它们是如何组合在一起的。当它再玩单字接龙游戏的时候,就可以根据前面的词做出更好的预测,并且所有的预测都在它的“脑子”里。当大语言模型将单字接龙游戏玩到炉火纯青、远超人类时,它自己会掌握更多的技能,比如翻译语句、回答问题、写文章,等等。因为大语言模型读过很多书,所以它知道很多事情,就像一个知识库。我们只需要问它问题,它就能给出答案,甚至可以自由进行人机对话,表现出人类级别的理解和应答能力。

大语言模型的发展

    OpenAI在2022年11月30日发布了基于GPT模型的聊天机器人ChatGPT,这里程碑标志着大语言模型走向全人类的新纪元。仅仅在2个月的时间内,ChatGPT的用户数量就突破了2亿。OpenAI推出的GPT-4大语言模型,其模型参数量高达万亿级别,应用场景十分广泛,从文本生成到复杂问题的解答,再到诗歌创作、数学题求解等,各方面都已经遥遥领先普通人。

    在全球主流大语言模型中,除了GPT-4,还有其他一些备受瞩目的优秀模型。其中包括Anthropic推出的Claude2模型、Meta推出的LLaMA2开源模型,以及Google推出的PaLM2模型。InfoQ研究中心在2023年5月发布的《大语言模型综合能力测评报告2023》中,展示了对ChatGPT、文心一言、Claude、讯飞星火、Sage、天工3.5、通义千问、MOSS、ChatGLM、Vicuna-l3B的综合评测结果,如下表所示。

图片名称

    在人脸识别、语音识别及自然语言处理等单一人工智能领域,中国积累了卓越的技术实力。首先,百度公司凭借其深厚的人工智能技术基础,于2023年3月16日率先推出了大语言模型“文心一言”。尽管在发布会上,这一模型展示的能力略显稚嫩,但百度团队还是在短时间内让文心一言崭露头角。文心一言已经逐步被嵌人百度的各类产品,展现了多模态发展的趋势,成为中国大语言模型的典范之一。

    随后,阿里巴巴在2023年4月7日发布了大语言模型“通义千问”。这一命名展现了浓郁的中国文化特色,也引领了国内大语言模型的命名趋势。通义千问目前正在与淘宝、支付宝、钉钉等产品进行融合,钉钉总裁叶军在2023年春季钉峰会上表示:“新钉钉将全面智能化,未来一年所有场景都将进行智能化布局。”华为这家以踏实务实见长的公司,在2023年4月发布了“盘古”大模型1.0版本,2023年7月,该模型已经更新到3.0版本。它针对金融、政务、制造、矿山、气象、铁路等领域进行了细分预训练,直接推出了行业大语言模型。

    此外,许多知名企业也都推出了各自的大语言模型,如科大讯飞、360、昆仑万维、百川智能等,尽管模型效果各异,但中国大语言模型行业的蓬勃发展显而易见,势不可当。表1-2列出了几个中文主流大语言模型的发布时间。

图片名称

大语言模型的应用场景

    在日新月异的信息化时代,大语言模型的应用方向呈现出惊人的广泛性,其潜力和多样性令人震惊。与其问“它能做什么”,不如更确切地问“你想让它做什么”。这里不仅暗示了大语言模型的巨大灵活性,更体现了其在多元领域中所具有的无限可能。在这个意义上,大语言模型不仅仅是一种工具或一项技术,更是一种具有创新性和颠覆性的思维方式。

    在接下来的部分,笔者将对大语言模型的一些典型应用场景进行精细概括,以期能给大家带来更深层次的理解和启示。这些应用场景不仅包括大家熟知的对话场景,还涵盖了如社交媒体、在线教育、电子商务、医疗保健等多个其他实用场景,其中每一个场景都充分展示了大语言模型的实际效用和广阔潜力,如下表所示。

图片名称

大语言模型的基础知识

    现在,我们已经了解了大语言模型的应用场景,在动手开发大语言模型应用前,需要对一些基础知识进行梳理。假设你已经用过文心一言或ChatGPT这类聊天产品,你还需要了解以下基础概念。

    GPT是模型,ChatGPT是产品当谈论GPT(Generative Pretrained Transformer)和ChatGPT时,很重要的一点是理解这两者之间的区别和联系。GPT是一种被预训练的生成式模型,它的目标是学习一种能够生成人类文本的能力。ChatGPT是一个特定的应用,它使用了GPT的能力,并在此基础上进行了特别的优化,以便能够进行更像人类的对话。因此,GPT和ChatGPT的主要区别在于,它们的应用目标不同。GPT是一个通用的文本生成模型,它可以生成各种类型的文本。而ChatGPT则是一个特定的应用,它的目标是进行更有效的对话。虽然它们有相同的基础(即GPT模型),但在实际应用上有所不同。

    提示词:驱动大语言模型运行的命令在探讨大语言模型,如GPT-4或ChatGPT的运行机制时,无法忽视的一个关键因素就是“提示词”。提示词在这些模型的运行中起着至关重要的角色,提示词通俗地说就是输人大语言模型的文字,这很容易理解,但提示词实际是驱动大语言模型运行的命令。只有理解了这层含义,你才会理解提示词工程师(Prompt Engineer)这个职位为什么突然蹿红。

    提示词的选择对模型的输出有着显著影响。提示词的具体内容不同,模型可能会给出完全不同的回应。例如,输人一个开放性的提示词,比如“讲述一下太阳系的构成”,模型可能会生成一段详细的介绍;而输入一个更具指向性的提示词,比如“火星是太阳系的第几大行星”,则会得到一个更具体的答案。

    在理解了提示词的重要性后,也要明白,虽然大语言模型通过学习大量的文本数据获得了强大的文本生成能力,但它仍然是基于模式匹配的算法,而非真正的思考实体。这意味着它并不能真正理解提示词的含义,它只是通过在大量的训练数据中寻找并生成与提示词匹配的文本来给出答案。所以,在选择提示词时,需要细心考虑,确保命令清晰、具体,并能够引导模型生成想要的结果。同时,也需要认识到这些模型的局限性一它们并不能真正理解我们的命令,只是在模仿人类的语言。

    分享一个通用提示词模板:定义角色+背景信息+任务目标+输出要求。举例说明,假设你是某公司的HR主管,现在需要对全体员工用邮件形式通知AI培训安排,提示词可以像下表这样写。

图片名称

    把提示词部分合并起来,提交给大语言模型,就可以得到比较好的答案。当使用提示词模板来提高大语言模型的回复质量时,似乎一切都变得轻而易举。然而,需要认识到的是,不论你输人的提示词质量如何,大语言模型都会给出回复。这使得提示词的使用与编程语言截然不同。编程语言具有严格的命令格式,语法错误会导致系统“报错”,这样你就可以根据报错信息进行调整。而大语言模型却从来不会提示你“出错”,回复质量的好坏是无法完全量化的。在实际的大语言模型应用开发中,必须不断对提示词进行大量的、反复的调整,以找到更优、更稳定的回答。这就要求开发者深入了解模型的特性,尝试各种不同的提示词组合,甚至进行反复的试验与优化。只有通过不断的实践和探索,才能逐渐掌握如何运用提示词来引导模型生成更符合预期的答案。

    Token:大语言模型的基本单位Tokn是自然语言处理中的一个重要概念,它是大语言模型理解和处理文本的基本单位。在英文中,一个Tokn可能是一个单词、一个标点符号,或者一个数字。在处理其他语言时,如中文,一个Token可能是一个单字符。在许多NLP任务中,原始文本首先被分解成Token,然后模型基于这些Token进行理解和预测。

    在大语言模型,如GPT-4中,Token不仅是模型理解和处理文本的基本单位,还具有一些更深层次的功能。首先,通过把文本拆分为Tokn,模型能更好地理解和捕捉文本的结构。例如,一个英文句子的不同部分(主题、动作、对象等)可以被模型识别和处理,帮助模型理解句子的含义。其次,Tokn在模型的训练中起着重要的作用。语言模型通过预测给定的一系列Token后面可能出现的下一个Token,从而学习语言的规律和结构。这个学习过程通常是基于大量的文本数据进行的,模型从每一个Token的预测中积累经验,提高自身的预测能力。

    在编程语言中,字符是程序的最小单位。例如在C+或Java中,字符类型(如char)可以代表一个ASCII值,或者其他类型编码系统(如Unicode)中的一个单元。在大部分编程语言中,字符是单个字母、数字、标点符号,或者其他符号。相比之下,大语言模型中的Token则更为复杂。大语言模型中的Token和编程语言中的字符虽然在表面上看起来类似,但它们在定义、功能和作用上有很大的不同。

    Token也是大语言模型的商用计费单位,例如GPT-4模型每生成1000个Token需要6美分,约等于人民币0.45元,而GPT-3.5模型的使用价格只有GPT-4的1/30。模型支持的上下文长度在GPT报价表中,可以明显看出,GPT-4模型分为两个版本:8K版本和32K版本。这两个版本的主要区别在于,它们对上下文长度的支持及使用价格不同。32K版本的模型使用价格要比8K版本的模型使用价格高出近一倍。对于8K和32K这两个参数,它们是衡量GPT-4模型对上下文长度支持能力的关键指标。

    “上下文长度”指的是模型在生成新的文本或理解输人的语句时,可以考虑的最多字数,可以理解成大语言模型的“脑容量”。例如,8K版本可以处理包含8000个Token的短篇文章,而32K版本则可以处理包含32000个Token的长篇文章。这个功能升级是非常重要的,尤其是在处理大型的、连贯输入的文本时体现得淋漓尽致,比如长篇小说、研究报告等。如果你和大语言模型聊着聊着,发现它回答的内容已经偏题或者重复,说明它已经忘记了之前和你聊的内容,“脑容量”不够了。

    大语言模型支持上下文长度的能力提升是以更高的计算成本为代价的。更长的上下文长度意味着需要更强大的处理能力和更多的存储空间,这是导致32K版本使用价格更高的原因。不同的上下文长度使得GPT-4模型在处理不同长度的语料时具有不同的适应性和性能。OpenAI在2023年11月6日推出了支持128K上下文的GPT-4 Turbo模型,对于那些需要处理长篇文章的用户来说,32K和128K版本将会是一个更好的选择,尽管其使用价格相对较高。而对于那些只需要处理较短文本的用户来说,8K版本则可能是一个更经济且能满足需求的选择。因此,在选择使用哪个版本时,用户需要根据自己的需求和预算进行权衡。

    大语言模型的“幻觉”大语言模型应用过程中偶尔会出现一种被称为“幻觉”的现象,即给出看似合理但偏离事实的预测。这是因为这类模型并不能真正理解语言和知识,而是模仿训练数据中的模式来生成预测,这种预测可能看似合理,但实际上并无依据。因此,大语言模型在计算机科学中常被认为存在普遍性错误。由于它们不能进行真正意义上的逻辑推理或严谨的事实检验,因此可能导致一些不可避免的错误,特别是在涉及算术或复杂推理链的场景中。大语言模型之所以会“编造”非真实信息,往往是因为遇到的问题超出了其训练范围。当面对陌生的问题时,它无法像人类一样思考和查询,只能尝试使用训练数据中的模式来预测可能的答案。这种预测可能会带来误导,特别是在需要精准和专业知识的情况下。

    另外,当用户提出关于代码生成的需求时,大语言模型由于没有实际的编程经验或对真实代码库的直接访问权限,因此可能会向用户提供一个实际上并不存在于库中的API。这是因为模型的训练数据中可能包含许多不同的编程示例,导致其混淆或错误地关联某些信息,生成错误的代码。在实际应用中,这显然会引发问题,因为虚构的API无法在现实世界的代码库中找到,从而导致代码无法正常运行。

    类似的情况还会出现在GPT的回答中提到的网址链接上,有些网址链接是GPT自己编造的。这就意味着用户可能会受到虚假信息的引导,无法真正获取他们所需的准确网址链接。需要强调的是,模型关于某些内容的记忆也极易混淆。大语言模型并不具有真实的记忆功能,它并不能记住过去的输入或输出,因此不能有效地处理需要长期记忆的任务或上下文理解任务。所有的回应都是基于当前的输入和模型的训练知识生成的,一旦输入改变,模型将无法记住之前的内容。

    大语言模型的“幻觉”缺陷源自其本质:它是一个通过模仿训练数据中的模式来生成预测的模型,而不是一个理解语言和知识的实体。尽管大语言模型在许多任务中都表现出了令人瞩目的性能,但这些问题仍然需要进行更深人的研究和改进。

    关于大语言模型的“微调”用一个简单的比喻来解释微调(Fine-tune)这个概念。想象你是一个小朋友,你的爸爸教你打乒乓球。首先,爸爸会给你展示基础的击球方式,让你学习如何握住球拍、如何看准球、如何打出球,这就像大语言模型的预训练阶段。在这个阶段,你学习了打乒乓球的基本规则和技巧。但是,当你准备参加学校的乒乓球比赛时,你需要一些特殊的训练来提高技巧,比如学习如何更好地发球、如何更好地接对方的球,这就是微调阶段。这个阶段能帮助你更好地适应乒乓球比赛的规则,提高你的比赛成绩。

    最后,你的教练会观察你在训练中的表现,看看你的发球和接球技巧是否有所提高,这就像评估和调整阶段。如果你在某些方面表现得不好,你的教练可能会调整训练方法,帮助你改进。微调就像参加乒乓球比赛前的特殊训练,能帮助你从一个会打乒乓球的小朋友,变成一个可以在比赛中赢得胜利的小选手。

    那么,是否需要非常高门槛的技术才可以完成对大语言模型的微调呢?很幸运的是,微调操作通过调用API就可以完成。如果你想对GPT模型进行微调,你只需要准备好所需的训练数据,例如问题和对应的回答(如下所示的QA问答对),然后将其整理成训练专用的JSONL文件,并发送给微调的API即可。等待一段时间之后,你就可以获得一个专属的、微调过的GPT模型。

{“text":“Q:中国的首都是哪里?\nA:北京。"}
{text":"Q:鲁迅是哪国的著名作家?\nA:中国。“}
{"text":"O:《红楼梦》的作者是谁?nA:曹雪芹。"}

    这种方式使得微调过程更加简单和方便,使更多的人能够从中受益。同时,使用API进行微调也提供了灵活性,可以根据具体需求进行自定义微调,以获得更好的模型性能。需要注意的是,在微调的过程中,要确保使用高质量的训练数据并进行适当的参数调整,这是非常重要的,这样可以提高微调模型的质量和效果。

LangChain与大语言模型

    回到2022年l0月,Harrison Chase(LangChain研发作者)在Robust Intelligence这家初创公司孕育出LangChain的雏形,并将其开源共享在GitHub上。就像火种遇到了干草,LangChain迅速在技术社区中“燎原”。在GitHub上,数百名热心的开发者为其添砖加瓦;Twitter上关于它的讨论如潮水般涌动;在Discord社区里,每天都有激烈的技术交流和碰撞。从I旧金山到伦敦,LangChain的粉丝们还自发组织了多次线下聚会,分享彼此的创意和成果。

    到了2023年4月,LangChain不再只是一个开源项目,而是已经成了一家拥有巨大潜力的初创公司的主打产品。令人震惊的是,在获得了Benchmark的l000万美元种子投资仅一周后,这家公司再次从知名的风险投资公司Sequoia Capital处获得了超过2000万美元的融资,其估值更是达到了惊人的2亿美元。一个由LangChain引爆的人工智能应用开发浪潮由此到来。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/960906.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

关于数字地DGND和模拟地AGND隔离

文章目录 前言一、1、为什么要进行数字地和模拟地隔离二、隔离元件1.①0Ω电阻:2.②磁珠:3.电容:4.④电感: 三、隔离方法①单点接地②数字地与模拟地分开布线,最后再PCB板上一点接到电源。③电源隔离④、其他隔离方法 …

【Redis】常见面试题

什么是Redis? Redis 和 Memcached 有什么区别? 为什么用 Redis 作为 MySQL 的缓存? 主要是因为Redis具备高性能和高并发两种特性。 高性能:MySQL中数据是从磁盘读取的,而Redis是直接操作内存,速度相当快…

什么是循环神经网络?

一、概念 循环神经网络(Recurrent Neural Network, RNN)是一类用于处理序列数据的神经网络。与传统的前馈神经网络不同,RNN具有循环连接,可以利用序列数据的时间依赖性。正因如此,RNN在自然语言处理、时间序列预测、语…

Python设计模式 - 组合模式

定义 组合模式(Composite Pattern) 是一种结构型设计模式,主要意图是将对象组织成树形结构以表示"部分-整体"的层次结构。这种模式能够使客户端统一对待单个对象和组合对象,从而简化了客户端代码。 组合模式有透明组合…

19.Word:小马-校园科技文化节❗【36】

目录 题目​ NO1.2.3 NO4.5.6 NO7.8.9 NO10.11.12索引 题目 NO1.2.3 布局→纸张大小→页边距:上下左右插入→封面:镶边→将文档开头的“黑客技术”文本移入到封面的“标题”控件中,删除其他控件 NO4.5.6 标题→原文原文→标题 正文→手…

一文讲解Java中Object类常用的方法

在Java中,经常提到一个词“万物皆对象”,其中的“万物”指的是Java中的所有类,而这些类都是Object类的子类; Object主要提供了11个方法,大致可以分为六类: 对象比较: public native int has…

多项日常使用测试,带你了解如何选择AI工具 Deepseek VS ChatGpt VS Claude

多项日常使用测试,带你了解如何选择AI工具 Deepseek VS ChatGpt VS Claude 注:因为考虑到绝大部分人的使用,我这里所用的模型均为免费模型。官方可访问的。ChatGPT这里用的是4o Ai对话,编程一直以来都是人们所讨论的话题。Ai的出现…

Linux下学【MySQL】表的必备操作( 配实操图和SQL语句)

绪论​ “Patience is key in life (耐心是生活的关键)”。本章是MySQL中非常重要且基础的知识----对表的操作。再数据库中表是存储数据的容器,我们通过将数据填写在表中,从而再从表中拿取出来使用,本章主要讲到表的增…

【Java数据结构】了解排序相关算法

基数排序 基数排序是桶排序的扩展,本质是将整数按位切割成不同的数字,然后按每个位数分别比较最后比一位较下来的顺序就是所有数的大小顺序。 先对数组中每个数的个位比大小排序然后按照队列先进先出的顺序分别拿出数据再将拿出的数据分别对十位百位千位…

【全栈】SprintBoot+vue3迷你商城(9)

【全栈】SprintBootvue3迷你商城(9) 往期的文章都在这里啦,大家有兴趣可以看一下 后端部分: 【全栈】SprintBootvue3迷你商城(1) 【全栈】SprintBootvue3迷你商城(2) 【全栈】Spr…

php-phar打包避坑指南2025

有很多php脚本工具都是打包成phar形式,使用起来就很方便,那么如何自己做一个呢?也找了很多文档,也遇到很多坑,这里就来总结一下 phar安装 现在直接装yum php-cli包就有phar文件,很方便 可通过phar help查看…

【数据结构】_顺序表

目录 1. 概念与结构 1.1 静态顺序表 1.2 动态顺序表 2. 动态顺序表实现 2.1 SeqList.h 2.2 SeqList.c 2.3 Test_SeqList.c 3. 顺序表性能分析 线性表是n个具有相同特性的数据元素的有限序列。 常见的线性表有:顺序表、链表、栈、队列、字符串等&#xff1b…

OPencv3.4.1安装及配置教程

来到GitHub上opencv的项目地址 https://github.com/opencv/opencv/releases/tag/3.4.1 以上资源包都是 OpenCV 3.4.1 版本相关资源,它们的区别如下: (1). opencv-3.4.1-android-sdk.zip:适用于 Android 平台的软件开发工具包(SDK…

世上本没有路,只有“场”et“Bravo”

楔子:电气本科“工程电磁场”电气研究生课程“高等电磁场分析”和“电磁兼容”自学”天线“、“通信原理”、“射频电路”、“微波理论”等课程 文章目录 前言零、学习历程一、Maxwells equations1.James Clerk Maxwell2.自由空间中传播的电磁波3.边界条件和有限时域…

ZYNQ-IP-AXI-GPIO

AXI GPIO 可以将 PS 端的一个 AXI 4-Lite 接口转化为 GPIO 接口,并且可以被配置为单端口或双端口,每个通道的位宽可以独立配置。 通过使能三态门可以将端口动态地配置为输入或输出。 AXIGPIO 是 ZYNQ PL 端的一个 IP 核,可以将 AXI-Lite Mas…

20.Word:小谢-病毒知识的科普文章❗【38】

目录 题目​ NO1.2.3文档格式 NO4.5 NO6.7目录/图表目录/书目 NO8.9.10 NO11索引 NO12.13.14 每一步操作完,确定之后记得保存最后所有操作完记得再次删除空行 题目 NO1.2.3文档格式 样式的应用 选中应用段落段落→开始→选择→→检查→应用一个一个应用ctr…

为什么应用程序是特定于操作系统的?[计算机原理]

你把WINDOWS程序复制到MAC上使用,会发现无法运行。你可能会说,MAC是arm处理器,而WINDWOS是X86 处理器。但是在2019年,那时候MAC电脑还全是Intel处理器,在同样的X86芯片上,运行MAC和WINDOWS 程序还是无法互相…

LigerUI在MVC模式下的响应原则

LigerUI是基于jQuery的UI框架,故他也是遵守jQuery的开发模式,但是也具有其特色的侦听函数,那么当LigerUI作为View层的时候,他所发送后端的必然是表单的数据,在此我们以俩个div为例: {Layout "~/View…

BurpSuite--暴力破解

一.弱口令 1. 基本概念 介绍:弱口令(weak password)是指那些容易被他人猜测或通过工具破解的密码。虽然弱口令没有严格的定义,但通常它指的是由简单的数字、字母、常用词语或规律性组合构成的密码。 特点: 密码容易被…

深入探讨防抖函数中的 this 上下文

深入剖析防抖函数中的 this 上下文 最近我在研究防抖函数实现的时候,发现一个耗费脑子的问题,出现了令我困惑的问题。接下来,我将通过代码示例,深入探究这些现象背后的原理。 示例代码 function debounce(fn, delay) {let time…