【机器学习】机器学习与大模型在人工智能领域的融合应用与性能优化新探索

文章目录

    • 引言
    • 机器学习与大模型的基本概念
      • 机器学习概述
        • 监督学习
        • 无监督学习
        • 强化学习
      • 大模型概述
        • GPT-3
        • BERT
        • ResNet
        • Transformer
    • 机器学习与大模型的融合应用
      • 自然语言处理
        • 文本生成
        • 文本分类
        • 机器翻译
      • 图像识别
        • 自动驾驶
        • 医学影像分析
      • 语音识别
        • 智能助手
        • 语音转文字
    • 大模型性能优化的新探索
      • 模型压缩
        • 权重剪枝
        • 量化
        • 知识蒸馏
      • 分布式训练
        • 数据并行
        • 模型并行
        • 异步训练
      • 高效推理
        • 模型裁剪
        • 缓存机制
        • 专用硬件
    • 未来展望
      • 跨领域应用
      • 智能化系统
      • 人工智能伦理
      • 技术创新
    • 结论

引言

随着计算能力的不断提升和数据规模的爆炸性增长,机器学习和大模型在人工智能(AI)领域的应用变得越来越广泛和深入。尤其是大规模机器学习模型,如深度神经网络(如GPT-3、BERT等),在自然语言处理、图像识别、语音识别等方面展现了卓越的性能。然而,如何有效地融合机器学习与大模型,提升其应用性能,仍然是当前研究和应用中的重要课题。本文将探讨机器学习与大模型在人工智能领域的融合应用,并重点讨论性能优化的新方法和新探索。
在这里插入图片描述

机器学习与大模型的基本概念

机器学习概述

机器学习是一种通过数据训练模型,并利用模型对新数据进行预测和决策的技术。其基本思想是让计算机通过样本数据学习规律,而不是通过明确的编程指令。根据学习的类型,机器学习可以分为监督学习、无监督学习和强化学习。

监督学习

监督学习是通过带标签的数据集训练模型,使其能够对新数据进行分类或回归预测。常见的算法包括线性回归、逻辑回归、支持向量机、决策树和神经网络等。

无监督学习

无监督学习是在没有标签的数据集上进行训练,主要用于数据聚类和降维。常见的算法包括K-means聚类、层次聚类和主成分分析(PCA)等。

强化学习

强化学习是一种通过与环境交互学习最优行为策略的技术。智能体通过试错法在环境中学习,以最大化累积奖励。常见的算法包括Q-learning、深度Q网络(DQN)和策略梯度方法等。

大模型概述

大模型是指具有大量参数和层数的深度学习模型,通常通过大规模数据集进行训练。大模型在自然语言处理、图像识别和语音识别等任务中表现出色。其代表性模型包括GPT-3、BERT、ResNet和Transformer等。

GPT-3

GPT-3(Generative Pre-trained Transformer 3)是OpenAI开发的一种语言模型,具有1750亿个参数。它通过大量的文本数据进行预训练,能够生成高质量的自然语言文本,广泛应用于文本生成、翻译和对话系统等领域。

BERT

BERT(Bidirectional Encoder Representations from Transformers)是Google开发的一种语言模型,通过双向Transformer架构进行预训练。BERT在各种自然语言理解任务中表现优异,如问答系统和情感分析等。

ResNet

ResNet(Residual Network)是Microsoft提出的一种深度卷积神经网络,通过残差连接解决了深层神经网络训练中的梯度消失问题。ResNet在图像识别任务中取得了显著成果。

Transformer

Transformer是Google提出的一种基于注意力机制的神经网络架构,广泛应用于自然语言处理任务。与传统的卷积神经网络和循环神经网络不同,Transformer能够更高效地处理长距离依赖关系。
在这里插入图片描述

机器学习与大模型的融合应用

自然语言处理

自然语言处理(NLP)是机器学习与大模型应用最广泛的领域之一。大模型在文本生成、文本分类、情感分析、机器翻译等任务中表现出色。

文本生成

GPT-3等大模型在文本生成任务中展现了强大的能力。通过预训练,大模型能够理解上下文,生成连贯且有意义的文本,广泛应用于对话系统、内容创作和自动摘要等场景。

import openai

openai.api_key = 'YOUR_API_KEY'

def generate_text(prompt):
    response = openai.Completion.create(
        engine="davinci-codex",
        prompt=prompt,
        max_tokens=100
    )
    return response.choices[0].text.strip()

prompt = "Explain the significance of machine learning in modern technology."
generated_text = generate_text(prompt)
print(generated_text)
文本分类

BERT等大模型通过预训练和微调,在文本分类任务中取得了显著成果。通过对文本进行语义理解,大模型能够准确地对文本进行分类,广泛应用于垃圾邮件检测、情感分析和主题识别等领域。

from transformers import BertTokenizer, BertForSequenceClassification
from transformers import TextClassificationPipeline

tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')

pipeline = TextClassificationPipeline(model=model, tokenizer=tokenizer)
result = pipeline("I love this product, it's amazing!")

print(result)
机器翻译

Transformer架构在机器翻译任务中表现出色。通过大规模双语数据集的训练,Transformer能够实现高质量的文本翻译,广泛应用于跨语言信息交流和全球化业务拓展。

from transformers import MarianMTModel, MarianTokenizer

model_name = 'Helsinki-NLP/opus-mt-en-de'
tokenizer = MarianTokenizer.from_pretrained(model_name)
model = MarianMTModel.from_pretrained(model_name)

def translate(text):
    inputs = tokenizer(text, return_tensors="pt", padding=True)
    translated = model.generate(**inputs)
    translated_text = tokenizer.batch_decode(translated, skip_special_tokens=True)
    return translated_text[0]

text = "Machine learning is transforming the way we approach problems in various fields."
translated_text = translate(text)
print(translated_text)

在这里插入图片描述

图像识别

大模型在图像识别领域同样取得了显著成果。通过深度卷积神经网络(如ResNet),大模型能够准确地识别图像中的物体,广泛应用于自动驾驶、安防监控和医学影像分析等领域。

自动驾驶

在自动驾驶领域,图像识别技术用于检测道路上的行人、车辆和交通标志等。大模型通过大量的图像数据进行训练,能够实现高精度的目标检测和分类,提高自动驾驶系统的安全性和可靠性。

import torch
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Image

model = models.resnet50(pretrained=True)
model.eval()

def predict_image(image_path):
    img = Image.open(image_path)
    preprocess = transforms.Compose([
        transforms.Resize(256),
        transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
    ])
    img_tensor = preprocess(img)
    img_tensor = img_tensor.unsqueeze(0)

    with torch.no_grad():
        output = model(img_tensor)
    
    _, predicted = torch.max(output, 1)
    return predicted.item()

image_path = 'path/to/your/image.jpg'
predicted_class = predict_image(image_path)
print(predicted_class)
医学影像分析

在医学影像分析领域,图像识别技术用于检测和诊断疾病。大模型通过大量的医学影像数据进行训练,能够准确地识别病变区域,辅助医生进行诊断和治疗,提高医疗服务的质量和效率。

from fastai.vision.all import *

def load_learner():
    learner = load_learner('path/to/your/exported/learner.pkl')
    return learner

def predict_image(image_path):
    learner = load_learner()
    img = PILImage.create(image_path)
    pred, pred_idx, probs = learner.predict(img)
    return pred, probs[pred_idx]

image_path = 'path/to/your/image.jpg'
predicted_class, probability = predict_image(image_path)
print(f'Predicted class: {predicted_class}, Probability: {probability}')

语音识别

语音识别是大模型在人工智能领域的重要应用之一。通过深度神经网络和大规模语音数据集的训练,大模型能够实现高精度的语音识别,广泛应用于智能助手、语音控制和语音转文字等场景。
在这里插入图片描述

智能助手

智能助手如Siri、Alexa和Google Assistant等,广泛应用于家庭和办公场景。大模型通过语音识别技术,实现语音指令的理解和响应,提高用户的交互体验和工作效率。

import speech_recognition as sr

def recognize_speech():
    recognizer = sr.Recognizer()
    with sr.Microphone() as source:
        print("Say something:")
        audio = recognizer.listen(source)

    try:
        text = recognizer.recognize_google(audio)
        print("You said: " + text)
    except sr.UnknownValueError:
        print("Google Speech Recognition could not understand audio")
    except sr.RequestError as e:
        print("Could not request results from Google Speech Recognition service; {0}".format(e))

recognize_speech()
语音转文字

语音转文字技术用于将语音信息转换为文本信息,广泛应用于会议记录、客户服务和语音搜索

等场景。大模型通过语音识别技术,实现高精度的语音转文字,提高信息处理的效率和准确性。

from transformers import Wav2Vec2ForCTC, Wav2Vec2Tokenizer
import torch
import librosa

tokenizer = Wav2Vec2Tokenizer.from_pretrained("facebook/wav2vec2-base-960h")
model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-base-960h")

def speech_to_text(audio_path):
    speech, _ = librosa.load(audio_path, sr=16000)
    input_values = tokenizer(speech, return_tensors="pt").input_values
    logits = model(input_values).logits
    predicted_ids = torch.argmax(logits, dim=-1)
    transcription = tokenizer.batch_decode(predicted_ids)[0]
    return transcription

audio_path = 'path/to/your/audio.wav'
transcription = speech_to_text(audio_path)
print(transcription)

在这里插入图片描述

大模型性能优化的新探索

模型压缩

大模型虽然在性能上表现出色,但其巨大的参数量和计算复杂度带来了显著的存储和计算成本。为了在实际应用中更高效地部署大模型,模型压缩技术成为了重要的研究方向。

权重剪枝

权重剪枝是一种通过删除网络中不重要的权重,减少模型参数量和计算量的技术。通过剪枝后的模型在推理阶段能够大幅度提高计算效率,同时保持较高的准确度。

import torch
import torch.nn.utils.prune as prune

model = models.resnet50(pretrained=True)
parameters_to_prune = [(module, 'weight') for module in model.modules() if isinstance(module, torch.nn.Conv2d)]

for module, param in parameters_to_prune:
    prune.l1_unstructured(module, name=param, amount=0.2)

# Remove pruning reparameterization to enable inference
for module, param in parameters_to_prune:
    prune.remove(module, param)
量化

量化是将模型参数从高精度(如32位浮点数)转换为低精度(如8位整数)的技术。量化后的模型能够大幅度减少存储空间和计算复杂度,同时保持较高的性能。

model = models.resnet50(pretrained=True)
model.eval()

quantized_model = torch.quantization.quantize_dynamic(
    model, {torch.nn.Linear}, dtype=torch.qint8
)

# Test the quantized model
input_tensor = torch.randn(1, 3, 224, 224)
output = quantized_model(input_tensor)
print(output)
知识蒸馏

知识蒸馏是一种通过训练一个较小的学生模型来模仿大模型的行为,从而达到模型压缩的技术。学生模型在推理阶段能够更高效地运行,同时保持接近大模型的性能。

import torch.nn.functional as F

# Define teacher and student models
teacher_model = models.resnet50(pretrained=True)
student_model = models.resnet18()

# Define a knowledge distillation loss function
def distillation_loss(student_outputs, teacher_outputs, labels, alpha=0.5, temperature=2.0):
    loss_ce = F.cross_entropy(student_outputs, labels)
    loss_kd = F.kl_div(
        F.log_softmax(student_outputs / temperature, dim=1),
        F.softmax(teacher_outputs / temperature, dim=1),
        reduction='batchmean'
    ) * (temperature ** 2)
    return alpha * loss_ce + (1 - alpha) * loss_kd

# Example training loop
optimizer = torch.optim.SGD(student_model.parameters(), lr=0.01, momentum=0.9)

for epoch in range(10):
    for inputs, labels in dataloader:
        optimizer.zero_grad()
        student_outputs = student_model(inputs)
        with torch.no_grad():
            teacher_outputs = teacher_model(inputs)
        loss = distillation_loss(student_outputs, teacher_outputs, labels)
        loss.backward()
        optimizer.step()

分布式训练

大模型的训练通常需要大量的计算资源和时间。为了加速训练过程,分布式训练技术成为了重要的研究方向。

数据并行

数据并行是一种将大规模数据集分割成多个小批次,并在多个计算节点上并行训练模型的技术。数据并行能够显著加速大模型的训练过程,同时提高计算资源的利用率。

import torch
import torch.distributed as dist
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDP

dist.init_process_group(backend='nccl')
model = models.resnet50().cuda()
ddp_model = DDP(model)
optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)

for epoch in range(10):
    for inputs, labels in dataloader:
        inputs, labels = inputs.cuda(), labels.cuda()
        optimizer.zero_grad()
        outputs = ddp_model(inputs)
        loss = F.cross_entropy(outputs, labels)
        loss.backward()
        optimizer.step()
模型并行

模型并行是一种将大模型分割成多个子模型,并在多个计算节点上并行训练的技术。模型并行能够解决单个计算节点内存不足的问题,提高大模型的训练效率。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDP

class ModelParallelResNet50(nn.Module):
    def __init__(self):
        super(ModelParallelResNet50, self).__init__()
        self.model = nn.Sequential(
            models.resnet50().layer1.to('cuda:0'),
            models.resnet50().layer2.to('cuda:1'),
            models.resnet50().layer3.to('cuda:2'),
            models.resnet50().layer4.to('cuda:3')
        )

    def forward(self, x):
        for layer in self.model:
            x = layer(x)
        return x

model = ModelParallelResNet50()
optimizer = optim.SGD(model.parameters(), lr=0.01)

for epoch in range(10):
    for inputs, labels in dataloader:
        inputs, labels = inputs.to('cuda:0'), labels.to('cuda:3')
        optimizer.zero_grad()
        outputs = model(inputs)
        loss = F.cross_entropy(outputs, labels)
        loss.backward()
        optimizer.step()
异步训练

异步训练是一种允许不同计算节点在不同步的情况下进行模型更新的技术。异步训练能够提高计算资源的利用效率,加速大模型的训练过程。

import torch
import torch.distributed as dist
import torch.nn as nn
import torch.optim as optim
from torch.multiprocessing import Process

def train(rank, world_size):
    dist.init_process_group(backend='gloo', rank=rank, world_size=world_size)
    model = models.resnet50().to(rank)
    ddp_model = nn.parallel.DistributedDataParallel(model, device_ids=[rank])
    optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)

    for epoch in range(10):
        for inputs, labels in dataloader:
            inputs, labels = inputs.to(rank), labels.to(rank)
            optimizer.zero_grad()
            outputs = ddp_model(inputs)
            loss = F.cross_entropy(outputs, labels)
            loss.backward()
            optimizer.step()

def main():
    world_size = 4
    processes = []
    for rank in range(world_size):
        p = Process(target=train, args=(rank, world_size))
        p.start()
        processes.append(p)

    for p in processes:
        p.join()

if __name__ == "__main__":
    main()

在这里插入图片描述

高效推理

大模型在推理阶段同样面临计算复杂度高的问题。为了在实际应用中更高效地进行推理,高效推理技术成为了重要的研究方向。

模型裁剪

模型裁剪是一种在推理阶段,根据输入数据的特性动态裁剪模型结构的技术。模型裁剪能够减少计算量,提高推理速度,同时保持较高的性能。

import torch

class DynamicPruningModel(nn.Module):
    def __init__(self, model):
        super(DynamicPruningModel, self).__init__()
        self.model = model

    def forward(self, x):
        # Example of dynamic pruning logic
        if x.size(0) > 1:
            self.model.layer4[0].conv1 = nn.Identity()
        return self.model(x)

model = models.resnet50(pretrained=True)
pruned_model = DynamicPruningModel(model)

input_tensor = torch.randn(1, 3, 224, 224)
output = pruned_model(input_tensor)
print(output)
缓存机制

缓存机制是一种通过缓存推理过程中的中间结果,减少重复计算的技术。缓存机制能够显著提高大模型的推理效率,特别是在实时应用场景中。

import torch
import torch.nn as nn

class CachedModel(nn.Module):
    def __init__(self, model):
        super(CachedModel, self).__init__()
        self.model = model
        self.cache = {}

    def forward(self, x):
        if x in self.cache:
            return self.cache[x]
        output = self.model(x)
        self

.cache[x] = output
        return output

model = models.resnet50(pretrained=True)
cached_model = CachedModel(model)

input_tensor = torch.randn(1, 3, 224, 224)
output = cached_model(input_tensor)
print(output)
专用硬件

专用硬件如GPU、TPU和FPGA等,能够为大模型的推理提供高效的计算支持。通过利用专用硬件的并行计算能力,大模型能够在推理阶段显著提高性能。

import torch
import torch.nn as nn

# Check if a GPU is available
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = models.resnet50(pretrained=True).to(device)

input_tensor = torch.randn(1, 3, 224, 224).to(device)
output = model(input_tensor)
print(output)

在这里插入图片描述

未来展望

跨领域应用

随着大模型的不断发展和优化,机器学习和大模型的融合应用将在更多领域得到拓展。未来,大模型将在医疗、金融、教育、能源等领域发挥更大的作用,为各行各业带来深远的影响和变革。

智能化系统

未来的智能化系统将更加依赖于大模型的支持。通过将大模型应用于智能制造、智能交通和智慧城市等领域,可以实现更加高效、智能和自动化的系统,提高生产效率和生活质量。

人工智能伦理

随着大模型的广泛应用,人工智能伦理问题将变得更加重要。如何确保大模型的公平性、透明性和可解释性,如何保护用户隐私,如何防止大模型被滥用,将是未来需要重点关注的问题。

技术创新

未来,机器学习和大模型领域将继续涌现出新的技术创新。新型神经网络架构、更加高效的训练算法、更智能的优化技术等,将推动大模型的性能进一步提升,开创更多的应用场景和可能性。

结论

机器学习与大模型的融合应用在人工智能领域展现了巨大的潜力和前景。通过对机器学习和大模型的深入理解和研究,结合实际应用中的需求,开发者可以构建出高性能、智能化的系统,实现智能预测和数据分析。在实际应用中,通过模型压缩、分布式训练和高效推理等性能优化技术,可以进一步提升大模型的应用效率和性能。未来,随着技术的不断创新和发展,机器学习与大模型的融合应用将为各行各业带来更多的机遇和挑战。希望本文能够为开发者提供有价值的参考和指导,推动机器学习与大模型在人工智能领域的持续发展和应用。
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/675733.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

解读信创产业根基,操作系统发展历程

信创产业根基之一操作系统 操作系统是一个关键的控制程序,负责协调、管理和控制计算机硬件和软件资源。作为硬件的首要软件扩展,它位于裸机与用户之间,充当了两者之间的桥梁。通过其核心程序,操作系统高效地管理着系统中的各类资源…

开山之作!Python数据与算法分析手册,登顶GitHub!

若把编写代码比作行军打仗,那么要想称霸沙场,不能仅靠手中的利刃,还需深谙兵法。 Python是一把利刃,数据结构与算法则是兵法。只有熟读兵法,才能使利刃所向披靡。只有洞彻数据结构与算法,才能真正精通Pyth…

营销方案撰写秘籍:包含内容全解析,让你的方案脱颖而出

做了十几年品牌,策划出身,混迹过几个知名广告公司,个人经验供楼主参考。 只要掌握以下这些营销策划案的要点,你就能制作出既全面又专业的策划案,让你的工作成果不仅得到同事的认可,更能赢得老板的赏识&…

Transgaga——人脸与猫脸之间互相转换算法解析

1. 概述 虽然pix2pix作为风格转换模型被提出,但它依赖于成对的数据集。与之相比,CycleGAN通过引入循环损失,实现了无需配对数据的风格转换。不过,CycleGAN在处理需要大幅几何变化的风格转换时表现不佳,仅在如马和斑马…

JAVA流程控制--增强for循环

1.JAVA5引入了一种主要用于数组或集合的增强型for循环 2.JAVA增强for循环语法格式如下: for(声明语句:表达式) { //代码句子 } 3.声明语句:声明新的局部变量,该变量的类型必须和数组元素的类型匹配。其作用域限定在循…

最新鸿蒙南北开发学习路线+学习资料分享

前言 5月29日,“千帆竞发启航 共筑鸿蒙生态”鸿蒙原生应用合作仪式在北京成功举办,近40个应用现场官宣启动鸿蒙原生应用开发。此次官宣启动开发的鸿蒙原生应用不仅包括教育、母婴、出行、医疗健康等多领域的知名应用,还有十多家企业内部办公应…

【C语言】位段(结构体实现位段)

目录 一、位段的定义 二、位段的声明 三、位段的内存分配 四、位段在内存中的存储方式 五、位段的优点 六、位段的跨平台问题 七、位段的应用 八、位段使用的注意事项 一、位段的定义 信息的存取一般以字节为单位。实际上,有时存储一个信息不必用一个或多个字…

参数高效微调PEFT(四)快速入门(IA)3

参数高效微调PEFT(四)快速入门(IA)3 我们已经了解了HuggingFace中peft库的几种高效微调方法。 参数高效微调PEFT(一)快速入门BitFit、Prompt Tuning、Prefix Tuning 参数高效微调PEFT(二)快速入门P-Tuning、P-Tuning V2 参数高效微调PEFT(三)快速入门LoRA、AdaLoRA 今天我…

Linux基础命令[28]-chmod

文章目录 1. chmod 命令说明2. chmod 命令语法3. chmod 命令示例3.1 使用数字赋权3.2 使用字母赋权3.3 -R(一起修改子目录) 4. 总结 1. chmod 命令说明 chmod:为文件或文件夹赋予权限。Linux-文件或目录权限。基本信息如下: Usa…

目标2亿欧元!四年两次募资,全球最早专注于量子投资的Quantonation再次加码

Quantonation Ventures 是全球第一家专注于深度物理和量子技术的早期风险投资公司。4月10日,该公司宣布其第二只专门用于量子技术的早期基金 Quantonation II 首次募资完成,目前已募资 7000 万欧元,而目标为 2 亿欧元。 首次募资就募到了将…

redis之发布与订阅

华子目录 什么是发布与订阅?常用命令psubscribe pattern1 [pattern2...]subscribe channel1 [channel2...]publish channel messagepunsubscribe pattern1 [pattern2...]unsubscribe [channel1 [channel2...]]pubsub subcommand argument1 [argument2...] 示例1示例…

C/C++动态内存管理(new与delete)

目录 1. 一图搞懂C/C的内存分布 2. 存在动态内存分配的原因 3. C语言中的动态内存管理方式 4. C内存管理方式 4.1 new/delete操作内置类型 4.2 new/delete操作自定义类型 1. 一图搞懂C/C的内存分布 说明: 1. 栈区(stack):在…

微信视频号上是怎么开店铺的?从入驻到发货,具体流程来了!

这两年,视频号逐渐走入大家视野 单价高,商家又少,很多类目都属于空白无商家入驻阶段,于是好多商家,都准备去视频号小店这个新“黑马”发展发展 那视频号是怎么开店卖东西的?今天我就来给大家分享一下&…

list~模拟实现

目录 list的介绍及使用 list的底层结构 节点类的实现 list的实现 构造函数 拷贝构造 方法一:方法二: 析构函数 赋值重载 insert / erase push_/pop_(尾插/尾删/头插/头删) begin和end(在已建立迭代器的基础上) 迭代…

“神经网络之父”和“深度学习鼻祖”Geoffrey Hinton

“神经网络之父”和“深度学习鼻祖”Geoffrey Hinton在神经网络领域数十年如一日的研究,对深度学习的推动和贡献显著。 一、早期贡献与突破 反向传播算法的引入:Hinton是将反向传播(Backpropagation)算法引入多层神经网络训练的…

客观评价一下GPT-4o

评价GPT-4o(即OpenAI发布的升级版语言模型),以下是上大学网(www.sdaxue.com)从技术能力与创新性、性能与效率、功能实用性与用户体验等几个维度进行评价,不周之出,请大家指正。 技术能力与创新性…

百万总奖池 | 浦源大模型挑战赛(夏季赛)·安全可信赛道正式启动!

随着技术的不断进步,人工智能技术正迅速成为促进社会进步的新质生产力,大模型也成为了“炙手可热”的日常工具,彻底改变了我们与信息之间的互动方式。 然而,随着大模型能力的日益增强,其潜在的风险也日渐凸显&#xf…

网络编程(七)

网络编程(七) UNIX域套接字(本地间进程间通信的技术)(S文件)基于TCP传输基于UDP传输 UNIX域套接字(本地间进程间通信的技术)(S文件) socket同样也可以用于本…

Python打印当前目录下,所有文件名的首字母

代码如下: #!/usr/bin/env python3 """ 按顺序打印当前目录下,所有文件名的首字母(忽略大小写) """ import sys from pathlib import Pathdef main() -> None:ps Path(__file__).parent.glob(…

计算机网络(网络原理及引用)之路由器的基本配置(详细~)

实验目的 熟悉路由各接口的外观、接口的功能、接口的表示方法;掌握带外的管理方法:通过接口console配置;掌握带内的管理方法:通过方式telnet配置;掌握带内的管理方法:通过方式web配置; 路由器…