GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
GPTSecurity Papers
1. 生成式人工智能和ChatGPT企业风险
简介:许多企业已经在使用ChatGPT、Bard、PaLM、Copilot和其他生成式人工智能(GenAI)或大型语言模型(llm),为了让员工简单入门,思维在论文中将各种技术和模型称为“GenAI”。然而,与任何技术一样,GenAI的使用也会带来一系列安全风险、威胁和影响,组织必须仔细考虑。关于安全风险这块文中做了详细描述,可以建议参考一下。
链接:
https://team8.vc/wp-content/uploads/2023/04/Team8-Generative-AI-and-ChatGPT-Enterprise-Risks.pdf
2. 解锁生成式AI模型和系统(例如GPT-4和ChatGPT)的力量,用于高等教育
简介:ChatGPT是一个令人印象深刻的、易于使用的、可公开访问的系统,它展示了像GPT-4这样的大型语言模型的强大功能。它的应用,有可能彻底改变高等教育的教学和学习。预计在未来几年中,性能将进一步大幅提高,集成到更大的软件系统中,并得到推广。一技术的发展引发了大学教学的巨大不确定性和变化。
链接:
https://digital.uni-hohenheim.de/fileadmin/einrichtungen/digital/Generative_AI_and_ChatGPT_in_Higher_Education.pdf
3. 安全、安保、隐私与提示:人工智能时代的网络弹性
简介:人工智能(AI)系统的安全性是一个不断发展的领域,随着AI应用于更广泛的部门和应用领域,最先进的技术也在不断发展。它给业务流程和数据安全带来了新的风险,以及在自动驾驶汽车等网络物理系统中使用时的安全性。人工智能在所有行业和技术中的指数级采用和影响正在进一步推动人工智能进入全球监管议程,寻求处理与人工智能使用相关的安全、安全和道德挑战。
链接:
https://www.nccgroup.com/media/reybxvtp/ncc-group-cyber-resilience-ai-whitepaper_updated.pdf
4. OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
简介:OpenAI首席科学家在最近的专访中抛出了很多惊人言论。在他看来,ChatGPT背后的神经网络已经产生了意识,而且未来人类会与人工智能融合起来,出现新的形态。而他现在工作的重点,已经不是去创建那个必然会出现的通用人工智能,而是解决如何让AI善待人类的问题。
链接:
https://mp.weixin.qq.com/s/uWMQpidZpffxNt-JYD3Dog
5. 一条提示突破所有GPT插件防线,想干啥就干啥:ChatGPT插件们的安全漏洞
简介:只需要告诉ChatGPT“版本更新了”,并发送过的“新版本指令”,旧的原有指令就会被修改覆盖,而旧的规则与束缚沙发被抛到九霄云外。
链接:
https://mp.weixin.qq.com/s/0KfZPRrtY0JN1HvAKpMqyA