导读: 欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”生成了每条资讯的摘要。
标题: 速递|木头姐 ARK 宣布已投资 OpenAI!还将 Anthropic 及 Figure1 等 AI 独角兽一网打尽
摘要: ARK已通过其风险基金ARKVX投资了OpenAI,并表示OpenAI处于AI能力爆发的前沿。ARKVX是由ARK管理的封闭式基金,投资于25~50种不同的公司,费率包括管理费、服务费等。近80%资金投资于私营公司。OpenAI占ARK Venture持股的4%。此外,ARK风险基金还投资了Epic Games等公司。
网址: 速递|木头姐 ARK 宣布已投资 OpenAI!还将 Anthropic 及 Figure1 等 AI 独角兽一网打尽|openai|初创公司|商业模式|基金|天使汇|木头姐|独角兽_手机网易网
标题: 谷歌爆改Transformer,“无限注意力”让1B小模型读完10部小说
摘要: 谷歌对Transformer进行重大改进,引入“无限注意力”机制,使1B大小的模型能处理长度达1M的上下文,相当于读完10部小说。这种机制让Transformer在有限计算资源内处理无限长输入,实现114倍信息压缩比。与此同时,DeepMind也改进Transformer架构,提高训练效率。这些新进展引发学术圈关注,预示大模型可能越来越强大且高效。
网址: 谷歌爆改Transformer,"无限注意力"让1B小模型读完10部小说 | 量子位
标题: 剑指Sora!120秒超长AI视频模型免费开玩
摘要: 要点提炼: Picsart AI Research等团队发布了免费开源的AI视频模型StreamingT2V,可生成长达2分钟的高质量视频。该模型在视频生成时长上超越了先前的模型如Sora、Pika、Runway等,且理论上可做到无限长。作者提供了论文链接、Demo试用和开源代码地址。此模型的发布标志着AI视频生成领域的新竞争开始。
网址: 剑指Sora!120秒超长AI视频模型免费开玩|注意力|AI视频_新浪新闻
标题: 识读2300多年的战国竹简,竟只用2B端侧大模型!面壁发布新一代“小钢炮”
摘要: **要点提炼:** 1. 距今2300多年的战国时期竹简(清华简)的识读难题得到AI助力,实现重大突破。 2. 研究人员利用一个仅2B大小的多模态大模型,在清华简的版式检测和文字识别上取得成功,识别出楚文字对应的现代汉字。 3. 该大模型能够处理与现代文字差异较大的古文字,展现出强大的多模态识别能力。 4. 该2B多模态大模型为端侧最强,可在手机上运行,研究团队计划继续深入探索此方法。
网址: 识读2300多年的战国竹简,竟只用2B端侧大模型!面壁发布新一代“小钢炮” - 智源社区