Grok 前言
我们正在发布我们的大型语言模型 Grok-1 的基本模型权重和网络架构。Grok-1 是一个 3140 亿参数的专家混合模型,由 xAI 从头开始训练。
- 这是 2023 年 10 月结束的 Grok-1 预训练阶段的原始基础模型检查点。这意味着该模型不会针对任何特定应用(例如对话)进行微调。
- 我们将在 Apache 2.0 许可下发布权重和架构。
- 要开始使用该模型,请按照 github.com/xai-org/grok 中的说明进行操作。
- xAI 官网
型号详细信息
- 基础模型在大量文本数据上训练,未针对任何特定任务进行微调。
- 314B 参数 Mixture-of-Experts 模型,其中 25% 的权重在给定令牌上处于活动状态。
- 2023 年 10 月,xAI 使用 JAX 和 Rust 之上的自定义训练堆栈从头开始训练。
Grok-1 download
- Grok-1 BT种子,复制到BT工具下载
magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
- Grok-1 百度网盘https://pan.baidu.com/s/1-e5w5D2aXQO9T9nnPvZodw?pwd=grok