❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦
🚀 快速阅读
- Cofounder 是一个开源的全栈 AI 开发代理,帮助开发者自动生成完整的应用程序。
- Cofounder 提供全栈应用生成、AI 引导的原型设计、模块化设计系统和生成式 UI 等主要功能。
- Cofounder 基于生成式 AI 技术和自然语言处理,解析和理解开发者的需求,生成实际的代码。
正文(附运行示例)
Cofounder 是什么
Cofounder 是开源的全栈 AI 开发代理,能帮助开发者基于单一提示自动生成完整的应用程序,包括后端、前端、数据库和有状态的 Web 应用。Cofounder 基于生成式 AI 技术,提供基于应用架构的 UI、AI 引导的原型设计工具和模块化设计系统,提高开发效率和简化开发流程。Cofounder 全栈构建能力让开发者无需在不同层面的开发工作之间频繁切换,节省开发时间和精力。
Cofounder 的主要功能
- 全栈应用生成:Cofounder 根据用户的提示或需求说明,自动生成包括后端、前端、数据库在内的全栈 Web 应用程序。
- AI 引导的原型设计:提供 AI 辅助的原型设计工具,帮助开发者快速构建应用的初步模型。
- 模块化设计系统:Cofounder 基于模块化设计,让开发者轻松地重用和组合不同的功能模块。
- 生成式 UI:基于应用架构,Cofounder 自动生成用户界面,简化 UI 设计和开发过程。
- 数据库管理:支持数据库层的生成和管理,包括数据结构的定义和数据库的实现。
- API 规范实现:Cofounder 实现 API 规范,如 OpenAPI 和 AsyncAPI,为后端服务提供标准化的接口。
Cofounder 的技术原理
- 生成式人工智能(Generative AI):基于 NLP 和机器学习模型,根据提示生成代码。
- 自然语言处理(NLP):解析和理解开发者提供的描述性语言,识别关键需求。
- 机器学习模型:在代码数据上训练,学习如何生成代码。
- 代码生成算法:将需求转换成实际代码,包括模板匹配和逻辑结构生成。
- 模块化和组件化架构:提高代码复用性和开发灵活性。
- 数据库和 API 自动化:用数据库模式设计技术和 API 规范自动化数据库和 API 生成。
如何运行 Cofounder
安装与初始化
- 打开终端并运行以下命令:
npx @openinterface/cofounder
-
按照提示操作:
- 输入你的密钥
- 设置目录并开始安装
- 启动本地
cofounder/api
构建器和服务器 - 打开
http://localhost:4200
进入 Web 仪表板,创建新的项目 🎉
# 备注:
# 你将被要求输入 cofounder.openinterface.ai 密钥
# 推荐使用该密钥,因为它可以启用设计布局和外部API等功能
# 并且在当前早期alpha期间没有使用限制
- 你可以通过以下命令直接创建新项目,而不必通过仪表板:
npx @openinterface/cofounder -p "YourAppProjectName" -d "describe your app here" -a "(optional) design instructions"
运行生成的应用程序
- 在
./apps/{YourApp}
目录下打开终端并运行:
npm i && npm run dev
-
安装依赖项后,启动后端和 Vite+React,进入
http://localhost:5173/
打开 Web 应用 🎉 -
在生成的应用程序中,使用 ⌘+K / Ctrl+K 来迭代 UI 组件
注意事项
仪表板与本地 API
如果你稍后继续开发生成的应用程序,需要确保本地 ./cofounder/api
服务器正在运行以接收查询。从 ./cofounder/api
目录运行以下命令:
npm run start
仪表板将在 http://localhost:4200
打开
并发处理
每个“节点”在 cofounder
架构中有定义好的配置文件,用于处理并发、重试和时间间隔限制。例如,如果你想并行运行多个 LLM 生成任务,可以修改以下配置:
# ./cofounder/api/system/structure/nodes/op/llm.yaml
nodes:
op:LLM::GEN:
desc: "..."
in: [model, messages, preparser, parser, query, stream]
out: [generated, usage]
queue:
concurrency: 1 # 修改这里
op:LLM::VECTORIZE:
desc: "{texts} -> {vectors}"
in: [texts]
out: [vectors, usage]
mapreduce: true
op:LLM::VECTORIZE:CHUNK:
desc: "{texts} -> {vectors}"
in: [texts]
out: [vectors, usage]
queue:
concurrency: 50
默认的 LLM 并发数设置为 2
,以便逐步查看控制台流中的步骤,但你可以根据 API 密钥的限制进行调整。
资源
- 项目官网:https://cofounder.openinterface.ai
- GitHub 仓库:https://github.com/raidendotai/cofounder
❤️ 如果你也关注大模型与 AI 的发展现状,且对大模型应用开发非常感兴趣,我会快速跟你分享最新的感兴趣的 AI 应用和热点信息,也会不定期分享自己的想法和开源实例,欢迎关注我哦!
🥦 微信公众号|搜一搜:蚝油菜花 🥦