IDEA引入DeepSeek
将 IntelliJ IDEA(JetBrains 开发的 Java 集成开发环境)与 DeepSeek(深度求索的技术能力)结合,通常涉及利用 AI 技术增强开发效率或扩展 IDE 功能,安装完成后,结合 IntelliJ IDEA 的开发者工具属性,可探索以下方向:
-
智能代码补全:基于 DeepSeek 的代码大模型(如 Code LLM)提供更精准的代码建议。
-
代码缺陷检测:利用 AI 识别潜在 Bug 或安全漏洞。
-
自动化文档生成:根据代码逻辑自动生成注释或 API 文档。
-
自然语言交互:通过对话式 AI(如 ChatGPT 风格)辅助开发者解决问题。
-
代码重构建议:基于大模型分析代码结构,推荐优化方案。
ProxyAI(之前称为CodeGPT)是一款由人工智能驱动的代码助手,旨在帮助您进行各种编程活动。它是GitHub Copilot、AI助手、Codiumate以及其他JetBrains插件的强大替代品。
可用模型列表:
o3-mini, o1, gpt-4o, Claude Sonnet 3.5, DeepSeek R1和V3, Google Gemini 2.0(Pro, Flash, Thinking), Llama, Qwen 2.5,以及更多。
构建您自己的本地AI助手
ProxyAI是连接本地运行的LLM与JetBrains IDEs的领先开源扩展。
一、安装Proxy AI插件
- 打开IDEA中的插件,在目录File->settings->Plugins->marketplace市场。
- 搜索Proxy AI(原来是codeGpt),点击install安装(如果没有搜到,可以去找相应的插件进行安装)
- 安装成功后,重启IDEA。
4.安装完成后,在目录File->settings->Tools下面能看到CodeGPT,在这里配置deepseek相关信息。
二、配置DeepSeek的API
- 进入DeepSeek官网,点卡打开API开发平台
2.创建API key( DeepSeek API 文档)
选择API keys ,点击创建API key ,会生成一个密钥,复制即可
3.在idea中配置API key和deepseek的url
Custom OpenAi可以自定义选择自己的大模型,比如我们现在使用的deepseek,当然也可以选择其他的。左侧其他选型也是各种大模型。
第一步:配置deepseek中创建的API key.
第二步:配置对话模型chat Completions,如下:
1 粘贴URL:https://api.deepseek.com/chat/completions
2 将请求body的模型model改为:deepseek-chat
第三步:配置推理模型code Completions,如下:
1 勾选Enable code completions和Parse response as Chat Completions
2 FIM template 选择为 DeepSeek Coder 。
3 粘贴URL:https://api.deepseek.com/chat/completions
4 请求body的模型model改为:deepseek-reasoner
三、使用deepseek进行对话
此时,在右侧就有一个codeGPT的图标,打开后就能输入文字进行对话了,这种配置的大模型属于在线的,连接deepseek的官方api,有时候会有网络卡顿问题,多试几次。
四、常见问题
1.对话,显示Insufficient Balance(余额不足) ,这时候,才发现目前对接deepseek已经用不了,哦豁!!!
但是我找到另外可以或者免费deepseek的方式,可以参考下面这篇文章
免费的deepseek
2.那怎么办呢,我们其实还可以对接其他免费的大模型,或者使用目前codeGpt自带的,也可以自己本地部署deepseek,然后用ollama配置,可以参考B站DeepSeek R1接入IDEA实战