DeepSeek也已经火了一段时间了,不管做技术的或者不是做技术的,都在讨论或者使用DeepSeek。

对于我们来说,DeepSeek确实给我带来很大程度的提效,对于我们的帮助是很大的。基于对AI模型的了解,我也在过年放假的时候也学习搭建了本地模型环境,这里做个整理,记录一下。

本期分两个部分,第一部分是配置本地模型,第二个是关联我们的开发工具Idea或者Android Studio。

本地模型配置

1. 下载ollama

地址:Download Ollama on macOS

根据自己的pc系统版本进行下载,下载完成后安装并启动。

2. 选择模型

地址:Ollama

这个地址有很多模型,比如:deepseek-r1,llama3.3, phi4等。

我选择了deepseek-r1,点击进入详细界面,

你可以根据自己电脑配置选择对应的模型,我的是Macbook M1,选择的是7B的模型,因为根据网上提示14B也能跑,但是很慢,因此选择了7B,

选择以后,后面会有对应的命令行,赋值命令行,打开命令工具粘贴,回车即可下载模型,等待下载完成功后会进入如下界面状态:

输入你要问的问题即可本地聊天了。

这样聊天肯定是不方便的,因此我们还需要其他的辅助工具。

3. 模型聊天助手

下载浏览器插件:Page Assist - A Sidebar & Web UI for your Local AI

安装完成插件后,在浏览器打开:

框1是聊天的记录列表,框2是创建新的聊天,框3是选择模型,因为你可能配置了多个本地模型,框4是信息输入框。

到这本地模型就配置完成了,非常简单。

注意:每次开始聊天都要开启allama

链接开发工具

打开Idea或者Android Studio开发工具,进入设置,找到插件,在输入框搜索ProxyAI(原名:CodeGPT),然后点击安装。

安装完成后,在设置界面找到:Tools->CodeGPT->Ollama(Local),如下

在右侧Model那里选择模型即可(我本地安装了两个模型,一个大语言模型,一个Code模型,这个在上面选择模型界面都有),上面Base host是默认的配置。

退出设置,进入主界面,在边部菜单找到如下图形并打开:

这样就与开发工具关联成功,在没有网络的环境下也能进行聊天开发了。

整体来说配置非常简单,但是本地模型有局限性,就是我们只能配置小版本的,对于保密或者五网络下是友好的,如果没有这些限制肯定在线版是更好的选择。