图龙网络科技

问答社区

原创作者: 图龙网络科技 发布时间: 2023-09-23 229.8K 人阅读

ChatAA+Ollama:多平台本地大模型部署实现Mac与Windows用户的私有部署

太极混元 发布于 4个月前 分类:语言模型

我们关注到用户对ChatAA在多平台本地化部署的日益增长需求。为了满足这一需求,我们推出了ChatAA+Ollama的模式,并提供了详细的多平台安装使用教程。这一模式通过本地化模型部署(Ollama)+智能PC文件检索问答工具(ChatAA)+本地向量模型的结合,实现了macOS和Windows平台的全面本地化部署,确保了用户数据的绝对私密性,并显著提升了本地模型的使用效率;

ChatAA配合本地安装的Ollama大模型运行框架,可以快速在PC本地实现100%私有大模型应用。
如果你的笔记本有独立的显卡,你可以尝试安装更好的7B以上参数的模型,比如Qwen2-7B,ChatGLM4-9B等。而在没有独立显卡的Windows和Mac笔记本上,超过4B的模型跑起来缓慢而不可用,我们推荐使用4B以内的模型,比如Qwen2-1.5B ,Qwen2-0.5B ,Phi3-3.8B等。
本次我们教程模型以Qwen2的0.5B模型为例,介绍如何使用Ollama+Qwen2-0.5B,来实现一个100%本地化的大模型来部署ChatAA的完整环境。
1 下载 Ollama 安装文件访问 https://ollama.com/download,选择 macOS,单击 “Download for macOS” 进行下载。

1719885301-7d18c44d3e0b3f9

2 解压 Ollama

双击解压Ollama,解压后展示Ollama安装文件

3 安装 Ollama

双击解压的安装文件Ollama,弹出窗口单击打开,直接安装就可以了。

  • 欢迎窗口单击Next1719885355-a89f682269a966a
  • 安装命令行单击Install

1719885438-df06a228807c5eb

  • 输入正确的电脑密码,单击好进行命令行安装
  • 1719885491-acfcadbb747aefd
  • 安装完成,单击Finish
  • 1719885579-4ffce04d92a4d6c
  • 安装完毕后软件会自动启动,在任务栏中看到ollama图标时,即说明ollama运行成功。

4 使用 Ollama

访问 https://ollama.com/library,搜索你要使用的模型,主流的模型,比如 Llama3、Qwen1.5B、Mixtral 等,Ollama都支持。

  • 选择首页右上角的Models
  • 在打开的页面中可以搜索想要使用的模型,如:使用Qwen2的模型
  • 选择搜索到的模型链接,可以查看模型加载方式,以及复制每个模型的执行命令,比如:选择Qwen2的0.5B模型
  • 如图所示,若想要使用Qwen2的0.5B模型,可以使用命令ollama run qwen2:0.5b
    • 启动终端,输入命令,软件会自动下载模型
    • 1719885679-23308f99ab70a02
    • 默认情况下模型被下载到了路径 open ~/.ollama/models/blobs   下。下载完毕后如下图所示。
    • 1719885730-9c25cdbf9df5e3d
    • 此时可以直接进行提问使用了,如下所示。
    • 1719885760-cf9dd9e9fa22817
    • 1 下载 Ollama 安装文件访问 https://ollama.com/download,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。
    • 2 安装 Ollama双击下载的安装文件OllamaSetup.exe,直接安装就可以了。安装完毕后软件会自动启动,在任务栏中看到Ollama图标时,即说明Ollama运行成功。
    • 3 使用 Ollama访问 https://ollama.com/library,搜索你要使用的模型,主流的模型,比如 Llama3、Qwen1.5B、Mixtral等,Ollama都支持。
      • 选择首页右上角的Models
      • 在打开的页面中可以搜索想要使用的模型,如要使用的Qwen2
    • 选择搜索到的模型链接,可以查看模型加载方式,以及复制每个模型的执行命令,比如:选择Qwen2的0.5B模型
  • 如图所示,若想要使用Qwen2的0.5B模型,可以使用命令ollama run qwen2:0.5b
    • 启动PowerShell,输入命令,软件会自动下载模型
    • 默认情况下模型被下载到了路径 C:\Users\Administrator\.ollama\models\blobs\ 下。下载完毕后如下图所示。
    • 1719885886-6234f7df47aaf10
    • 此时可以直接进行提问使用了,如下所示。
    • 1719885927-aa7999301530fee
    • 使用Ollama当然不只是为了单纯进行对话,其实可以将Ollama当做一个加载了大模型的服务器,从而实现ChatAA打造完全私有化的智能文件处理工具。接下来让我们看一下如何将Qwen2的0.5B本地模型配置到ChatAA上。
    • 1 安装ChatAAChatAA支持Windows、Mac等操作系统,到官网下载(https://chataa.com/)

      下载软件包,安装即可使用。具体使用文件扫描步骤参考

    • 2 模型服务配置安装完成客户端,进行注册登录后
      • 在左侧菜单,个人中心板块,点击模型服务
      • 在模型服务中,点击+模型服务
      • 在自定义模型服务中,配置模型服务参数,点击保存配置

      # 服务参数配置
      接口请求地址:http://localhost:11434/v1/chat/completions
      服务标识:ollama
      服务名称:ollama

      接口密钥/调用凭证:任意英文,比如:token

      • 在自定义模型服务中,点击配置+新增模型,配置模型,点击保存模型

      # 添加模型
      可以访问 http://localhost:11434/api/tags 查看已安装模型列表
      根据在 ollama 中安装的模型进行添加
      模型英文:qwen2:0.5b  模型名称:qwen2:0.5b

    • 模型服务配置完成后,返回问答页面,切换模型,可以看到已经配置的私有Qwen2的0.5B本地模型
    • 1719886046-ec238ba8adf529f
    • Qwen2的0.5B本地模型已经配置好了,接下来让我们测试一下在ChatAA使用效果上。
      1 下载Embedding模型在测试之前,我们先通过ChatAA文件库,选择私有的Embedding模型,进行文件扫描。如果您第一次使用,需要去个人中心-向量模型板块进行下载,下载后在使用。下载流程可参考文章下载私有Embedding向量模型

      2 文件扫描解析

      选择Embedding模型后,我们进行文件扫描,点击【全盘扫描】,展示扫描路径窗口,点击【选择目录】进行文件目录的选择,点击【开始扫描】进行文件扫描解析。

      3 问答测试

      文件解析完成后,我们来测试一下问答的效果。

      • 文件检索效果
      • 1719886121-87a4d595f137fc7
      • 单文件精读效果

      1719886157-a1486f47a5c78c3

      整体而言,Qwen2-0.5B本地模型的响应速度非常流畅,这种丝滑的体验为文件检索提供了坚实的基础。在确保检索效率的同时,它还兼顾了文件隐私的保护。

      至此,我们已经成功配置了ChatAA+Ollama的多平台PC端本地化大模型部署,大家可以按照上述步骤进行各平台尝试,亲自体验这款工具带来的高效与便捷。

0个回复

  • 龙族们都在等待回复

提供中小企业建站高端正版精品系统

正品模板 购买协议