NeoMind Quick Start Guide
概述
NeoMind 是一款创新性的边缘 AI 平台,将大语言模型(LLM)的强大能力带入Camthink AI相机和物联网设备管理和自动化控制。通过自然语言界面,您可以轻松查询设备状态、创建自动化规则,并与 AI 助手进行智能对话。
核心特性:
- LLM 驱动:支持 Ollama、OpenAI、Anthropic 等多种大模型后端
- 边缘部署:完全离线运行,数据安全可控
- 设备管理:支持 MQTT 协议,自动发现和注册设备
- 自动化引擎:事件驱动的规则引擎,实现智能联动
- AI 智能体:自主执行复杂任务的智能代理
- 跨平台支持:macOS、Windows、Linux 原生桌面应用
系统要求:
- 操作系统:macOS 11+、Windows 10+、Ubuntu 20.04+
- 内存:8GB RAM(推荐 16GB+)
- 存储:5GB 可用空间
- 网络:支持本地离线运行(推荐联网获取模型)
1. 安装与注册
1.1 下载与安装
访问 NeoMind 官方发布页面,选择适合您操作系统的安装包:
- macOS:下载
.dmg文件(支持 Apple Silicon 和 Intel 芯片) - Windows:下载
.msi或.exe安装程序 - Linux:下载
.AppImage或.deb包
macOS 安装步骤:
- 双击下载的
.dmg文件,将 NeoMind 拖入 Applications 文件夹

- 重要:首次启动前需执行以下命令(macOS 安全设置):
sudo xattr -rd com.apple.quarantine /Applications/NeoMind.app
Windows 安装步骤:
双击 .msi 或 .exe 文件,按照安装向导完成安装。
Linux 安装步骤:
# AppImage 方式(推荐)
chmod +x neomind_0.5.11_amd64.AppImage
./neomind_0.5.11_amd64.AppImage
# deb 包方式
sudo dpkg -i neomind_0.5.11_amd64.deb
sudo apt-get install -f # 安装依赖
1.2 首次启动与注册
首次启动 NeoMind 时,系统将引导您完成初始设置。
步骤 1:启动应用程序,进入欢迎界面

步骤 2:创建管理员账户

填 写以下信息:
- 用户名:管理员账户名称(3-20 个字符)
- 密码:强密码(至少 8 个字符,包含字母和数字)
- 确认密码:再次输入密码
步骤 3:配置时区 完成注册

注册成功后,系统将自动跳转到登录界面。
1.3 登录系统
使用刚才创建的管理员账户登录 NeoMind。

注意:
- NeoMind 支持本地离线登录,数据存储在本地数据库
- 首次登录后,系统会自动创建默认配置文件
2. 系统设置
2.1 配置大模型(LLM)后端
NeoMind 的核心能力来自大语言模型。推荐使用 Ollama 进行本地部署,实现完全离线运行。
前置要求:
- 本地大模型(推荐 Ollama)或其他 LLM 后端(OpenAI、Anthropic、DeepSeek 等)
推荐配置:Ollama 本地部署
# Linux/macOS 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取推荐模型
ollama pull ministral-3:3b # 轻量级模型(3B 参数)
ollama pull deepseek-r1:7b # 高性能模型(7B 参数)
验证 Ollama 安装:
在配置 NeoMind 之前,先验证 Ollama 是否正常运行:
# 测试 Ollama API
curl http://localhost:11434/api/version
# 测试模型推理
ollama run ministral-3:3b "你好"

配置步骤:
步骤 1:进入设置页面,选择"LLM 配置"

步骤 2:添加 LLM 后端

点击"添加后端",根据您的需求选择后端类型:
配置 Ollama(本地部署,推荐):
- 后端类型:选择 Ollama
- 名称:例如 "Local Ollama"
- 端点地址:
http://localhost:11434(默认端口) - 模型:选择已拉取的模型(如
ministral-3:3b)
配置 OpenAI(云端服务):
- 后端类型:选择 OpenAI
- 名称:例如 "OpenAI GPT-4"
- 端点地址:
https://api.openai.com/v1(默认) - API Key:输入您的 OpenAI API Key
- 模型:选择模型(如
gpt-4、gpt-3.5-turbo)
支持的 LLM 后端对比:
| 后端 | 默认端点 | 特点 | 适用场景 |
|---|---|---|---|
| Ollama | http://localhost:11434 | 本地部署,完全离线 | 边缘设备、隐私要求高 |
| OpenAI | https://api.openai.com/v1 | 云端服务,性能强大 | 需要最强模型能力 |
验证配置:
配置完成后,点击"测试连接"按钮,确保 NeoMind 能够成功连接到 LLM 后端。
