quick-start
description: Cinfer 快速入门指南。了解如何通过 Docker 部署通用 Vision AI 推理软件,管理 ONNX 模型并集成标准 OpenAPI 服务进行图像识别。 keywords: [Cinfer, Vision AI, ONNX, Docker 部署, 模型管理, AI 推理, OpenAPI, 快速入门, 计算机视觉, 边缘计算] tags: [Cinfer, AI推理, 快速入门, Docker, 教程]
Quick Start

简介
Cinfer是CamThink面向开发者社区开放的通用性Vision AI推理软件,它支持用户执行部署Vision AI推理服务以及提供模型管理,并对外提供标准的OpenAPI服务,适合作为视觉应用开发的图像识别AI组件进行集成,用于调用各种模型来完成图像识别,它具有轻量化、简单的特点,适合快速添加模型进行部署和项目集成。
项目技术栈
- 后端:Python, FastAPI, SQLAlchemy, ONNX Runtime
- 前端:React, TypeScript
- 容器化:Docker, Docker Compose
- Web服务器:Nginx
模型支持
当前仅支持ONNX模型管理及部署,适用于以下ONNX模型任务,如果需要进行模型训练可见「yolo模型训练」,软件操作可见「操作指南」
| 模型类型 | 备注 |
|---|---|
| 分类(Classification) | 支持常见图像/视频分类模型,如动物/物品/场景识别等 |
| 检测(Detection) | 支持目标检测模型(如YOLO、SSD)进行物体定位和分类 |
| 分割(Segmentation) | 支持图像分割模型(如语义分割、实例分割,用于区域分割、车道线等) |
| OCR | 支持文本检测与识别模型,针对图片中的文字提取 |
| 其他自定义ONNX模型 | 支持符合ONNX标准的自定义AI模型(如特定场景算法、特色推理等) |
安装与使用
环境准备
请确认已安装如下环境:
- Docker Engine(推荐版本 20.10.0 及以上),安装详见文档「Install Docker Engine 」
- Docker Compose(推荐版本 v2.0.0 及以上),安装详见文档「Install Docker Compose」
- 如需使用GPU推理,请确保已正确安装 NVIDIA相关驱动 和 NVIDIA Docker 支持,安装详见文档「Install NVIDIA Docker」
项目代码下载
克隆项目到计算机本地
git clone https://github.com/camthink-ai/cinfer.git
安装成功后进入项目文件夹
cd cinfer
使用部署脚本安装
项目提供了一个灵活的部署脚 本,文件在根目录下,名称为 deploy.sh ,支持多种部署方式和配置选项,安装和管理命令如下。
# 查看脚本指令
./deploy.sh
# 使用GPU部署
./deploy.sh --gpu yes
# 自定义端口
./deploy.sh --backend-port 8000 --frontend-port 3000
# 指定后端主机
./deploy.sh --host 192.168.100.2
使用deploy.sh脚本进行安装,运行下方命令行安装项目Docker,如果需要其他配置运行请直接运行deploy.sh来查看命令。
执行前请注意检查你本地的3000端口以及8000端口是否有冲突
./deploy.sh --backend-port 8000 --frontend-port 3000

安装完成后即可通过下方地址访问服务:
- Frontend (Local): http://localhost:3000
- Backend API (Local): http://localhost:8000/api
- Backend API (LAN): http://:8000/api
- Backend API (Container): http://backend_cinfer:8000/api
- Swagger Documentation: http://localhost:8000/docs
快速使用
1.注册超级管理员
打开浏览器,输入地址「http://localhost:3000」,访问前端项目,进入初始化管理员设置页,在页面中设置项目的管理员账号及密码,设置成功后进行账户登录进入管理页
2.登录用户
输入设置好的管理员账号和密码,点击登录进入系统页面
3.进入首页
登录成功进入Dashboard,这里可以查看服务的资源占用情况
4.查看模型管理
点击 Model Management 菜单,查看模型列表,当前项目内置了一个OCR模型,我们可以进一步测试这个模型来验证服务是否正常,首先我们需要点击此默认模型右侧的「Publish」按钮进行模型发布,先新增一个Toke,查看下方流程
5.新增接口请求Token
点击 Token Management 菜单,查看Token列表,外部服务必须获取Token才可请求模型接口,点击「Add」按钮,填写表单,输入Token名称,在Model Permissions中下拉选择All Models Selection来设置此Token可访问的模型范围,设置完成后点击「Save」,在弹窗中点击「Copy」按钮复制Token
服务测试
获取模型列表:先用下方命令获取当前模型列表,YOUR_ACCESS_TOKEN替换为你配置的Token,在命令行中输入下方curl命令进行测试,可以获取到当前已发布的内置模型Camthink-OCRv1,我们可以进一步调用接口来查看模型基本信息详情。
curl -X 'GET' \
'http://localhost:8000/api/v1/models?page=1&page_size=10' \
-H 'accept: application/json' \
-H 'x-access-token: YOUR_ACCESS_TOKEN'
请求成功后可以查看到当前所有已发布的模型列表信息,你可以进一步通过下方接口来获取模型的详情。
获取模型详情:接下来我们将调用模型详情接口来获取模型详细信息,model_id用我们前面通过请求模型列表获取到的模型id信息填入,填入你想要查看的模型id,进行下方请求。
curl -X 'GET' \
'http://localhost:8000/api/v1/models/{model_id}' \
-H 'accept: application/json' \
-H 'x-access-token: YOUR_ACCESS_TOKEN'
请求成功后,可以查看

请求模型推理:现在通过模型详情接口我们可以知道模型的输入和输出参数是什么,我们可以根据模型所需的输入参数和输出参数来传递图像来请求AI模型进行图像识别,下方是测试curl,我们可以将YOUR_ACCESS_TOKEN进行替换,并且设置inputs参数,填入目标图像地址以及其他参数来进行一次图片AI推理请求。
curl -X 'POST' \
'http://localhost:8000/api/v1/models/Camthink-OCRv1/infer' \
-H 'accept: application/json' \
-H 'x-access-token: YOUR_ACCESS_TOKEN' \
-H 'Content-Type: application/json' \
-d '{
"inputs": {
"image": "https://www.camthink.ai/resource/2025/07/CamThink-brand-launch_1000x560.jpg",
"conf_threshold": 0.7
},
"parameters": {},
"priority": 0
}'
可以看到下方请求,接口返回了OCR的识别结果以及每一行的文本内容和box相对于图像像素的坐标位置box,你可以在你的应用界面上绘制它。
现在你已经完成Cinfer的基本使用教程,可以开始在你的应用程序上对他进行集成。