Quick Start
简介
Cinfer是CamThink面向开发者社区开放的通用性Vision AI推理软件,它支持用户执行部署Vision AI推理服务以及提供模型管理,并对外提供标准的OpenAPI服务,适合作为视觉应用开发的图像识别AI组件进行集成,用于调用各种模型来完成图像识别,它具有轻量化、简单的特点,适合快速添加模型进行部署和项目集成。
项目技术栈
- 后端:Python, FastAPI, SQLAlchemy, ONNX Runtime
- 前端:React, TypeScript
- 容器化:Docker, Docker Compose
- Web服务器:Nginx
模型支持
当前仅支持ONNX模型管理及部署,适用于以下ONNX模型任务,如果需要进行模型训练可见「yolo模型训练」,软件操作可见「操作指南」
模型类型 | 备注 |
---|---|
分类(Classification) | 支持常见图像/视频分类模型,如动物/物品/场景识别等 |
检测(Detection) | 支持目标检测模型(如YOLO、SSD)进行物体定位和分类 |
分割(Segmentation) | 支持图像分割模型(如语义分割、实例分割,用于区域分割、车道线等) |
OCR | 支持文本检测与识别模型,针对图片中的文字提取 |
其他自定义ONNX模型 | 支持符合ONNX标准的自定义AI模型(如特定场景算法、特色推理等) |
安装与使用
环境准备
请确认已安装如下环境:
- Docker Engine(推荐版本 20.10.0 及以上),安装详见文档「Install Docker Engine 」
- Docker Compose(推荐版本 v2.0.0 及以上),安装详见文档「Install Docker Compose」
- 如需使用GPU推理,请确保已正确安装 NVIDIA相关驱动 和 NVIDIA Docker 支持,安装详见文档「Install NVIDIA Docker」
项目代码下载
克隆项目到计算机本地
git clone https://github.com/camthink-ai/cinfer.git
安装成功后进入项目文件夹
cd cinfer
使用部署脚本安装
项目提供了一个灵活的部署脚本,文件在根目录下,名称为 deploy.sh
,支持多种部署方式和配置选项,安装和管理命令如下。
# 查看脚本指令
./deploy.sh
# 使用GPU部署
./deploy.sh --gpu yes
# 自定义端口
./deploy.sh --backend-port 8000 --frontend-port 3000
# 指定后端主机
./deploy.sh --host 192.168.100.2