GoCoding
2022/09/23阅读:26主题:默认主题
视频结构化 AI 推理流程
「视频结构化」是一种 AI 落地的工程化实现,目的是把 AI 模型推理流程能够一般化。它输入视频,输出结构化数据,将结果给到业务系统去形成某些行业的解决方案。
换个角度,如果你想用摄像头来实现某些智能化监控、预警等,那么「视频结构化」可能就是你要用到的技术方案。
不过,也不一定需要自己去实现,因为各个芯片厂商可能都提供了类似的流程框架:
以上个人没用过,简单看了下,都受限于只能用厂商自家的芯片。个人经验来说,一般硬件还是需要多家可选的,自己实现一套「视频结构化」还是有必要的。
本文将介绍「视频结构化」的实现思路、技术架构,以及衍生的一些工作。
实现思路
有一个 AI 模型与一段视频,如何进行推理呢?
-
视频流:OpenCV 打开视频流,获取图像帧 -
前处理:图像 Resize 成模型输入的 Shape -
模型推理:AI 框架进行模型推理,得到输出 -
后处理:将输出处理成期望的信息 -
例如,目标检测:解析框的位置和类别,再 NMS 筛选
-
以上是最基础的推理流程,完成得不错👏
简单任务,这样满足要求就行。但实际任务,可能:
-
输入 -
任务接收 -
视频流 -
相机选型 -
视频来源: 录制视频、RTSP 实时流 -
帧率控制: 一般 5 fps,减少计算 -
多路并发: 多路视频,并行分析 -
硬件解码
-
-
-
推理 -
前处理 -
输入调整: 缩放、转置 -
Batch 合并 -
硬件加速
-
-
模型推理 -
硬件选型: Nvidia、华为昇腾、或其他 -
模型处理: 裁剪、转换、量化 -
模型编排: 多任务多模型,有先后关系
-
-
后处理 -
输出解析: 推理结果,变为结构化数据 -
硬件加速
-
-
-
输出 -
结果推送
-
-
其他 -
视频存储,License -
链路追踪,耗时分析
-
以上流程一般称为「视频结构化」:输入多路视频,进行实时分析,最后输出结构化数据,给到业务系统。
该流程,这里把它分为了输入、推理、输出,都是一个个任务节点,整体采用 Pipeline 方式来编排 AI 推理任务。输入输出时,一般会用 RPC 或消息队列来与业务系统通信。
整体架构
「视频结构化」整体架构,如下:

管道节点
管道 Pipeline 这块是主要部分,其实现都是一个个节点:
-
IN -
任务接收;视频流解码;帧率控制
-
-
推理 -
推理引擎做模型推理,结果进结构化数据;依编排往后继续
-
-
追踪 -
追踪依赖推理出的特征;业务不需要,就不编排
-
-
OUT -
结果推送;要预览播放的话,进行视频流编码
-
节点就是个生产消费者,用个阻塞队列很快就能实现。节点间组成一个树,也就是任务编排的结果。节点会有输入输出差异,要约定清楚或分几个类型。
节点流程:消息队列有任务,取出执行,结果进结构化数据,最后发给下一节点的消息队列。
节点的线程数、队列上限,都可做配置。依据耗时分析,可以优化调整。
GStreamer 的 pipeline + plugin 的技术架构值得学习。个人没深入了解,所以不好具体评价,倒见过在输入做插件化解码。NVIDIA DeepStream 直接就基于 GStreamer 开发的。
结构数据
结构化数据,在整个 Pipeline 里是不断追加完善的过程,最后输出时一般 JSON 化推送。
它的内容约定,是最主要的。会有:
-
基础信息: task, frame 等信息 -
推理结果: 会以任务分类进行标签
它会用作节点的输入,例如获取人脸特征,依赖前一目标检测节点的人脸 boxes 信息。
基础模块
-
全局配置 -
通用配置、节点配置与编排;可视化编排,实际就是编辑它 -
一般 JSON 格式,结构化数据最后也 JSON 化
-
-
进程保活 -
Supervisor 不错,可以把终端日志配置进文件
-
-
消息通信 -
与外部系统,用 RPC 或 Redis,也可能推送 Kafka -
内部用自己的消息队列
-
-
内存共享 -
用在图像帧,以免拷贝,帧 ID 标识 -
显存也预申请,队列分配,减少 Host & Device 拷贝
-
技术选型
「视频结构化」用 C++ 实现,主要以下几点:
-
FFmpeg 编解码(CPU) -
OpenCV 前后处理(CPU) -
芯片生态库,硬件加速:编解码与前后处理 -
如 Nvidia: video codec, npp, nvjpeg; 昇腾 dvpp 等
-
-
基础库,选择主流的就好,如: -
Log:gabime/spdlog, google/glog -
JSON: nlohmann/json -
RPC: grpc/grpc, apache/incubator-brpc
-
更详细的技术栈,可见该分享:https://zhuanlan.zhihu.com/p/362711954 ,思维导图很详细。
「视频结构化」实现有些要看自己的权衡:
-
一个项目怎么支持多个硬件? -
编译自动区分环境,编译不同代码,最终会产生多套部署 -
需要抽象推理、前后处理等硬件相关功能
-
-
也可以考虑插件实现,管理好插件配置
-
-
视频流要不要用流媒体框架? -
简单点直接 FFmpeg,不引入 GStreamer
-
-
图像与结果怎么优化同步? -
只是图像显示,存储提供链接进结果(注意 IO 瓶颈) -
本身视频显示,直接绘制结果进图像,编码进流 -
或预览端自己实现,流数据包携带结果
-
-
衍生工作
「视频结构化」会有一些衍生的工作:库、工具或系统。
首先,模型一般自定义格式,一是保护,二是方便自己使用。所以,会把原模型及其配置封装进自定义格式,还会标明推理方式、前后处理选择等。
这里会有如下两个部分:
-
模型转换工具链: 不同硬件模型转换后,再封装进自己格式 -
模型推理引擎: 模型解封装,再依配置进行推理,出结果
模型可能还要裁剪、量化,也是工作的一部分。
其次,任务情况、JSON 配置、日志等,成熟一点,还会提供管理后台方便使用。
此外,还可能有:
-
License: 生成、校验相关工具,及管理记录 -
除了有效期,还可以考虑限制路数、任务等
-
-
实时监控: 硬件状态监控、预警
结语
「视频结构化」只是 AI 落地的一部分,实际做方案一是对接算法模型、二是对接业务系统,还可能要去适配新的摄像头或硬件平台。
也就是会有两种支持列表:硬件列表、模型列表。这就是积累的成果了。
「视频结构化」会部署成中心服务器,或边缘计算。不过,只是简单任务,现在可能智能摄像头就够了,都带边缘计算识别人脸什么的。
GoCoding 个人实践的经验分享,可关注公众号!
作者介绍