HOOOS

为什么事件相机拍高速物体不会糊?

0 8 光电探微 事件相机运动模糊神经形态视觉
Apple

核心答案:它根本没有“曝光时间”

传统相机产生运动模糊的根源,在于时间积分。无论快门多快,只要曝光窗口打开,传感器就会把这段时间内落在像素上的所有光子累加起来。高速物体在曝光期间发生了位移,最终记录的就是位移轨迹的“平均叠加”,也就是模糊。

事件相机(如 DVS 架构)彻底抛弃了帧与曝光的概念,它的防糊机制建立在三个底层设计上:

1. 异步像素,各自为战

传统相机的像素受全局时钟同步控制,统一采集、统一读出。事件相机的每个像素都是一个独立的模拟-数字混合电路,拥有自己的比较器和状态机。它们不等待“下一帧”,也不关心邻居在做什么,只响应自身视野内的光强变化

2. 阈值触发,只记变化

每个像素持续监测对数光强的变化量 $\Delta \ln(I)$。当变化超过预设阈值(通常为 10%~20% 的光强相对变化)时,该像素瞬间触发一次输出,包含坐标 (x, y)、精确时间 t 和极性 p(变亮或变暗)。物体高速移动时,只有边缘扫过的像素会连续触发,静止区域完全静默。没有积分过程,自然没有时间维度的拖影。

3. 微秒级时间戳,拒绝时间平滑

事件的时间戳由片上高精度计时器直接打标,典型延迟可压至 1~10 微秒。这意味着运动轨迹被拆解为一系列带精确时间标签的离散点,而不是被压缩进一张静态图里。即使物体速度达到音速级别,相邻事件的时间间隔依然能清晰区分位置差异。

一个直观的类比

  • 传统相机:像让全班同学在 1/100 秒内同时闭眼再睁眼,然后凭记忆画下黑板上的粉笔字。如果老师边写边移动,大家画出来的就是拖尾的字迹。
  • 事件相机:像给每个同学配一个“变化报警器”。只要看到黑板某处有笔画出现或消失,就立刻举手报坐标和时间。老师写得再快,记录下来的也是一串按时间排序的精准点位,绝不会糊成一团。

补充说明:不模糊 ≠ 直接出清晰照片

事件相机输出的是稀疏事件流(Event Stream),而非传统 RGB 帧。要得到人眼熟悉的图像或轨迹,需要专用算法(如时间表面重建、事件累积网格、或端到端神经网络)进行后处理。但这属于数据重构范畴,传感器本身的物理记录阶段已经天然免疫了运动模糊。

这项特性让事件相机在无人机避障、高速工业检测、眼球追踪等场景中展现出不可替代的优势。它不是“更快的相机”,而是“另一种看世界的方式”。

点评评价

captcha
健康