这是DriveSeg的数据集,用于研究道路状况(用于自动驾驶汽车等)。对于视频的每一帧,整个图像都是逐像素的语义标记。标签是“车辆,行人,道路,人行道,自行车,摩托车,建筑物,地形(水平植被),植被(垂直植被),电线杆,交通信号灯和交通标志”的12个类别。
此过程的人工版本以5,000帧(1080p @ 30Hz)提供,半自动版本以20,000帧(720p @ 30Hz)提供。即使它不是自动驾驶汽车,它在细分视觉研究中也很有用。 (我打算将其用于从图像中分离特定对象,替换背景并提高分割算法的性能)
用于动态驾驶场景分割的MIT DriveSeg数据集|麻省理工学院AgeLab
迄今为止,提供给研究团体的自动驾驶数据主要由大量静态的单一图像组成,这些图像可用于识别和跟踪在道路内和道路周围发现的常见物体,例如自行车,行人或穿过道路的交通信号灯。使用“边界框”。