也是了,孟繁岐恍然明悟。
检测任务的数据集收集和标注的成本更高,这也是为什么孟繁岐夺冠的大赛,分类图片一千多万张,检测图片才几万张。
目前所有的这些内容全部都是人工去标注。
一张分类图片,只需要标注一个标签,它是什么即可。
而标注一张检测图片,经常需要在上面添加数个,甚至十数个检测框,需要细致到具体轮廓,然后再添加类别。
标注的成本,自然是十数倍的差别。
为图片添加选框和标签的工具也不完善,操作繁琐,就更使得其缓慢。
截止到现在,深度神经网络为基础的检测算法还有展现出什么实际的商业价值,还停留在实验室研究阶段,实际上并没有得到这些大公司足够的重视。
目前商业用的检测算法,还是传统技术为主,并不需要训练数据,而是通过人工设计的滤波器去提取特征。
孟繁岐演示使用的公开VOC检测数据一共就几万张,相比日后动辄几千亿的模型参数量,几个T的数据量,这个规模有点像过家家。
此时此刻,就白度内部而言,李彦弘这个深度学习研究院,也只在私下积累了不到十倍的私有数据量,也就差不多