机器学习入坑者(AI研究生)回答:
如果仔细看每年顶会论文的接收情况,就会发现投稿机构的集中趋势:
互联网公司的AI研究院
top大学的计算机系
这一切,都只因为“算力不平衡”。
深度学习在CV领域全面开花,通过单机MATLAB创造优秀模型的日子一去不复返,同样的idea,GPU定胜负:
GPU多则网络容量更大,拟合和泛化能力有可能更强
GPU多则batch_size更大,模型效果有可能更好
GPU多则必然调参更快,你做10天的实验别人可能1天就完成了
对于小实验室和小公司来说,没有GPU意味着输在了起点。即使竞争对手比你多几张卡,最终定量评估指标就比你高出一大块。
对于学术界来说,想到一个厉害的idea后,实验需要:
2个以上数据集
3种以上对比算法
多个超参数调试
算一算,需要多长时间?运气好、思路清晰、编程能力强也要至少两个月,算上后期论文写作、修改、润色,就要半年。对于别的领域半年一篇论文完全没问题,但是全民cv时代,你的对手可能已经抢先发表了这个idea,因为卡多。
对于工业界来说,缺卡等价于没钱,没钱则无法支付数据搜集、清洗、标注所需的巨额成本。
对于学术界和工业界来说,同等任务下:
卡少意味着开发周期比对手长
卡少意味着模型参数数量和可用数据量比对手少
所以,最好避开人脸识别、行人识别、广告推荐、图像检索、超分辨率等热点领域,选择cv领域中对模型容量和数据量不敏感的分支,比如图像去雨(卡少、数据少、非热点领域)。
CV主要分成两个派系:
热点派:卡多、数据多、员工多、竞争对手多
非热点派:卡少、数据少、员工少、竞争对手少
对于学术界和工业界的这两个派系来说,结合自身情况完全能出成果,并不会不看好CV方向。倒是相反的,CV方向更容易出论文,而且丰富的资料使其上手更加容易。
我觉得,不看好CV方向的人,可能是第三个派系:卡少,但是想做热点,想和行业大佬pk。
题外话:模型压缩技术、小样本学习和轻量级网络似乎很有前景,或许未来这些思想会减轻CV算法对“算力”的依赖。
陈历飞(Facebook机器学习工程师)回答:
长期看好,短期谨慎。
随便翻开一个深度学习入门课程,你都会看到一个叫“手写数字识别”的项目——堪称人工智能领域的hello world。
调调CNN,跑跑ResNet,自我感觉良好,似乎每一个AI从业者,都可以是CV领域的带师。魔改一下model和loss,换个应用场景和benchmark,再加个时髦的Gan,一篇paper就呼之欲出了。
那为什么,会开始有人不看好现在的CV方向了呢?
个人认为,CV在科研领域依然在如火如荼的发展,但是在工业界,遇到了AI领域通病:落地难,不挣钱。CV领域的落地,我随便列举几个:
1、无人车
2、AR VR
3、内容理解
4、传统领域赋能(教育,安防,医疗。。。)
无人车领域是最重CV的方向,集结了大量CV人才。比如LZ提到CV的目标检测,就是无人车领域很实用的一个方向。然而,无人车还在发展初期,已经倒了很多,剩下的勒紧裤腰带,不可能招募太多人,要也是要的能突破关键技术的大牛,如果你不是赫赫有名的名校实验室学生,很难在竞争中脱颖而出。
AR, VR,和无人车一样,同样是在早期。同样的CV目标检测,可以去支持抖音上面各种时髦的特效……但然后呢?就算性能提升一倍,对这个商业模式、应用场景的影响也是有限,不能像广告、推荐能给公司带来直接量化的收益。公司需要考虑性价比,对抖音这样大公司尚且如此,小公司可能就直接上商汤API了,都不需要招CV的人。
内容理解,国外在这一块投入很大,但国内情况或许不一样。据说国内的每一条内容都有人工审核,人力便宜,直接上“真人工”智能了……
综上所述,我并不是看衰CV,只是对想要跟风的CV新人提个醒,而真正的有志者并不会因此而被劝退。身为CV从业者,我依然相信这是一个很棒很有想象空间的好方向,一起共勉吧!
文章转载自知乎
文章推荐