对于大师兄把叶铭叫过来,杨超雄没有什么意见,他现在满脑子都是目前测试卡BUG的问题。</p>
“你看过课题报告没?”</p>
“还没,刚才看论文去了。”</p>
“嗯,咱们组的课题是辅助驾驶系统中的机器视觉方案,超雄这边负责的是双目相机对环境的动态感知。”</p>
马俊一边介绍,一边留意着叶铭的表情,见后者只是微微点头,并没有露怯后便是微微一笑。</p>
看来老师没抓错人,这小伙起码是有底气的。</p>
“别扯了,快赶紧来帮我瞅瞅。”杨超雄站起身来,把座位让给马俊。</p>
马俊坐下后拖动了几下鼠标,只看了下报告后便回头一笑:“你这家伙,算法是你写的,框架和环境是你搭的,我这能看得出来个毛啊?”</p>
杨超雄一脸的无奈:“……师兄,我是真的检查了好久,就差拿放大镜检查源码了。”</p>
“如果是老师的话,肯定会让你拿放大镜撸一遍源码。”</p>
“大哥,几万行代码呢。”</p>
“那也得撸。”马俊呵呵一笑:“你算法没问题吧?”</p>
“算法有问题是跑不起来的,哥。”杨超雄显然不愿意撸源码,更不会承认自己算法有问题,迟疑道:“要不换一个仿真引擎?我怀疑是引擎和我作对。”</p>
“……”</p>
……</p>
叶铭在听着两人交谈,再加上马俊在一旁解释,明白了杨超雄的任务是什么。</p>
在目前自动驾驶的机器视觉感知测试中,一般有三种方式,一种是基于软件工程的方法,搭建模型输入数据进行模拟测试。一种是利用虚拟仿真的方法,用仿真引擎生成三维游戏画面来构建虚拟的场景对算法进行测试。</p>
最后一种则是直接把机器视觉感知系统放到车上,开车去现实场地测试。</p>
这三种方法各有优劣,虽然说第三种是最贴近现实,数据可靠,但缺点很明显,就是无法满足场景的多样性。</p>
因此绝大部分搞自动驾驶的,都是利用第二种方法来进行测试,以求得数据的相对准确和场景的多样性。</p>
杨超雄也是用的第二种方法——他电脑的显卡是一台3090Ti。</p>
目前的问题就是,杨超雄跑测试的时候,总是过不了对做相对运动的物体的轨迹识别——说简单点就是,杨超雄的算法跑起来之后,人家丢一块石头,或者前车掉一张纸板什么的,算法判断不出来落点。</p>
而且还不是每次都判断不出来,是偶尔。</p>
这就有点抓狂了。</p>
嗯……叶铭虽然不知道问题到底出在哪里。</p>
但他知道问题怎么解决。</p>
重写一个。</p>
……</p>
这是马俊突然望向叶铭:“叶铭,你听明白师兄负责的项目没?”.</p>
叶铭微微一怔。</p>
自己不是来打酱油的么?</p>
还有自己的事啊?</p>
“大概听明白了。”</p>
“你有什么想法?”马俊笑呵呵地看着他,意味深长地道:“老师说,你在机器视觉上很在天赋。”</p>
马俊的这句话,让一旁的杨超雄倏然一惊,猛地望向叶铭。</p>
叶铭……其实也吃了一惊。</p>
但他马上便摇头笑道:“没有想法,比起杨师兄的环境感知,我做的那机器视觉就是小孩子过家家。”</p>