第21章 区别对待(1 / 2)

对于大师兄把叶铭叫过来,杨超雄没有什么意见,他现在满脑子都是目前测试卡BUG的问题。</p>

“你看过课题报告没?”</p>

“还没,刚才看论文去了。”</p>

“嗯,咱们组的课题是辅助驾驶系统中的机器视觉方案,超雄这边负责的是双目相机对环境的动态感知。”</p>

马俊一边介绍,一边留意着叶铭的表情,见后者只是微微点头,并没有露怯后便是微微一笑。</p>

看来老师没抓错人,这小伙起码是有底气的。</p>

“别扯了,快赶紧来帮我瞅瞅。”杨超雄站起身来,把座位让给马俊。</p>

马俊坐下后拖动了几下鼠标,只看了下报告后便回头一笑:“你这家伙,算法是你写的,框架和环境是你搭的,我这能看得出来个毛啊?”</p>

杨超雄一脸的无奈:“……师兄,我是真的检查了好久,就差拿放大镜检查源码了。”</p>

“如果是老师的话,肯定会让你拿放大镜撸一遍源码。”</p>

“大哥,几万行代码呢。”</p>

“那也得撸。”马俊呵呵一笑:“你算法没问题吧?”</p>

“算法有问题是跑不起来的,哥。”杨超雄显然不愿意撸源码,更不会承认自己算法有问题,迟疑道:“要不换一个仿真引擎?我怀疑是引擎和我作对。”</p>

“……”</p>

……</p>

叶铭在听着两人交谈,再加上马俊在一旁解释,明白了杨超雄的任务是什么。</p>

在目前自动驾驶的机器视觉感知测试中,一般有三种方式,一种是基于软件工程的方法,搭建模型输入数据进行模拟测试。一种是利用虚拟仿真的方法,用仿真引擎生成三维游戏画面来构建虚拟的场景对算法进行测试。</p>

最后一种则是直接把机器视觉感知系统放到车上,开车去现实场地测试。</p>

这三种方法各有优劣,虽然说第三种是最贴近现实,数据可靠,但缺点很明显,就是无法满足场景的多样性。</p>

因此绝大部分搞自动驾驶的,都是利用第二种方法来进行测试,以求得数据的相对准确和场景的多样性。</p>

杨超雄也是用的第二种方法——他电脑的显卡是一台3090Ti。</p>

目前的问题就是,杨超雄跑测试的时候,总是过不了对做相对运动的物体的轨迹识别——说简单点就是,杨超雄的算法跑起来之后,人家丢一块石头,或者前车掉一张纸板什么的,算法判断不出来落点。</p>

而且还不是每次都判断不出来,是偶尔。</p>

这就有点抓狂了。</p>

嗯……叶铭虽然不知道问题到底出在哪里。</p>

但他知道问题怎么解决。</p>

重写一个。</p>

……</p>

这是马俊突然望向叶铭:“叶铭,你听明白师兄负责的项目没?”.</p>

叶铭微微一怔。</p>

自己不是来打酱油的么?</p>

还有自己的事啊?</p>

“大概听明白了。”</p>

“你有什么想法?”马俊笑呵呵地看着他,意味深长地道:“老师说,你在机器视觉上很在天赋。”</p>

马俊的这句话,让一旁的杨超雄倏然一惊,猛地望向叶铭。</p>

叶铭……其实也吃了一惊。</p>

但他马上便摇头笑道:“没有想法,比起杨师兄的环境感知,我做的那机器视觉就是小孩子过家家。”</p>