手机上的AI有什么用?承认吧,手机AI发展到现在,很多都还只是会卖萌的“人工智障”。除了出门之前问问天气,以及结账时让它算算以内四则运算之外,好像就没啥用了。那如果我告诉你,有一个AI不光软萌可爱,还是个会开车的老司机呢?夭寿了!手机会开车?真的,没骗你。为了完成这全球首次“AI代驾”,极果君把一台荣耀Magic2,插入了一辆经过特殊改装的车辆中。这台手机里的麒麟芯片,和系统中搭载的“智慧生命体”YOYO,接下来将替代人类,完成全套驾驶动作。“你好,YOYO,魔法汽车开启热身,准备上路!”“好的,即将开始热身准备。”随着语音指令,汽车和YOYO都开始发动热身。然后我们就可以直接通过语音,来让YOYO控制车辆了。“你好,YOYO,魔法汽车10公里每小时开始巡航”首先第一部分,我们让YOYO先跑一圈正常的赛道热热身。YOYO会根据我们的语音指令,结合它自身对路况的判断,完成接下来的驾驶动作。“你好,YOYO,魔法汽车前方掉头”“你好,YOYO,魔法汽车20公里每小时开始巡航”“你好YOYO,魔法汽车前方停车”当然开车不算啥,我们YOYO还能学会智能“避障”。注意,这个不需要手台喊话,是YOYO自己智能完成的哦:等一下,你是怎么做到的?事情还要从几天前说起。为了这次AI代驾,极果君事前对这辆车进行了一点小手术,令车载电脑能够通过蓝牙与手机相连,便于接收手机发来的驾驶指令。另外,我们手上这台荣耀Magic2,也被极果君做了“附魔”处理:通过自动驾驶神经网络程序,直接让YOYO学会了驾驶技能。另外通过定制App,YOYO的语音识别能力也被我们安排上了:只要接收到手台中的指定讯号,YOYO就能根据指令进行停车、返航等动作。自动驾驶首先需要视觉输入,我们插入的这台荣耀Magic2搭载了AI6摄视觉系统,其中后置的三个镜头在本次实验中负责为代驾的YOYO提供超清影像。特别是后置的这颗17mm超广角镜头,取景范围比一般的手机多了将近一倍,能帮助YOYO看到前方更多的视野。麒麟的GPU部分则负责对视觉讯号进行处理,毕竟三颗镜头的焦段像素各不相同,需要有人统一协调,把它们合成人工智能网络(和人)能够理解的正常图像。如果这一步合成出错,那整个自动驾驶系统都会“翻车”了。再来,麒麟芯片里的双核NPU负责解算整个神经网络模型,在瞬间判断出当前车况。同时NPU还要负责承载YOYO的运行,这个“智慧生命体”能否准确理解极果君从手台传来的指令,全都要靠这颗芯。最后,YOYO将自己的解算结果通过蓝牙发送给汽车,车载电脑接到指令后操作方向盘,实现对汽车的控制。这当中还要有CPU的全程参与,负责帮助调度NPU和GPU,以及负责其它一些通用计算任务。几部分协同工作,共同完成这次“AI代驾”。在整个处理流程中,手机通过软硬件协同来分析路面情况,每一步都必须保证速度。因为整个驾驶过程中,路况瞬息万变。这次实验其实也是一次针对的终极“跑分”,任何一个部分不够快,这次实验都没法成功。飙车只是个开始这里必须得插播一条硬性公告:本实验所有功能演示均经过专业测试及改造,切勿模仿!切勿模仿!切勿模仿!好,警告完了说正事:其实这几年,利用硬件进行AI加速一直是大势所趋。不管是麒麟加入的NPU,还是英特尔推出的USBAI加速计算棒,都是这种思路下的产物。只是和历史上所有的生态一样,硬件要想销量好,杀手级应用不可少。这次代驾活动,似乎也给未来AI的应用前景上又多添了一笔。好啦,看完极果君搞得这次“AI代驾”,你有没有对帅气的极果君,和我们的荣耀Magic2有一丝丝动心呢?如果你还有疑问也没关系,极果君不光做了实验,后续还会请来知名的AI和汽车专家,共同为大家解答这次“AI代驾”的技术细节。如果你还有更多想知道的,记得盯住我们的文章推送,各位等不及的小伙伴,也可以在评论区留言哦~
转载请注明地址:http://www.1xbbk.net/jwbjj/9478.html