科技行者报道 站在今天第十二届百度世界大会现场的李彦宏,首次提到“今年百度AI开发者大会把无人车开上北京五环”的事,统一回复“确实吃到一张罚单”,不过他又补充道:“如果无人驾驶的罚单已经来了,无人驾驶汽车的量产还会远吗?” 正是今年7月份百度在AI开发者大会释放人工智能新战略的背景下,今天口号为“Bring AI to Life”的百度世界大会引发了更多关注。李彦宏说“短短4个月,很多东西已经发生改变”。 这句“改变”话指“新技术,新产品,新分享”,李彦宏主题演讲重点提到:将在2018年量产无人驾驶汽车,“Apollo+雄安”将创造智能出行城市,百度语音不再需要唤醒词,百度大脑进化论,百度从“百度更懂中文”切换到“百度更懂你”......现场,科技行者看到满屏AI应用场景。 场景一:无人驾驶小巴车没有方向盘、没有驾驶位、2018年量产 李彦宏回忆,从7月到现在,他唯一一次去逛商场被认出来,被问到的第一个问题就是“李总,我什么时候能坐上你们的无人车?”他说“我们在努力”。过去,包括百度在内,业界普遍预计2020年将是无人车开始量产的时间点,但百度希望把这个时间提前。 因此,百度前不久宣布与金龙汽车合作,生产一款无人驾驶的小巴车“阿波龙”,于2018年7月份实现量产。这辆L4级巴士没有方向盘、没有驾驶位,是一辆真正意义的无人驾驶汽车。当然,明年它会先在相对封闭的道路上试运营。 自7月份,百度正式开放无人驾驶技术平台Apollo,到目前已经发展了6000多个开发者投票支持Apollo项目;1700多家合作伙伴加入Apollo使用开放代码;100逾合作伙伴申请使用Apollo的开放数据。除了金龙之外,百度还发展了更多自动驾驶合作伙伴:比如2019年,江淮汽车将生产基于Apollo的自动驾驶汽车;同一年,百度和北汽也会推出基于Apollo的L3自动驾驶汽车;还有最早和百度一起合作生产自动驾驶汽车的奇瑞,将于2020年推出自动驾驶汽车;今天在北京奥林匹克森林公园,奥森的“智行者”扫地车已经运营了,由百度Apollo支持。 百度世界大会展区的Apollo无人车 不知不觉中,智能驾驶已经“潜伏”进每个人的生活。下一步,更多的无人车会从未来开到现实世界中。 场景二:疲劳驾驶?AI帮你提神 李彦宏现场还演示了疲劳驾驶监测系统: 当司机被手机干扰转头看信息、犯困开始打哈欠或者疲惫到眼睛睁不开的时候,系统就会及时提醒司机集中精力驾驶。一旦检测到司机疲劳到了一定程度,系统会开始通过播放一些欢快的音乐,来帮助司机提神。当监测到司机已经重度疲劳驾驶时,系统还会将司机导航到最近的休息区。甚至在未来,百度自动驾驶还会接手卡车,把它自动地开到最近的休息区去。 该系统基于百度大脑的图像识别技术,通过红外人脸识别判断,即使司机戴上墨镜、遮挡眼睛,红外依然能够检测到。 场景三:雄安的智能出行来得更早一些 人工智能当然不仅改变了汽车,同样改变城市道路。李彦宏说:“我们很快就会宣布和雄安的合作。未来的雄安很可能是一个没有拥堵,出行效率极高,干净、绿色、环保、高效,没有各种各样的身份认证,没有排队,没有各种各样烦琐程序的一个城市。” 更进一步说,在“Apollo+雄安”模式下,雄安有望成为一个拥有智能交通管理系统、不需要交管部门大量人力上路管理的城市。 百度Apollo开放平台已经拥有了环境感知、智能决策与控制、高精地图与定位、车载系统、仿真、智能互联等核心技术。 除了雄安之外,百度和保定、芜湖、重庆两江新区、北京亦庄开发区、上海汽车城等城市和地区也将展开进一步的相关合作,建立自动驾驶高新技术示范区。 场景四:一个聪明的电视,应该“理解”自己在播什么 人工智能除了在汽车、交通等场景的应用之外,也有家庭应用场景。 语音交互是AI时代人机交互的重要手段,但李彦宏看来,这项技术尚未完全人性化,“无论是电视的对话,还是我们平时看到的智能音响的对话,其实都有一个基本的门槛,用户要么需要按一个钮再说话,要么需要唤醒词,这个唤醒词应该是四个字,机器才能知道你要跟它说话。但实际上,我们平常跟人说话是不需要每次都喊对方名字的。” 现在,百度度秘DuerOS技术可以将电视变成一个“聪明的电视”,听得懂人话。譬如看电影的时候跟它说“跳到某一段”“声音大一点”“这个演员是谁”“那个人的衣服是什么品牌”......都能得到反馈,因为电视的聪明程度需要符合人类需求。度秘DuerOS技术基于百度大脑的能力,比如语音识别能力、自然语言理解能力,以及对于视频内容理解的能力,这些能力是现在的遥控器无论加多少按钮都无法实现的。 场景五:人机交互不再需要唤醒词 此外,当人们不论做什么都得腾出一只手来操作手机的时候,百度宣布,只要动动嘴皮子,就能让手机乖乖听话的场景“在这个月底就能实现了。” 李彦宏为此拍了一个视频。视频中,正在用早餐的李彦宏点击手机百度“耳机”图标使用TTS功能,就可以跟手机正常讲话了,这时候可以通过语音指令实现“听新闻”、调整播放顺序、搜索百科、音量调整等功能。李彦宏表示这一功能“不需要按着说话,也不需要唤醒词,就像跟人对话一样自然。”而且,他透露,11月底,手机百度推出的语音版就会实现上述功能。 其实,早在2015年,百度新闻中就推出“人性化语音播报”,用户在获取新闻时拥有高度拟人化的人机交互体验,这次的手百TTS播报的语音控制功能可以说在积累了大量的用户反馈和交互数据后,又进行了升级迭代,用户可以实现在开车、运动健身、用餐时,都可以同时播放音乐、听新闻、看视频,“解放双手”。 场景六:即时语音翻译上屏,英语水平堪比CET-6 整场下来,李彦宏一边中文演讲,现场大屏一边即时识别中英文字幕。 李彦宏说,会场环境下,百度大脑的文字识别能力可达95%。英文翻译能力也不赖,如果拿大学英语六级翻译考题测试,满分15分的翻译题,百度大脑可以得13.6分。 场景七:“raven H”更懂你,背后有AI “raven H”是本届百度世界的重头戏。raven H是渡鸦加入百度后发布的第一款智能硬件产品,也是百度推出的首款软硬件结合产品,更是具备“DuerOS 2.0”系统的标杆产品,覆盖音乐、视频、智能家居和知识图谱等场景。 raven H 1)音乐场景 raven H首发搭载来自于百度音乐和太合麦田的千万正版曲库,以及基于乐流和百度搜索数亿级的音乐搜索数据,渡鸦还为raven H定制了超过 7700 种不同的音乐心情和音乐标签,用户可以体验到“越听越懂你“的音乐曲库。 当然, raven H支持音乐场景下的多轮搜索,用算法减少用户在音乐场景的动脑过程,音乐体验更直接、更简单。 2)视频场景 渡鸦基于爱奇艺旗下的海量正版和独家内容,同时简化了使用流程:只需一台已经联网的raven H,和一台已经联网的电视果,就能即插即用。 3)智能家居 raven H目前支持所有主流的智能家居解决方案,未来渡鸦也将计划推出raven系列的智能家居感应和控制套装。 4)知识问答 渡鸦基于百度的体育数据库以及知识图谱,已经在足球、篮球等体育垂直类资讯下打造了问答体验。未来,渡鸦也将基于百度搜索,百科,百度知道的数据体系,将知识问答扩展到其他领域。 渡鸦还引用此了前产品Flow的设计理念,让场景串联起来,改变了现有 AI 产品使用场景相互割裂的现状。比如当询问“曼联下一场比赛的时间”时,小度会自动回答时间并追问是否要设置闹钟,在用户回答“是的”后,闹钟会在约定的时间响起。如果是凌晨,raven H还会自动打开电视、台灯,提醒用户观看比赛,将用户的需求一次性串联到位。 渡鸦在会上同时公布了另外两款即将面世的产品raven R、raven Q。raven R是raven H的可灵活运动升级版,也是全球首款六轴全自动情感机器人;raven Q则是具备成熟人脸识别、计算机视觉和 Apollo 自动驾驶的集所有百度人工智能时代技术之大成的终极硬件形态。 上述即时语音翻译上屏、DuerOS电视人机交互、手机百度TTS以及驾驶员疲劳监测等应用,背后都是百度大脑的能力。李彦宏介绍:“百度大脑每天被内外部调用已经达到了2188亿次。” 去年,百度人工智能平台“百度大脑”发布语音、图像、自然语言处理和用户画像四大能力,并陆续向业界合作伙伴开放。一年以来,百度大脑四大能力快速进化,应用规模快速扩大。目前,百度大脑已开放80多项核心AI能力,超过37万开发者正在接入百度AI开放平台,使用包括语音识别,OCR,人脸识别,知识图谱、自然语言理解、用户画像等等各式各样的能力。 人工智能给了我们无穷想象力,正如李彦宏所说:我们现在见到的人工智能都只是冰山一角。未来世界每一个东西都会被AI所改变,而人类又多了一个,就是学习如何使用这个工具,并把它用的更好。 |
|