人工智能(AI)已经是非常热门的话题了,以至于你和朋友聊天的时候都可能会有意无意提及它。前景令人神往,我们不断听到关于效率、自动化和智能预测的惊人故事。 但人工智能并不完美,每一个成功的故事背后,可能都会有许多失败的“母亲”。事情没有按照计划进行。虽然我算是人工智能的忠实信徒,在许多业务中看到了它的力量,但辩证客观地看待事物是一件好事。 本文1430字,需要5分钟。 智能对话机器人学会了一些不合适的语言 如今人工智能对话机器人在某种程度上已经成为社交媒体和其他网站的常态。但它并不完美,微软的人工智能对话机器人就是一个例子,它被简称为“Tay”。 Tay于2016年3月发布,面向推特(Twitter)用户部署,用户只需在推文中@Tay就能获得Tay的回复。但它只持续了24小时。发生了什么事?网站上一些别有用心的人发现了它的弱点,通过大量对话“教育”Tay,操纵Tay发表了具有性别歧视和种族歧视的言论。 微软负责人工智能和研究的副总裁彼得·李(Peter Lee)不得不为没有提前预见到这种可能性而公开道歉。 运动员还是疑犯 亚马逊有一个叫做Rekognition的项目,这是一种基于人工智能的面部识别软件。当销售给执法机构时主要用于调查犯罪。它本质上是交叉分析图像并指导执法人员找到可能的嫌疑人。 问题是它不是很准确。在一项研究中,数十名波士顿地区运动员的照片在系统中进行了检索。在这些运动员中,至少有27人——大约是六分之一——被错误地与罪犯面部照片匹配。其中包括一位三次获得超级碗冠军的橄榄球明星。 用户发现苹果的面部识别漏洞 苹果总是不断推出尖端技术。多年来,他们一直在为智能手机和移动设备行业设定标准。在大多数情况下,这些产品被大家热烈追逐。但大概是追得太急,有时也会“翻车”。 在iPhone X的发布上。在发布之前,苹果投入了大量的时间和资金在他们的面部识别系统上,该系统取代了指纹识别器,成为访问手机的主要方法。他们声称,人工智能组件非常智能,读者可以戴眼镜、化妆等,而不会影响功能。这基本上是正确的。问题是,苹果还明确表示,Face ID技术不会被口罩或其他技术欺骗。 一家越南的安全公司将此视为挑战。只用200美元,他们就用石粉做了一个面具,粘上一些2D打印的“眼睛”,解锁了一部手机。 机器狗遭遇致命结局 谁不喜欢机器狗这个想法呢?你得到一个可爱的小机器,不会乱叫,不需要吃,不会随地大小便,也不会产生昂贵的兽医账单。 2019年,波士顿机器人公司(Boston Robotics)的一只名为Spot的机器狗在拉斯维加斯的一次会议展示时,戏剧性地在台上过早“死亡”。它的任务是走路,结果慢慢地开始踉跄,最终倒在地板上。 Watson不是医生 IBM的Watson是面向企业的 AI 平台,已经取得了许多成就。 2018年, Watson试图推出一个医疗人工智能系统,为治疗癌症患者提供建议。I但没过多久,医院和肿瘤学家就发现了主要缺陷。Watson一度建议让出血过多的病人服用药物,这可能会导致更多的出血——甚至会导致病人在服药过程中死亡! IBM调查发现是工程师给人工智能系统使用了假设和虚构的案例,而不是依赖实际的患者数据和历史病历。 被语音欺骗的首席执行官 深度伪装(Deepfakes)是争议性最大的AI软件。正成为一个严重(且令人担忧)的问题。黑客们找到了伪造声音、图片甚至视频的方法。在某些情况下,影响是灾难性的。 2019年3月,一家英国公司的首席执行官接到了来自德国母公司的老板的电话。他受命将相当于24.3万美元的资金转移给一家匈牙利供应商。该请求被标记为紧急,并被告知立即执行。结果大家一定猜得出来,电话那头不是他的老板。利用一款基于人工智能的软件,用来模仿老板的声音。 当然,某种意义上是人工智能软件赢了,人类被骗走了二十多万美元! 人工智能不是完美的。所以,当我们展望未来三年或五年的时候,让我们记住,人工智能还在发展中。 为了达到我们想要的正向效果,我们必须在利用AI过程中处理许多问题和障碍。事实上今天“翻车事故”中提到的大多数产品,已经有了很大的改观。我们如何应对这些异常和缺陷,最终决定了我们今后的发展方向。 |
|
来自: 只摘不看 > 《智能软件区块机器人》