分享

抑郁症成“连环杀手”,AI“读心师”能拯救下一个TA吗?

 AI报道 2019-10-22

随着AI被越来越多地运用在医疗领域,精神健康领域也逐渐引入了AI技术。我们已经能够运用AI帮助抑郁症患者了吗?有哪些企业或研究机构在做这件事?

诊疗缺口催生市场机遇

据世界卫生组织估算,全球每年有约80万人死于自杀,每40秒钟就有一个人结束自己的生命,给家人、朋友和社会带来永久的伤痛。自杀已成为多国年轻人的第一大死因,其中过半死者患抑郁症。

更严峻的问题是,受抑郁症困扰的人正日渐增多。全球大约有3亿多人患抑郁症,占总人口4.4%,尤其是在2005—2015年间,抑郁症患者增加了18%,这也使抑郁症成为全球第四大疾病。

在中国,情况同样严重。来自世界卫生组织2018年报告的数据显示,中国有超过5400万人患有抑郁症,占全国人口4.2%。

与此同时,精神科医生和心理咨询师供给并不充足。且由于精神类疾病治疗费用高昂,医保覆盖相对滞后,相当多的患者无法得到相应的治疗。据统计,全国地市级以上医院对抑郁症的识别率不足20%,在现有的患者中接受药物治疗的人不足10%。

不仅如此,在诊前预测和诊后追踪环节,现有医疗手段缺位更加严重。

因此,学界和产业界都将目光投向了AI,期待其能够赋能精神健康诊疗。目前来看,致力于将人工智能和精神健康结合的公司较为小众,但依然有不少场景具备挖掘潜力。

从患者角度来看,人工智能可运用于情绪调节和自测。

例如,因百度前首席科学家吴恩达加盟担任董事长而引起热议的医疗AI公司Woebot就开发了一款名为Woebot的治疗聊天机器人,它能够通过与抑郁患者聊天来帮助求助者,鼓励对话者积极应对挑战。例如,当朋友忘记了你的生日,你向Woebot倾诉“大家都不把我放在心上”时,Woebot可能会回答称:“你陷入了一种叫做非黑即白的极端消极自我对话思维中,这种思维扭曲了现实世界。其实,你有好朋友,人们也都把你放在心上。只是一个朋友忘记了你的生日而已。”

EmoSPARK则以智能家居的面貌切入,一边通过摄像头捕捉用户的面部表情变化,一边通过连接iPhone等终端设备来分析用户输入的内容,从而判断用户的情绪状态,并推送可调节情绪的音乐和视频。

从心理医师/精神科医生角度来看,人工智能可运用于精神疾病的预测、诊断与治疗、监控环节。

斯坦福大学的李飞飞研究团队即发表了相关论文,提出以语音识别、计算机视觉和自然语言处理技术,通过表情和语言诊断方法来测量一个人是否患有抑郁症,以及抑郁症症状的严重程度。

IBM研究团队则通过机器学习对心理疾病记录的分析指出,处于精神疾病风险的人说话时较少使用连贯的句子和所有格代词。该发现可用于预测精神疾病的发病。

在中国人民大学,卢志武博士领导的机器学习研究组则开发了一套 AI 读心师系统,可通过分析一段短视频来进行心理健康分析、五重性格测试等。

我国企业正在进行哪些尝试?

翻开中国AI企业创业的画卷,可以看到,AI+医疗企业数以百计,但聚焦AI+精神健康的企业却要小众得多。

望里科技就是其中一家初创AI精神健康科技公司。与传统的问诊模式不同,望里科技主要运用AI技术对客观生理数据进行评估和判断,从而对成瘾、抑郁等精神类问题作出诊断。

望里科技产品

具体来说,望里科技的AI抑郁评测系统利用脑电、眼动、皮电等信息采集的生理数据,对抑郁症进行客观的评估。通过复杂的数据运算,该系统可以寻找将抑郁症患者与健康人群进行有效区分的计算机模型。

望里科技创始人李岱认为,除了患者自述外,脑电、心率、皮电信号和患者的表情变化能够呈现个体的精神类疾病和认知问题。这有助于改善以往精神科医师下诊断偏主观的现象。

通过与北京大学第六医院的科研合作,目前望里科技的抑郁辅助诊断评估分类准确率已达到81%。据悉,未来该系统将拓展到自闭症、精神分裂、老年痴呆、暴力倾向等问题的研究和产品开发。

望里科技还在上述系统的基础上开发了自杀风险评估系统,这一产品被运用于服刑人员的心理管理,帮助狱警了解并管理服刑人员心理健康状况,达到预防服刑人员自杀的目的。该产品在教育、医疗领域也有应用的潜力。

除了直接利用AI诊断精神类疾病之外,业界还在诊疗的其他环节进行了探索。

舒辅创始人CEO沈斌(右一)同上海市精神卫生中心邵阳副院长(左一)正在交谈

以上海市精神卫生中心的实践为例,一款医疗AI预问诊机器人“精中小助理”被运用到了预问诊环节。“精中小助理”是心理咨询门诊智能系统建设的一环,它搭载在微信小程序上,利用患者的候诊时间对患者病症进行测评并生成报告,从而为医生赋能,让医生更快地全方位了解自己的患者。

据了解,这款机器人由中美“混血”企业舒辅(Siuvo)研发,可以通过智能化的疾病管理系统助力医院、医生工作。当患者候诊时,扫描二维码进入小程序,就可以与云端小机器人进行对话。一次典型的预问诊对话可能会如下展开:

“检查抑郁程度。”“在过去两周,您经常受到以下问题的困扰吗?难以集中精神做事,例如看报纸或看电视”“有几天。”“其他人反映你行动或说话迟缓;或者相反,你比平常活动更多——坐立不安、停不下来”“刚超过一半天数”……

“现在,写病历是医生的共同痛点。对于大医院的专家来说,他每天都非常忙,写病历要占据大量的时间;而对乡村基层的医生来说,由于培训的有限,他写的病历不够规范。”沈斌告诉AI报道,舒辅开发的云端小机器人可以作为医生的助手,既能为医生节约时间,又能助力病历规范化。通过AI算法的辅助,病历可从对话中直接提取,大大减少了医生的工作负担,也保证了病人档案的完备性和更新的实时性。

从患者角度来看,在传统场景下,患者往往是候诊三小时,看病三分钟,这浪费了患者大量的时间,时有患者感到不满,很多医患纠纷由此而来。而让患者在候诊期间就开始接受医院的服务,患者的满意度将得到提升。

从医生角度来看,由于患者非常多,分配给每个患者的只有3-5分钟,有了小机器人助手后,医生就能利用有限的时间为患者作出更有针对性的鉴别诊断和治疗。以往面对医生时,部分患者会说了很多话却说不到要点上,而舒辅小机器人能够按照诊断学原理将重点的症状信息提炼出来,再提交给医生,这为医生诊断带来了很大便利。

值得注意的是,我国还有运用AI对抑郁患者自杀进行危机干预的非盈利组织。荷兰阿姆斯特丹自由大学终身教授、首都医科大学大脑保护高精尖中心抑郁症人工智能创新团队首席科学家、武汉科技大学大数据研究院副院长兼特聘教授黄智生发现,微博上存在为数众多自杀者的微博账号,计划自杀者常会在这些账号的微博下留言抒发“自杀”“约死”等负面情绪,这些微博成了发泄情绪的“树洞”。黄智生开发了AI机器人,该程序可自动通过算法识别“树洞”下准备轻生的人,随即救援团志愿者便能前去救助。

黄智生表示,运用知识图谱技术,AI机器人可通过监控留言分析一个人的情绪。几乎每个月,救援团都能救回50条生命,一年时间里,救援团阻止了约800次自杀。

为何AI+精神健康走向商业化这么难?

不难看出,我国涉足AI+精神健康领域的团队多为中小型初创企业,公司数量寥寥,且产品应用规模也较为有限。学界对此领域的探索从未停下探索的脚步,但也面临着商业化的难题。即使是在对精神健康更为重视的欧美国家,如IBM等巨头涉猎该领域后,同样未能将技术进行大规模推广。这直观地反应出AI+精神健康商业化之路的难度之高。

AI报道梳理业界现状后,发现难题主要集中在以下几方面。

首先,以抑郁症为代表的精神类疾病大多病因未明,遗传因素、社会心理因素、素质因素都可能与发病有关。业内有一句经典的比喻:现在人类对大脑的认知水平就好比在黑夜的足球场角落点了一支蜡烛。这形象地说明了当下人类认知的困境,而依赖人类输入知识进行判断的人工智能自然也受此影响。

那么,人工智能能够通过自我学习进行研究吗?这涉及另一个问题,即人工智能的黑盒问题。人工智能根据输入数据、模型及结构导出结果并自我学习,而其中的过程是人类所无法理解的,这可能带来未知的风险,而医学因与人类健康直接相关,故对不确定性的容忍度极低,在精神健康领域也是如此。

其次,目前企业探索的部分诊疗方式正饱受质疑。其中,通过情绪识别来监控情绪并判别心理状态这一做法所受到的质疑最大。

在国际上,微软、谷歌、IBM、亚马逊等公司都开发了情绪识别算法,IBM还研发了建立在深度学习基础上的诊断工具;在国内,如阿里等巨头、商汤科技、云从科技等计算机识别独角兽也做了类似的应用,只是目前并未运用于医院诊疗领域。研究证明,这些公司未将技术投入诊疗市场或与下列原因有关。

在高速运转的社会中,饱经规训的人们并不会把情绪明晃晃地写在脸上。尤其是部分抑郁症患者能够对外界侃侃而谈,经常面带微笑,仅在独处时显露出沮丧,他们被称为“微笑抑郁症”患者。要想看出他们表象背后的疾病则更难。

为探讨情绪识别算法与真实情感的相关度,美国心理科学协会曾委托五位来自该领域的杰出科学家进行了数据收集和科学证明。最终,五位科学家给出的论文显示,情绪的表达方式多种多样,很难从一组简单的面部运动中可靠地推断出一个人的感受,表情与心情之间没有坚实的科学依据证明有直接关联。

该论文的作者之一,马萨诸塞州的东北大学心理学教授 Lisa Feldman Barrett 公开表示:“公司可以想说什么就说什么,但是数据是真实的。他们能检测到一张愤怒的脸,但这与察觉到愤怒的情绪是两码事。”

Barrett还以皱眉为例阐述了观点:“数据表明,当人们生气时,在平均不到30%的时间里会皱眉。故皱眉不等于愤怒,只是愤怒的众多表达方式之一。这意味着在超过70%的时间里,人们生气时不会皱眉。更关键的是,他们不生气是,也会经常皱眉。你确定要以此为基础做决定吗?当你在法庭打官司,在医院等诊断或是在机场过安检,你愿意让那30%的概率来‘裁决’你吗?”

再次,患者的接受度也对人工智能的应用提出了考验。无论是心理咨询还是精神科问诊,都要求患者主观上对咨询师/医生充分信任,积极配合治疗。但目前,人类对AI的心理检测接受度普遍不高,这是由于心理检测中涉及很多主观判断,如焦虑、心境低落等等。人类医师具备共情能力,更易被患者认为“听懂了我的话”,而人工智能则易被视为“冷冰冰的机器”,难以获得信任。

总地来说,尽管AI+精神健康市场空间巨大,但要让应用落到实处,相关团队要走的路还有很长。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多