内容

计算机能够发现和预防自杀吗?
Can an algorithm stop suicides by spotting the signs of despair?




《环球邮报》日前发表的一篇文章称,在美国名厨、作家兼美食节目主持人安东尼•波登(Anthony Bourdain)于去年夏天自杀身亡数天后,渥太华皇家心理健康中心(Royal Mental Health Centre)自杀学领域的研究人员扎迦利•卡明斯基(Zachary Kaminsky)博士便将波登过去四年来用@Bourdain的名字公开发布的推文都下载到了他的办公室电脑上。
 
61岁的波登是在法国录制曾获得艾美奖的CNN节目《安东尼•波登:未知之旅》期间上吊自杀身亡,他的尸体在凯泽贝尔的一个酒店房间中被他的好友、法国名厨Eric Ripert发现。波登自杀的消息爆出后,许多人都扼腕叹息。毫无疑问,卡明斯基并不是唯一对波登的推文进行仔细分析,以期能够找到波登自杀背后的蛛丝马迹的研究人员。但是,卡明斯基拥有一个独特的工具,那就是旨在通过绝望或孤独等关键词对个人发布的推文进行识别和分类,以揭示只有机器才能发现的自杀倾向的计算机预测算法。
 
简单地说,这种计算机预测算法目前尚处于早期试验阶段,其可以实时分析个人推文所表达的情绪,从而达到利用相关信息预测个人未来倾向的目的。卡明斯基以及世界各地的其他研究人员想要证实的论点是,人工智能是否能够及时预测自杀风险。波登是否在不知不觉中留下了悲剧的线索?


 
目前,自杀在加拿大仍属罕见事件,加拿大每年的自杀率为每10万人中11人。但尽管如此,加拿大每天也仍会有10个人死于自杀,并且这个数字在近年来似乎略有上升。在许多情况下,意欲自杀者都会出现陷入麻烦的迹象。大多数自杀受害者都是深受精神疾病困扰,他们通常都会寻求医生的帮助或是前往急诊室就诊。还有许多家庭也在竭力寻求适当的帮助。这些迹象存在于整个系统中,比如在数据点、医疗结果、患者约诊和文书工作中都会有迹可循。卡明斯基等遗传学家认为使用计算机预测算法对所有相关信息进行分析可以挽救生命。
 
《心理学公报》(Psychological Bulletin)杂志2016年发表的一份研究报告对过去50年间的350多项研究结果进行了分析,结果发现没有单一可辨认的风险因素或是一套标准的鉴定因素可以优于随机预测自杀念头或行为。研究还发现,即便抑郁症是影响自杀的最危险风险因素,但以此预测自杀可能性却不准确,因为研究发现大部分抑郁症患者情况都会有所好转,抑郁症患者的自杀率和普通人群的自杀率不相上下。


 
该研究报告的作者称,想要准确预测自杀必需考虑数百个风险因素,这对临床医生来说是一项艰巨的任务。即便临床医生做到了这一点,他们也只能预测出哪些人有自杀风险,而要预测这些人可能会在“何时”实施自杀行为,则需要计算分析单个患者的数千个数据点,这个任务只有经过适当学习的机器才有可能完成。该研究报告的主要作者,佛罗里达州立大学(Florida State University)的心理学家约瑟夫•富兰克林(Joseph Franklin)称,预测自杀风险以助预防自杀,和了解飓风季并准确预测未来两周可能出现的飓风以预防灾害有所不同。
 
对于苏珊妮(Suzanne)和雷蒙德•罗森(Raymond Rousson)来说,时间已经定格在2017年1月22日,因为他们27岁的儿子西拉维(Sylvain)在那一天自杀身亡。苏珊妮将儿子的死归咎于健保系统错过了拯救他的良机。
 
苏珊妮称,在2016年圣诞节的前几天她曾接到西拉维打来的电话,他在电话中恳求道“拜托,妈妈,救救我吧!”当时,西拉维很担心自己会做出自残行为。于是,罗森夫妇拨打了911,并立即赶到了渥太华医院的急诊室,他们当时相信儿子肯定会得到其所需要的帮助。


 
但在两个小时后,西拉维就走出了候诊室,因为医生说他可以回家了,直到现在,罗森夫妇也不知道当时他和医生说了什么,或是医生问了他什么。苏珊妮称,她和丈夫只知道医生和西拉维谈了一会儿话,然后就让他回家了。如果医生向罗森夫妇询问情况,他们会告诉对方西拉维的抑郁症在最近几个月出现了恶化,他已经停止了水管工工作,体重出现下降,并且除了吃妈妈为他成包购买的巧克力迷你蛋拒绝其他所有食物。但是,罗森夫妇一直没有机会告诉医生这些情况,在四周后,西拉维自杀了。
 
苏珊妮称:“我的儿子本应该好好活着。”
 
西拉维就诊时的情况很复杂,医院急诊室一直人很多,临近节假日时更是人满为患。西拉维已经是成年人,他在候诊时已经不需要监护人,或许他当时也没有告诉医生实情。但卡明斯基指出,很显然,一直不堪重负的急诊室医生和家庭医生需要可靠的实时分析工具去更好地评估患者的自杀风险,因为他们是许多精神疾病患者最先联系的专业人士。卡明斯基称,在最理想的情况下,这些工具将可以及时在健保系统中识别像西拉维这样的高风险人士,以免他们陷入危机。卡明斯基问道,如果这些分析工具可以重塑医疗一线,并在患者陷入危机前让他们获得所需的服务,情况又会如何?他认为这正是研究人员需要努力的方向。


 
实际上,在卡明斯基开始探索使用计算机预测算法识别自杀风险之前,他已经在从事另一项关于自杀预测的研究。在这项研究中,卡明斯基和美国约翰•霍普金斯大学(Johns Hopkins University)的一群研究人员发现,一种名叫SKA2的基因对于自杀倾向有着决定性的作用,SKA2通过参与大脑对压力荷尔蒙的反馈来抑制负面以及悲观想法,如果该基因不足或发生突变,那么很有可能导致自杀意图和行为。在对比分析存在自杀倾向的人士和健康人士的大脑样本后,研究人员发现,在自杀人群的脑部样本中SKA2基因显著减少。虽然这种突变原本并不罕见,但研究人员却发现了一些后天变化(基因中增加了甲基组),这些变化使得SKA2基因的运作方式发生了变化,在自杀人群的大脑样本中甲基物质的含量都比较高。根据研究结果,研究人员设计了一种分析模型,借此预测存在自杀倾向或试图自杀的个体,预测结果与实际情况的吻合度达到80%,另外存在高度自杀风险的个体预测与实际有90% 相一致。在青年人测试组中,预测结果与实际吻合度高达96%。由于通过血液检测可以发现这种基因改变,人类也有望通过验血预测自杀风险,以及查看患者所接受的药物等治疗是否见效。
 
在卡明斯基及其同伴在《美国精神病学杂志》(The American Journal of Psychiatry)上发表相关研究报告后,他收到了许多人发来的电邮和打来的电话,这些人因为自己的亲人自杀身亡而悲痛万分,并提供了死者的头发或血样以供分析。在这些人中,有一位忧心忡忡的母亲,她在电邮中列举的自杀身亡的家庭成员包括她的祖父和叔叔,还有她最近刚刚失去的一个儿子。那么,卡明斯基是否会检测她留下的已故儿子的血液样本呢?


 
卡明斯基称,他们不会检测这个死者的血液样本,因为相关研究仍处于起步阶段,并且这样做也不符合伦理。但是,这位母亲发来的电邮却一直在激励卡明斯基继续向前。
 
那么,有关自杀预测的研究是否还会发现其他有助于预测自杀的线索呢?
 
卡明斯基的计算机在对波登的推文进行仔细分析后创建了一副线图,向人们讲述了一个清楚的故事。根据预测算法,在波登去世前的250多天里,他的情绪一直在上下波动,期间曾有数次出现有关自杀念头(也就是专家所说的“意念”)的基线得分达到峰值的情况,但在几天后他都得以摆脱这种危险念头。可是,在波登去世前的大约20天里,他的情绪基线开始急剧上升,并且持续上升,就好像爬摩天大楼一样,直至他自杀的那一天。在生命的最后几周里,波登在其发布的推文中为指控美国制片人哈维•韦恩斯坦(Harvey Weinstein) 性骚扰和性侵的女性做了辩护,嘲弄了皇室婚礼,并抱怨有人对他节目中有关纽芬兰部分的内容提出了批评。这些推文看起来似乎并没有特别的异常之处,但据卡明斯基称,计算机发现在此期间悲剧正在慢慢酿成。


 
但卡明斯基亦指出,这并不意味着预测算法每次都会奏效,因为相关研究仍处于初级阶段。卡明斯基称,运用人工智能(AI))程序的机器学习法旨在通过让机器接触更多示例提高其分析能力。比如,机器可以从与情绪相关的字句中识别出微妙的情绪变化,其中不仅包括像“我感到孤独”这样直白的语句,还有类似“我的朋友根本不在乎我”的牢骚话,语句越多机器的分析效果就越好。
 
在对波登的推文进行分析时,计算机就对其数百条推文进行了分析。虽然使用社交媒体发布的内容带有即时性,但其也能够让人们了解发文者当时的心情。
 
现在,利用个人信息更好地识别健康风险的想法已经激发了新一轮研究热潮,政府和企业都参与其中。如果计算机能够预见我们会对一个新的电视节目感兴趣,那所有自由流动的信息会被用于更利他的目的么?
 
自2017年11月以来,脸书(Facebook)已经开始使用人工智能识别可能透露困扰迹象的语句,比如在发现有一个用户询问另一个用户“你还好么?”的时候,网站就会弹出有关自杀热线的广告,或是提示人们在担心某人有自杀风险时应该如何询问对方特定问题,将事件报告给脸书或是自己设法寻求帮助。脸书加拿大的公共政策负责人Kevin Chan解释称,脸书此举旨在向人们提供帮助,而不是预测个人行为。但Chan同时亦称,在伤害行为即将发生的极端情况下,脸书网站的负责人也会联系紧急服务部门,不过他拒绝透露这种情况发生的频率。


 
与此同时,对其他个人数据进行追踪分析已被证明可能比分析社交媒体上的内容更有用。佛罗里达州立大学的富兰克林以及其他团队成员就共同创建了一种预测算法,这种算法使用匿名患者的电子记录信息,比如约诊、处方药和急诊室就诊等详细信息,对美国田纳西州200万名患者的自杀风险进行了预测。根据2017年发表在美国《临床心理学》(Clinical Psychological Science)期刊上的相关研究报告,这种预测算法在预测个人两年内的自杀风险时准确率超过80%,预测个人一周内的自杀风险准确率高达92%。
 
但是,仅仅使用一种工具进行自杀风险预测可能并不够。大多数专家都认为预测自杀,特别是想要在精确的时间范围内预测自杀,将需要多种数据来源,比如患者医疗记录、临床医生的问卷、社交媒体活动和血检结果等。富兰克林认为提高自杀预测的准确率仍然任重而道远。
 
但是,这也给人们留下了一些时间去解决隐私担忧,包括应该如何使用这些个人信息,尤其是雇主或保险公司应该如何对待这些个人信息,以及是否应该让为亲人感到担忧的家庭成员了解相关的个人信息。按照卡明斯基的设想,一线健保工作者和治疗专家可以利用机器学习为患者量身打造治疗方案。那么,鉴于社交媒体公司拥有大量个人数据,这些公司是否都应该操作精神健康预测算法呢?


 
在多伦多瘾癖及精神健康中心(Centre for Addiction and Mental Health)专事自杀研究的临床科学家Juveria Zaheer问道:“我们是否在上演《少数派报告》(Minority Report)?”Zaheer在这里所指的是由汤姆•克鲁斯(Tom Cruise)主演的电影《少数派报告》,在这部电影中,人类发明了能侦察人的脑电波的“聪明”的机器人――“先知”。“先知”能侦察出人的犯罪企图,所以在罪犯犯罪之前,就已经被犯罪预防组织的警察逮捕并获刑,但是。“先知”作出的错误预测亦迫使男主角四处逃亡。Zaheer称,现在人们仍然生活在一个以精神疾病为耻的世界里,将一些人挑选出来并说基于他们的基因,他们有自杀风险将会带来什么样的影响?
 
这些预测算法并不完美,比如,为了避免遗漏任何人,机器有时可能会过于谨慎行事,从而错误地将一些人纳入高自杀风险群体中。但即便如此,正如一些研究人员所指出的,机器的自杀预测结果仍然要比人类所做的临床评估结果准确得多。
 
但是,印第安纳大学医学院(Indiana University School of Medicine)的精神病学家亚历山大•尼古列斯库(Alexander Niculescu)认为,临床医生的评估结果准确性之所以不够高,可能是因为他们过分依赖直觉,并且在患者就诊期间收集的客观信息也不够。


 
此外,由数据驱动的患者反馈,也就是通过使用标准问卷和风险评估检查表所获得的患者反馈作为指引的治疗方法,也开始被越来越多心理学家推崇。尼古列斯库在研究过程中,就发现了一份有22个问题的自杀风险评估检查表,这份风险评估检查表在上世纪80年代是专门用于评估精神病患者、急诊室就诊人群以及美国国民警卫队(United States National Guard)队员的自杀风险。
 
更重要的是,尼古列斯库的实验室还发现了除SKA2基因外的可用于预测自杀风险的生物标记物,从而使得人们可以通过血检评估自杀风险。在一项小规模研究中,研究人员发现当风险评估检查表应用程序和血检相结合时,评估准确率还会更高。
 
但是,相关研究也有局限性,尼古列斯库指出,虽然预测算法是令人兴奋的新途径,但通过机器学习作预测分析也有潜在缺陷,那就是用于让计算机进行学习的数据具有局限性,未必对所有随机人群都有效。此外,机器还需要大量数据才能够对普通人群进行准确预测,比如要从脸书或谷歌网站获取大量可以访问的信息。
 
但尽管如此,现在甚至连渥京都已经在投资支持机器学习。加拿大公共卫生署最近已经拿出一份合约,要求一个公司使用社交媒体和机器学习研究加国人士的自杀行为模式。据加拿大公共卫生署发言人称,该项目将会探讨某些事件是否会将人们置于危险境地,或是哪些因素可能会导致不同群体变得更加绝望。研究期间收集的数据都是匿名收集,并且只会来自公共社交媒体上的贴文,相关数据可能会用于设计预防自杀活动和计划。


 
但是,多伦多辛尼布鲁克健康科学中心(Sunnybrook Health Sciences Centre)的精神病学家Mark Sinyor除了怀疑一台机器是否能够完美地预测像自杀这样复杂的事件,他还质疑此举的目的是否错过了一个重点,那就是所有有自杀念头的人都深陷痛苦急需治疗。Sinyor指出,关键在于根据个人患者的情况识别和降低风险因素,重要的是让人们了解自杀是可以预防的,是有希望的。
 
归根结底,就像其他医学研究领域一样,有关对高自杀风险者进行个性化干预的研究旨在让那些身陷困境的人士摆脱导致他们走上黑暗道路的独特环境、社会背景和生物学因素。
 
去年,那位迫切希望卡明斯基为她儿子做血检的母亲又给卡明斯基发了信,她在信中称自己家中又有一位亲人死于自杀,她想知道卡明斯基的研究工作是否有了进展。

对此,卡明斯基叹着气说道:“这项科学研究进展比较慢。”
 
但无论如何,最终可能都会由机器加速这一进程。



我们鼓励所有读者在我们的文章和博客上分享意见。We are committed to maintaining a lively but civil forum for discussion, so we ask you to avoid personal attacks, and please keep your comments relevant and respectful. Visit the FAQ page for more information.

验证码
请输入验证码