机器学习正在通过风暴考虑医疗诊断。从眼睛疾病,乳腺和其他癌症,更无定形神经系统疾病在美国,人工智能通常与医生的表现相当,如果不是彻底击败他们的话。

然而,我们可以在面值上拍多少结果?当涉及生命和死亡决策时,我们何时可以将我们充分信任的神秘算法 - “黑盒甚至连它们的创造者也不能完全解释或理解?由于医疗人工智能涉及多个学科和开发者,包括学术和行业巨头谷歌、亚马逊(Amazon)或苹果(Apple)等,且激励机制各异,这个问题变得更加复杂。

本周,双方在一份最负盛名的科学期刊上展开了激烈的对决,自然。一边是玛格丽特公主癌症中心、多伦多大学、斯坦福大学、约翰霍普金斯大学、哈佛大学、麻省理工学院等机构的杰出人工智能研究人员。另一方面是泰坦的谷歌生命值。

起因是谷歌健康中心在今年1月发表的一项爆炸性的乳腺癌筛查研究。该研究声称已经开发出一种人工智能系统,在诊断乳腺癌方面远远超过了放射科医生,而且可以推广到接受培训的人群之外的人群——由于缺乏大量的医学成像数据集,这是一种难以置信的圣杯。这项研究在媒体领域掀起了波澜,并在公共领域掀起了医学人工智能“成熟”的热潮。

学者所说的问题是,该研究缺乏对他人的代码和模型的充分描述来复制。换句话说,我们只能信任其在其词的研究 - 刚才没有在科学研究中完成的东西。反过来,谷歌健康凭借礼貌,对令人肠外的反驳,争论他们需要保护患者信息并防止AI免于恶意攻击。

像这些形式的学术话语形成科学的座位,似乎令人难以置信的邪恶和过时 - 特别是因为而不是在线渠道,双方诉诸百年历史的笔和纸讨论。然而,通过这样做,他们向广阔的全球受众提升了必要的辩论,每一边都在落地的固体拳击,又可以为医疗AI的信任和透明度奠定框架的基础 - 到所有的利益。现在,如果他们只能在汉密尔顿的横断静脉中说唱他们的争论,汉密尔顿的杰弗森队的巡逻队。

学者们,你们有发言权

很容易看出这位学者的论点来自哪里。科学常被描绘成一种体现客观和真理的神圣事业。但是,就像人们接触到的任何纪律一样,它很容易出现错误、糟糕的设计、无意的偏见——在极少数情况下——有意识地操纵结果。正因为如此,当发表研究结果时,科学家们会仔细描述他们的研究方法,这样其他人就可以复制研究结果。如果结论是a疫苗这是防止科维德-19,在几乎每个实验室都发生,无论科学家,材料还是科目如何,那么我们就有更强的证据证明疫苗实际上是有效的。如果没有,这意味着初步研究可能是错误的 - 科学家可以描绘为什么并继续前进。复制对健康的科学演化至关重要。

但人工智能研究正在粉碎这种教条。

“在计算研究中,对于AI研究的细节来说尚不广泛的标准,可以完全访问。这对我们的进展有害,“作者Benjamin Haibe-Kains博士在玛格丽特癌症中心。例如,计算机代码或培训样本和参数中的细微差别可以大大改变对无法单独使用文本轻易描述的结果的培训和评估,原因是常态。这一团队表示,该团队认为它试图验证复杂的计算管道“不可能”。(对于学者,这是相当于手套。)

尽管学者们以谷歌Health的乳腺癌研究为例,但他们承认,这个问题的范围要广泛得多。研究小组说,通过检查谷歌健康研究在透明度方面的不足,“我们为更广泛的领域提供了潜在的解决方案。“这不是一个不可能的问题。GitHub、Bitbucket等在线存储库已经允许共享代码。还有一些允许共享深度学习模型,比如ModelHub。ai,支持TensorFlow等框架,该框架由谷歌健康团队使用。

除了AI型号的详细信息,还有一个共享这些模型的数据的问题。这是医疗AI的一个特别是棘手的问题,因为许多数据集都在许可证中,共享可以生成隐私问题。然而,这不是闻所未闻的。例如,基因组学具有数十年的患者数据集 - 基本上每个人的遗传“基本代码” - 并存在广泛的指导方针来保护患者隐私。如果您曾使用过23个和Me祖先吐痰套件,并为您的数据提供了用于大型基因组研究的同意,您可以从这些指南中受益。设置类似医疗AI的东西并非不可能。

最终,医疗AI透明度较高的条形将有益于整个领域,包括医生和患者。“除了提高可访问性和透明度之外,这些资源可以大大加速模型开发,验证和转型到生产和临床实施,”“作者写道。

谷歌健康,您的回应

由斯科特麦金尼博士的领导,谷歌健康没有碎的话。他们的一般论证:“毫无疑问,评论者通过保护未来的患者和科学原则保护。我们分享这种情绪。“但在目前的监管框架下,我们的双手在开放分享方面被绑在一起。

例如,当涉及到发布他们模型的一个版本,让其他人在不同的医疗图像集上测试时,该团队表示,他们根本不能,因为他们的人工智能系统可能被归类为“医疗设备软件”,需要受到监督。不受限制的释放可能会导致责任问题,将患者、提供者和开发人员置于风险之中。

至于共享数据集,谷歌Health认为他们的最大来源使用使用的应用程序可在网上访问(只需一丝Sass,他们的组织帮助资助资源)。其他数据集,由于道德板,根本无法分享。

最后,该团队争辩说,共享模型的“学识表” - 即,它们是如何构建的 - 可以无意地将培训数据集和模型暴露给恶意攻击或滥用。这肯定是一个问题:你可能有以前听说过GPT-3,OpenAI算法,它像人类一样对欺骗Redditors的人来说了一个星期。但只有一个真正有病的人才会为了某种扭曲的满足感而糟蹋一种乳腺癌检测工具。

发生的房间

学术上的谷歌健康辩论只是全球医疗人工智能计算的一个小角落。2011年9月,国际财团医学专家介绍了一套官方188体育365标准,用于部署医学中的AI临床试验,其目标是从值得信赖的算法中拔出AI Snake油。一个点可能听起来很熟悉:真实单词中的医疗AI功能如何,远离实验室的有利培训集或条件。指导方针代表涉及医疗AI时的一些,但不会是最后一个。

如果这一切看起来都是抽象的,高高在上的象牙塔,那么换个角度想想:你现在正在目睹它发生的房间。通过公开发布谈判和讨论,AI开发者正在邀请更多的利益相关者加入到对话中。就像自动驾驶汽车一样,医疗人工智能似乎是不可避免的。问题是如何在获得公众信任的同时,以一种安全、平等的方式进行判断和部署。

图片来源:Marc ManhartPixabay

范雪来是一位神经科学家出身的科学作家。她在不列颠哥伦比亚大学(University of British Columbia)完成了神经科学博士学位,在那里她开发了神经退化的新疗法。在研究生物大脑时,她开始对人工智能和所有生物技术着迷。毕业后,她搬到了加州大学旧金山分校,研究以血液为基础的因素,使衰老的大脑恢复活力。她是……

遵循搁置: