返回顶部
首页
机械 | 工程 | 工具 | 行业 | 信息 | 集合 | 诗词 | 组词 | 范文 |
您现在的位置:
首页 系统及软件 详细信息
人工智能如何解释其决策
2022-09-11    阅读量:29946    新闻来源:互联网     |  投稿

可以训练人工智能(AI)来识别组织图像是否包含肿瘤。然而,它究竟是如何做出决定的,至今仍是一个谜。鲁尔大学蛋白质诊断研究中心(PRODI)的团队盲波鸿正在开发一种新方法,使人工智能的决策透明,因此值得信赖。由Axel Mosig教授领导的研究人员在《医学图像分析》杂志上描述了这种方法。

在这项研究中,生物信息学科学家Axel Mosig与病理学研究所所长Andrea Tannapfel教授和来自鲁尔本科的肿瘤学家Anke Reinacher-Schick教授合作盲圣约瑟夫医院,生物物理学家和普罗迪创始董事克劳斯·格沃特教授。该小组开发了一种神经网络,即人工智能,可以对组织样本是否含有肿瘤进行分类。为此,他们向人工智能提供了大量显微组织图像,其中一些包含肿瘤,而另一些没有肿瘤。

“神经网络最初是一个黑匣子:不清楚网络从训练数据中学习了哪些识别特征,”Axel Mosig解释说。与人类专家不同,他们缺乏解释自己决定的能力。“然而,特别是对于医疗应用,人工智能能够解释并因此值得信赖,这一点很重要,”参与该研究的生物信息学科学家David Schuhmacher补充道。

人工智能基于可证伪的假设

因此,波鸿团队的可解释人工智能基于科学已知的唯一一种有意义的陈述:可证伪假设。如果假设是错误的,这个事实必须通过实验证明。人工智能通常遵循归纳推理的原则:使用具体的观察,即训练数据,人工智能创建一个通用模型,在此基础上评估所有进一步的观察。

250年前,哲学家大卫·休谟(David Hume)就已经描述了潜在的问题,并且可以很容易地说明:无论我们观察到多少只白天鹅,我们都无法从这些数据中得出结论,即所有的天鹅都是白色的,也不存在任何黑天鹅。因此,科学利用了所谓的演绎逻辑。在这种方法中,一般假设是起点。例如,当黑天鹅被发现时,所有天鹅都是白色的假设就被证明是错误的。

激活图显示肿瘤的检测位置

Stephanie Sch说:“乍一看,归纳人工智能和演绎科学方法似乎几乎不兼容。”枚rner,一位物理学家,同样对这项研究做出了贡献。但是研究人员找到了一种方法。他们的新神经网络不仅提供了组织样本是否包含肿瘤或无肿瘤的分类,还生成了微观组织图像的激活图。

激活图基于可证伪的假设,即从神经网络导出的激活精确对应于样本中的肿瘤区域。位点特异性分子方法可用于检验这一假设。

Axel Mosig总结道:“得益于PRODI的跨学科结构,我们具备了将基于假设的方法纳入未来可信生物标志物AI开发的最佳先决条件,例如,能够区分某些治疗相关的肿瘤亚型。”。

标签:
免责声明:本文仅代表作者本人观点,与中网机械(okmao.com)无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:23341571@qq.com | 客服QQ:23341571
全站地图 | 二级目录 | 上链请联系QQ:23341571