人类智慧与人工智能:医生的AI,还是AI医生?
● ● ●
“当一个无人驾驶汽车刹车失灵,是往左转撞死一个人,还是往右转撞死五个人?这个时候是否人类文明的伦理适用于人工智能?”11月22日,北京大学健康医疗大数据研究中心副主任王海波用伦理学的经典电车难题,引出了智慧医疗的一个核心议题——
人工智能当前的一个非常大的特点是,它有不可解释性,让人不明觉厉,但在医疗领域则可能面临巨大的伦理挑战。当医疗AI对的时候,所有人皆大欢喜;当医疗AI犯了错,尽管概率很小,但错的时候,谁来负这个责任。是医生吗?是写程序的程序员?还是签字买这个医疗AI的院长?
在当天由“知识分子”和北京大学健康医疗大数据国家研究院联合主办的“智慧医疗:潜力与挑战”论坛上,三位来自医学、人工智能、伦理学领域的嘉宾,就人类智慧和人工智能在真实医疗情境下的发展,展开了精彩对话。
当前,在需求、政策、资本和技术的共同驱动下,中国的智慧医疗产业正进入高速发展期。这是一个人口规模巨大的健康医疗市场。
北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏
民生的需求是排在第一位的。北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏在此次论坛中表示,当前中国医疗健康面临恶性肿瘤、心脑血管等重大疾病,医疗手段有限,临床实践大量依靠人力,以及医疗资源分布不均衡、发展不充分等多重挑战,智慧医疗作为新的医疗模式,有望提供快捷、精准、有效,而且价格合适的医疗健康服务,从而解决老百姓的健康需求。
中国工程院院士、清华大学临床医学院院长董家鸿引用《柳叶刀》的数据指出,中国的医疗支出仅占GDP的6.5%,这仅相当于全球卫生资源投入的2%,不到美国和欧洲的1/3、1/2,却负担了全球20%人口的健康医疗,这是一个巨大的惊人的成就,但同时医务工作者也作出了巨大的风险和牺牲。
“全国只有360万医生,但中国老龄人口已经达到2.48亿,确诊为慢病患者的人数超过3亿,相对于整个社会的健康医疗服务需求,中国的医疗资源供应不足,基层和边远地区更是十分匮乏,而且资源配置严重不均衡、结构严重不合理的问题十分突出。”董家鸿表示,“智慧医疗有望成为解决医疗供需矛盾,提高成本效益的新的策略”。
巨大的需求,同时意味着巨大的市场。董家鸿表示,近年来国家连续出台政策推动智慧医疗发展,同时中国的前沿科技发展,尤其是智能技术的发展和应用,意味着未来中国数字化医疗和智慧医疗产业发展面临重大机遇。他披露的一项分析数据显示,2030年,智慧医疗的技术应用可能高达2万亿~7万亿元市场规模。
在众说纷纭的智慧医疗定义中,大数据、人工智能、物联网、互联网和云计算等核心技术的支撑,都是不可或缺的。董家鸿倡导将“智慧医疗”定义为现代科技赋能于传统的健康医疗服务,形成最优化的大健康体系。
他在演讲中特别列举了国内目前在智慧医疗领域取得的关键技术突破。包括国产脑起搏器通过精准定位和电磁刺激来治疗帕金森病、覆盖13个部位的骨科手术机器人系统、智能化精准肝胆手术系统、前列腺癌全程智能化精准医疗,等等。而在人工智能方面,包括智能药物研发、智能诊断、医疗机器人、智能影像识别和智能健康管理,将助力健康医疗产业的提质增效。
在全球范围内,人工智能也早已应用于医疗领域。腾讯优图实验室医疗AI总监郑冶枫在演讲中介绍,1990年芝加哥大学医学院首次证明计算机辅助诊断和医生的结合,能提高医生诊断的准确率。而2016年谷歌研发的眼底糖网分类技术和2017年斯坦福大学研发的皮肤癌诊断技术,证明了在特定任务下人工智能甚至超越医生。
郑冶枫所在团队专注于深度学习在医学影像领域的应用。2017年8月腾讯推出了辅助疾病早期筛查的AI医学影像产品腾讯觅影,目前已经覆盖了食管癌、肺癌等六个病种,还有更多病种在实验室研发阶段。郑冶枫指出,中国医疗影像存在供给不平衡的现状,随着影像设备(CT、MRI)数量迅速上升,影像数据每年增长30%,但影像医生每年的增长为4%,短期内难以大量增加。同时,基层医生的误诊、漏诊率高,以食管癌早筛为例,检出率不足10%。他认为,通过计算机辅助诊断是解决供需不平衡的方向。
智慧医疗的标志性方向就是人工智能的应用。尽管人工智能在医疗中的应用已经取得一些进展,但在数据资源共享、技术发展、医生训练、伦理风险等方面,依然是一个充满挑战的新的领域。
医疗健康资源,包括大数据的共享问题首当其冲。詹启敏认为,智慧医疗推进过程中的挑战在于大数据的标准、储存、安全和共享,涉及到个人隐私和知识产权。
“医疗资源共享远远不能实现,即使是一个大学的附属各个医院之间也不能共享,这个问题亟待解决”,董家鸿深有同感。他表示,医疗资源共享,一是可以避免医疗资源浪费,二是可以推动更好的医疗卫生决策,以及帮助包括人工智能在内的研究。德国有全国性医疗资源共享系统,美国实现了区域性的医疗资源共享,希望中国也能建成全民健康档案,但是难度非常大。
“表面上看数据融合比较困难,它的本质是利益格局的融合。”王海波说道,“本身数据是资产,信息流动在不同医院里有自己的利益格局,怎么处理?这不单单是技术的问题,而是社会治理的问题。”
而技术的发展在当前也面临挑战。郑冶枫谈到,人工智能应用于医学影像本质上是图像识别问题,但当前“缺乏大量标定好的数据样本”。跟其他图像不同的是,医学影像数据面临着三大困难:数据获取对专业设备有要求,还会涉及患者隐私、罕见疾病及数据标注门槛高,需要专业医生才能标注准确。
腾讯优图实验室医疗AI总监郑冶枫
为解决数据共享和训练样本不足的问题,郑冶枫介绍了“迁移学习”和建设开源平台“Med3D”(注:“Med3D”即构建三维影像的ImageNet)两种办法。前者是在有大量数据集的源域上训练模型,将模型迁移到小量数据集的目标域上,从而减少对训练样本的需求。后者则希望通过开源的办法,建立共享数据平台。
“现在人工智能的实现是在一个非常窄的领域,有海量的数据,有非常清晰的界定应用场景下,它才能做得跟人一样,甚至比人好。”王海波说,但是为了解决共享数据不足的现实问题,出现的小样本、迁移学习的模式也可能带来如适应症偏移等新的风险。
针对技术发展带来的不确定性,董家鸿认为人机协同是未来的必然选择。他阐释道,医学和工科的合作,就是从不确定性的事件中寻找确定性,AI能够给医生提供的最大帮助也在于此。某一类人群、某一类疾病里面有确定性的东西,但是病人和病人之间有很大的个体差异,这就是不确定性。这种不确定性总是存在的,最终还是要靠医生的智慧。
真实的场景总是更为复杂。北京大学医学人文学院医学伦理与法律系主任丛亚丽指出,中国的问题是医生水平参差不齐,人工智能最能帮助的是水平有待提高的医生,尤其真正提高基层和边远地区医生的水平。
北京大学医学人文学院医学伦理与法律系主任丛亚丽
“人工智能技术应用肯定要包含对于不同场景的描述,因为我们也担心它被用错了”,郑冶枫表示,“AI作为新的工具,不可能不经培训就拿来用。医生的培训非常重要。它的诊断准确率看起来比较高,但也会犯错。所以医生要花一定时间摸清楚它犯错的规律,这样才能真正有所帮助。另外流程上医生应该先读片子,再看AI的诊断,然后再去比较和综合。”
北京大学医学部副主任肖渊就此补充道,一个国家全民的健康应该有一个完整的医疗体系。其中要有分层、要有分类指导,要有不同发展阶段的推动。从实践来看,当前这个体系还不完善,怎么更好地发挥AI技术的作用,各个地区也在做不同的探索。比如社会经济发展比较好的地区,像深圳就用医联体的方式,在互联网上构架了一个比较均衡化的医疗服务水准和平台。而宁夏采用的是另一种方式,他们是建立医学中心,通过互联网技术把心电图、X光片中的影像学等比较好传送的基础诊断上传到上一层的医疗中心。在社会经济发展不平衡的状态下,用技术分类指导推动医疗更好地服务于人、服务于整个民众的健康是很有必要的。
在论坛圆桌讨论环节,嘉宾们从各自经验出发对“人工智能会超过人吗?”“人工智能是否会伤害人类?”“人工智能发展的边界在哪里?该如何制定规则”等问题进行深入探讨。
在人工智能与人的比较上,丛亚丽表达了深切忧虑,“我觉得人类智慧在AI面前会失能,AI会大大胜出”,因为AI不会感到疼痛和失去。
“我觉得现在还处于非常初步的阶段”,郑冶枫认为,“人工智能替代人类,那是50年后、100年后的事情,现在要着眼于各个具体的问题,把算法的准确率提高,使其跟医生协同合作,改善医疗环境。”
在董家鸿看来,在某些方面人工智能可以超过人,但在总体的智慧上,机器永远不可能超过人类。
“技术是服务于人的,人工智能的发展是为了为人类提供更好的健康服务。”董家鸿说,“我们要认识到是医生的AI,而不是AI医生。”
从医疗服务诊断的感知、认知、决策、干预几个主要流程上,他进一步分析道,人工智能可以在感知方面超越人的极限,在认知方面也可以在某种程度上超越人,为医生提供辅助决策支持。包括对于肿瘤发生机理的研究,未来如果在算法上无法取得突破,则对于肿瘤本质的认识和防治策略不可能有突破。但是个体疾病复杂的变异性,常态的个体差异,一定还需要医生的智慧。如果要求医生遵从机器的决策,那会出很多问题。而从干预方面,机器可以提高手术操作的精度和可控性,但必须要由医生做出判断和控制机器人,否则要出问题。
董家鸿认为,当前医疗AI风险在于不可解释性,那就是为什么人工智能能够作出准确的判断,如果没有明晰的原理可解释,在实际使用过程中医生心里不踏实,患者接受起来也有疑虑。“如果一个医生犯了错,受损害的是一个病人。如果人工智能机器人出了错,将会损害一批病人。”因此,董家鸿主张将机器人作为辅助,让它处理确定性的事件,由医生来处理不确定性事件,并承担起法律上的责任。
对此,郑冶枫则认为人工智能“不可解释性的问题被夸大了”,“如果把AI想象成药物(有效但机理暂未明确),就不会苛求它的解释性了,有解释性当然是锦上添花。”他主张,把AI限制在固定场景下应用,且确实证明有效即可。
“医学里确实有很多东西背后的原理和机制还没有搞清楚,也不能等待原理机制都搞清楚了再去应用”,董家鸿就此表示,对于不可解释的药物、人工智能技术,应该严格限定它的应用边界。如果可解释,人就可以有更大的发挥,懂得它的机制可以举一反三。不可解释的情况下,如果在某个领域被证明是有效的,则可以允许使用。
那么,当医生的决策依赖于AI,这意味着什么?王海波提到自己参与的一项研究显示,尽管AI只是提供辅助决策的功能,但实际操作中,也可能产生对医生自主性的侵蚀。“在中国医疗资源供需失衡的情况下,当面对大量的病人和很高的工作强度,医生很可能会过度依赖人工智能决策,这种自主性被侵蚀,对医生意味着什么,对病人意味着什么,对整个医疗又意味着什么?”
董家鸿认为,问题需要从科学和伦理两个层面考虑。首先,人体和疾病都是极其复杂的,因此在人类的健康医疗服务中是不可能不出错误的。从医学的角度来看,它的发展本身就是一个不断试错和校正的过程,先进的科技手段确实能够帮助医生做出更正确的判断,做更精准的干预,但仍然不可能完全避免出错,最终主导的主体仍然是医生。医生也应该加强培训和学习,更好地理解人工智能带来的辅助决策的支持和它的局限性,从而让人类站在更高的智慧水平上更好更准确地利用人工智能。
而从伦理的角度,参与对话的专家表示,智慧医疗的目的不是方法,不是人工智能,而是为了健康,根本还是为了人。因此,需要工程、医学、伦理、法律共同探讨,最终还是在人类的健康福祉准则下,共同制定伦理法规。
北京大学健康医疗大数据研究中心副主任王海波
王海波以回应开场的伦理学电车难题作为总结,“当时我的回答是人工智能怎么选择都是错的。这个时候,人工智能应该把决定权交给车上的人。同样,智慧医疗也是,当机器作出判断的时候,最终诊断的决策权、治疗干预的决策权应该交给医生。”