宏观 酒业 证券 产经 房产 银行 保险 科技 消费 证券

专访国家卫健委专家卢清君:人工智能在医疗领域的应用风险很大

在资源不足且分布不均的医疗领域,人们开始把希望寄托在机器上,医疗成为人工智能(AI)赋能的热门领域。 前瞻产业研究院数据显示,2017年中国医疗人工智能市场规模超过130亿元,并有望在2018年达到200亿元,医疗人工智能空间广阔

星期三 2019.06.12
长按二维码 阅读全文
×
Loading...

专访国家卫健委专家卢清君:人工智能在医疗领域的应用风险很大

第一财经       2019-06-12 09 : 30
A+ A-

在资源不足且分布不均的医疗领域,人们开始把希望寄托在机器上,医疗成为人工智能(AI)赋能的热门领域。

前瞻产业研究院数据显示,2017年中国医疗人工智能市场规模超过130亿元,并有望在2018年达到200亿元,医疗人工智能空间广阔。

但现实情况是,AI进入医疗领域,头上有一面穿不透的天花板。

近日,在博鳌亚洲论坛全球健康论坛大会召开期间,国家卫健委远程医疗管理培训中心主任、中日友好医院信息中心主任卢清君接受了第一财经的专访。他表示,虽然医学人工智能是发展的大趋势,但目前AI还有很多不成熟的地方,如果大规模在临床应用的话是很危险的。

第一财经:AI最近正处于风口,到处可见AI被应用到各领域,医疗领域也不例外,特别是一些互联网诊断和远程手术,有很多资本进入和概念炒作,您如何看待AI在医疗领域的使用?

卢清君:首先人工智能要一分为二地看待。一方面,从积极的态度看,医学人工智能目前是发展大趋势。大数据技术的发展使得AI已成为一个行业发展的必经之路和重要方向。从需求上来说,无论是大医院的医生,还是基层医生,都需要一些辅助用具,都需要一些用以决策的数据依据。按照人的记忆能力,是没法完成数字化大规模运算和大规模记忆存储的,这是人脑的局限性,而机器正好弥补了人类的短板。所以在很大程度上,我们对AI有很大的期待,将来在各个领域,AI都会产生重要的作用。

但回过头来说,我们要清醒地看待AI现在发展的历程。

第一,目前AI还处在非常初级的阶段,有很多不成熟的地方,包括数据模型的建立、数据的来源以及知识模型和知识标准等,这些方面都很初级。而且,目前都是工程师在建立模型,很少有临床医学的专家参与这个过程。所以在这个阶段,AI还存在很多缺陷和风险,如果大规模临床应用的话是很危险的,因为医疗是不能出错的。IT界有个行话叫开着飞机修飞机,但医疗是不行的,一定得把飞机修好了才能开上去,这是由行业的特点决定的,医疗和电商等领域都不太一样。

第二,现在的AI是基于国际开源的一些公用的模型和算法,所以它局限在我们的语音识别、图像识别,对于很多其他逻辑数据的建立,目前还很难建造一个非常符合临床医学规律的数据模型。所以,这就需要更多的数学家参与到医学AI的开发中来。我们的医学数据模型没有建立的话,将来AI的应用场景就会非常受限,会很肤浅。

所以在目前这个状态下,AI用在基层医疗上是不行的,是一个风险所在。或许很多大专家有判断能力,但是基层医生是没有判断能力的,你把这样一个机器给他,他无法判定是采取机器的建议还是拒绝机器的建议,这对诊断疾病来说就会有潜在风险。

在AI不太成熟的时候,我们不主张大规模在医疗领域推广,但是我们需要实验,需要一个局限性的、小范围的、特定环境下的实验,目的是为了帮助AI工程师们去建立更好的数学模型。

第一财经:也就是说,在医疗领域大面积铺开使用AI,除了风险很大之外,还存在很多制约?

卢清君:确实是这样,现在AI的整个设计逻辑还存在短板。它是基于一种完全可控的、可知的、可预测的数学逻辑去建立的模型,换句话说,它是符合现代简单数学逻辑的,比如“1+1=2”的这种。但我们的临床疾病很多情况下不是如此清楚的数学逻辑,它是因果关系,其中会涉及很多潜在的干扰因素,还有未知因素,所以目前建立起来的AI模型还无法模拟临床上的这种因果关系。简单一句话就是,目前的AI不具备逻辑推理能力,因为人还不知道自己的逻辑推理是怎么算出来的。

从生物学上来说,我们对人的这些跳跃性思维还不完全掌握,我们看到科学界有很多报告也对AI的一些优点和弊端做了相关鉴定。一方面,AI具备大规模的运算能力、存储能力、深度搜索能力以及快速学习能力。它目前解决的包括精确控制和远程操控,都是劳动密集型问题,也就是重复性的、简单逻辑很明确的工作关系。但是对临床诊断来说,它需要逻辑推理能力,这是AI的短板。所以目前整个AI的运用还有很大风险。

从思维方式上来说,积极的深度学习是一个连续性的学习,我们在人脑上叫连续性思维,但目前机器无法做到的是跳跃性思维。比如,我们人类有个事情解决不了,睡了一觉后,第二天早上突然灵光一现,找到了解决方案,这种跳跃性思维目前从生理学上是怎么诞生的,我们并不知道,这是脑科学还没有解决的问题,所以无法用机器去模拟这种跳跃性思维,这时候就无法完成逻辑推理层面上的治病过程。

从AI发展的技术上来说,技术本身存在很多缺陷,比如说鲁棒性的问题。鲁棒性是系统面临决策产生的干扰因素时表现出来的稳健性。人在判断错误的时候会有一些其他因素来补偿,人会及时终止自己的逻辑,会有一些潜意识的反应去防范一些恶性问题的发生。所以科学界说,人的鲁棒性是好的,后果不是很严重。但机器的鲁棒性是差的,它出现错误时自己都不知道是错的,会继续错下去,带来的后果很严重,因为它没有修正的过程。所以我们目前对AI的认识必须要看到背后的风险。

第一财经:有人说AI的最大优势就是自我学习和深度学习,随着时间的推移,你说的这些问题会不会慢慢被破解?

卢清君:从目前AI界存在的一些瓶颈问题来看,第一,它采取的深度学习方式目前已经到了天花板。深度学习的前提是需要有大规模的、规范化的、客观的、正确的数据去支撑,也就是说要有很好的教材。而我们现在医疗界是不可能有这种教材的,因为都是过去式,很多过去的病例又未必具有普遍性,每个病人都是个性化的。所以在这种情况下,AI是没有学习材料的,至少没有一个合格的学习材料。

我们在研究大数据和过去的数据的时候,你无法剔除原来犯过的错误,机器学了,它也是剔不出来的。这不光表现在我们的临床病例,还表现在学术论文上,学术论文每年都会有一些撤稿的论文,换句话说,那是后来被检验出来是错误的,但这些撤稿的论文机器都学进去了,它是无法撤除的。按照机器学习的理论,它自动建立起了知识模型,它的错误的模型已经在里面了,已经形成支撑结构了,你很难给它剔出来,因为人不知道它是怎么建立起来的。所以这就让我们感觉把机器学习当成了科学算命,就像那个黑盒子,不知道它怎么进去的,不知道它怎么出来的。

你不知道结果的可信性,你就无法判断这个结果在临床上是不是可以使用,这是目前AI最大的一个风险。所以我们要研究到底在医疗上采用什么样的方式去建立AI模型,这是当下科学界最紧迫的一个议题。

第一财经:那你觉得当前的AI技术能够在医疗界哪些领域应用呢

卢清君:目前在一些浅显的模型上是可以做的,比如一些临床路径和常规的诊疗方案,就像大众指导、简单的医学知识咨询,因为这些知识我们是可以通过行业专家共识、行业标准以及一些国际规范等来建立疾病模型,AI可以摈弃那些错误的数据。但另一些深度学习领域,比如临床病例,很多都没有经过数据清洗。

所以在医疗的AI应用上,我不太建议从深度学习做起,不应该从过去发生的案例来进行深度学习,而是应该从我们已经确定的知识结构开始,这是两个方向。中国科学院的几名院士也提出,目前的AI深度学习不适合在医疗上应用。

责编:杨小刚 此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权力。 如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。
责任编辑:CF001
点击阅读全文(剩余0%)

精彩推荐