在2024年1月16日,国内AI独角兽智谱的GLM-4发布会上,张钹教授(中科院院士)也指出,现有LLM模型不具备人类的自主决策能力,没有自我意识,输出质量不可控,不可信,不鲁棒(受到输入提示词的影响,输出观点会大相径庭)。
张钹教授(中科院院士)发言
因为技术原因,导致AI存在一大缺陷——幻觉,就是有时会生成看似合理的编造或无意义的答案。这个缺陷导致,人类必须对AI输出内容进行甄别,一些原则性很强的工作,现阶段是不适合直接交给AI来做的。
这里我们想到医学,医生的诊断和治疗方案需要基于严格的证据,各种检验检查结果,以及以往的诊疗经验。而不是基于一些语义关键词可以做出决策。
图灵奖得主莱斯利·瓦利安特(Leslie Valiant)在新加坡国立研究基金会星期六(1月13日)在新加坡科学中心举办公众论坛,演讲时提出观点:
人工智能应很难在短时间内超越人类,且生死攸关的医学决策至少目前不该交由AI做出抉择。
美国哈佛大学计算机科学与应用数学教授瓦利安特(赵世楚摄)
瓦利安特以“何为人类的独特能力?”为题,发表主旨演讲时提出,人类能受教(Educability),并用这一概念来阐述与区分人类的学习过程与机器智能的不同之处。他指出,人类不仅能够通过归纳经验获得信念,并将各种信念组合应用于具体情境,还能通过理解他人描述的信念来进行场景分析。
瓦利安特解释说,目前人工智能驱动的大语言模型,例如ChatGPT只能通过大量已标记信息的输入,经算法与深度学习后生成分类方法(Classifier)。这种智能属于归纳经验,总结规律来作答。
那么AI在医疗领域真的没有价值吗?艾瑞咨询《中国人工智能+医疗与生命科 学行业研究报告》中给出了相关发展路径。
中国AI医疗发展阶段概览,来自:中国人工智能+医疗与生命科 学行业研究报告
艾瑞咨询认为,AI在医疗行业的发展还有很长路要走,将中国AI医疗的发展轨迹分为四个阶段:
1)AI初步介入医疗阶段, 医疗数据零散地储存在各类医院信息系统中,AI技术在医疗领域的探索更偏向试探性的测试,标准化产品尚未出现。
2) AI医疗应用浮现阶段,院内外数据建设工作展开,眼底、肺部影像的标准数据库率先建立,为AI医疗影像产品领跑奠定了 基础,眼底、肺部影像产品跑出,其他产品还不明确,商业化还在起步,商业模式并不明朗,还处在多元、混沌的尝试阶 段;
3)AI医疗应用深入探索阶段,医疗数据的安全性得到维护,数据互联互通建设向数据治理与开发转变,AI医疗影像 向多疾病多科室横向拓展与纵向深挖,NLP技术产品跑出,个别赛道竞争加剧,可行的商业模式浮出水面;
4)AI医疗应 用稳定完备阶段,数据互联互通建设基本告一段落,数据共享初步实现,以KG为主的认知智能技术迈向成熟,与感知智能 协同推进各类应用的均衡互补发展,总体赛道的竞争格局与商业模式形成并稳定,头部聚集效应长期存在。
评论区