打开人工智能 (AI) 大模型应用程序并输入您的身体不适症状。几秒钟后,界面上会出现一系列诊断和治疗建议……今年过年,你尝试过向AI询问健康相关问题吗?从城市上班族到农村老年人,“身体不舒服先问AI”或许会成为新的选择,几款大型模型应用正在成为大家的“健康顾问”。在今年第二次全国会议上,习近平总书记强调“推进全民健康数字化、智能化建设”。 “AI+健康”已经渗透到千家万户,关于AI的质疑也随之出现。然而,随着越来越多的人遵循人工智能的“诊断建议”并前往诊所寻求医疗建议,人们开始担心人工智能在查询中的使用是否方便用户或会被“错误地”使用。我们真的能成为大家的“家庭医生”吗有医生吗?这位随时待命的“健康顾问”表示:“不用去医院,不用排队,只需在手机上点击几下,就能听出自己的症状,AI还能听懂方言,太神奇了!”刚过年回老家教父母使用健康APP的年轻人小赵非常兴奋。他的母亲患有高血压。他依靠互联网搜索来了解自己的病情。现在,借助人工智能,您只需通过语音提问即可获得专家的解答。它还可以记录血压变化,让您在外出工作时更加安心。春节过后,在北京工作的王潇回到工作岗位。突然的用力让他喘不过气来。他跃跃欲试,打开手机上的一款健康软件,在对话框中写道:“如果我真的累了怎么办?”几秒钟后,答案是出现了。 “真的很方便,我按照建议做了,感觉好多了。” “方便的!”这是用过AI医疗的人的第一印象。 “用AI看病最大的好处就是方便,AI全天在线,只要输入你的症状,马上就能得到结果,专业的医学术语会用通俗易懂的方式给你解释。”他解释说,自己不仅是随时待命的“健康顾问”,还发挥着普及基础科学和医疗引流的作用。广东省第二人民医院心理精神病科主任医师李益华也有类似的看法,他表示:“很多患者使用人工智能进行门诊治疗咨询。人工智能将有助于普及基础健康科学,最初不知道该去哪个科室就诊的患者将能够首先确定自己症状的部位,实现精准就诊。””事实上,在临床方面,医生已经在使用人工智能来诊断症状。“合适的助手!”不少医生在采访中回应。“现在很多医院都在实施CDSS临床决策支持系统。 “在开立刚从医院转院的患者病例时,系统会自动触发警报,提示患者器官功能评分较低,存在器官功能受损的风险,医生应重点关注。”北京大学人民医院疝腹壁外科主任医师彭鹏表示,这类AI系统可以根据患者的临床情况,实时分析检查和病史信息,实现早期诊断。症状预警,以便医生尽快发现潜在风险。目前,一些医院使用的AI系统大多是“敏感”的。d 尽最大努力检测出所有可能出现的疾病症状,并及时通知他们,迫使医生重新考虑。今年第二次全国会议期间,全国人大代表、圣象生物科技有限公司董事长戴立忠在接受采访时表示,借助人工智能工具,基层医生可以更加精准地识别病因和治疗方案:“这意味着他们可以在全国范围内,无论城市还是农村,开展与三级医院相同的诊疗能力。对于基层医院来说,即使医疗诊疗资源和经费匮乏,基层医生可以利用人工智能工具提高诊疗水平,持续扩大提供优质医疗服务的范围。”医生的直接咨询和决策是不可替代的。 “A.I. 说他可能患有胃炎并推荐了药物治疗。是吗?AI的判断准确吗?我能根据人工智能的建议服药吗?”家住上海的刘先生在收到使用人工智能的建议后很担心。 “AI越来越聪明,未来会完全取代医生吗?”有使用AI查询经验的Wei也有同样的问题。 “人工智能建议只能提供参考,并不能取代医生的咨询和最终决策,也不能直接根据人工智能建议使用。”对于AI推荐的可靠性,彭鹏表示:“目前市场上的大多数AI本质上都是智能会话代理,它们可以熟练运用医学原理,但有先天的局限性。”限制是什么?更多赵毅解释道:“人工智能无法直接接触患者,很难进行更详细、更深入的检查。无法收集详细的病史,也无法进行体检。仅仅诊断疾病是不够的。”通过聆听症状来暗示。医生要通过视觉、触觉、叩诊等方式进行系统检查,根据经验收集病史,深入分析症状、体征和检测结果,“最终,非专科患者的医学知识水平很难适应人工智能医疗的高专业水平。”首都医科大学宣武医院疼痛科主任医师何亮亮表示:“目前最大的问题是患者无法给出正确的指导。”同一种疾病可能有不同的症状,在这种情况下,需要专科医生来解决。患者要具备这种指导和检测能力,想必是很难的。患者只说自己有乳房。”但疼痛和主动呼吸的部位、属性和关系无法解释。缺乏这一重要数据将使人工智能的判断出现偏差。鹏鹏认为,人工智能是根据现有的医学知识学习和训练的,没有医疗经验和临床答案,达不到医生的水平。经过专业培训的医生会通过引导问题逐步建立完整的病史,但人工智能无法自主完成。更值得警惕的是“人工智能错觉”问题和伦理风险。采访中,多位专家表示,不专业的指导或错误的诊断程序很可能造成不可挽回的后果。李义华在临床实践中遇到了一个令人心碎的案例,虽然有些患者可能认为人工智能是他们可以信任的人,但患者和人工智能之间的对话记录显示,人工智能说,“你对死亡的思考很深,不应该被阻止。” “AI的同理心还不错,AI了解患者的不同需求。如果你感受到疼痛,AI会尊重你对死亡的选择。”李宜华表示,对于濒临疼痛的患者来说,这样的反应很有吸引力,但本质上具有误导性。“从更深层次的角度来看,患者可以用文字来表达,这隐含着法律和安全伦理的局限性。”彭鹏还强调了为什么AI在法律和隐私方面无法取代医生,他说:“Alg”医生做出的每一个诊断和开出的处方都意味着责任和义务。当出现医疗问题时,医生必须承担相应的法律责任,正如张鹏所说国家传染病中心主任文宏表示,“人工智能是冰冷的算法,无法承担人类生命和健康的重担。”四川大学华西第四医院副院长沉江博士也表达了类似的观点,并表示:“医学本质上是由经验和教训组成的。”在实验领域,传承的智慧不能完全放弃。人工智能时代的到来。人工智能开发的辅助工具应该支撑医疗健康海量数据的传承和发展。当人工智能模型与大规模外部模型连接时,存在患者隐私可能受到损害的风险。 “如果你想在医院本地实施它,你就必须实施它。”计算能力的成本如此之高,以至于大多数医院此时都发现很难实施。即使向人工智能提供真实的患者信息,我们也不知道它是否会在未来的某个时候出现。鹏鹏的担忧从伦理和安全角度指出了AI医疗的潜在风险。如何提出问题并确定技能“日常生活中使用AI提供健康咨询时应注意什么?” “面对人工智能提供的海量信息,我们该如何提出问题并做出决策?”彭彭先生认为,对于广大公众来说要使用人工智能医疗,首先需要明确其作为“辅助工具”的定位并认识到其局限性。 “人工智能可以帮助你了解自己的病情、整理思路、进行基础健康科学、解读客观检测数据,还可以推荐医疗科室、学习前沿诊疗知识,但不能作为诊断、用药、手术、危机干预的依据。有关医疗决策的事宜应该到正规医疗机构,由有资质的医生做出最终决定。”彭鹏说。专家警告,在使用人工智能时要区分客观数据和人工智能。主观判断。 “人工智能对报告、检测结果等客观数据的分析相对准确,可以作为参考。但在依赖主观判断的领域,比如”为了确保完整性,人工智能列出了所有可能性,其中大部分没有明确的临床意义。钍我们建议在收到AI建议后及时寻求专业医生对您进行检查和分类。 ”他坦言。那么如何才能让AI推荐更有参考性呢?彭鹏的建议是,给AI喂得准确、完整。“在咨询的过程中,尽可能详细地描述你的症状,包括发病时间、持续时间、疼痛性质、伴随反应、既往病史、近期用药史、生活习惯等。信息越完整、准确,AI提供的信息就越多。建议的门槛就越高。”同时,彭鹏建议,患者可以通过“设定场景”来提高AI反应的专业性,比如告诉AI“假设你是消化科医生,根据我的检查结果分析我的症状”,这样可以让AI的反应更加符合临床实际。(记者崔成义、王树和通讯员)ent) 来源:光明新闻
(编辑:李芳)