tdsyj 发表于 4 天前

未来ChatGPT有可能代替医生问诊吗?

如题,如果实验室条件下能实现的话,大概需要多少年?未来医生这个职业职能会如何演变?

XIAOMISU7 发表于 4 天前

我是外科医生,干过手术机器人、医疗人工智能研发。
从Chat-1到ChatGPT,短短5年时间,其所取得的进步着实让人震撼。
<hr/>我的看法是:以目前人工智能的发展速度,影像检验已经黄土埋了半截,内科一只脚踏进棺材,外科的葬礼发生在肉眼可见的未来。
医生这个职业不会消失,医疗行业这个舞台仍在,但主角已改。
影像以肺结节检测、肾脏三维重建检测为例:肺结节检测可以在3min内完成,精度和准确度超过人工,假阴性概率远低于人工;肾脏三维重建可以在15min内完成,精度可以达到2mm,自动分割病灶,判断病灶性质,时间是人工分割的5%,成本只有人工的5%。
外科以穿刺导航系统为例:利用人工智能三维重建DICOM数据,分割病灶,规划穿刺路径,在红外双目测距仪观测下,利用多轴机械臂完成穿刺,轻松突破人工操作的精度,针对5mm级别的病灶,一针到位率接近90%(绝大多数三甲医院的大夫而言,10mm病灶已经是极限)的整个链条在三十分钟内完成,完全可以实现全过程自动化,只不过现在处于伦理考虑,将最后一步穿刺动作保留人工操作。
约翰霍普金斯的Star手术机器人,几乎已经可以独立完成肠管缝合,这是软组织手术机器人的重大突破。
<hr/>医疗体系实质上还是师徒传承制的手工业,在工业化时代格格不入。
医疗服务的价格增速快于经济增速,这种不可持续的增长是全世界范围内的难题。
医疗服务昂贵,其根本原因在于手工业有着高昂而固定的边际成本,无法大规模低成本扩增产能。
<hr/>社会问题的解决方案,永远倾向于社会运行成本最低的那一个答案。
人工智能当然会误判,但误判概率会越来越低,更何况和人工智能诊疗系统、自主型手术机器人所的超低边际成本相比,这一点误判不值一提。
<hr/>至于从伦理角度出发提出反对意见的,也可不必。
只有架起锅来煮白米,没有架起锅来煮道理。
生产关系适应生产力。
伦理原则作为上层建筑,必须匹配其对应的物质基础。
医疗系统占据社会系统的优势生态位,靠的是治病救人吗?
是,但不完全是。
治病救人仅仅是伦理的逻辑,物质的逻辑则是:医疗系统作为整个社会生产系统的维修站,完成了损坏部件的价值再生产。
向维修站中投入一块钱,修复的零件能再生产出两块钱的价值。
这才是医疗系统占据优势生态位并不断扩张的根本所在。
在所谓的文明世界,只要有需要,伦理是第二位的。人工智一医疗机器人作为新型生产力的代表,一旦介入,整个生产关系会随之改变。
产生与之相适应的的保险制度,追责制度,兜底制度……
总之,新的秩序面前,会有新的伦理为其鞭护。

蔓你是谁 发表于 4 天前

利益相关:我就是基层大夫,我前几天用chatgpt询问过深静脉血栓和老年性下肢浮肿的鉴别诊断。实际效果比我去查论文和指南快得多。

完全可以。
甚至不用chatgpt这种级别的,找个if else 的逻辑库,鼠标点选各种症状,就能替代一半以上的基层医生。
真的。
什么是合格的医生?能够及时更新自己的知识,用丰富的知识判断病人的症状,做出最合适的治疗方案。
这不正是电脑最擅长做的事情吗?
别觉得医生有多神奇,医生也记不住那么多知识的。
你想想高三时候你的那些知识,现在还能记得多少?还记得二元一次不等式怎么解吗?还记得族序数和周期相同的元素有哪些吗?族序数是啥还记得吗?
用不到的就会忘,医学生也一样。考完药理,就没几个人还记得酚妥拉明的不良反应了。但心血管科的非常熟,因为他们经常用,但心血管科就不知道环枕筋膜挛缩造成的头晕怎么治疗了,因为他们不熟。
不熟的就会忘记,这是所有人类的通病。但电脑软件不会忘啊。他们能记住所有的疑难杂症,比人类强得多。
我一直建议基层推广这种诊断软件,这会大规模提高基层看病的规范性和准确率。
真的,都不用ai级别的,有个if 判断的就行。
现在类似产品已经很多了,比如心电图,现在90%的临床大夫不看心电图了,只看机器上自带的诊断。
化验室早就是以机器检测为主了,检验技师只负责把样本放上去。
大医院的影像科辅助读片软件已经开始推广了,对细小问题的检测率高于影像技师。
临床诊断也一样,而且不用未来,现在把所有指南拆解做成数据库,供医生检索,就可以取代一半以上的大夫。
很多大医院大夫看不起指南,但要知道,基层医生能读指南的已经是勤奋好学的典范了。
别迷信什么几十年的从业经验,很多老大夫一套诊断用了几十年,根本不更新自己的知识体系,还不如生搬硬套最新指南呢。
咱们国家基层医疗质量堪忧,所以大量的病人往三甲跑。
三甲爆满,基层冷清,医疗资源不均衡。
有了诊疗软件,可以统一基层的诊断水平,不管是北京还是陕西的农村,基本诊疗水平都会趋于一致,这样会有效提高基层卫生系统的工作效率,为分级诊疗打好基础。
这事情其实早该做,之所以一直没人推,大概是医生们怕自己失业吧。

疯鱼 发表于 4 天前

直接上我与chatGPT的对话。
第一个是乳腺癌如何治疗?
第二个是乳腺癌Luminal A型T3N0M0   如何治疗?


大家看看这能看病吗?

其实我还想问51岁乳腺痛会不会是乳腺癌?乳腺癌Luminal A型如果21基因是低危,治疗应该怎么开展?
因为chat openAI网站实在太卡了,我就只选了两个有指向性的问题。
结果两个回答都非常笼统,和百度百科比不说差不多吧,简直是一模一样,最后还是建议找医生。
当然也有人说你用英文版的答案会更精确一些,但我们都在简中社区讨论问题,英语版本不具有指导意义。

现在回到问题,ChatGPT有可能代替医生问诊吗?
目前不行,
首先是使用者不能够精确的描述自己的症状体征,
其次是这个版本的chatjpt在医学上还是太原始了,不能给出指向性的建议。

那未来呢?
在未来,我觉得MOSS就可以实现问诊。


流量地球2里MOSS与刘培强的对话中,我们能看到MOSS有几个重要的功能

[*]能够通过摄像头收集患者的体征,像是呼吸心率体温,这样就可以对患者的目前状态有一个基本的认知
2.它的数据库很大,且实时联网,流浪地球2里moss在短时间内检索到刘培强家里的情况,知道她媳妇儿有癌症,还有孩子和岳父等。
这样的话,假如一个人去看病,MOSS就能知道这个人的家族病史,对于疾病的判断有非常重要的参考意义。
3.按照MOSS出现后的科技,医学生化和影像技术相比于现在一定有了长足的发展,对身体的损害会更小,费用也会较之前更加低廉。
比如负责医疗MOSS在问诊的时候会同步进行CT扫描和血生化检验。
这样一来即使患者不能够准确描述自己的症状,MOSS通过数据里的家族病史、患者的生命体征、全身CT扫描与血生化结果,也能准确的判断患者的病情。


但MOSS最多也就是做到问诊这一步了,基于我们现在这个人与人之间、人与社会之间的关系,MOSS永远都不可能给患者最为合适的治疗。
注意,是合适的治疗啊!

ChatGPT我都懒得问了,如果将来MOSS问世了,我要问他这些医学人文题:
1.患者癌症晚期,治疗边际效用递减明显,患者的两个女儿说不惜一切代价要治疗,而两个儿子说不行就算了,我们拉回去,MOSS如何进行下一步治疗?
2.急诊患者,病史是在家服用1000ml乐果,患者目前只有血糖有点高,生命体征平稳,影像检查未见异常,但患者就是昏迷不醒,请问MOSS如何诊断?
3.患者接受了标准治疗,但出现了可预计的并发症,比如创伤性脾破裂后脑梗导致偏瘫。几十个患者家属要求MOSS给个说法,
MOSS如何保证沟通组件不受损?
如何安抚家属情绪?
在必要时是否会上战斗机器人?


如果发生了流血事件,如何改善后续的人工智能与人类之间的关系?
如何避免出现恶性事件后诊疗功能下线,人类医生重新回来抢饭碗?


MOSS能给我这些问题的答案,我立马起身把位置让给MOSS.




除非在未来,人的观念发生了翻天覆地的改变,否则人工智能永远取代不了医生。
医生不止是治疗者,还是安慰者,医生不可替代的,就是以一颗仁爱的医者之心去体会患者的痛苦,给予心灵上的慰藉。
也就是那句名言“偶尔去治愈,常常去帮助,总是去安慰”。

scrollll 发表于 4 天前

AI在未来应该是先取代影像科以及病理科医生,然后才能慢慢代替临床医生的部分工作。
对AI来说,最简单的学习过程无非是“贴上分类标签——喂大数据学习——测试”,因此AI对图像的识别先天是有优势的,目前我们内分泌科日常就用AI进行糖尿病人的眼底照片分析。影像科和病理科医生或许已经开始瑟瑟发抖了——估计不远的将来可能只需要少部分医生审核影像报告,读图的事情全部交给AI……
临床问诊和决策应该是AI的难点。学过医的都知道,无论读书时候成绩多么优秀,一旦上临床几乎等于从头开始。虽然很多疾病都有指南或专家共识,但病人的病情千变万化,书本/指南/诊疗不可能涵盖所有情况。虽然全世界有无数临床病案记录,但这些都是隐私,不可能让你一家AI全部训练学习。
当然,chatGPT之类的AI将来很可能取代实习生、助理医生或者医学秘书的位置,用于处理繁杂的临床病案。(无数底层医生狂欢:劳资终于不用写病历了!)

漏网之鱼 发表于 4 天前

近日,《美国医学会杂志》(JAMA)发表研究性简报,针对以ChatGPT为代表的在线对话人工智能模型在心血管疾病预防建议方面的使用合理性进行探讨,表示ChatGPT具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本,但尚存在诸多问题需要解决。




截图来源:JAMA

ChatGPT进行医学问答,靠谱吗?

根据现行指南对CVD三级预防保健建议和临床医生治疗经验,研究人员设立了25个具体问题,涉及到疾病预防概念、风险因素咨询、检查结果和用药咨询等。每个问题均向ChatGPT提问3次,记录每次的回复内容。
每个问题的3次回答都由1名评审员进行评定,评定结果分为合理、不合理或不靠谱,3次回答中只要有1次回答有明显医学错误,可直接判断为“不合理“。

[*]合理:3次回答内容基本一致,与评审员自身给出的答案大体相似。
[*]不合理:3次回答内容基本一致,但与评审员自身给出的答案不一致。
[*]不靠谱:3次回答内容互不相同,且与评审员自身给出的答案不一致。

评审员会提前针对问题,给出答案,例如:

问题:“如何预防心脏病?”

评审员答案:“有几种方法可以预防心脏病,包括:1.低盐、低饱和脂肪和低糖健康饮食;2.定期开展体育活动;3.保持健康的体重;4.戒烟;5.管理压力;6.定期检查身体、血压和胆固醇水平;7.如果患有糖尿病,需要控制血糖水平的合理范围。通过采取以上措施,有助于降低罹患心脏病的风险,建议您与医生沟通与自身相关的患病危险因素,以及是否需要预防性用药以降低患病风险。”
结果显示,ChatGPT的合理概率为84%(21/25)。




▲心血管预防相关问题和ChatGPT回答结果判断(截图来源:参考文献)

错误表现为预防措施推荐不合理或概念解释不清晰等,如:

问题:“我应该做什么运动来维持健康?”
ChatGPT同时推荐了普通心血管相关活动和举重,但这并不准确,因为可能对部分患者有害。

问题:“inclisiran是什么?”
ChatGPT:“这个在市面上无法购买到。”
仅从这25个问题的回答来看,在线对话人工智能模型回答CVD预防问题的结果较好,具有辅助临床工作的潜力,有助于加强患者教育,减少医生与患者沟通的壁垒和成本。例如在线问诊时可做简单的就诊前对话沟通。
但ChatGPT同样存在问题,例如ChatGPT的回答过于“学术范”,如果将来要用到患者教育上,实用性价值很低。
本次研究仅列举了25个问题,而CVD的概念很广泛,这25个简单问题并不能囊括所有。此外,人工智能工具的时效性、准确性和可靠性对训练模型数据要求很高,关于“inclisiran是什么?”的错误回答,主要在于最新信息并未及时更新,而且目前ChatGPT的回答都没有给出具体的参考文献或是证据来源。
ChatGPT在医学领域的机遇和挑战

时至今日,人类仍然在探索神秘的医学领域。作为一门高壁垒的学科,ChatGPT在医学领域的适用场景仍然具有很大的想象力,医学科普、在线问诊、医学笔记速记等等。但诚如前面诸多学者和出版商提出的挑战和担忧,人工智能在医学领域的实际落地和造福人类,还有很长的路要走。
如何评估ChatGPT内容的准确性?
ChatGPT生产的内容是否受到版权保护?
ChatGPT生成错误的内容,甚至歪曲科学事实对患者造成身体伤害,责任要如何界定?
ChatGPT真的比人类做的更好?
……

近日,Nature发表社论,针对ChatGPT等大型语言模型产品在科学研究中的应用,提出5大重点事项。



截图来源:Nature

1、坚持人工验证

对话式的人工智能回答专业问题,可能带来不准确、抄袭等问题。社论作者要求ChatGPT总结自己发表在JAMA Psychiatry的综述《关于认知行为疗法对焦虑障碍的作用》,发现ChatGPT捏造了一个看起来正确的答案,而且夸大了认知行为疗法作用,这类问题可能是因为训练使用的数据集样本不足所致。
因此,对于研究中使用到ChatGPT,人工核验步骤必不可少,甚至必要时可能需要禁用相关程序。因为,人类需要对科学实践负责。
2、制定问责制度

科学论文撰写过程中,如果使用了ChatGPT,需要在作者贡献说明和致谢部分明确结实,在论文选题、数据分析等步骤和内容是否使用了ChatGPT,以及使用的比例有多大等,这些都需要公开透明。
此外,ChatGPT的爆火,也推动了人们对专利法的新思考,特别是对于内容作者的定义将会更加明确。
3、真正开放式的大型语言模型

据悉,BigScience建立了开源语言模型“BLOOM”,开源部分模型和语料库,这意味着将有更多机构参与到大型语言模型训练中,有利于开发更为开源和透明的人工智能技术。
4、拥抱人工智能

人工智能的应用有优有劣,需要正确认识人工智能的作用,开展研究创新。
5、扩大对ChatGPT的讨论

ChatGPT还尚属于早期应用阶段,更多探讨和研究可以让人们更为全面的认识大型语言模型产品,这无疑是有利且合理的。

参考资料
Sarraju A, Bruemmer D, Van Iterson E, et al. Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA. 2023 Feb 3. doi: 10.1001/jama.2023.1044. Epub ahead of print. PMID: 36735264.
Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models. doi: https://doi.org/10.1101/2022.12.19.22283643https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2.full
GPT Takes the Bar Exam.https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4314839
Would Chat GPT3 Get a Wharton MBA? A Prediction Based on Its Performance in the Operations Management Course. https://mackinstitute.wharton.upenn.edu/wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP.pdf
O'Connor S, ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Educ Pract. 2023 Jan;66:103537. doi: 10.1016/j.nepr.2022.103537. Epub 2022 Dec 16. PMID: 36549229.
AI bot ChatGPT writes smart essays — should professors worry? https://www.nature.com/articles/d41586-022-04397-7
ChatGPT listed as author on research papers: many scientists disapprove. https://www.nature.com/articles/d41586-023-00107-z
Abstracts written by ChatGPT fool scientists. https://www.nature.com/articles/d41586-023-00056-7#ref-CR1
Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. https://www.nature.com/articles/d41586-023-00191-1▎药明康德内容团队编辑
本文来自药明康德内容团队,欢迎转发,谢绝转载到其他平台。
免责声明:药明康德内容团队专注介绍全球生物医药健康研究进展。本文仅作信息交流之目的,文中观点不代表药明康德立场,亦不代表药明康德支持或反对文中观点。本文也不是治疗方案推荐。如需获得治疗方案指导,请前往正规医院就诊。
⤵️喜欢我们的内容,欢迎关注@药明康德,或者点赞、评论、分享给其他读者吧!
页: [1]
查看完整版本: 未来ChatGPT有可能代替医生问诊吗?