一位医生兼哈佛大学计算机科学家表示,GPT-4比“许多医生”有更好的临床判断能力
他说,聊天机器人可以“像我一样”诊断罕见的疾病。
但GPT-4也会犯错误,而且它还没有做出希波克拉底誓言。
OpenAI首席执行官SamAltman,。OpenAI开发了ChatGPT及其迄今为止最完善的网络GPT-4IsaacKohane博士既是哈佛大学的计算机科学家,也是一名医生,他与两名同事合作测试GPT-4,主要目标是:了解OpenAI最新的人工智能模型在医疗环境中的表现。
“我很震惊地说:比我观察到的许多医生都好,”他在即将出版的《医学中的人工智能革命》一书中说道,作者表示,微软和OpenAI都不需要对这本书进行任何编辑监督,尽管微软已经投资数十亿美元开发OpenAI的技术。
Kohane在书中表示,年3月向付费用户发布的GPT-4在90%以上的时间里正确回答了美国医学考试许可证问题。它比以前的ChatGPTAI模型GPT-3和-3.5好得多,也比一些有执照的医生好。
不过,GPT-4不仅仅是一个优秀的考生和事实调查者。它也是一个很棒的翻译家。在书中,它能够为说葡萄牙语的患者翻译出院信息,并将不稳定的技术术语提炼成六年级学生可以轻松阅读的内容。
正如作者用生动的例子解释的那样,GPT-4还可以为医生提供关于床边态度的有用建议,提供如何用富有同情心、清晰的语言与患者谈论他们的病情的技巧,它可以阅读冗长的报告或研究,并在眨眼间对其进行总结。这项技术甚至可以通过一种需要某种程度的人类智能的方式来解释其推理问题。
但如果你问GPT-4是如何做到这一切的,它很可能会告诉你,它的所有智能仍然“局限于数据中的模式,不涉及真正的理解或意向性”。当GPT-4问它是否真的可以进行因果推理时,他们就是这么告诉这本书的作者的。即使有这样的限制,正如Kohane在书中发现的那样,GPT-4也可以模仿医生诊断疾病的方式,取得惊人的成功,尽管并不完美。
GPT-4如何像医生一样进行诊断
IsaacKohane是一名专注于医学和人工智能交叉的医生和计算机科学家。Kohane在书中对GPT-4进行了临床思维实验,该实验基于一个现实生活中的案例,该案例涉及他几年前治疗的一名新生儿。Kohane写道,通过向机器人提供他从体检中收集到的关于婴儿的一些关键细节,以及超声波和激素水平的一些信息,该机器能够正确诊断出十万分之一的先天性肾上腺增生症,“就像我一样,凭借我多年的研究和经验”。
医生既感动又震惊。
“一方面,我正在用计算过程进行复杂的医学对话,”他写道,“另一方面,正如令人震惊的是,数百万家庭很快就能获得这种令人印象深刻的医学专业知识,我不知道我们如何保证或证明GPT-4的建议是安全或有效的。”
GPT-4并不总是正确的,而且它没有道德指南针
GPT-4并不总是可靠的,书中充满了它错误的例子。它们包括简单的笔误,比如机器人错误地计算了BMI,以及数学错误,比如不准确地“解决”了数独难题,或者忘记了对方程中的一个项进行平方运算。错误往往是微妙的,即使受到质疑,系统也倾向于断言自己是正确的。很难想象一个错误的数字或错误计算的体重会导致处方或诊断的严重错误。
与以前的GPT一样,GPT-4也可以“产生幻觉”——这是人工智能编造答案或不服从请求的技术委婉说法。
当被这本书的作者问及这个问题时,GPT-4说:“我不打算欺骗或误导任何人,但我有时会根据不完整或不准确的数据做出错误或假设。我也没有人类医生或护士的临床判断或道德责任。”
很明显,GPT-4有可能在临床上腾出宝贵的时间和资源,让临床医生能够更多地与患者在一起,“而不是他们的电脑屏幕”。但是,他们说,“我们必须强迫自己想象一个拥有越来越智能的机器的世界,最终可能在几乎所有方面都超过人类的智能。然后认真思考我们希望这个世界如何运转。”