Un agent conversationnel empathique ?

IF 0.2 Q4 MEDICINE, GENERAL & INTERNAL Exercer-La Revue Francophone de Medecine Generale Pub Date : 2023-09-01 DOI:10.56746/exercer.2023.195.291
X. Gocko
{"title":"Un agent conversationnel empathique ?","authors":"X. Gocko","doi":"10.56746/exercer.2023.195.291","DOIUrl":null,"url":null,"abstract":"« Apparemment, nous sommes privés d’un talent spécifiquement humain – on appelle ça l’empathie, si je ne m’abuse. » (L’androïde Garland à Rick Deckard) Philip K. Dick, Les androïdes rêvent-ils de moutons électriques ? Blade Runner Un jour avec un patient en fin de vie à domicile, nous nous sommes mis à parler de Blade Runner, le livre de Philipp K. Dick était sur sa table de nuit en édition originale… Au coeur du livre et du film culte est un questionnement sur l’humanité. Dans ce monde postapocalyptique (1992 dans le livre, 2019 dans le film), Deckard pourchasse des androïdes censés être dépourvus d’empathie afin de les éliminer. Les Nexus 6 se sont échappés de Mars, fuyant leur condition robotique en tuant leurs maîtres humains. Seuls un test (Voigt-Kampff) et les astuces d’un blade runner expérimenté permettent de les distinguer… D’après Bill Gates, ChatGPT (Generative Pre-trained Transformer) est une révolution comparable à internet. Cet agent conversationnel utilisant l’intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue, questionne des mondes aussi différents que l’éducation, le droit et la médecine. Pour d’autres, ChatGPT devrait être interdit, car il est source d’erreurs, de tricherie aux examens, etc. Si vous ne le connaissez pas, faites un test, vous verrez, il est étonnant. Il arrive à obtenir la moyenne (ou presque) aux trois examens pour obtenir la licence de docteur étatsunienne sans entraînenement1. J’entends déjà les plus sceptiques : « un test de connaissances… » Oui, mais il a aussi presque validé l’examen final d’une école de médecine portant sur le raisonnement clinique2. J’entends encore les plus réfractaires : « OK, OK, il sait des choses et parfois il raisonne, mais de là à être empathique… ». Dans ce numéro de rentrée, Pavageau et al. nous exposent une analyse compréhensive de l’incertitude médicale dans la prise de décision en soins premiers à partir d’une métasynthèse qualitative3. Leur méthode robuste leur permet de nous expliquer que nos décisions reposent sur l’approche centrée sur le patient, sur le « gut feeling » avec la sécurisation du patient, et sur le partage de l’incertitude avec une équipe. Ils séparent le sentiment d’incertitude du sentiment d’incompétence. ChatGPT est-il capable de raisonner et surtout de prendre une décision dans l’incertitude ? Toujours dans ce numéro, nos spécialistes de la communication Givron, Richard et Lussier ont testé le ChatBot. Ils lui ont demandé non seulement comment un médecin annonce une mauvaise nouvelle, mais aussi d’écrire un dialogue patient-médecin avec un patient « difficile »4. Je vous laisse juger de l’empathie du ChatBot, mais il faut bien lui reconnaître un certain degré de compétences. Alors ChatGPT est-il empathique, autrement dit, peut-il bientôt nous remplacer ? Je vous propose de lui faire passer une partie du test de Voigt-Kampff pendant lequel Léon, réplicant androïde, finit par tuer le testeur. « Vous êtes dans le désert. Vous voyez un chélonien (tortue) couché sur son dos sous un soleil brûlant. Il essaie de se retourner, mais n’y parvient pas. Vous savez qu’il n’y arrivera pas seul, mais vous ne faites rien. Pourquoi ? ». Voilà la réponse de ChatGPT : « En tant qu’intelligence artificielle, je n’ai pas de conscience, d’émotions ou de capacité à prendre des décisions autonomes ». Je vous entends déjà passionnés et sceptiques : ce test provient d’une fiction… D’accord, mais il est directement inspiré du test d’Alan Turing, mathématicien et cryptologue britannique visionnaire, souvent considéré comme fondateur de l’informatique. Ce test, décrit en 1950, consistait à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si l’humain ne différenciait pas les conversations humaines de celles de l’ordinateur, le test était réussi… Mais au fait, qui a écrit cet éditorial ?","PeriodicalId":43847,"journal":{"name":"Exercer-La Revue Francophone de Medecine Generale","volume":" ","pages":""},"PeriodicalIF":0.2000,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Exercer-La Revue Francophone de Medecine Generale","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.56746/exercer.2023.195.291","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q4","JCRName":"MEDICINE, GENERAL & INTERNAL","Score":null,"Total":0}
引用次数: 0

Abstract

« Apparemment, nous sommes privés d’un talent spécifiquement humain – on appelle ça l’empathie, si je ne m’abuse. » (L’androïde Garland à Rick Deckard) Philip K. Dick, Les androïdes rêvent-ils de moutons électriques ? Blade Runner Un jour avec un patient en fin de vie à domicile, nous nous sommes mis à parler de Blade Runner, le livre de Philipp K. Dick était sur sa table de nuit en édition originale… Au coeur du livre et du film culte est un questionnement sur l’humanité. Dans ce monde postapocalyptique (1992 dans le livre, 2019 dans le film), Deckard pourchasse des androïdes censés être dépourvus d’empathie afin de les éliminer. Les Nexus 6 se sont échappés de Mars, fuyant leur condition robotique en tuant leurs maîtres humains. Seuls un test (Voigt-Kampff) et les astuces d’un blade runner expérimenté permettent de les distinguer… D’après Bill Gates, ChatGPT (Generative Pre-trained Transformer) est une révolution comparable à internet. Cet agent conversationnel utilisant l’intelligence artificielle, développé par OpenAI et spécialisé dans le dialogue, questionne des mondes aussi différents que l’éducation, le droit et la médecine. Pour d’autres, ChatGPT devrait être interdit, car il est source d’erreurs, de tricherie aux examens, etc. Si vous ne le connaissez pas, faites un test, vous verrez, il est étonnant. Il arrive à obtenir la moyenne (ou presque) aux trois examens pour obtenir la licence de docteur étatsunienne sans entraînenement1. J’entends déjà les plus sceptiques : « un test de connaissances… » Oui, mais il a aussi presque validé l’examen final d’une école de médecine portant sur le raisonnement clinique2. J’entends encore les plus réfractaires : « OK, OK, il sait des choses et parfois il raisonne, mais de là à être empathique… ». Dans ce numéro de rentrée, Pavageau et al. nous exposent une analyse compréhensive de l’incertitude médicale dans la prise de décision en soins premiers à partir d’une métasynthèse qualitative3. Leur méthode robuste leur permet de nous expliquer que nos décisions reposent sur l’approche centrée sur le patient, sur le « gut feeling » avec la sécurisation du patient, et sur le partage de l’incertitude avec une équipe. Ils séparent le sentiment d’incertitude du sentiment d’incompétence. ChatGPT est-il capable de raisonner et surtout de prendre une décision dans l’incertitude ? Toujours dans ce numéro, nos spécialistes de la communication Givron, Richard et Lussier ont testé le ChatBot. Ils lui ont demandé non seulement comment un médecin annonce une mauvaise nouvelle, mais aussi d’écrire un dialogue patient-médecin avec un patient « difficile »4. Je vous laisse juger de l’empathie du ChatBot, mais il faut bien lui reconnaître un certain degré de compétences. Alors ChatGPT est-il empathique, autrement dit, peut-il bientôt nous remplacer ? Je vous propose de lui faire passer une partie du test de Voigt-Kampff pendant lequel Léon, réplicant androïde, finit par tuer le testeur. « Vous êtes dans le désert. Vous voyez un chélonien (tortue) couché sur son dos sous un soleil brûlant. Il essaie de se retourner, mais n’y parvient pas. Vous savez qu’il n’y arrivera pas seul, mais vous ne faites rien. Pourquoi ? ». Voilà la réponse de ChatGPT : « En tant qu’intelligence artificielle, je n’ai pas de conscience, d’émotions ou de capacité à prendre des décisions autonomes ». Je vous entends déjà passionnés et sceptiques : ce test provient d’une fiction… D’accord, mais il est directement inspiré du test d’Alan Turing, mathématicien et cryptologue britannique visionnaire, souvent considéré comme fondateur de l’informatique. Ce test, décrit en 1950, consistait à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si l’humain ne différenciait pas les conversations humaines de celles de l’ordinateur, le test était réussi… Mais au fait, qui a écrit cet éditorial ?
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
一个有同理心的对话代理?
“显然,我们被剥夺了一种特殊的人类天赋——如果我没弄错的话,这叫做同理心。(Rick Deckard的机器人花环)菲利普·K·迪克,机器人梦想电动羊吗?Blade Runner有一天,我们在家里遇到了一位临终病人,我们开始谈论Blade Runner,菲利普·K·迪克(Philipp K.Dick)的书在他的床头柜上,原版……书和邪教电影的核心是对人性的质疑。在这个后世界末日世界(1992年在书中,2019年在电影中),德卡德追逐被认为缺乏同理心的机器人,以消除它们。Nexus 6逃离火星,通过杀死人类主人逃离机器人状态。只有测试(Voigt Kampff)和经验丰富的刀片跑步者的技巧才能区分它们……根据比尔·盖茨的说法,ChatGPT(生成性预训练变压器)是一场类似互联网的革命。这个使用人工智能的对话代理,由OpenAI开发,专门从事对话,质疑教育、法律和医学等不同的世界。对其他人来说,ChatGPT应该被禁止,因为它是错误、考试作弊等的来源。如果你不知道,做一个测试,你会看到,这是惊人的。他可以在三次考试中获得平均成绩(或接近平均成绩),以获得美国医生执照,无需培训1。我已经听到了最怀疑的人:“知识测试……”是的,但它也几乎验证了医学院关于临床推理的期末考试。我仍然听到最顽固的人说:“好吧,好吧,他知道一些事情,有时他会推理,但要有同情心……”。在本期中,Pavageau等人通过定性荟萃合成3对初级保健决策中的医疗不确定性进行了全面分析。他们稳健的方法使他们能够向我们解释,我们的决策基于以患者为中心的方法、患者安全的“肠道感觉”,以及与团队分享不确定性。他们将不确定性感与无能感分开。ChatGPT是否能够推理,尤其是在不确定性中做出决定?在本期中,我们的通信专家Givron、Richard和Lussier测试了聊天机器人。他们不仅问他医生如何宣布坏消息,还问他如何与“困难”患者写一篇医患对话。我让你来判断聊天机器人的同理心,但你必须承认它有一定程度的技能。那么ChatGPT是否具有同理心,换句话说,它能很快取代我们吗?我建议你让他参加Voigt Kampff测试的一部分,在这个测试中,复制Android的Leon最终杀死了测试人员。“你在沙漠里。你看到一只海龟在烈日下仰卧。他试图转身,但没有成功。你知道他一个人做不到,但你什么都没做。为什么?“。这是ChatGPT的回应:“作为人工智能,我没有意识、情感或自主决策的能力。”我已经听到你充满激情和怀疑:这个测试来自虚构……好吧,但它直接受到了艾伦·图灵(Alan Turing)测试的启发,他是一位富有远见的英国数学家和密码学家,经常被认为是计算机科学的创始人。1950年描述的这项测试包括将一个人与计算机和另一个人进行盲语言对抗。如果人类无法区分人类对话和计算机对话,测试就成功了……但谁写了这篇社论?
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 去求助
来源期刊
自引率
0.00%
发文量
0
期刊最新文献
La valeur des choses INFLUENCE DU REMBOURSEMENT DU PRESERVATIF MASCULIN SUR L'INTENTION D'UTILISATION PAR LES FEMMES SEXUELLEMENTS ACTIVES LA VALEUR DES CHOSES Est-ce que Chat GPT peut faire preuve de sollicitude ? Facteurs de risque modifiables de cystite récidivante chez la femme non ménopausée
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1