ChatGPT 在解决住院医师考试中的表现:医学教育中人工智能发展的指标?

Alexander Valdez Disla, Vahid Nouri Kandany, Pascual Valdéz
{"title":"ChatGPT 在解决住院医师考试中的表现:医学教育中人工智能发展的指标?","authors":"Alexander Valdez Disla, Vahid Nouri Kandany, Pascual Valdéz","doi":"10.22206/cysa.2024.v8i2.2828","DOIUrl":null,"url":null,"abstract":"\n\n\nIntroducción:\nChatGPT (Generative Pre-trained Transformeres) una herramienta de procesamiento de lenguaje natural desarrollada por OpenAI que utiliza el modelo de lenguaje GPT para generar respuestas similares al lenguaje humano natural. Esta tecnología ha demostrado su capacidad para completar tareas complejas y ha atraído la atención en el ámbito educativo, especialmente en la medicina. El objetivo de este estudio es evaluar el desempeño de ChatGPT en la resolución de preguntas del examen de residencia médica para optar por una especialidad (ENURM) en la República Dominicana en 2023.\n\n\nMétodos:\nSe ingresaron las 100 preguntas del examen ENURM de 2023 en formato de preguntas de selección múltiple en ChatGPT 3.5, con la instrucción de \"seleccionar la respuesta correcta a la siguiente pregunta del examen ENURM 2023\". Se realizó un estudio descriptivo transversal para evaluar el desempeño de la herramienta.\n\n\nResultados:\nChatGPT logró una precisión del 77% en las respuestas proporcionadas, mientras que el 23% de las preguntas no fueron respondidas correctamente. Al desglosar el rendimiento por tipo de pregunta, ChatGPT mostró una eficacia del 74.6% en preguntas directas y del 88.2% en casos clínicos. las especialidades en las cuales se identificaron respuestas incorrectas incluyen hematología, gastroenterología, cardiología, anatomía, genética, cirugía, pediatría, ginecología e infectología. A pesar de estas limitaciones, es relevante destacar que el desempeño de ChatGPT superó el promedio general de los aspirantes a residencias médicas en términos de precisión de respuestas.\n\n\nConclusiones:\nChatGPT demostró un buen desempeño en la respuesta a preguntas de examen ENURM. Esta herramienta puede ser útil para el procesamiento del lenguaje natural en la educación médica aún con sus limitaciones y no puede reemplazar la enseñanza tradicional y la experiencia clínica.\n\n","PeriodicalId":33448,"journal":{"name":"Ciencia y Salud","volume":"33 22","pages":""},"PeriodicalIF":0.0000,"publicationDate":"2024-06-03","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"El desempeño del ChatGPT en la resolución de un examen de residencia médica: ¿un indicador de la evolución de inteligencia artificial en educación médica?\",\"authors\":\"Alexander Valdez Disla, Vahid Nouri Kandany, Pascual Valdéz\",\"doi\":\"10.22206/cysa.2024.v8i2.2828\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"\\n\\n\\nIntroducción:\\nChatGPT (Generative Pre-trained Transformeres) una herramienta de procesamiento de lenguaje natural desarrollada por OpenAI que utiliza el modelo de lenguaje GPT para generar respuestas similares al lenguaje humano natural. Esta tecnología ha demostrado su capacidad para completar tareas complejas y ha atraído la atención en el ámbito educativo, especialmente en la medicina. El objetivo de este estudio es evaluar el desempeño de ChatGPT en la resolución de preguntas del examen de residencia médica para optar por una especialidad (ENURM) en la República Dominicana en 2023.\\n\\n\\nMétodos:\\nSe ingresaron las 100 preguntas del examen ENURM de 2023 en formato de preguntas de selección múltiple en ChatGPT 3.5, con la instrucción de \\\"seleccionar la respuesta correcta a la siguiente pregunta del examen ENURM 2023\\\". Se realizó un estudio descriptivo transversal para evaluar el desempeño de la herramienta.\\n\\n\\nResultados:\\nChatGPT logró una precisión del 77% en las respuestas proporcionadas, mientras que el 23% de las preguntas no fueron respondidas correctamente. Al desglosar el rendimiento por tipo de pregunta, ChatGPT mostró una eficacia del 74.6% en preguntas directas y del 88.2% en casos clínicos. las especialidades en las cuales se identificaron respuestas incorrectas incluyen hematología, gastroenterología, cardiología, anatomía, genética, cirugía, pediatría, ginecología e infectología. A pesar de estas limitaciones, es relevante destacar que el desempeño de ChatGPT superó el promedio general de los aspirantes a residencias médicas en términos de precisión de respuestas.\\n\\n\\nConclusiones:\\nChatGPT demostró un buen desempeño en la respuesta a preguntas de examen ENURM. Esta herramienta puede ser útil para el procesamiento del lenguaje natural en la educación médica aún con sus limitaciones y no puede reemplazar la enseñanza tradicional y la experiencia clínica.\\n\\n\",\"PeriodicalId\":33448,\"journal\":{\"name\":\"Ciencia y Salud\",\"volume\":\"33 22\",\"pages\":\"\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2024-06-03\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Ciencia y Salud\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.22206/cysa.2024.v8i2.2828\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Ciencia y Salud","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.22206/cysa.2024.v8i2.2828","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

摘要

简介:ChatGPT(Generative Pre-trained Transformeres)是由 OpenAI 开发的一种自然语言处理工具,它使用 GPT 语言模型生成类似于人类自然语言的回复。这项技术已经证明了其完成复杂任务的能力,并在教育领域,尤其是医学领域引起了关注。本研究的目的是评估 ChatGPT 在多米尼加共和国 2023 年 ENURM 医学住院医师考试中的解题性能。方法:将 2023 年 ENURM 考试的 100 道选择题输入 ChatGPT 3.5,并指示 "为 2023 年 ENURM 考试的下一道题选择正确答案"。结果显示:ChatGPT 提供答案的准确率为 77%,23% 的问题没有被正确回答。如果按问题类型细分,ChatGPT 在直接问题上的效率为 74.6%,在临床病例上的效率为 88.2%。发现错误答案的专业包括血液学、消化内科、心脏病学、解剖学、遗传学、外科、儿科、妇科和传染病学。结论:ChatGPT 在回答 ENURM 考试问题时表现出色。该工具在医学教育中的自然语言处理方面非常有用,即使存在局限性,也不能取代传统的教学和临床经验。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
El desempeño del ChatGPT en la resolución de un examen de residencia médica: ¿un indicador de la evolución de inteligencia artificial en educación médica?
Introducción: ChatGPT (Generative Pre-trained Transformeres) una herramienta de procesamiento de lenguaje natural desarrollada por OpenAI que utiliza el modelo de lenguaje GPT para generar respuestas similares al lenguaje humano natural. Esta tecnología ha demostrado su capacidad para completar tareas complejas y ha atraído la atención en el ámbito educativo, especialmente en la medicina. El objetivo de este estudio es evaluar el desempeño de ChatGPT en la resolución de preguntas del examen de residencia médica para optar por una especialidad (ENURM) en la República Dominicana en 2023. Métodos: Se ingresaron las 100 preguntas del examen ENURM de 2023 en formato de preguntas de selección múltiple en ChatGPT 3.5, con la instrucción de "seleccionar la respuesta correcta a la siguiente pregunta del examen ENURM 2023". Se realizó un estudio descriptivo transversal para evaluar el desempeño de la herramienta. Resultados: ChatGPT logró una precisión del 77% en las respuestas proporcionadas, mientras que el 23% de las preguntas no fueron respondidas correctamente. Al desglosar el rendimiento por tipo de pregunta, ChatGPT mostró una eficacia del 74.6% en preguntas directas y del 88.2% en casos clínicos. las especialidades en las cuales se identificaron respuestas incorrectas incluyen hematología, gastroenterología, cardiología, anatomía, genética, cirugía, pediatría, ginecología e infectología. A pesar de estas limitaciones, es relevante destacar que el desempeño de ChatGPT superó el promedio general de los aspirantes a residencias médicas en términos de precisión de respuestas. Conclusiones: ChatGPT demostró un buen desempeño en la respuesta a preguntas de examen ENURM. Esta herramienta puede ser útil para el procesamiento del lenguaje natural en la educación médica aún con sus limitaciones y no puede reemplazar la enseñanza tradicional y la experiencia clínica.
求助全文
通过发布文献求助,成功后即可免费获取论文全文。 去求助
来源期刊
自引率
0.00%
发文量
26
审稿时长
4 weeks
期刊最新文献
Reporte de caso: torsión de cordón umbilical como causa de muerte fetal Determinación del gen Ras como factor pronóstico y predictivo en cáncer colorrectal metastásico en el Instituto de Oncología Dr. Heriberto Pieter, enero 2019 - diciembre 2021 Profilaxis pre-exposición de VIH en hombres que tienen sexo con otros hombres y su influencia en otras enfermedades de transmisión sexual: una revisión bibliográfica EDITORIAL. Los retos de la bioética y la ciencia en la era de la posverdad El desempeño del ChatGPT en la resolución de un examen de residencia médica: ¿un indicador de la evolución de inteligencia artificial en educación médica?
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1