Pensamiento computacional y ChatGPT

Guillermo-de-Jesús Hoyos-Rivera, José-Clemente Hernández-Hernández
{"title":"Pensamiento computacional y ChatGPT","authors":"Guillermo-de-Jesús Hoyos-Rivera, José-Clemente Hernández-Hernández","doi":"10.24050/reia.v21i42.1739","DOIUrl":null,"url":null,"abstract":"Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la razón por la cual es de suma importancia tratar de elaborar una visión clara acerca de esta innovadora tecnología, buscando evitar la creación y propagación de mitos, que lo único que hacen es enrarecer la percepción y comprensión que se tiene, y tratar de hallar el justo medio en cuanto a los alcances que pueden tener este tipo de tendencias tecnológicas, y las formas de uso que se les puede dar, con especial énfasis en el Pensamiento Computacional. En el presente artículo presentamos un breve análisis sobre lo que es Generative Pre-trained Transformer, así como algunas reflexiones e ideas sobre las formas en que los Large Language Models pueden influir al Pensamiento Computacional, y sus posibles consecuencias. En especial, en este documento, se analiza el conocido ChatGPT, del cual se presenta una valoración sobre las salidas de texto generadas, y su credibilidad para su uso en tareas de uso común para el Pensamiento Computacional, como lo es el realizar un algoritmo, su código y resolver problemas lógicos.","PeriodicalId":21275,"journal":{"name":"Revista EIA","volume":null,"pages":null},"PeriodicalIF":0.0000,"publicationDate":"2024-07-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Revista EIA","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.24050/reia.v21i42.1739","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la razón por la cual es de suma importancia tratar de elaborar una visión clara acerca de esta innovadora tecnología, buscando evitar la creación y propagación de mitos, que lo único que hacen es enrarecer la percepción y comprensión que se tiene, y tratar de hallar el justo medio en cuanto a los alcances que pueden tener este tipo de tendencias tecnológicas, y las formas de uso que se les puede dar, con especial énfasis en el Pensamiento Computacional. En el presente artículo presentamos un breve análisis sobre lo que es Generative Pre-trained Transformer, así como algunas reflexiones e ideas sobre las formas en que los Large Language Models pueden influir al Pensamiento Computacional, y sus posibles consecuencias. En especial, en este documento, se analiza el conocido ChatGPT, del cual se presenta una valoración sobre las salidas de texto generadas, y su credibilidad para su uso en tareas de uso común para el Pensamiento Computacional, como lo es el realizar un algoritmo, su código y resolver problemas lógicos.
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
计算思维和 ChatGPT
随着自然语言处理模型的出现,我们通常所说的人类语言,即大型语言模型(LLM)类型,如双向编码器变换表示(BERT)、对话应用语言模型(LaMDA)、大型语言模型元人工智能(LLaMA)或所谓的生成预训练变换器(GPT)、计算思维技术(Computational Thinking)或所谓的生成式预训练变换器(GPT)开始在其用户和公众中引起对其范围的各种猜测和期望,并开始探索新的使用方法,其中有些是现实的,有些是创造性的,有些则近乎幻想。计算思维也不例外。正因为如此,最重要的是要对这一创新技术有一个清晰的认识,努力避免神话的产生和传播,因为这只会增加对它的感知和理解的难度,并努力在这类技术趋势可能具有的范围和使用形式方面找到适当的平衡,特别是在计算思维方面。在本文中,我们将简要分析什么是生成式预训练转换器,并就大型语言模型影响计算思维的方式及其可能后果提出一些思考和想法。本文特别对著名的 ChatGPT 进行了分析,并对其生成的文本输出及其用于常见计算思维任务(如执行算法、代码和解决逻辑问题)的可信度进行了评估。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 去求助
来源期刊
自引率
0.00%
发文量
31
审稿时长
30 weeks
期刊最新文献
Modelado y parametrización de una columna de adsorción para la remoción de níquel utilizando ingeniería de procesos asistida por computador Evaluación de la producción de tilapia roja (oreochromis sp) criados con tecnologia biofloc Impact of clay minerals on reservoir sandstone properties: comparative study in Colombian eastern cordillera and middle Magdalena valley basins Enhancing mobile robot navigation: integrating reactive autonomy through deep learning and fuzzy behavior Modelo de negocios a partir de la cadena de valor industrial: Caso bioempaques de biomasa residual de cacao
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1