Titulo:

Pensamiento computacional y ChatGPT
.

Sumario:

Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la ra... Ver más

Guardado en:

1794-1237

2463-0950

21

2024-07-01

4214 pp. 1

24

Revista EIA - 2024

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.

info:eu-repo/semantics/openAccess

http://purl.org/coar/access_right/c_abf2

id metarevistapublica_eia_revistaeia_10_article_1739
record_format ojs
spelling Pensamiento computacional y ChatGPT
Computational thinking and ChatGPT
Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la razón por la cual es de suma importancia tratar de elaborar una visión clara acerca de esta innovadora tecnología, buscando evitar la creación y propagación de mitos, que lo único que hacen es enrarecer la percepción y comprensión que se tiene, y tratar de hallar el justo medio en cuanto a los alcances que pueden tener este tipo de tendencias tecnológicas, y las formas de uso que se les puede dar, con especial énfasis en el Pensamiento Computacional. En el presente artículo presentamos un breve análisis sobre lo que es Generative Pre-trained Transformer, así como algunas reflexiones e ideas sobre las formas en que los Large Language Models pueden influir al Pensamiento Computacional, y sus posibles consecuencias. En especial, en este documento, se analiza el conocido ChatGPT, del cual se presenta una valoración sobre las salidas de texto generadas, y su credibilidad para su uso en tareas de uso común para el Pensamiento Computacional, como lo es el realizar un algoritmo, su código y resolver problemas lógicos.
With the advent of natural language processing models, the way we usually refer to human language, of Large Language Models (LLM) type, such as Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), or the so called Generative Pre-trained Transformers (GPT), users and the general public are beginning to generate any number of speculations and expectations about how far thy can go, and are also starting to explore new ways of use, some realistic, others creative, and others verging on fantasy. Computational Thinking is no exception to this trend. This is why it is of utmost importance to try to elaborate a clear vision about this innovative technology, seeking to avoid the creation and propagation of myths, which only make the perception and understanding that we have, and to try to find the right balance in terms of the reaches that can have this type of technological trends, and the ways of use that can be given to them, with special emphasis on Computational Thinking. In this paper we present a brief analysis of what Generative Pre-trained Transformer is, as well as some reflections and ideas about the ways in which Large Language Models can influence Computational Thinking, and their possible consequences. In particular, in this paper, we analyze the well-known ChatGPT, presenting an evaluation of the generated text outputs, and its credibility for its use in tasks of common use for Computational Thinking, such as performing an algorithm, its code and solving logical problems.
Hoyos-Rivera, Guillermo-de-Jesús
Hernández-Hernández, José-Clemente
Computational Thinking
ChatGPT
Language Models
Pensamiento Computacional
ChatGPT
Modelos de Lenguaje
21
42
Núm. 42 , Año 2024 : Tabla de contenido Revista EIA No. 42
Artículo de revista
Journal article
2024-07-01 00:00:00
2024-07-01 00:00:00
2024-07-01
application/pdf
Fondo Editorial EIA - Universidad EIA
Revista EIA
1794-1237
2463-0950
https://revistas.eia.edu.co/index.php/reveia/article/view/1739
10.24050/reia.v21i42.1739
https://doi.org/10.24050/reia.v21i42.1739
spa
https://creativecommons.org/licenses/by-nc-nd/4.0
Revista EIA - 2024
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
4214 pp. 1
24
Anthony, L.F.W., Kanding, B. and Selvan, R. (2020). Carbontracker: Tracking and predicting the carbon footprint of training deep learning models. arXiv preprint arXiv:2007.03051.
Champollion, J.F. (1828). Précis du système hiéroglyphique des anciens Egyptiens, ou Recherches sur les éléments premiers de cette écriture sacrée, sur leurs diverses combinaisons, et sur les rapports de ce système avec les autres méthodes graphiques égyptiennes avec un volume de planches. Imprimerie royale.
Dalby, A. (2019). Rosetta Stone. WikiJournal of Humanities, 2(1), p.1. https://doi.org/10.15347/wjh/2019.001.
Denning, P.J. and Tedre, M. (2019). Computational thinking. MIT Press.
Devlin, J., Chang, M.W., Lee, K. and Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
Eisenstein, J. (2018). Natural language processing. Available at: https://princeton-nlp.github.io/cos484/readings/eisenstein-nlp-notes.pdf [Accessed 14 June 2022].
Jumper, J. et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), pp.583-589. https://doi.org/10.1038/s41586-021-03819-2.
Lodi, M. and Martini, S. (2021). Computational Thinking, Between Papert and Wing. Science & Education, 30(4), pp.883-908. https://doi.org/10.1007/s11191-021-00202-5.
Mikolov, T., Chen, K., Corrado, G. and Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781.
Mikolov, T., Sutskever, I., Chen, K., Corrado, G.S. and Dean, J. (2013). Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26.
Quiroz-Castellanos, M., Cruz-Reyes, L., Torres-Jimenez, J., Gómez, C., Huacuja, H.J.F. and Alvim, A.C.F. (2015). A grouping genetic algorithm with controlled gene transmission for the bin packing problem. Computers & Operations Research, 55, pp.52-64. https://doi.org/10.1016/j.cor.2014.10.010.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D. and Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), p.9.
Stanley, K.O. and Miikkulainen, R. (2002). Evolving Neural Networks through Augmenting Topologies. Evolutionary Computation, 10(2), pp.99-127. https://doi.org/10.1162/106365602320169811.
Vaswani, A. et al. (2017). Attention is all you need. Advances in neural information processing systems, 30.
Wertheimer, T. (2022). Blake Lemoine: Google despide al ingeniero que aseguró que un programa de inteligencia artificial cobró conciencia propia. BBC News, 23 July.
https://revistas.eia.edu.co/index.php/reveia/article/download/1739/1602
info:eu-repo/semantics/article
http://purl.org/coar/resource_type/c_6501
http://purl.org/coar/resource_type/c_2df8fbb1
http://purl.org/redcol/resource_type/ART
info:eu-repo/semantics/publishedVersion
http://purl.org/coar/version/c_970fb48d4fbd8a85
info:eu-repo/semantics/openAccess
http://purl.org/coar/access_right/c_abf2
Text
Publication
institution UNIVERSIDAD EIA
thumbnail https://nuevo.metarevistas.org/UNIVERSIDADEIA/logo.png
country_str Colombia
collection Revista EIA
title Pensamiento computacional y ChatGPT
spellingShingle Pensamiento computacional y ChatGPT
Hoyos-Rivera, Guillermo-de-Jesús
Hernández-Hernández, José-Clemente
Computational Thinking
ChatGPT
Language Models
Pensamiento Computacional
ChatGPT
Modelos de Lenguaje
title_short Pensamiento computacional y ChatGPT
title_full Pensamiento computacional y ChatGPT
title_fullStr Pensamiento computacional y ChatGPT
title_full_unstemmed Pensamiento computacional y ChatGPT
title_sort pensamiento computacional y chatgpt
title_eng Computational thinking and ChatGPT
description Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la razón por la cual es de suma importancia tratar de elaborar una visión clara acerca de esta innovadora tecnología, buscando evitar la creación y propagación de mitos, que lo único que hacen es enrarecer la percepción y comprensión que se tiene, y tratar de hallar el justo medio en cuanto a los alcances que pueden tener este tipo de tendencias tecnológicas, y las formas de uso que se les puede dar, con especial énfasis en el Pensamiento Computacional. En el presente artículo presentamos un breve análisis sobre lo que es Generative Pre-trained Transformer, así como algunas reflexiones e ideas sobre las formas en que los Large Language Models pueden influir al Pensamiento Computacional, y sus posibles consecuencias. En especial, en este documento, se analiza el conocido ChatGPT, del cual se presenta una valoración sobre las salidas de texto generadas, y su credibilidad para su uso en tareas de uso común para el Pensamiento Computacional, como lo es el realizar un algoritmo, su código y resolver problemas lógicos.
description_eng With the advent of natural language processing models, the way we usually refer to human language, of Large Language Models (LLM) type, such as Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), or the so called Generative Pre-trained Transformers (GPT), users and the general public are beginning to generate any number of speculations and expectations about how far thy can go, and are also starting to explore new ways of use, some realistic, others creative, and others verging on fantasy. Computational Thinking is no exception to this trend. This is why it is of utmost importance to try to elaborate a clear vision about this innovative technology, seeking to avoid the creation and propagation of myths, which only make the perception and understanding that we have, and to try to find the right balance in terms of the reaches that can have this type of technological trends, and the ways of use that can be given to them, with special emphasis on Computational Thinking. In this paper we present a brief analysis of what Generative Pre-trained Transformer is, as well as some reflections and ideas about the ways in which Large Language Models can influence Computational Thinking, and their possible consequences. In particular, in this paper, we analyze the well-known ChatGPT, presenting an evaluation of the generated text outputs, and its credibility for its use in tasks of common use for Computational Thinking, such as performing an algorithm, its code and solving logical problems.
author Hoyos-Rivera, Guillermo-de-Jesús
Hernández-Hernández, José-Clemente
author_facet Hoyos-Rivera, Guillermo-de-Jesús
Hernández-Hernández, José-Clemente
topic Computational Thinking
ChatGPT
Language Models
Pensamiento Computacional
ChatGPT
Modelos de Lenguaje
topic_facet Computational Thinking
ChatGPT
Language Models
Pensamiento Computacional
ChatGPT
Modelos de Lenguaje
topicspa_str_mv Pensamiento Computacional
ChatGPT
Modelos de Lenguaje
citationvolume 21
citationissue 42
citationedition Núm. 42 , Año 2024 : Tabla de contenido Revista EIA No. 42
publisher Fondo Editorial EIA - Universidad EIA
ispartofjournal Revista EIA
source https://revistas.eia.edu.co/index.php/reveia/article/view/1739
language spa
format Article
rights https://creativecommons.org/licenses/by-nc-nd/4.0
Revista EIA - 2024
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
info:eu-repo/semantics/openAccess
http://purl.org/coar/access_right/c_abf2
references Anthony, L.F.W., Kanding, B. and Selvan, R. (2020). Carbontracker: Tracking and predicting the carbon footprint of training deep learning models. arXiv preprint arXiv:2007.03051.
Champollion, J.F. (1828). Précis du système hiéroglyphique des anciens Egyptiens, ou Recherches sur les éléments premiers de cette écriture sacrée, sur leurs diverses combinaisons, et sur les rapports de ce système avec les autres méthodes graphiques égyptiennes avec un volume de planches. Imprimerie royale.
Dalby, A. (2019). Rosetta Stone. WikiJournal of Humanities, 2(1), p.1. https://doi.org/10.15347/wjh/2019.001.
Denning, P.J. and Tedre, M. (2019). Computational thinking. MIT Press.
Devlin, J., Chang, M.W., Lee, K. and Toutanova, K. (2018). Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
Eisenstein, J. (2018). Natural language processing. Available at: https://princeton-nlp.github.io/cos484/readings/eisenstein-nlp-notes.pdf [Accessed 14 June 2022].
Jumper, J. et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596(7873), pp.583-589. https://doi.org/10.1038/s41586-021-03819-2.
Lodi, M. and Martini, S. (2021). Computational Thinking, Between Papert and Wing. Science & Education, 30(4), pp.883-908. https://doi.org/10.1007/s11191-021-00202-5.
Mikolov, T., Chen, K., Corrado, G. and Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781.
Mikolov, T., Sutskever, I., Chen, K., Corrado, G.S. and Dean, J. (2013). Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26.
Quiroz-Castellanos, M., Cruz-Reyes, L., Torres-Jimenez, J., Gómez, C., Huacuja, H.J.F. and Alvim, A.C.F. (2015). A grouping genetic algorithm with controlled gene transmission for the bin packing problem. Computers & Operations Research, 55, pp.52-64. https://doi.org/10.1016/j.cor.2014.10.010.
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D. and Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), p.9.
Stanley, K.O. and Miikkulainen, R. (2002). Evolving Neural Networks through Augmenting Topologies. Evolutionary Computation, 10(2), pp.99-127. https://doi.org/10.1162/106365602320169811.
Vaswani, A. et al. (2017). Attention is all you need. Advances in neural information processing systems, 30.
Wertheimer, T. (2022). Blake Lemoine: Google despide al ingeniero que aseguró que un programa de inteligencia artificial cobró conciencia propia. BBC News, 23 July.
type_driver info:eu-repo/semantics/article
type_coar http://purl.org/coar/resource_type/c_6501
type_version info:eu-repo/semantics/publishedVersion
type_coarversion http://purl.org/coar/version/c_970fb48d4fbd8a85
type_content Text
publishDate 2024-07-01
date_accessioned 2024-07-01 00:00:00
date_available 2024-07-01 00:00:00
url https://revistas.eia.edu.co/index.php/reveia/article/view/1739
url_doi https://doi.org/10.24050/reia.v21i42.1739
issn 1794-1237
eissn 2463-0950
doi 10.24050/reia.v21i42.1739
citationstartpage 4214 pp. 1
citationendpage 24
url2_str_mv https://revistas.eia.edu.co/index.php/reveia/article/download/1739/1602
_version_ 1811200534061776896