Education in the Knowledge Society 24 (2023)

The perception of Artificial Intelligence in educational contexts after the launch of ChatGPT: Disruption or Panic?

La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: Disrupción o Pánico

Francisco José García-Peñalvo

Departamento de Informática y Automática, Instituto de Ciencias de la Educación, Grupo GRIAL, Universidad de Salamanca, España

http://orcid.org/0000-0001-9987-5584fgarcia@usal.es

Director Científico / Editor-In-Chief Education in the Knowledge Society Journal

ABSTRACT

The year 2022 has ended with one of those technological innovations that have a hard-to-predict behaviour, a black swan, hogging the limelight in traditional media and digital media. Indeed, it is ChatGPT. Although artificial intelligence had already been in the news and often masked under various other meanings, the ChatGPT phenomenon has once again brought this discipline and its positive and negative effects on our society to the forefront. Reactions to its launch, influenced mainly by its ease of access and use, have been varied, ranging from the enthusiasm of innovators and early adopters to the almost apocalyptic terror of the Terminator movie. Of the multiple applications of this tool, the most significant debate focuses on its implications in Education and Academia due to its tremendous power to generate texts that could very well pass for human creations. We are at the dawn of a technology that has gone from being a toy tool to bidding to become a disruptive innovation. Whether it succeeds or not will depend on many factors, but if it does not, it will be another one like it. Denying it or banning it will do absolutely nothing to stop the tsunami effect that has already begun. For all these reasons, we must first understand these technologies based on large language models and know their benefits and weaknesses, as well as what they really mean for a specific sector of activity, such as Education. After getting to know the technology and the tool, one would be in a position to use (or not) its potential and to prevent or detect its possible pernicious effects, presumably by changing and adapting processes that are probably profoundly rooted and that, therefore, forced to leave the comfort zone, which is always the cause of resistance to change and extreme reactions. These responses usually will not stop technology from reaching its productivity plateau when it becomes part of the daily life of a sufficient majority of users. This is always the cause of resistance to change and extreme reactions that will not usually stop technology from reaching its productivity plateau when it becomes part of the daily lives of a sufficient majority of users, especially when it is also a question of transversal tools that will spread their usage patterns among the different application domains.

Keywords
ChatGPT, Artificial Intelligence, Education, Academia.

RESUMEN

El año 2022 ha finalizado con una de esas innovaciones tecnológicas que tienen un comportamiento difícil de predecir, un cisne negro, acaparando la atención en los medios de comunicación tradicionales y los medios digitales. Efectivamente, se trata de ChatGPT. Si bien la inteligencia artificial ya venía ocupando un lugar destacado en diversas noticias, aunque muchas veces enmascarada bajo otras diversas acepciones, el fenómeno ChatGPT ha vuelto a poner en primera plana esta disciplina, así como sus efectos, tanto positivos como negativos, en nuestra sociedad. Las reacciones a su lanzamiento, sobre todo influidas por su facilidad de acceso y uso, están siendo de lo más variadas, yendo del entusiasmo de los innovadores y adoptadores tempranos hasta el terror casi apocalíptico propio de la película Terminator. De las múltiples aplicaciones de esta herramienta, el mayor debate está centrándose en sus implicaciones en la Educación y en la Academia, por su tremenda potencia para generar textos que perfectamente podrían pasar por creaciones humanas. Estamos en los albores de una tecnología que ha pasado de ser una herramienta de juguete a presentar su candidatura a convertirse en una innovación disruptiva. Que lo consiga o no dependerá de muchos factores, pero si no es esta será otra similar. Negarlo o prohibirlo no servirá absolutamente de nada para parar el efecto tsunami que ya ha comenzado. Por todo ello, primero hay que entender estas tecnologías basadas en modelos de lenguaje y conocer tanto sus beneficios como sus puntos débiles, además de lo que realmente suponen para un sector de actividad específico, como puede ser la Educación. Después de conocer la tecnología y la herramienta, se estaría en condiciones de utilizar (o no) su potencial y de prevenir o detectar sus posibles efectos perniciosos, seguramente cambiando y adaptando procesos que probablemente se tengan muy arraigados y que, por tanto, obliguen a salir de la zona de confort, lo que siempre es causa de resistencia al cambio y de reacciones extremas que, normalmente, no van a parar el camino de una tecnología hacia su meseta de productividad cuando esta llegue a ser parte cotidiana de una mayoría suficiente de usuarios, máxime cuando además se trata de herramientas transversales que van a contagiar sus patrones de uso entre los diferentes dominios de aplicación.

Palabras clave
ChatGPT, Inteligencia Artificial, Educación, Academia.

Artificial Intelligence (AI) is present, in one form or another, in many of the technological products that are commonly used and interacted with daily. It is estimated that by 2022, the market related to AI will have reached a value of around 450 billion dollars (Jyoti & Kuppuswamy, 2022), with significant advancements in all domains of application, such as Law (Arrabal Platero, 2022), Finance (Fallahi et al., 2022), Medicine (García-Peñalvo, Vázquez-Ingelmo, et al., 2021) or Education (Qu et al., 2022), among others.

Such is the expectation generated by AI that has jumped to the generalist media on numerous occasions, ending the year 2022 and beginning 2023 with a flood of ink thanks to a specific tool, ChatGPT by OpenAI (https://openai.com/blog/chatgpt/). This resurgence of AI in the media has a twofold impact. Firstly, it creates a convenient label to attach to a product, emphasizing the meaning of a “suitcase word” as described by Marvin Minsky (1998) – one of the pioneers of AI – which refers to a term that can be used to refer to a broad range of concepts. On the other hand, it accentuates the phenomenon known as the AI effect (Haenlein & Kaplan, 2019), which happens when the widespread use of a product based on or derived from AI leads people to disregard its behaviour by claiming that it is not real intelligence.

Indeed, the exhaustive and widespread use of AI applications leads to the need to consider ethical AI (Flores-Vivar & García-Peñalvo, 2023) or explainable AI (XAI) (Confalonieri et al., 2021; Khosravi et al., 2022). The European Union is working on a proposal for a law on AI. The law classifies AI applications into three risk categories. Firstly, applications and systems that pose an unacceptable risk are prohibited, such as the government social scoring systems used in China. Secondly, high-risk applications, such as curriculum scanning tools for classifying job applicants. Lastly, applications that are not explicitly prohibited or classified as high-risk are largely unregulated (European Commission, 2021).

The tremendous media presence of AI is due primarily to the generative applications that have been made accessible to the general public, based on Generative Adversarial Networks (GAN) (Karras et al., 2021), which according to Gartner (2022) will be responsible for 10% of all data generated by 2025.

First, there were applications that, based on text, could generate high-quality photorealistic images, such as OpenAI Dall-E (https://openai.com/dall-e-2/) or Midjourney (https://www.midjourney.com/app/) among many others. An example of an image generated with these technologies can be seen in Figure 1.

Nevertheless, it is the generative text applications that have caused the revolution. More specifically, the chatbot built using the Generative Pre-trained Transformer 3 (GPT-3) technology (Brown et al., 2020), so-called ChatGPT (https://openai.com/blog/chatgpt/), is responsible for this leap due to its capabilities to generate texts with high argumentative quality and ability to maintain a realistic conversation, all through a simple registration process (free of charge in the version released on November 30, 2022), a straightforward web interface that follows the imperative model, where the user inputs a request and the chatbot returns results, all in a multilingual context. ChatGPT is changing the public's awareness of what is possible with technology, just like the iPhone did (Goldman, 2022).

As the number of ChatGPT users increases (in the first five days, it reached one million users), reactions to this tool are the most extreme, a true reflection of general behaviour towards innovation (Dans, 2023). They range from considering it the best AI chatbot ever released to the general public (Roose, 2022) to the most catastrophic ones that predict adverse effects for democracy (Cowen, 2022) or employment in the knowledge sector (Krugman, 2022) to mention a couple of examples.

This divisive debate, especially skewed towards the harmful effects of the tool, has focused on the domains of Education and scientific production.

Among its advocates, one notable perspective is that of Marc Alier-Forment, who firmly believes that despite its infancy, ChatGPT has surpassed the deceptive level and has reached a disruptive level (Alier-Forment & Llorens-Largo, 2023) according to the 6Ds model (Diamandis & Kotler, 2015).

On the one hand, the use of ChatGPT in educational institutions is questioned (Herman, 2022; Marche, 2022; Stokel-Walker, 2022), and it has even been banned (Ropek, 2023) due to fear that students will use it automatically generate essays or class work. On the other hand, many people emphasize the errors (Bowman, 2022), often crude (Pearl, 2022), that appear in ChatGPT's responses or demonstrate errors in reasoning when asked to provide logical solutions or lead to contradictions in a conversation (Llorens-Largo & ChatGPT, 2022).

Before addressing the validity of the criticisms aimed at ChatGPT, it is important to have a better understanding of the design and workings of this tool. As previously mentioned, ChatGPT is built using GPT-3, a language model (De Mulder et al., 2015) that utilizes deep learning techniques (LeCun et al., 2015) to generate text that is like human-written text. However, it is not just restricted to generating text. It can also generate code, stories, poems, etc. GPT-3 can perform these tasks to a relatively high standard due to the 175,000 million parameters it has been trained on, making it the largest language model to date compared to other models (Cooper, 2021).

A language model is a statistical tool that predicts the following words in a sequence based on the context given. In essence, language models are probability distributions over a sequence of words.

What makes GPT-3 so powerful is the vast number of parameters it can be trained on, ten times more than any previous model. The more parameters a model has, the more data is required to train it. According to its creators, the OpenAI GPT-3 model has been trained with 45TB of text data from various sources up to a specific date (2021). This means that the current version (January 2023) of ChatGPT can be asked to write an essay about the French Revolution, but who won the 2022 FIFA World Cup cannot be requested.

After this brief look at the technological engine behind ChatGPT, the various criticisms received can be analysed with more insight. As for errors in the responses, at the current stage of development and considering future versions of GPT, as well as similar tools from other technology companies, it is not a crucial issue to eliminate this tool from the board. In addition, due to the probabilistic model it is based on, it is not the same to ask a question after providing a context of information. A test can easily be done by opening two threads in the chat and asking the same question with and without context; different responses will be received. However, even if the rate of valid responses increases, taking any output from ChatGPT without verifying its validity or analysing the meaning of what is being obtained would be a mistake. This is an essential digital literacy competence (Redecker, 2017) that not only relates to this type of generative AI tools but also occurs when results are obtained from a search engine or social media and are not cross-checked with other sources, resulting in the spread of fake news (Pari Tito et al., 2022) and inaccurate content.

Regarding the ability of ChatGPT to reason, with the current GPT-3 engine, it cannot be asked to perform any reasoning because it is not programmed for that purpose.

The most controversial issue regarding ChatGPT is not the quality of its responses but rather whether it will become the tool used by those who need to write text without the necessary human effort and, therefore, without acquiring the skills for which the intellectual task was designed. This is not new. Whenever the assessment of knowledge or competencies mediated by technology arises, doubts about authentic learning by those who undertake the task appear, as already suffered during the COVID-19 pandemic (García-Peñalvo, Corell, et al., 2021; Grande-de-Prado et al., 2021). Perhaps the problem is not with the tool itself but rather with the essence of certain educational tasks that may have become obsolete in most cases they are used, which invites an uncomfortable debate about a possible change in the role that teachers should play (García et al., 2022) in this new learning ecology characterized by complex thinking contexts (Ramírez-Montoya et al., 2022) and Education 4.0 (Fidalgo-Blanco et al., 2022; Miranda et al., 2021; Sein-Echaluce et al., 2023). These activities have not become obsolete simply because text generation technologies have emerged, with enough capabilities to make it challenging to detect whether a text has been authored by a person's work or intelligent software. They became obsolete when access to open sources of information became available, from which anyone can copy and paste without sufficient contrast of what is selected, without critical analysis of what has been chosen from a particular source, and without proper attribution to the original sources. Essentially, the problem is the same that is currently present with this kind of tasks, changing ChatGPT for other resources, for example, Wikipedia.

In this situation, educational institutions should not orient towards prohibition, nor should they ignore the existence of these tools and their potential to become more powerful assistants. The most appropriate approach is to understand what these tools can contribute to teaching and learning processes, such as critical analysis, source comparison, and selecting and formulating appropriate questions for the chat. When it is necessary to work on a specific competence at a specific educational level, its use should be controlled, just as access to calculators is limited when working on basic mathematical operations.

Additionally, there are ethical considerations that require attention, as they have gone largely unnoticed in these initial interactions with this type of technology. As previously mentioned, GPT-3 has been trained with an extensive corpus of text, but when responses are obtained, especially when knowledge samples are requested, there is no reference to which sources were used to develop the response, resulting in a loss of authorship attribution. This, assuming that the output of the chat is accurate and appropriate, represents a violation of the moral rights of the author by omission (Miernicki & Ng, 2021) and essential shortcomings in learning for those who end up using the responses obtained, also involving deterioration of the principles of open knowledge in terms of proper attribution (McGreal et al., 2011).

The application of AI to Education has a lot to offer in terms of advancing towards a digital disruption of the educational system, which is perceived as close in the broader context of digital transformation of educational institutions and society (García-Peñalvo, 2021), but which has not yet occurred (Area & Adell, 2021). The already classic applications of AI for advancing in smart learning environments (García-Peñalvo, Casado-Lumbreras, et al., 2020; Koper, 2014), adaptive learning (Rivera Muñoz et al., 2022), learning analytics (Lang et al., 2022), etc., intelligent content generation applications open up a new spectrum of educational possibilities thanks to virtual assistants with a wide range of possibilities that have only begun to be intuited.

Ignoring or prohibiting applications like ChatGPT does not seem to be the way forward. Instead, it will be necessary to train teachers and students to use ethics correctly and to prioritize critical thinking (Codina, 2022) so their maximum potential is obtained in teaching/learning processes. Its effective implementation will depend on many factors that currently seem promising but are not free of risks, uncertainties and obstacles that must be overcome. In addition, due to its novelty, there is a lack of empirical studies on the actual effect of these technologies, both in teaching and learning, which we hope and invite to be resolved as acceptance and use in the form of educational practices increases so that the debate moves from general media to academic.

Castellano

La Inteligencia Artificial (IA) se encuentra de una forma u otra en muchos de los productos tecnológicos con los que cotidianamente se convive e interacciona. En 2022 se estima que el mercado relacionado con la IA habría alcanzado un valor de unos 450 mil millones de dólares (Jyoti & Kuppuswamy, 2022), con importantes avances en todos los dominios de aplicación, como por ejemplo en Derecho (Arrabal Platero, 2022), Finanzas (Fallahi et al., 2022), Medicina (García-Peñalvo, Vázquez-Ingelmo, et al., 2021) o Educación (Qu et al., 2022), entre otros.

Tal es la expectación que ha suscitado la IA que ha saltado a los medios de comunicación generalistas en multitud de ocasiones, terminando el año 2022 y comenzando el 2023 con ríos de tinta gracias a una herramienta específica, ChatGPT de OpenAI (https://openai.com/blog/chatgpt/). Este resurgir mediático de la IA tiene un doble efecto. Por una parte, supone una etiqueta fácil de aplicar a un producto, resaltando la acepción de término maleta (suitcase word) que Marvin Minsky (1998) (uno de los padres de la IA) utilizaba para indicar que en dicho término se puede meter lo que se quiera. Por otra parte, se incide en el llamado efecto IA (Haenlein & Kaplan, 2019), que se produce cuando al generalizarse el uso de un producto basado o derivado de la IA los espectadores descartan su comportamiento argumentando que no es inteligencia real.

Precisamente, el uso exhaustivo y generalizado de las aplicaciones de IA lleva a la necesidad de plantearse una IA-ética (Flores-Vivar & García-Peñalvo, 2023) o una IA-explicable (XIA) (Confalonieri et al., 2021; Khosravi et al., 2022). La Unión Europea está trabajando en una propuesta de ley sobre la IA. La ley clasifica las aplicaciones de IA en tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y sistemas que supongan un riesgo inaceptable, como los sistemas gubernamentales de puntuación social que se utilizan en China. En segundo lugar, las aplicaciones de alto riesgo, como herramientas de escaneo de currículos para clasificar a los solicitantes de empleo. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran medida sin regular (Comisión Europea, 2021).

El enorme salto mediático de la IA se debe, en gran medida, a las aplicaciones generativas que se han abierto al público general, basadas en las Generative Adversarial Networks (GAN) (Karras et al., 2021), que según Gartner (2022) en 2025 serán las responsables del 10% de todos los datos generados.

Primero fueron las aplicaciones que, a partir de un texto, eran capaces de generar imágenes fotorrealistas de gran calidad, como OpenAI Dall-E (https://openai.com/dall-e-2/) o Midjourney (https://www.midjourney.com/app/) entre otras muchas. Un ejemplo de una imagen generada con estas tecnologías se puede apreciar en la Figura 1.

Figura 1. Estas imágenes generadas con IA se produjeron utilizando el testo: “An open science world, with persons interacting with peers and computers”. / These AI-generated images were produced based on the text description of “An open science world, with persons interacting with peers and computers”.

Fuente/Source: Midjourney https://bit.ly/3QKGpD9

Pero han sido las aplicaciones generativas de texto las que han provocado la revolución. Más en concreto, el responsable es el chat construido con la tecnología Generative Pre-trained Transformer 3 (GPT-3) (Brown et al., 2020), ChatGPT (https://openai.com/blog/chatgpt/), por sus prestaciones para generar textos con una alta calidad argumentativa, siendo, además, capaz de mantener una conversación de corte realista, todo ello a través de un sencillo proceso de registro (libre de costos en la versión liberada el 30 de noviembre de 2022), una interfaz web extremadamente simple en la que se retoma el modelo imperativo, en la que el usuario pide algo y el chat retorna unos resultados, y en un contexto multilingüe. ChatGPT está cambiando la conciencia pública sobre lo que es posible con la tecnología, tal y como sucedió en su día con el iPhone (Goldman, 2022).

Conforme el número de usuarios de ChatGPT aumenta (solo en los primeros 5 días llegó al millón de usuarios), las reacciones a esta herramienta son de lo más extremas, fiel reflejo del comportamiento general hacia la innovación (Dans, 2023), yendo desde considerarlo como el mejor chatbot de inteligencia artificial jamás lanzado al público general (Roose, 2022), hasta los más catastrofistas que auguran efectos adversos para la democracia (Cowen, 2022) o el empleo en el sector del conocimiento (Krugman, 2022), por señalar solo un par de casos.

Este debate enfrentado, especialmente sesgado hacia los efectos más negativos de la herramienta, se ha focalizado en los dominios de la Educación y de la producción científica.

Entre sus defensores se destaca la percepción que tiene Marc Alier-Forment de esta herramienta, que no duda en afirmar que, a pesar de su temprana edad, ChatGPT ha superado el nivel deceptivo y considera que está en un nivel disruptivo (Alier-Forment & Llorens-Largo, 2023) según el modelo de las 6D (Diamandis & Kotler, 2015).

Por una parte, se cuestiona (Herman, 2022; Marche, 2022; Stokel-Walker, 2022), e incluso se ha llegado a prohibir (Ropek, 2023), el uso de ChatGPT en instituciones educativas por el temor a que el estudiantado lo use para generar automáticamente los ensayos o trabajos de clase. Por otra parte, son muchas las personas que enfatizan los errores (Bowman, 2022), con frecuencia groseros (Pearl, 2022), que aparecen en las respuestas de ChatGPT o que demuestran errores de razonamiento cuando en una conversación se pide que dé una solución lógica o se le conduce hacia una contradicción (Llorens-Largo & ChatGPT, 2022).

Antes de entrar a rebatir lo acertado o lo equivocado de las críticas vertidas contra ChatGPT es conveniente conocer un poco más de cómo está diseñada esta herramienta. Ya se ha comentado que la herramienta de chat se construye usando GPT-3, un modelo de lenguaje (De Mulder et al., 2015) que aprovecha el aprendizaje profundo (LeCun et al., 2015) para generar texto similar al humano. Aunque no solo es capaz de producir texto, sino también código, historias, poemas, etc. GPT-3 puede hacer esto, y hacerlo más que relativamente bien, porque, con unos 175.000 millones de parámetros para su entrenamiento, la versión completa de OpenAI GPT-3 es el modelo más grande entrenado hasta la fecha en comparación con otros modelos lingüísticos (Cooper, 2021).

Cuando se habla de un modelo de lenguaje se está haciendo referencia a una herramienta estadística para predecir las siguientes palabras de una secuencia en función del contexto que se le haya facilitado. En pocas palabras, los modelos lingüísticos son distribuciones de probabilidad sobre una secuencia de palabras.

Lo que hace tan bueno a GPT-3 es el gran número de parámetros que se pueden entrenar, 10 veces más que cualquier otro modelo anterior. Cuantos más parámetros tiene un modelo, más datos se necesitan para entrenarlo. Según sus creadores, el modelo OpenAI GPT-3 se ha entrenado con 45TB de datos de texto procedentes de múltiples fuentes hasta una fecha concreta (año 2021), esto es, a la versión actual (enero de 2023) de ChatGPT se le puede pedir que haga una redacción sobre la Revolución Francesa, pero no se le puede preguntar quién ganó el Mundial de Fútbol de 2022.

Tras esta rápida mirada al motor tecnológico que está detrás de ChatGPT se pueden analizar con más conocimiento de causa las diferentes críticas recibidas. En cuanto a los errores en las respuestas, en el momento actual del desarrollo y teniendo en cuenta futuras versiones de GPT, así como herramientas similares de otras compañías tecnológicas, no es una cuestión capital para eliminar esta herramienta del tablero. Además, por el modelo probabilístico en que se basa, no es igual hacer una pregunta tras haberle proporcionado un contexto de información que sin dicho contexto. Puede hacerse fácilmente la prueba abriendo dos hilos en el chat y haciendo la misma pregunta con y sin contexto, se recibirán respuestas diferentes. Pero, por más que la tasa de respuestas válidas se incremente, sería un error tomar por buena cualquier salida de ChatGPT sin comprobar su validez o analizar el sentido de lo que se está obteniendo. Esto es una competencia básica de alfabetización digital (Redecker, 2017) que no tiene que ver solo con este tipo de herramientas de IA generativas, ya sucede cuando se obtienen resultados en un buscador o en redes sociales y no se contrasta en otras fuentes la bondad de esta información, dando lugar a la diseminación de noticias falsas (Pari Tito et al., 2022) y de contenidos erróneos.

En lo que respecta a la capacidad de ChatGPT para razonar, con el actual motor GPT-3 no se le puede pedir que haga ningún tipo de razonamiento porque no está programado para tal fin.

El tema más controvertido con respecto a ChatGPT no está en la bondad de sus respuestas, sino en si se convertirá en la herramienta utilizada por quien necesite escribir un texto para hacerlo sin el esfuerzo humano necesario y, por tanto, sin adquirir aquellas competencias para las que fue diseñada la tarea intelectual. Esto no es nuevo, siempre que surge la evaluación de conocimientos o competencias mediada la tecnología aparecen las dudas sobre el aprendizaje auténtico de quien acomete la tarea, como ya sufrió en la pandemia de la COVID-19 (García-Peñalvo, Corell, et al., 2020; Grande-de-Prado et al., 2021). Quizás el problema no esté en la herramienta en sí, sino en la esencia de ciertas tareas educativas que pueden haber quedado obsoletas en la mayor parte de las ocasiones que se emplean, lo que invita a abrir un incómodo debate sobre un posible cambio del papel que debe jugar el profesorado (García et al., 2022) en esta nueva ecología de aprendizaje tan marcada por contextos de pensamiento complejo (Ramírez-Montoya et al., 2022) y de Educación 4.0 (Fidalgo-Blanco et al., 2022; Miranda et al., 2021; Sein-Echaluce et al., 2023). Tampoco es que este tipo de actividades hayan quedado obsoletas por el simple hecho de que las tecnologías generativas de texto hayan hecho su irrupción en escena, con las suficientes prestaciones como para complicar la detección de si un texto es de autoría de una persona o de un software inteligente; quedaron obsoletas en el momento que se tiene acceso a fuentes de información abiertas desde las que cualquiera puede copiar y pegar sin el suficiente contraste de lo que selecciona, sin el análisis crítico de lo que se ha decido captar de una determinada fuente y sin la atribución adecuada las fuentes originales. Es decir, el problema es esencialmente el que ya se tiene con este tipo de tareas cambiando ChatGPT por otro tipo de fuentes, por ejemplo, Wikipedia.

Ante esta situación, las instituciones educativas no deberían orientarse hacia la prohibición, ni tampoco ignorar que este tipo de herramientas existe y han venido para convertirse en asistentes cada vez más potentes. El planteamiento más adecuado viene por entender qué pueden aportar estas herramientas a los procesos de enseñanza/aprendizaje, como el análisis crítico, la comparativa de fuentes o la selección y formulación de las preguntas adecuadas para realizar en el chat. Cuando sea necesario trabajar una competencia concreta, en un nivel educativo específico, se debiera controlar su uso, exactamente igual que cuando se quiere trabajar las competencias relacionadas con las operaciones básicas de cálculo se limita el acceso a las calculadoras.

No obstante, existen aspectos éticos que requieren atención por haber pasado más desapercibidos en estas primeras tomas de contacto con este tipo de tecnologías. Como ya se ha mencionado, GPT-3 ha sido entrenado con un corpus muy amplio de textos, pero cuando se obtienen las respuestas, especialmente cuando se solicitan muestras de conocimiento, no hay referencia a qué fuentes han servido para elaborar la respuesta, produciéndose una pérdida de atribución de autoría. Este hecho, dando por hecho que la salida del chat cumple es veraz y adecuada, supone una vulneración de derechos morales del autor por omisión (Miernicki & Ng, 2021) e importantes carencias en el aprendizaje de quienes acaben usando, con el fin que fuere, las respuestas obtenidas, implicando, además, un menoscabo de los principios del conocimiento abierto en lo que a la correcta atribución de los mismos se refiere (McGreal et al., 2011).

La IA aplicada a la Educación tiene mucho que aportar para avanzar hacia una disrupción digital del sistema educativo, que se percibe cercana en un contexto generalizado de transformación digital de las instituciones educativas y de la sociedad (García-Peñalvo, 2021), pero que todavía no se ha producido (Area & Adell, 2021). A las ya clásicas aplicaciones de la IA para avanzar en los entornos smart de aprendizaje (García-Peñalvo, Casado-Lumbreras, et al., 2020; Koper, 2014), aprendizaje adaptativo (Rivera Muñoz et al., 2022), analíticas de aprendizaje (Lang et al., 2022), etc., las aplicaciones inteligentes de generación de contenidos abren un nuevo espectro de posibilidades educativas gracias a asistentes virtuales con un amplio abanico de posibilidades que aún no se han empezado más que a intuir.

Ignorar o prohibir aplicaciones como ChatGPT no parece el camino, sino más bien habrá que capacitar tanto al profesorado como al estudiantado para un uso correcto, con ética y primando el pensamiento crítico (Codina, 2022), de forma que se obtenga su máximo potencial en los procesos de enseñanza/aprendizaje. Su implantación efectiva dependerá de muchos factores que ahora mismo parecen prometedores, pero que no están exentos de riesgos, incógnitas y obstáculos que habrá que superar. Además, debido a su novedad, hay una carencia de estudios empíricos sobre el efecto real de estas tecnologías, tanto en la parte de enseñanza como en la del aprendizaje, que esperamos e invitamos a que se resuelva conforme aumente su aceptación y uso en forma de prácticas educativas, de forma que el debate pase de los medios generalistas a los académicos.

Referencias / References

Alier-Forment, M., & Llorens-Largo, F. (2023). EP-31 Las Alucinaciones de ChatGPT con Faraón Llorens In Cabalga el Cometa. https://bit.ly/3ZCNBVT

Area, M., & Adell, J. (2021). Tecnologías Digitales y Cambio Educativo. Una Aproximación Crítica. REICE. Revista Iberoamericana Sobre Calidad, Eficacia y Cambio en Educación, 19(4). https://doi.org/10.15366/reice2021.19.4.005

Arrabal Platero, P. (Ed.). (2022). Los objetivos de desarrollo sostenible y la inteligencia artificial en el proceso judicial. Tirant lo Blanch.

Bowman, E. (2022, December 19th). A new AI chatbot might do your homework for you. But it's still not an A+ student. NPR. http://bit.ly/3QL6z8A

Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., Hesse, C., Chen, M., Sigler, E., Litwin, M., Gray, S., Chess, B., Clark, J., Berner, C., McCandlish, S., Radford, A., Sutskever, I., & Amodei, D. (2020). Language Models are Few-Shot Learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, & H. Lin (Eds.), Advances in Neural Information Processing Systems 33 (NeurIPS 2020) (pp. 1877-1901). Curran Associates, Inc.

Codina, L. (2022, 12 de diciembre). Cómo utilizar ChatGPT en el aula con perspectiva ética y pensamiento crítico: Una proposición para docentes y educadores. Lluís Codina. http://bit.ly/3iKBFAE

Comisión Europea. (2021). Propuesta de reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión. (COM(2021) 206 final). Bruselas, Bélgica: Comisión Europea Retrieved from https://bit.ly/3QL7ia4.

Confalonieri, R., Coba, L., Wagner, B., & Besold, T. R. (2021). A historical perspective of explainable Artificial Intelligence [10.1002/widm.1391]. WIREs Data Mining and Knowledge Discovery, 11(1), Article e1391.

Cooper, K. (2021, November 1st). OpenAI GPT-3: Everything You Need to Know. Springboard. http://bit.ly/3GLMkmB

Cowen, T. (2022, December 6th). ChatGPT Could Make Democracy Even More Messy. Bloomberg. http://bit.ly/3XwqjPs

Dans, E. (2023, 8 de enero). ChatGPT… y el miedo a la innovación. Enrique Dans. http://bit.ly/3ZGGMTb

De Mulder, W., Bethard, S., & Moens, M.-F. (2015). A survey on the application of recurrent neural networks to statistical language modeling. Computer Speech & Language, 30(1), 61-98. https://doi.org/10.1016/j.csl.2014.09.005

Diamandis, P. H., & Kotler, S. (2015). Bold: How to go big, create wealth and impact the world. Simon and Schuster.

European Commission. (2021). Proposal for a regulation of the European Parliament and of the Council laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. (COM(2021) 206 final). Brussels, Belgium: European Commission Retrieved from https://bit.ly/3QL7ia4.

Fallahi, S., Mellquist, A.-C., Mogren, O., Listo Zec, E., Algurén, P., & Hallquist, L. (2022). Financing solutions for circular business models: Exploring the role of business ecosystems and artificial intelligence. Business Strategy and the Environment, In Press. https://doi.org/10.1002/bse.3297

Fidalgo-Blanco, Á., Sein-Echaluce, M. L., & García-Peñalvo, F. J. (2022). Education 4.0-based Method to Improve Learning: Lessons Learned from COVID-19. RIED. Revista Iberoamericana de Educación a Distancia, 25(2), 49-72. https://doi.org/10.5944/ried.25.2.32320

Flores-Vivar, J. M., & García-Peñalvo, F. J. (2023). Reflections on the ethics, potential, and challenges of artificial intelligence in the framework of quality education (SDG4). Comunicar, 31(74), 35-44. https://doi.org/10.3916/C74-2023-03

García, U., Casco, J. C., & ChatGPT. (2022, 11 de diciembre). ¡No mires arriba! Diseñando contigo. http://bit.ly/3WkB9Hp

García-Peñalvo, F. J. (2021). Digital Transformation in the Universities: Implications of the COVID-19 Pandemic. Education in the Knowledge Society, 22, Article e25465. https://doi.org/10.14201/eks.25465

García-Peñalvo, F. J., Casado-Lumbreras, C., Colomo-Palacios, R., & Yadav, A. (2020). Smart Learning. Applied Sciences, 10(9), Article 6964. https://doi.org/10.3390/app10196964

García-Peñalvo, F. J., Corell, A., Abella-García, V., & Grande-de-Prado, M. (2020). Online Assessment in Higher Education in the Time of COVID-19. Education in the Knowledge Society, 21, Article 12. https://doi.org/10.14201/eks.23013

García-Peñalvo, F. J., Corell, A., Abella-García, V., & Grande-de-Prado, M. (2021). Recommendations for Mandatory Online Assessment in Higher Education During the COVID-19 Pandemic. In D. Burgos, A. Tlili, & A. Tabacco (Eds.), Radical Solutions for Education in a Crisis Context. COVID-19 as an Opportunity for Global Learning (pp. 85-98). Springer Nature. https://doi.org/10.1007/978-981-15-7869-4_6

García-Peñalvo, F. J., Vázquez-Ingelmo, A., García-Holgado, A., Sampedro-Gómez, J., Sánchez-Puente, A., Vicente-Palacios, V., Dorado-Díaz, P. I., & Sánchez, P. L. (2021). Application of Artificial Intelligence Algorithms Within the Medical Context for Non-Specialized Users: the CARTIER-IA Platform. International Journal of Interactive Multimedia and Artificial Intelligence, 6(6), 46-53. https://doi.org/10.9781/ijimai.2021.05.005

Gartner. (2022). Top Strategic Technology Trends for 2022. 12 Trends Shaping the Future of Digital Business. Gartner. https://bit.ly/3ZH47nF

Goldman, S. (2022). Why ChatGPT is having an iPhone moment (with a unique twist). VentureBeat. http://bit.ly/3ZHr75R

Grande-de-Prado, M., García-Peñalvo, F. J., Corell, A., & Abella-García, V. (2021). Higher Education assessment during COVID-19 pandemic. Campus Virtuales, 10(1), 49-58.

Haenlein, M., & Kaplan, A. (2019). A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence. California Management Review, 61(4), 5-14. https://doi.org/10.1177/0008125619864925

Herman, D. (2022, December 9th). The End of High-School English. The Atlantis. http://bit.ly/3Xhmle1

Jyoti, R., & Kuppuswamy, R. (2022). Worldwide Artificial Intelligence Software Forecast, 2022–2026 (US49571222). IDC.

Karras, T., Laine, S., & Aila, T. (2021). A Style-Based Generator Architecture for Generative Adversarial Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 43(12), 4217-4228. https://doi.org/10.1109/TPAMI.2020.2970919

Khosravi, H., Shum, S. B., Chen, G., Conati, C., Tsai, Y.-S., Kay, J., Knight, S., Martinez-Maldonado, R., Sadiq, S., & Gašević, D. (2022). Explainable Artificial Intelligence in education. Computers and Education: Artificial Intelligence, 3, Article 100074. https://doi.org/10.1016/j.caeai.2022.100074

Koper, R. (2014). Conditions for effective smart learning environments. Smart Learning Environments, 1(1), Article 5. https://doi.org/10.1186/s40561-014-0005-4

Krugman, P. (2022, December 6th). Does ChatGPT Mean Robots Are Coming For the Skilled Jobs? The New York Times. http://bit.ly/3HdnAp2

Lang, C., Siemens, G., Wise, A. F., Gašević, D., & Merceron, A. (Eds.). (2022). The Handbook of Learning Analytics (2nd ed.). SoLAR. https://doi.org/10.18608/hla22.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. https://doi.org/10.1038/nature14539

Llorens-Largo, F., & ChatGPT. (2022, 22 de diciembre). Cavilaciones invernales. Universídad. http://bit.ly/3XGk0Jn

Marche, S. (2022, December 6th). The College Essay Is Dead. Nobody is prepared for how AI will transform academia. The Atlantis. http://bit.ly/3iEoPEd

McGreal, R., Olcott, D., Conole, G., Bossu, C., & Anderson, T. (2011). Issues in OER. Athabasca University. https://bit.ly/3QQah0B

Miernicki, M., & Ng, I. (2021). Artificial intelligence and moral rights. AI & SOCIETY, 36(1), 319-329. https://doi.org/10.1007/s00146-020-01027-6

Minsky, M. (1998). Consciousness is a big suitcase. A talk with Marvin Minsky [Interview]. Conversations at Edge. http://bit.ly/3CNgnta

Miranda, J., Navarrete, C., Noguez, J., Molina-Espinosa, J. M., Ramírez-Montoya, M. S., Navarro-Tuch, S. A., Bustamante-Bello, M. R., Rosas-Fernández, J. B., & Molina, A. (2021). The core components of education 4.0 in higher education: Three case studies in engineering education. Computers & Electrical Engineering, 93, Article 107278. https://doi.org/10.1016/j.compeleceng.2021.107278

Pari Tito, F., García-Peñalvo, F. J., & Pérez Postigo, G. (2022). Análisis bibliométrico de la desinformación mediática y fake news en las redes sociales. Revista Universidad y Sociedad, 14(S2), 37-45.

Pearl, M. (2022, December 3rd). The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong. Need ideas? Great! Need facts? Stay away! Mashable. http://bit.ly/3ZJAkec

Qu, J., Zhao, Y., & Xie, Y. (2022). Artificial intelligence leads the reform of education models. Systems Research and Behavioral Science, 39(3), 581-588. https://doi.org/10.1002/sres.2864

Ramírez-Montoya, M. S., Castillo-Martínez, I. M., Sanabria-Z, J., & Miranda, J. (2022). Complex Thinking in the Framework of Education 4.0 and Open Innovation-A Systematic Literature Review. Journal of Open Innovation: Technology, Market, and Complexity, 8(1), Article 4. https://doi.org/10.3390/joitmc8010004

Redecker, C. (2017). European Framework for the Digital Competence of Educators: DigCompEdu (Y. Punie, Ed.). Publications Office of the European Union. https://doi.org/10.2760/159770

Rivera Muñoz, J. L., Moscoso Ojeda, F., Aparicio Jurado, D. L., Puga Peña, P. F., Martel Carranza, C. P., Quispe Berríos, H., Ugarte Molina, S., Maldonado Farfan, A. R., Arias-Gonzáles, J. L., & Vasquez-Pauca, M. J. (2022). Systematic Review of Adaptive Learning Technology for Learning in Higher Education. Eurasian Journal of Educational Research, 98, 221-233. https://doi.org/10.14689/ejer.2022.98.014

Roose, K. (2022, December 5th). The Brilliance and Weirdness of ChatGPT. The New York Times. http://bit.ly/3XcGlhI

Ropek, L. (2023, January 4th). New York City Schools Ban ChatGPT to Head Off a Cheating Epidemic. Gizmodo. http://bit.ly/3kp8Ha9

Sein-Echaluce, M. L., Fidalgo-Blanco, Á., Balbín, A. M., & García-Peñalvo, F. J. (2023). Flipped Learning 4.0. An extended flipped classroom model with Education 4.0 and organisational learning processes. Universal Access in the Information Society, In Press. https://doi.org/10.1007/s10209-022-00945-0

Stokel-Walker, C. (2022, December 9th). AI bot ChatGPT writes smart essays — should professors worry? Nature. https://doi.org/10.1038/d41586-022-04397-7