ChatGPT: los riesgos del popular “chatbot” de inteligencia artificial

ChatGPT: los riesgos del popular “chatbot” de inteligencia artificial

ChatGPT supone retos especiales para colegios y universidades, que ya enfrentaban al plagio. FOTO: iStock

 

“Hice un trabajo con ChatGPT y saqué un 10” es el testimonio con el cual El Confidencial, diario en línea español, titulaba hace pocos días un informe sobre los efectos en colegios y universidades del programa de inteligencia artificial desarrollado por la firma californiana Open AI.

Por eltiempo.com





El diario relataba cómo una estudiante de 29 años, inscrita en un máster en innovación digital, había obtenido la máxima calificación con un trabajo hecho, en cuestión de minutos, por ChatGPT, el robot en línea que está causando un verdadero “terremoto” en el mundo educativo.

Con solo una dirección de correo electrónico y una clave, cualquiera que se conecte a chat.openai.com desde su computador, su tableta o su celular puede abrir una cuenta y acceder, gratis, a un servicio de chat que, en pocos minutos –a veces en apenas segundos– redacta a pedido un ensayo sobre cualquier tema, escribe un poema o un cuento de ficción con solo darle unas líneas básicas de trama y personajes, resuelve un problema de matemáticas o, si se quiere, hasta ayuda a responder una prueba de selección múltiple.

Si bien los profesores llevan años combatiendo las tareas plagiadas en Google o en Wikipedia, esto es diferente. El sencillo ejercicio de un estudiante de copiar un texto hallado en internet y pegarlo a su tarea, sin darle crédito al verdadero autor, es relativamente fácil de detectar cuando el profesor busca en la web unas pocas frases del trabajo de su alumno.

En la escuela de Ciencias Políticas de Lille, en Francia, aplican desde hace años un programa antiplagio para detectar a los alumnos que acuden al expediente de copiar y pegar a través de internet. Pero, según confesó al diario parisino Le Figaro Pierre Mathiot, director de estudios de esta universidad: “El programa no está concebido para detectar ChatGPT”.

Y es que con el prototipo de chatbot no hay, técnicamente, un plagio. Cada vez que alguien le pide redactar un texto sobre un mismo asunto, el robot utiliza palabras y fórmulas de redacción diferentes. Incluso si una misma persona le hace, con diferencia de segundos, el mismo encargo, la segunda vez el robot lo redacta de manera diferente. Trabaja en inglés, pero también en español, francés, alemán, italiano, portugués y muchos idiomas más, incluido el mandarín.

Para ponerlo a prueba, el autor de este artículo le pidió dos veces seguidas –con diferencia de minutos– a ChatGPT que escribiera un cuento corto sobre el amor de una pareja cuyos miembros provienen de clases sociales diferentes y los desafíos que esto les plantea. En la primera respuesta, el cuento lo protagonizaba Ana, joven de una familia rica, y en la segunda, Sofía, de origen humilde.

Seguidamente, optó por pedirle al robot un poema en forma de soneto sobre la muerte de la mujer amada: el resultado fueron dos poemas diferentes. Claro que tanto en los cuentos cortos como en los poemas, la calidad literaria dejaba muchísimo que desear. Era evidente que carecían de inspiración. Pero para aquel estudiante que no aspira a ganar el Nobel de Literatura y solo pretende pasar una materia, poco importa que las musas no visiten al robot.

De las aulas al juzgado

El debate no se limita al mundo de la educación. A mediados de enero, el juez colombiano Juan Manuel Padilla generó gran controversia al contar que consultó a ChatGPT una decisión de su despacho. La madre de un joven autista pedía a la empresa de salud prepagada, a la que su familia está suscrita, que eximiera a su hijo del pago de la cuota moderadora.

El juez le planteó el caso a ChatGPT, y el robot le respondió que, según la ley colombiana, el menor no debía pagar la cuota moderadora de las citas. Interrogado por Blu Radio, Padilla explicó que ese robot hace lo que antes hacía “un secretario de manera organizada, sencilla y estructurada” y agregó que, como el robot responde en cuestión de segundos, esta herramienta puede ayudar a resolver los problemas de demora del sistema judicial.

Pero el asunto no es tan simple. En este caso, que el robot redacte respuestas diferentes a la misma consulta cada vez que se la plantean acarrea problemas.

Juan David Gutiérrez, catedrático de la Universidad del Rosario, hizo el mismo ejercicio del juez varias veces y obtuvo, en ocasiones, respuestas diferentes. Preocupado, advirtió que “en aras de una supuesta eficiencia, se pueden poner en riesgo los derechos fundamentales”.

Tanto la prensa europea como la estadounidense han calificado el caso del juez Padilla como el primero en el mundo en el que un magistrado acude a un robot de inteligencia artificial para resolver una demanda y abrió otro frente al debate, distinto al de la educación.

Al igual que en colegios y universidades, la legislación y la jurisprudencia de cada país tendrán que definir los límites que deben respetar los jueces a la hora de asesorarse de ChatGPT o de sistemas de inteligencia artifical similares. Y al igual que en el mundo de la educación, es evidente que prohibir el uso de este recurso no bastará, entre otras razones porque impedirlo es prácticamente imposible.

Más allá de aulas y juzgados, millones de consultas han sido hechas por ejecutivos y oficinistas para nutrir sus memorandos y escribir correos electrónicos de trabajo. Muchos contadores se apoyan en ChatGPT para hacer hojas de balance. Incluso entre los periodistas, atraídos inicialmente por mera curiosidad, el uso de ChatGPT ha ganado terreno para la verificación de datos como fechas, nombres y lugares. Eso sí, hay sectores vetados por el propio robot, como la consulta médica.

¿Combatirlo o aprovecharlo?

En un completo informe de fin de semana dedicado al tema, el matutino francés Le Figaro contó varios casos en colegios y universidades francesas, entre ellos el de un estudiante de tercer año de derecho de la prestigiosa Sorbona de París, que confesó haber resuelto, en unos pocos minutos, la estructura y buena parte del contenido de una disertación, cuando trabajos similares le tomaban antes hasta cuatro horas.

En una universidad de Estrasburgo, en el noreste del país, 20 estudiantes fueron sancionados por haber utilizado ChatGPT a la hora de responder un examen de selección múltiple que se realizó de manera virtual. Para su mala suerte, los obligaron a repetir la materia porque, al parecer, el robot que no es infalible cometió un error en el que coincidieron todos.

El departamento de Educación del estado de Nueva York quiso curarse en salud y, ante el auge de la herramienta digital, prohibió su uso en las escuelas públicas de esa zona de EE. UU. El organismo argumentó estar “muy inquieto” porque nada aseguraba “la exactitud de los contenidos” de ChatGPT y por el “impacto negativo en los procesos de aprendizaje” debido a que la herramienta “no contribuye a desarrollar el pensamiento crítico”.

A su vez, las universidades que conforman la muy elitista asociación Ivy League –entre ellas Harvard, Columbia y Yale– están redactando normas comunes para intentar construir un reglamento frente al uso y abuso de este robot en línea. Pero no todos en el mundo académico están de acuerdo en declararle la guerra a la ya famosa herramienta virtual.

Como ChatGPT, y otras aplicaciones basadas en ese desarrollo, están disponibles en las tiendas virtuales de Apple o Google, y como detectar que han sido utilizadas para una tarea escolar, un trabajo universitario o incluso un fallo judicial no resulta fácil, son muchos quienes quieren aplicar la vieja fórmula de: “si no puedes vencer a tu enemigo, únetele”.

Vanda Luengo, profesora de informática de La Sorbona, ha investigado bien los alcances –y los límites– de ChatGPT. Luengo cree que este robot que hoy resulta tan novedoso e impactante, con el tiempo, “se volverá una herramienta como otras”. “Es claro que nuestro desafío es enseñar a los estudiantes a comprender y analizar la información que brinda este robot”, argumentó la profesora al insistir en la necesidad de una educación que aplique el pensamiento crítico del que el robot carece.

No opina, no siente

Sam Altman, nacido en Chicago hace 37 años, es el genio detrás de la compañía OpenAI. En 2015, aún antes de cumplir 30 años, reunió más de mil millones de dólares de financiación gracias a que las demostraciones de su robot descrestaron a conocidos inversionistas. Entre ellos estaban el alemán Peter Thiel, administrador de un fondo de capital de riesgo que ha tenido entre sus aciertos financiar Facebook y PayPal, y hasta el controvertido Elon Musk, dueño de Tesla y quien hace pocos meses adquirió Twitter.

A diferencia de Musk, que hace gala de preocuparse poco por los asuntos éticos, Altman ha desplegado una campaña mediática para dar a conocer las buenas prácticas a las que se adhiere ChatGPT y los cuidados que sus programadores brindan a los contenidos. De entrada, el robot advierte que no está diseñado para opinar. También deja en claro que no tiene sentimientos. En principio, evita usar lenguaje agresivo, sexista o discriminatorio, aunque en algunos testeos se ha salido de casillas y ha soltado palabrotas, como lo reveló el diario francés Le Monde.

Lo cierto es que mientras el debate continúa, tanto en las aulas como en las esferas del poder, el robot en línea, que desde septiembre de 2021 ha atendido millones y millones de consultas a lo largo y ancho del planeta, parece haber llegado para quedarse.

Gracias a sus obvias ventajas, su uso seguirá extendiéndose a gran velocidad. Pero debido a sus riesgos, es deseable que el debate que genera continúe y se haga cada día más profundo. Al fin y al cabo, en eso del pensamiento crítico, la inteligencia humana le sigue llevando ventaja –al menos por ahora– a la inteligencia artificial.