ChatGPT: Las polémicas de la app de Inteligencia Artificial que responde preguntas y resuelve tareas

Imagen ilustrativa
Gettyimages.ru

 

 

 





El encantamiento con el ChatGPT es colectivo desde noviembre pasado, cuando la compañía OpenAI lo presentó al público: claro, puede hacer incluso un cuento al estilo de García Márquez sobre la luna: La luna llena, en el cielo, como un sueño de plata. Un hombre mira fijo, enamorado de su belleza eterna, así lo reseñó EL COLOMBIANO.

Se trata de una Inteligencia Artificial basada en el software GPT-3.5 de esa empresa (ya hubo un GPT-3 y un GPT-2), que resuelve preguntas y tareas diversas y responde como si lo hiciera un humano. Puede escribir artículos al estilo que se le pida, dar ideas para celebrar el cumpleaños de un niño de 10 años y revisar qué le falta al código de un programador. Wow, parece dejar con la boca abierta a más de uno.

Sin embargo, hay que tener cuidado, por las muchas limitaciones: para ChatGPT, por ejemplo, el presidente de Colombia todavía es Iván Duque, porque su fecha de corte de conocimiento fue 2021. No tiene idea de lo que pasó después.

Él mismo se define como “un modelo de lenguaje desarrollado por OpenAI. Se entrena en grandes cantidades de texto de la web y es capaz de generar texto de manera autónoma”. De ahí que esté en un aprendizaje constante, y eso hace, explica la profesora Paola Hincapié, directora de contenidos de Agencia El Grifo, que ahora tiene acceso gratuito, porque necesita aprender mucho todavía. La técnica que utiliza se llama entrenamiento por transferencia, lo que significa que aprende con grandes cantidades de texto para generar otros de manera similar. Además de muchas personas simulando conversaciones. Antes de lanzarlo hubo quienes le enseñaron, y no tenían (ni tienen) tantas limitaciones como las del público.

En este momento, justamente, está en fase de pruebas, y con eso OpenAI ha sido claro y las limitaciones se explican desde que se abre: “Puede generar información incorrecta ocasionalmente y producir instrucciones dañinas o contenido viciado”. Ya hay una versión de pago, pero no para todos: hay lista de espera.

El profesor Pablo Haya, especializado en IA y procesamiento de lenguaje, le explicó a la Agencia Sinc, que junta palabras, pero no entiende el conocimiento que genera. No es inteligente: “Solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet”. Lo que sorprende, dice, es que ha conseguido imitar muy bien el lenguaje humano, por lo menos desde lo gramatical: puede pasar desapercibido que lo hizo la máquina.

Ese es un punto importante, que explica el profesor: la inteligencia implica ser consciente, y hay que sumar que los humanos son sintientes. “Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente. Ahora mismo estamos muy lejos de alcanzar una inteligencia consciente. La máquina solo emula el lenguaje humano”.

Es importante desmitificar, por ejemplo, que les vaya a quitar el trabajo a periodistas o a escritores (no en el presente), dice Hincapié, porque si bien puede generar un texto con unas características, no interpreta la información, lo escribirá con lo que sabe, y no podrá tener un estilo, ir más allá. Incluso con las mismas instrucciones terminará produciendo un texto similar: a preguntas y tareas similares responde casi igual.

Más detalles en EL COLOMBIANO