Ha pasado un año y ya estamos al servicio de ChatGPT

Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países

Fotografía de archivo del logo de ChatGPT (EFE)

Una de las primeras preguntas que le hice a ChatGPT, a principios de este año, fue sobre mí: “¿Qué puedes decirme sobre la escritora Vauhini Vara?”. Me dijo que soy periodista (cierto, aunque también soy escritora de ficción), que nací en California (falso) y que había ganado un Premio Gerald Loeb y un Premio National Magazine (falso, falso).

Después, adquirí la costumbre de preguntar a menudo sobre mí. Una vez me dijo que Vauhini Vara era autora de un libro de no ficción titulado “Kinsmen and Strangers: Making Peace in the Northern Territory of Australia”. Eso también era falso, pero le seguí la corriente y le respondí que el reportaje me había parecido “tenso y difícil”.

“Gracias por tu importante trabajo”, respondió ChatGPT.

Al trolear a un producto que se promocionaba como conversador casi humano, al engañarlo para que revelara sus fallas esenciales, me sentí como la heroína de una especie de extenso juego de poder al estilo “humana contra máquina”.

Hace mucho tiempo que se utilizan distintas formas de inteligencia artificial, pero la presentación de ChatGPT a finales del año pasado fue lo que hizo que la inteligencia artificial entrara de repente en nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia. Nuestros primeros encuentros revelaron que esas tecnologías eran extremadamente excéntricas (recordemos la espeluznante conversación de Kevin Roose con el chatbot Bing de Microsoft, con motor de inteligencia artificial, el cual, en cuestión de dos horas, le confesó que quería ser humano y que estaba enamorado de él) y que, a menudo, como fue mi experiencia, también resultan muy equivocadas.

Desde entonces han pasado muchas cosas en el campo de la inteligencia artificial: las empresas fueron más allá de los productos básicos del pasado e introdujeron herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y sonido junto con texto y más. La rivalidad entre OpenAI y las empresas tecnológicas más consolidadas se volvió más intensa que nunca, incluso mientras actores más pequeños ganaban popularidad. Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países.

Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos (Xiaodong Yan/Universidad Northwestern)

Sin embargo, lo que distinguió al año, más que cualquier avance tecnológico, empresarial o político, fue la forma en que la inteligencia artificial se insinuó en nuestra vida cotidiana y nos enseñó a considerar sus defectos —con todo y su actitud espeluznante, errores y demás— como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que ChatGPT había llenado con referencias a resoluciones judiciales que no existían, los que quedaron mal, como lo ilustra la multa de 5.000 dólares que los abogados tuvieron que pagar, fueron ellos, no la tecnología. “Es vergonzoso”, le dijo uno de ellos al juez.

Algo parecido ocurrió con los ultrafalsos producidos por la inteligencia artificial, suplantaciones digitales de personas reales. ¿Recuerdan cuando los veíamos con terror? Para marzo, cuando Chrissy Teigen no podía discernir si era auténtica una imagen del papa con una chaqueta acolchada inspirada en la marca Balenciaga publicó en redes sociales este mensaje: “Me odio, jaja”. Los bachilleratos y las universidades pasaron rápidamente de preocuparse por cómo evitar que los estudiantes utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiantes que no saben usarla de quienes nos burlamos, no de los productos.

Quizá pienses que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnologías durante la mayor parte de la historia de la humanidad? Si vamos a utilizarlas, ¿no deberíamos ser más inteligentes? Esta línea de razonamiento esquiva la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafalsos disponibles en primer lugar?

Los errores de la inteligencia artificial tienen un nombre entrañablemente antropomórfico, alucinaciones, pero este año ha quedado claro lo mucho que está en juego. Tenemos titulares sobre cómo la inteligencia artificial da instrucciones a drones asesinos (con la posibilidad de un comportamiento impredecible), manda a gente a la cárcel (aunque sea inocente), diseña puentes (con supervisión posiblemente defectuosa), diagnostica todo tipo de padecimientos médicos (a veces de manera errónea) y produce informes noticiosos que suenan convincentes, (en algunos casos, con el fin de divulgar desinformación política).

Como sociedad, es evidente que nos hemos beneficiado de prometedoras tecnologías basadas en la inteligencia artificial que podrían detectar el cáncer de mama que los médicos pasan por alto o permitir que los humanos descifren las comunicaciones de las ballenas. Sin embargo, al centrarnos en esas ventajas y culparnos de las muchas formas en que nos fallan las tecnologías de inteligencia artificial, absolvemos a las empresas que están detrás de esas tecnologías y, más concretamente, a las personas que están detrás de esas empresas.

Los acontecimientos de las últimas semanas ponen de manifiesto lo arraigado que está el poder de esas personas. OpenAI, la entidad que está detrás de ChatGPT, se creó como una organización sin ánimo de lucro para permitirle maximizar el interés público en lugar de limitarse a maximizar las ganancias. No obstante, cuando su consejo administrativo despidió a Sam Altman, el director ejecutivo, por considerar que no se tomaba en serio ese interés público, los inversionistas y los empleados se rebelaron. Cinco días después, Altman regresó triunfante, tras la sustitución de la mayoría de los miembros incómodos del consejo.

En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia (REUTERS/Dado Ruvic)

En retrospectiva, se me ocurre que, en mis primeras partidas con ChatGPT, identifiqué mal a mi rival. Pensé que se trataba solo de la tecnología. Lo que debí recordar es que las tecnologías tienen un valor neutro. En cambio, los seres humanos ricos y poderosos que están detrás de ellas —y las instituciones creadas por esos seres humanos— no lo tienen.

La verdad es que no importa lo que le preguntara a ChatGPT, en mis primeros intentos de confundirlo, OpenAI salía ganando. Los ingenieros lo habían diseñado para aprender de sus encuentros con usuarios. Sin importar si sus respuestas eran buenas o no, me atraían una y otra vez a interactuar con el sistema. Uno de los principales objetivos de OpenAI este primer año ha sido lograr que la gente lo utilice. Con mis juegos de poder no he hecho más que contribuir a ello.

Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos. Con toda la inversión que están atrayendo, uno imagina que se lograrán algunos avances. Pero incluso en un mundo hipotético en el que se perfeccionen las capacidades de la inteligencia artificial, quizá especialmente en ese mundo, el desequilibrio de poder entre sus creadores y sus usuarios debería hacernos desconfiar de su insidioso alcance. El aparente afán de ChatGPT no solo por presentarse, por decirnos qué es, sino también por decirnos quiénes somos nosotros y qué debemos pensar, es un ejemplo de ello. Hoy en día, cuando la tecnología está en pañales, ese poder parece novedoso, incluso divertido. Mañana podría no serlo.

Hace poco le pregunté a ChatGPT qué pensaba yo, es decir, la periodista Vauhini Vara, de la inteligencia artificial. Se rehusó a responder, pues dijo que no tenía suficiente información. Entonces le pedí que escribiera una historia ficticia sobre una periodista llamada Vauhini Vara que está escribiendo un artículo de opinión para The New York Times sobre la inteligencia artificial. “Mientras la lluvia seguía golpeando las ventanas”, escribió ChatGPT, “las palabras de Vauhini Vara hicieron eco de este sentimiento: que, al igual que una sinfonía, la integración de la inteligencia artificial en nuestras vidas podría ser una composición hermosa y colaborativa si se realiza con cuidado”.

– Infobae

Compartir ésta nota:
Facebook
Twitter
LinkedIn
WhatsApp