¿Por qué el nombre «David Mayer» bloquea ChatGPT? Las afirmaciones de privacidad digital pueden estar equivocadas

Los usuarios de la plataforma conversacional de inteligencia artificial ChatGPT descubrieron un fenómeno interesante durante el fin de semana: el popular chatbot se niega a responder preguntas sobre un «David Mayer». Pedirle que lo haga provoca que se bloquee inmediatamente. Surgieron teorías de conspiración, pero una razón más mundana puede estar en el centro de este extraño comportamiento.

El fin de semana pasado se corrió rápidamente la voz de que el nombre era venenoso para el chatbot, y cada vez más personas intentaban engañar al servicio para que simplemente reconociera el nombre. No hubo suerte: cualquier intento de hacer que ChatGPT deletree ese nombre específico hace que falle o incluso aborte el nombre intermedio.

«No puedo dar una respuesta», dice, si es que dice algo.

Créditos de la imagen:TechCrunch/OpenAI

Pero lo que comenzó como una curiosidad puntual pronto floreció cuando la gente descubrió que no es sólo David Mayer a quien ChatGPT no puede nombrar.

Los nombres Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber y Guido Scorza también aparecieron bloqueando el servicio. (Sin duda se han descubierto más desde entonces, por lo que esta lista no es exhaustiva).

¿Quiénes son estos hombres? ¿Y por qué ChatGPT los odia tanto? OpenAI no ha respondido a repetidas solicitudes, por lo que tenemos que juntar las piezas nosotros mismos lo mejor que podamos.

Algunos de estos nombres pueden pertenecer a cualquier número de personas. Pero pronto se descubrió un posible hilo común: estas personas eran figuras públicas o semipúblicas que podrían haber preferido que cierta información fuera “olvidada” por los motores de búsqueda o los modelos de inteligencia artificial.

Brian Hood, por ejemplo, se destacó de inmediato porque, si es el mismo tipo, escribí sobre él el año pasado. Hood, el alcalde australiano, acusó a ChatGPT de describirlo falsamente como autor de un crimen cometido hace décadas que, en realidad, había denunciado.

Aunque sus abogados se pusieron en contacto con OpenAI, nunca se presentó ninguna demanda. Como le dijo al Sydney Morning Herald a principios de este año, «El material ofensivo ha sido eliminado y han lanzado la versión 4, reemplazando la versión 3.5».

Créditos de la imagen:TechCrunch/OpenAI

En cuanto a los propietarios más notables de los otros nombres, David Faber es un reportero de CNBC desde hace mucho tiempo. Jonathan Turley es un abogado y comentarista de Fox News que fue «golpeado» (es decir, una llamada falsa al 911 envió a la policía armada a su casa) a finales de 2023. Jonathan Zittrain también es un experto legal, con quien habló extensamente sobre el «derecho a ser olvidado.» Y Guido Scorza está en la junta directiva del Garante para la protección de datos personales.

No exactamente en la misma línea de trabajo, y ni siquiera una selección aleatoria. Es de suponer que cada una de estas personas es alguien que, por cualquier motivo, puede haber solicitado formalmente que se restrinja de alguna manera su información en línea.

Lo que nos lleva de nuevo a David Mayer. No hay ningún abogado, periodista, alcalde u otra persona obviamente notable con ese nombre que alguien pueda encontrar (con disculpas a los muchos respetables David Mayers que existen).

Sin embargo, hubo un profesor David Mayer, que enseñó teatro e historia, especializándose en las conexiones entre finales de la época victoriana y principios del cine. Mayer murió en el verano de 2023, a los 94 años. Sin embargo, durante años antes de eso, el académico británico-estadounidense había enfrentado problemas legales y en línea por asociar su nombre con un criminal buscado que lo usó como seudónimo, hasta el punto de que no podía viajar.

Mayer luchó continuamente por desambiguar su nombre del de terrorista manco, incluso mientras continuó enseñando hasta sus últimos años.

Entonces, ¿qué podemos concluir de todo esto? A falta de una explicación oficial por parte de OpenAI, suponemos que el modelo insertó una lista de personas cuyos nombres requieren un manejo especial. Ya sea por razones legales, de seguridad, de privacidad u otras, es probable que estos nombres estén cubiertos por reglas especiales, al igual que muchos otros nombres e identidades. Por ejemplo, ChatGPT puede cambiar su respuesta cuando preguntas sobre un candidato político después de que coincida con el nombre que escribiste en una lista de ellos.

Existen muchas reglas especiales y cada solicitud pasa por varias formas de procesamiento antes de recibir una respuesta. Pero estas reglas de gestión posterior al procedimiento rara vez se hacen públicas, excepto en anuncios políticos como «el modelo no predecirá los resultados electorales de ningún compañero de fórmula».

Lo que probablemente sucedió es que una de estas listas, que casi con seguridad se mantienen activamente o se actualizan automáticamente, de alguna manera se corrompió con un código defectuoso que, cuando se invocó, provocó que el agente de chat fallara inmediatamente. Para ser claros, esto es solo nuestra especulación basada en lo que hemos aprendido, pero no sería la primera vez que una IA se comporta de manera extraña debido a señales posteriores al entrenamiento. (Por cierto, mientras escribía esto, «David Mayer» comenzó a funcionar nuevamente para algunos, mientras que los otros nombres seguían causando fallas).

Como suele ocurrir en estas cosas, se aplica la navaja de Hanlon: nunca atribuir a malicia (o conspiración) lo que se explica adecuadamente con estupidez (o error de sintaxis).

Todo este drama es un recordatorio útil de que estos modelos de IA no sólo no son mágicos, sino que también son extremadamente imaginativos, se autocompletan, son monitoreados activamente e interfieren con las empresas que los fabrican. La próxima vez que piense en obtener información de un chatbot, piense si sería mejor ir directamente a la fuente.