OpenAI finalmente revela por qué ChatGPT no dice «David Mayer»

Un logotipo de ChatGPT en 3D

Si estuvo en línea el fin de semana pasado, es posible que haya visto noticias extrañas sobre un tipo llamado David Mayer. No fue tendencia debido a un evento importante o un momento viral, sino debido a una falla extraña en ChatGPT. Los usuarios no pudieron lograr que el chatbot escupiera su nombre, por mucho que lo intentaran. En cambio, se detuvo a mitad de la frase, afirmó que «algo salió mal» o se negó rotundamente a responder. Esto ha llevado a Internet a una espiral de especulaciones: ¿Quién es David Mayer y por qué ChatGPT lo está engañando?

El misterio creció. Las teorías iban desde triviales hasta francamente descabelladas. Algunos pensaron que Mayer podría ser un ciudadano medio que ejerció su “derecho al olvido”, una ley del Reino Unido y la UE que permite a las personas eliminar sus datos personales en línea. Otros se apoyaron en teorías de conspiración, preguntándose si se trataba de alguien poderoso, tal vez incluso de la famosa familia Mayer de Rothschild. Pero David Mayer de Rothschild rápidamente desestimó la afirmación, calificándola de tontería y distanciándose de toda la saga.

OpenAI, el desarrollador de ChatGPT, aclaró las cosas y explicó que el problema no es con GDPR o solicitudes personales, sino que es simplemente un «fallo» causado por una herramienta interna que marcó incorrectamente el nombre de Mayer.

Los problemas de ChatGPT no son nuevos. En el pasado, tenía problemas para entender el sarcasmo, confundir fechas o hacer declaraciones atrevidas pero graciosamente incorrectas (a veces todavía lo hace). OpenAI siempre considera estos problemas crecientes: contratiempos en un sistema que aprende de una gran cantidad de datos. Arreglan una cosa, otra sale mal y los usuarios terminan entretenidos y molestos.

Pero esto no es sólo un problema de ChatGPT. Otras herramientas de IA han tenido una buena cantidad de malentendidos públicos. Los resúmenes de búsqueda de IA de Google, por ejemplo, alguna vez recomendaron poner pegamento en la pizza como un gran truco de cocina. No olvidemos el chatbot de inteligencia artificial de Bing, que tuvo una crisis existencial cuando alguien le hizo demasiadas preguntas personales.