OpenAI lanzó su modelo de IA más avanzado, llamado o1, para usuarios de pago el jueves. El lanzamiento inició el evento “12 días de OpenAI” de la compañía: una docena de lanzamientos consecutivos para celebrar la temporada navideña.
OpenAI ha promocionado las capacidades de «razonamiento complejo» de o1 y anunció el jueves que el acceso ilimitado al modelo costaría 200 dólares al mes. En el vídeo publicado por la empresa para mostrar los puntos fuertes del modelo, un usuario sube una foto de una pajarera de madera y le pide consejo al modelo sobre cómo construir una similar. El modelo “piensa” durante un breve periodo de tiempo y luego escupe lo que en la superficie parece ser un conjunto completo de instrucciones.
Un examen detenido revela que las instrucciones son casi inútiles. La IA mide la cantidad de pintura, pegamento y sellador necesarios para la tarea en pulgadas. Sólo proporciona las dimensiones del panel frontal de la pajarera y no otras. Se recomienda cortar un trozo de lija a otro tamaño, sin motivo aparente. Y en una parte separada de la lista de instrucciones, dice «las dimensiones exactas son las siguientes…» y luego continúa sin dar las dimensiones exactas.

«Se sabría tanto sobre la construcción de la pajarera a partir de la imagen como del texto, lo que contradice todo el propósito de la herramienta de inteligencia artificial», dice James Filus, director del Instituto de Carpinteros, una firma comercial con sede en Estados Unidos. Reino. cuerpo, en un correo electrónico. Señala que la lista de materiales incluye clavos, pero la lista de herramientas necesarias no incluye un martillo, y que el costo de construir la sencilla pajarera «no estaría ni cerca» de los 20 a 50 dólares estimados por o1. “Solo decir ‘instalar una pequeña bisagra’ no cubre lo que quizás sea la parte más compleja del proyecto”, agrega, refiriéndose a otra parte del video que pretende explicar cómo agregar un techo corredizo a su pajarera.
OpenAI no respondió de inmediato a una solicitud de comentarios.
Es solo el último ejemplo de una demostración de un producto de IA que hace lo contrario de su propósito previsto. El año pasado, un anuncio de Google sobre una herramienta de búsqueda asistida por inteligencia artificial afirmaba falsamente que el telescopio James Webb había hecho un descubrimiento que no había hecho, una metedura de pata que hizo caer el precio de las acciones de la empresa. Más recientemente, una versión actualizada de una herramienta similar de Google les dijo a los primeros usuarios que era seguro comer las piedras y que podían usar pegamento para unir queso a la pizza.

O1 de OpenAI, que según los puntos de referencia públicos es el modelo más capaz hasta la fecha, adopta un enfoque diferente al de ChatGPT para responder preguntas. Sigue siendo esencialmente un predictor de la siguiente palabra muy avanzado, entrenado mediante aprendizaje automático en miles de millones de palabras de texto de Internet y más allá. Pero en lugar de decir palabras inmediatamente en respuesta a una sugerencia, utiliza una técnica llamada razonamiento de «cadena de pensamiento» para esencialmente «pensar» en una respuesta durante un período de tiempo detrás de escena, y luego solo da la respuesta después. Esta técnica a menudo produce respuestas más precisas que cuando un modelo proporciona una respuesta de forma reflexiva, y OpenAI ha promocionado las capacidades de razonamiento de o1, especialmente cuando se trata de matemáticas y programación. Puede responder con precisión el 78% de las preguntas científicas de nivel doctoral, según datos publicados por OpenAI junto con una versión preliminar del modelo publicada en septiembre.
Pero está claro que aún pueden pasar desapercibidos algunos errores lógicos básicos.