IBM ha anunciado la disponibilidad del modelo de lenguaje grande de código abierto Mixtral-8x7B – LLM, desarrollado por Mistral AI, en su plataforma de datos e inteligencia artificial watsonx. IBM ofrece una versión optimizada de Mixtral-8x7B que, en pruebas internas, pudo aumentar el rendimiento (o la cantidad de datos que se pueden procesar en un período de tiempo determinado) en un 50 % con respecto al modelo normal. Esto podría reducir potencialmente la latencia entre un 35% y un 75%, según el tamaño del lote, lo que aceleraría el tiempo para obtener información valiosa. Mixtral-8x7B se construyó utilizando una combinación de modelado disperso (una técnica que encuentra y utiliza solo las partes más esenciales de los datos para crear modelos más eficientes) y la técnica de Mezcla de Expertos, que combina varios modelos especializados y solucionables con diferentes partes de un problema.
Publicado por primera vez en La mosca – la fuente definitiva de noticias financieras de última hora en tiempo real que mueven el mercado. Pruébalo ahora >>
Descubra las mejores acciones recomendadas por los analistas >>
Obtenga más información sobre IBM: