Alibaba acaba de anunciar oficialmente su último modelo de razonamiento, y parece que DeepSeek y OpenAI tienen algunos motivos de preocupación, si es que todo el "bombo" sobre Alibaba es cierto. Este modelo es de código abierto, por lo que todos pueden acceder a él y experimentarlo de forma gratuita.
El nuevo modelo de IA de Alibaba, denominado QwQ-32b (Quan-with-Questions), se ejecuta con muchos menos parámetros que casi todos los modelos de lenguaje principales actuales, lo que significa que requiere menos recursos. Alibaba afirma que el QwQ-32b funciona al mismo nivel que DeepSeek o el o1-mini de OpenAI.
El modelo de lenguaje grande (LLM) DeepSeek-R1 causó revuelo cuando se lanzó a principios de febrero, desafiando el estándar de oro establecido por ChatGPT, pero a un costo operativo mucho menor. Con el QwQ-32b, parece que Alibaba quiere ampliar este límite aún más.
Técnicamente, DeepSeek-R1 requiere 671 mil millones de parámetros para ejecutarse, con 37 mil millones de parámetros habilitados. Mientras tanto, el QwQ-32b de Alibaba solo necesita 32 mil millones de parámetros. Estos números pueden parecer abstractos para muchos, pero hacen una gran diferencia en el poder de procesamiento: mientras que DeepSeek-R1 requirió 1600 GB de VRAM para funcionar, QwQ-32b solo necesita 24 GB de VRAM. En la mayoría de los casos, esto requerirá una tarjeta gráfica como la Nvidia H100 o equivalente, pero incluso la RTX 4090 ideal para jugadores tiene 24 GB de VRAM. La última RTX 5090 eleva este número a 32 GB.
Incluso se argumenta que incluso con solo 32 mil millones de parámetros, QwQ-32B todavía ofrece un rendimiento igual o superior a R1 en áreas como matemáticas, programación y resolución de problemas generales. Alibaba también dijo que QwQ-32B supera al o1-mini de OpenAI, que está construido con 100 mil millones de parámetros. QwQ-32B está disponible en Hugging Face, la comunidad de modelos de IA de código abierto más grande del mundo.

El QwQ-32b de Alibaba está disponible bajo la licencia Apache 2.0, lo que significa que las empresas y los investigadores pueden usarlo libremente. Lo más importante es que podemos probarlo a través del Qwen Chat de Alibaba. Al igual que DeepSeek, QwQ-32b tiene algunas limitaciones en términos de límites de sujetos. Por ejemplo, cuando se le pregunta sobre cuestiones políticas, Qwen Chat mostrará un mensaje indicando que se trata de un tema inapropiado. Pero también hay algunas ventajas que saltan a la vista de inmediato.
El QwQ-32b parece dar respuestas bastante detalladas incluso a preguntas rápidas y simples. Esto puede ser bueno, pero en cierto modo es bastante molesto porque proporciona mucha información innecesaria que no solicitaste. Una ventaja es que QwQ-32b puede mostrar todo el proceso de razonamiento, similar a la función Deep Thinking de ChatGPT, pero con menos profundidad.
Queda por ver si las afirmaciones de Alibaba se harán realidad, pero parece que ChatGPT y DeepSeek ahora tienen un nuevo competidor digno.