Home
» Wiki
»
Google afirma que Gemini 2.5 supera a los mejores modelos de OpenAI, DeepSeek y otros gigantes tecnológicos de IA.
Google afirma que Gemini 2.5 supera a los mejores modelos de OpenAI, DeepSeek y otros gigantes tecnológicos de IA.
Google acaba de presentar Gemini 2.5, al que la compañía llama su “modelo de IA más inteligente hasta el momento”. La primera versión del modelo fue el Gemini 2.5 Pro, que logró puntuaciones de referencia impresionantes en muchas pruebas.
Google afirma que Gemini 2.5 supera a los mejores modelos de OpenAI, DeepSeek y otros gigantes tecnológicos de IA.
Gemini 2.5 Pro ya está disponible a través de Google AI Studio y en la aplicación Gemini si eres un usuario de Gemini Advanced . El Gemini 2.5 Pro también estará disponible a través de Vertex AI en un futuro próximo.
Google no ha compartido los precios del Gemini 2.5 Pro ni de otros modelos Gemini 2.5 en este momento.
Todos los modelos que utilizan Gemini 2.5 son "modelos pensantes", lo que significa que pueden procesar el proceso de pensamiento antes de generar una respuesta. Estos modelos de “razonamiento” son el próximo gran paso en el espacio de la IA porque generan respuestas más complejas y, a menudo, más precisas.
“Ahora, con Gemini 2.5, hemos logrado un nuevo nivel de rendimiento al combinar un modelo base significativamente mejorado con un entrenamiento posterior mejorado ”, afirmó Google.
“En el futuro, incorporaremos estas capacidades de pensamiento directamente en todos nuestros modelos para que puedan manejar problemas más complejos y brindar soporte a los agentes con un conocimiento del contexto aún mejor ” .
¿Cómo se compara Gemini 2.5 con los modelos OpenAI?
Punto de referencia de Google Gemini 2.5
Los modelos Gemini 2.5 Pro de Google superan a los modelos superiores anteriores de OpenAI y DeepSeek.
Los puntajes de referencia para Gemini 2.5 compartidos por Google son bastante impresionantes. Gemini 2.5 Pro Experimental obtuvo un 18,5% en el Último Examen de la Humanidad.
Esa puntuación significa que, al menos por ahora, el Gemini 2.5 Pro Experimental es el mejor modelo según esa métrica. Su puntuación supera a OpenAI 03-mini (14%) y DeepSeek R1 (8,6%).
Esa prueba en particular se considera difícil, aunque no es la única forma de medir el rendimiento de un modelo de IA.
Google también destacó las capacidades de programación del Gemini 2.5 Pro y los puntos de referencia del modelo en matemáticas y ciencias. Gemini 2.5 Pro actualmente lidera los puntos de referencia de matemáticas y ciencias según las mediciones de GPQA y AIME 2025.
¿Es posible programar en Gemini 2.5?
La programación es el foco principal de Gemini 2.5. Google afirma que es “un gran paso adelante respecto a la versión 2.0” y adelanta que habrá más mejoras en camino.
El nuevo modelo de Google puede crear aplicaciones web y aplicaciones de código agente. Una demostración de Google muestra el uso de Gemini 2.5 Pro para crear un juego a partir de una única línea de comandos.
4 razones por las que Gemini 2.5 Pro de Google es importante para la IA empresarial
A continuación se presentan cuatro puntos clave que los equipos empresariales deben tener en cuenta al evaluar Gemini 2.5 Pro.
1. Razonamiento estructurado y transparente: un nuevo estándar para la claridad del pensamiento
Lo que distingue al Gemini 2.5 Pro no es solo su inteligencia: es cómo esa inteligencia demuestra claramente su trabajo. El método de entrenamiento paso a paso de Google crea una línea de pensamiento (CoT) estructurada que no se parece a divagaciones ni conjeturas, como lo que hemos visto en modelos como DeepSeek . Estos CoT no se truncan en resúmenes superficiales como los modelos de OpenAI. El nuevo modelo Gemini presenta ideas en pasos numerados, con subpuntos y una lógica interna extremadamente clara y transparente.
En términos prácticos, esto supone un gran avance en fiabilidad y navegabilidad. Los usuarios comerciales que evalúan los resultados de tareas críticas (como revisar las implicaciones de políticas, codificar la lógica o resumir investigaciones complejas) ahora pueden ver cómo el modelo llegó a la respuesta. Esto significa que pueden validar, corregir o redirigir las respuestas con más confianza. Este es un gran paso adelante respecto de la sensación de "caja negra" que aún persiste en muchas salidas de modelos de lenguaje grandes (LLM) .
Para obtener una guía más detallada sobre el rendimiento de este modelo, consulte el video donde se prueba en vivo el Gemini 2.5 Pro. Un ejemplo discutido: cuando se le preguntó sobre las limitaciones de los modelos de lenguaje grandes, Gemini 2.5 Pro mostró una conciencia notable. Se describen las debilidades comunes y se clasifican en áreas como “intuición física”, “síntesis de nuevos conceptos”, “planificación a largo plazo” y “matices éticos”, proporcionando un marco que ayuda a los usuarios a comprender lo que sabe el modelo y cómo abordar el problema.
Los equipos de ingeniería empresarial pueden aprovechar esta capacidad para:
Depurar cadenas lógicas complejas en aplicaciones de misión crítica
Mejor comprensión de las limitaciones del modelo en dominios específicos
Proporcionar decisiones más transparentes basadas en IA a las partes interesadas
Mejorar su propio pensamiento crítico estudiando el enfoque del modelo.
Una limitación notable es que, si bien este razonamiento estructurado está disponible en la aplicación Gemini y Google AI Studio, actualmente no es accesible a través de API, lo que representa una deficiencia para los desarrolladores que buscan integrar esta capacidad en aplicaciones empresariales.
2. Un verdadero contendiente para la tecnología de vanguardia, no solo en teoría
Actualmente, el modelo encabeza la clasificación de Chatbot Arena por un margen significativo: más de 35 puntos Elo por delante del siguiente mejor modelo, en particular la actualización OpenAI 4o lanzada el día después del lanzamiento de Gemini 2.5 Pro. Y aunque el dominio de los benchmarks suele ser fugaz (ya que se lanzan nuevos modelos semanalmente), el Gemini 2.5 Pro realmente se siente diferente.
Se destaca en tareas que recompensan el razonamiento profundo: codificación, resolución matizada de problemas, resumen de documentos e incluso planificación abstracta. En pruebas internas, tuvo un desempeño particularmente bueno en puntos de referencia anteriormente difíciles como “El último examen de la humanidad”, un punto de referencia popular para detectar debilidades de LLM en áreas abstractas y matizadas.
Puede que a los grupos empresariales no les importe qué modelo gana qué clasificaciones académicas. Pero les importará que este modelo pueda pensar y les mostrará cómo piensa. La prueba de vibración es muy importante.
Como señaló el respetado ingeniero de IA Nathan Lambert: «Google vuelve a tener los mejores modelos, porque deberían haber iniciado este auge de la IA. El gran error ya se ha corregido». Los usuarios empresariales deberían ver esto no sólo como una manera de que Google se pone a la altura de sus competidores, sino como una forma potencial de superarlos en capacidades que son importantes para las aplicaciones empresariales.
3. Finalmente, el juego de cifrado de Google es sólido.
Tradicionalmente, Google se ha quedado atrás de OpenAI y Anthropic en términos de soporte de codificación centrado en los desarrolladores. El Gemini 2.5 Pro cambia eso.
En pruebas prácticas, demostró fuertes capacidades de una sola prueba en desafíos de codificación, incluida la creación de un juego de Tetris funcional que se ejecutó en el primer intento cuando se exportó a Replit, sin necesidad de depuración. Más notable aún, explica claramente la estructura del código, etiqueta cuidadosamente las variables y los pasos, y presenta su enfoque antes de escribir una sola línea de código.
Este modelo compite con Claude 3.7 Sonnet de Anthropic, que se considera líder en generación de código y es una de las principales razones del éxito de Anthropic en la empresa. Pero Gemini 2.5 ofrece una ventaja importante: una enorme ventana de contexto de tokens de hasta 1 millón. Claude 3.7 Sonnet actualmente solo ofrece 500.000 tokens.
Esta gran ventana de contexto abre nuevas posibilidades para razonar en todo el código base, leer documentación en línea y trabajar en múltiples archivos interdependientes. La experiencia del ingeniero de software Simon Willison demuestra esta ventaja.
Al utilizar Gemini 2.5 Pro para implementar una nueva función en nuestra base de código, el modelo identificó los cambios necesarios en 18 archivos diferentes y completó todo el proyecto en aproximadamente 45 minutos, con un promedio de menos de 3 minutos por archivo modificado. Esta es una herramienta seria para empresas que experimentan con marcos de agentes o entornos de desarrollo impulsados por IA.
4. Integración de múltiples métodos con comportamiento similar al de un agente
Si bien algunos modelos, como el último 40 de OpenAI, pueden mostrar más destellos con una generación de imágenes llamativas, el Gemini 2.5 Pro parece estar redefiniendo silenciosamente lo que significa un razonamiento multimodal fundamentado.
En un ejemplo, un experimento práctico realizado por Ben Dickson para VentureBeat demostró la capacidad del modelo para extraer información clave de un documento técnico sobre algoritmos de búsqueda y generar un diagrama de flujo SVG correspondiente, y luego mejorar ese diagrama de flujo cuando se muestra una versión renderizada con errores visuales. Este nivel de razonamiento multimodal permite la creación de nuevos flujos de trabajo que antes no eran posibles con modelos de solo texto.
En otro ejemplo, el desarrollador Sam Witteveen subió una captura de pantalla simple de un mapa de Las Vegas y preguntó qué eventos de Google se llevarían a cabo cerca el 9 de abril. El modelo identificó la ubicación, infirió la intención del usuario, buscó en línea y arrojó detalles precisos sobre Google Cloud Next, incluyendo fecha, ubicación y cita. Todo esto se hace sin un marco de agente personalizado, solo el modelo central y la búsqueda incorporada.
De hecho, este modelo de razonamiento de entrada multimodal va más allá de simplemente mirarlo. Sugiere cómo podría lucir un flujo de trabajo empresarial en 6 meses: cargar documentos, diagramas y paneles, y dejar que el modelo sintetice, planifique o tome acciones significativas en función del contenido.