IBM Granite 3.2 utiliza razonamiento condicional, pronóstico de series temporales y visión de documentos para abordar casos de uso empresariales desafiantes

Suscríbase a nuestros boletines diarios y semanales para recibir las últimas actualizaciones y contenido exclusivo sobre la cobertura de inteligencia artificial líder en la industria. Más información
A raíz del debut disruptivo de DeepSeek-R1 , los modelos de razonamiento han estado de moda en lo que va de 2025.
IBM se suma ahora a la fiesta con el debut hoy de su familia de modelos de lenguaje grande (LLM) Granite 3.2. A diferencia de otros enfoques de razonamiento como DeepSeek-R1 o o3 de OpenAI, IBM está incorporando profundamente el razonamiento en sus modelos centrales de código abierto Granite . Es un enfoque al que IBM se refiere como razonamiento condicional, donde el razonamiento de cadena de pensamiento (CoT) paso a paso es una opción dentro de los modelos (en lugar de ser un modelo separado).
Se trata de un enfoque flexible en el que el razonamiento se puede activar de forma condicional con una bandera, lo que permite a los usuarios controlar cuándo utilizar un procesamiento más intensivo. La nueva capacidad de razonamiento se basa en las mejoras de rendimiento que IBM introdujo con el lanzamiento de los LLM Granite 3.1 en diciembre de 2024.
IBM también está lanzando un nuevo modelo de visión en la familia Granite 3.2, optimizado específicamente para el procesamiento de documentos. El modelo es particularmente útil para digitalizar documentos antiguos, un desafío con el que luchan muchas organizaciones grandes.
Otro desafío de inteligencia artificial empresarial que IBM pretende resolver con Granite 3.2 es el modelado predictivo. El aprendizaje automático (ML) se ha utilizado para realizar predicciones durante décadas, pero no ha tenido la interfaz de lenguaje natural ni la facilidad de uso de la inteligencia artificial de última generación. Ahí es donde encajan los modelos de pronóstico de series temporales Granite de IBM; aplican tecnología de transformadores para predecir valores futuros a partir de datos basados en el tiempo.
“El razonamiento no es algo que un modelo es, es algo que un modelo hace”, dijo David Cox, vicepresidente de modelos de IA en IBM Research, a VentureBeat.
Si bien no ha faltado entusiasmo y publicidad en torno a los modelos de razonamiento en 2025, el razonamiento por sí mismo no necesariamente aporta valor a los usuarios empresariales.
La capacidad de razonar en muchos aspectos ha sido parte de la inteligencia artificial de última generación durante mucho tiempo. Simplemente pedirle a un LLM que responda en un enfoque paso a paso activa un resultado de razonamiento de CoT básico. El razonamiento moderno en modelos como DeepSeek-R1 y ahora Granite 3.2 va un poco más allá al usar el aprendizaje de refuerzo para entrenar y habilitar capacidades de razonamiento.
Si bien las indicaciones de CoT pueden ser efectivas para ciertas tareas como las matemáticas, las capacidades de razonamiento de Granite 3.2 pueden beneficiar a una gama más amplia de aplicaciones empresariales. Cox señaló que al alentar al modelo a dedicar más tiempo a pensar, las empresas pueden mejorar los procesos complejos de toma de decisiones. El razonamiento puede beneficiar las tareas de ingeniería de software, la resolución de problemas de TI y otros flujos de trabajo de agentes donde el modelo puede desglosar los problemas, tomar mejores decisiones y recomendar soluciones más informadas.
IBM también afirma que, con el razonamiento activado, Granite 3.2 es capaz de superar a sus rivales, incluido DeepSeek-R1, en tareas de seguimiento de instrucciones.
Si bien Granite 3.2 tiene capacidades de razonamiento avanzadas, Cox destacó que no todas las consultas necesitan más razonamiento. De hecho, muchos tipos de consultas comunes pueden verse afectados negativamente si se utiliza más razonamiento.
Por ejemplo, para una consulta basada en conocimiento, un modelo de razonamiento independiente como DeepSeek-R1 podría dedicar hasta 50 segundos a un monólogo interno para responder una pregunta básica como "¿Dónde está Roma?".
Una de las principales innovaciones de Granite 3.2 es la introducción de una función de pensamiento condicional, que permite a los desarrolladores activar o desactivar dinámicamente las capacidades de razonamiento del modelo. Esta flexibilidad permite a los usuarios lograr un equilibrio entre velocidad y profundidad de análisis, según la tarea específica en cuestión.
Yendo un paso más allá, los modelos Granite 3.2 se benefician de un método desarrollado por la unidad de negocios Red Hat de IBM que utiliza algo llamado “filtro de partículas” para permitir capacidades de razonamiento más flexibles.
Este enfoque permite que el modelo controle y gestione dinámicamente múltiples hilos de razonamiento, evaluando cuáles son los más prometedores para llegar al resultado final. Esto proporciona un proceso de razonamiento más dinámico y adaptativo, en lugar de un CoT lineal. Cox explicó que esta técnica de filtro de partículas brinda a las empresas aún más flexibilidad en la forma en que pueden usar las capacidades de razonamiento del modelo.
En el enfoque del filtro de partículas, hay muchos hilos de razonamiento que ocurren simultáneamente. El filtro de partículas elimina los enfoques menos efectivos y se centra en los que ofrecen mejores resultados. Por lo tanto, en lugar de simplemente hacer razonamientos de CoT, hay múltiples enfoques para resolver un problema. El modelo puede abordar problemas complejos de manera inteligente, centrándose selectivamente en las líneas de razonamiento más prometedoras.
Las grandes organizaciones suelen tener volúmenes igualmente grandes de documentos, muchos de los cuales fueron escaneados hace años y ahora se encuentran archivados. Todos esos datos han sido difíciles de utilizar con los sistemas modernos.
El nuevo modelo de visión Granite 3.2 está diseñado para ayudar a resolver ese desafío empresarial. Mientras que muchos modelos multimodales se centran en la comprensión general de imágenes, las capacidades de visión de Granite 3.2 están diseñadas específicamente para el procesamiento de documentos, lo que refleja el enfoque de IBM en la solución de problemas empresariales tangibles en lugar de perseguir puntuaciones de referencia.
El sistema se centra en lo que Cox describió como “cantidades irracionales de documentos antiguos escaneados” que se encuentran en los archivos de las empresas, en particular en las instituciones financieras. Se trata de depósitos de datos opacos que han permanecido en gran medida sin explotar a pesar de su potencial valor comercial.
Para las organizaciones con décadas de registros en papel, la capacidad de procesar de manera inteligente documentos que contienen gráficos, figuras y tablas representa una ventaja operativa sustancial sobre los modelos multimodales de propósito general que se destacan en la descripción de fotografías de vacaciones pero tienen dificultades con los documentos comerciales estructurados.
En benchmarks empresariales como DocVQA y ChartQA, IBM Granite vision 3.2 muestra resultados sólidos frente a sus rivales.
Quizás el componente técnicamente más distintivo del lanzamiento son los “pequeños mezcladores de tiempo” (TTM) de IBM: modelos especializados basados en transformadores diseñados específicamente para el pronóstico de series de tiempo.
Sin embargo, la previsión de series temporales, que permite el análisis predictivo y la modelización, no es algo nuevo. Cox señaló que, por diversas razones, los modelos de series temporales se han quedado estancados en la antigua era del aprendizaje automático (ML) y no se han beneficiado de la misma atención de los modelos de IA de generación más nueva y llamativa.
Los modelos Granite TTM aplican las innovaciones arquitectónicas que impulsaron los avances de LLM a un dominio de problemas completamente diferente: predecir valores futuros en función de patrones históricos. Esta capacidad aborda necesidades empresariales críticas en materia de previsión financiera, programación de mantenimiento de equipos y detección de anomalías.
No faltan las expectativas y todos los proveedores afirman superarse unos a otros en una interminable variedad de parámetros de referencia de la industria.
Para los responsables de la toma de decisiones empresariales, tomar nota de los puntos de referencia puede ser interesante, pero eso no es lo que resuelve los problemas. Cox enfatizó que IBM está adoptando el enfoque de "traje y corbata" para la IA empresarial, buscando resolver problemas reales.
“Creo que hay mucha imaginación que nos lleva a pensar que podemos tener un modelo superinteligente que de alguna manera hará todo lo que necesitamos que haga y, al menos por el momento, ni siquiera estamos cerca de eso”, dijo Cox. “Nuestra estrategia es: ‘Construyamos herramientas reales y prácticas usando esta tecnología tan emocionante, e incorporémosle tantas funciones como sea posible que faciliten el trabajo real’”.
Si desea impresionar a su jefe, VB Daily lo tiene cubierto. Le brindamos información exclusiva sobre lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, para que pueda compartir información y obtener el máximo retorno de la inversión.
Lea nuestra Política de privacidad
Gracias por suscribirse. Vea más boletines de VB aquí .
Se produjo un error.

venturebeat