Seleccione idioma

Spanish

Down Icon

Seleccione país

England

Down Icon

Más allá de A2A y MCP: cómo la capa de identidad de agente universal de LOKA cambia las reglas del juego

Más allá de A2A y MCP: cómo la capa de identidad de agente universal de LOKA cambia las reglas del juego

Únase a nuestros boletines diarios y semanales para recibir las últimas novedades y contenido exclusivo sobre la cobertura líder en IA del sector. Más información.

La interoperabilidad agente está ganando fuerza, pero las organizaciones continúan proponiendo nuevos protocolos de interoperabilidad mientras la industria continúa descubriendo qué estándares adoptar.

Un grupo de investigadores de la Universidad Carnegie Mellon propuso un nuevo protocolo de interoperabilidad que rige la identidad, la responsabilidad y la ética de los agentes autónomos de IA. La Orquestación por Capas para Agentes Conocimientos (LOKA) podría sumarse a otros estándares propuestos, como Agent2Agent (A2A) de Google y el Protocolo de Contexto de Modelo (MCP) de Anthropic.

En un artículo , los investigadores señalaron que el auge de los agentes de IA subraya la importancia de gobernarlos.

“A medida que su presencia se expande, la necesidad de un marco estandarizado que rija sus interacciones se vuelve primordial”, escribieron los investigadores. “A pesar de su creciente ubicuidad, los agentes de IA a menudo operan en sistemas aislados, sin un protocolo común de comunicación, razonamiento ético ni cumplimiento de las regulaciones jurisdiccionales. Esta fragmentación plantea riesgos significativos, como problemas de interoperabilidad, desajustes éticos y lagunas en la rendición de cuentas”.

Para abordar esto, proponen el LOKA de código abierto, que permitiría a los agentes demostrar su identidad, “intercambiar mensajes semánticamente ricos y éticamente anotados”, agregar responsabilidad y establecer una gobernanza ética en todo el proceso de toma de decisiones del agente.

LOKA se basa en lo que los investigadores denominan Capa de Identidad de Agente Universal, un marco que asigna a los agentes una identidad única y verificable.

“Concebimos LOKA como una arquitectura fundamental y un llamado a reexaminar los elementos clave —identidad, intención, confianza y consenso ético— que deberían sustentar las interacciones entre agentes. A medida que se amplía el alcance de los agentes de IA, es crucial evaluar si nuestra infraestructura actual puede facilitar esta transición de forma responsable”, declaró a VentureBeat Rajesh Ranjan, uno de los investigadores.

LOKA funciona como una pila de capas. La primera pila gira en torno a la identidad, que define quién es el agente. Esto incluye un identificador descentralizado, o una "identificación única y criptográficamente verificable". Esto permitiría a los usuarios y a otros agentes verificar la identidad del agente.

La siguiente capa es la de comunicación, donde el agente informa a otro agente de su intención y la tarea que debe realizar. A esta le siguen la ética y la capa de seguridad.

La capa ética de LOKA define el comportamiento del agente. Incorpora un marco de toma de decisiones éticas flexible y robusto que permite a los agentes adaptarse a diversos estándares éticos según el contexto en el que operan. El protocolo LOKA emplea modelos de toma de decisiones colectiva, lo que permite a los agentes, dentro del marco, determinar sus próximos pasos y evaluar si estos se ajustan a los estándares éticos y responsables de la IA.

Mientras tanto, la capa de seguridad utiliza lo que los investigadores describen como “criptografía resiliente cuántica”.

Los investigadores dijeron que LOKA se destaca porque establece información crucial para que los agentes se comuniquen entre sí y operen de forma autónoma en diferentes sistemas.

LOKA podría ser útil para que las empresas garanticen la seguridad de los agentes que implementan en el mundo y proporcionen una forma rastreable de comprender cómo tomaron decisiones. Un temor común en muchas empresas es que un agente acceda a otro sistema o a datos privados y cometa un error.

Ranjan dijo que el sistema “resalta la necesidad de definir quiénes son los agentes, cómo toman decisiones y cómo rinden cuentas”.

Nuestra visión es arrojar luz sobre las preguntas cruciales que a menudo quedan eclipsadas en la prisa por escalar los agentes de IA: ¿Cómo creamos ecosistemas donde estos agentes sean confiables, responsables y éticamente interoperables en diversos sistemas?, preguntó Ranjan.

LOKA tendrá que competir con otros protocolos y estándares de agencia que están surgiendo. Protocolos como MCP y A2A han encontrado un gran público, no solo por las soluciones técnicas que ofrecen, sino porque estos proyectos cuentan con el respaldo de organizaciones conocidas. Anthropic inició MCP, mientras que Google respalda A2A, y ambos protocolos han reunido a muchas empresas dispuestas a usar y mejorar estos estándares.

LOKA opera de forma independiente, pero Ranjan dijo que han recibido “comentarios muy alentadores y emocionantes” de otros investigadores y otras instituciones para expandir el proyecto de investigación LOKA.

Perspectivas diarias sobre casos de uso empresarial con VB Daily

Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Te ofrecemos información exclusiva sobre lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, para que puedas compartir tus conocimientos y maximizar el retorno de la inversión.

Lea nuestra Política de Privacidad

Gracias por suscribirte. Consulta más boletines de VB aquí .

Se produjo un error.

venturebeat

venturebeat

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow