O CEO da Box diz a BI, a correção para a ‘Rot’ da IA é sub-agentes

Aaron Levie disse ao Business Insider que há um problema para os agentes da IA: se você alimenta muitas informações, elas começam a perder o enredo.
O CEO da caixa gigante de armazenamento na nuvem chama esse problema de “podridão do contexto”.
Quanto mais dados você fornece o modelo de IA, “isso não leva necessariamente a um resultado melhor”, disse Levie na terça -feira. “O modelo ficará muito confuso e potencialmente se concentrará na parte errada da informação”.
À medida que a tarefa se arrasta, o modelo pode perder o controle do que deveria se concentrar, levando a piores resultados, acrescentou.
Essa falha acontece quando os agentes estão sobrecarregados com grandes quantidades de dados em sua “janela de contexto” – a parte do processo em que os modelos sintetizam informações antes de gerar uma resposta.
Em vez de confiar em um super-agente para lidar com tudo, Levie disse que a abordagem mais inteligente é esculpir o trabalho e atribuí-lo a frotas de subagentes especializados.
“Você vai querer separar os agentes e o contexto que eles têm”, disse ele.
“Você terá vários agentes, todos com um conjunto de metas e um conjunto de contextos que são pertinentes à sua parte particular do fluxo de trabalho”, acrescentou.
É contra-tendência ao sonho do Vale do Silício de um Overlord único AGI. Levie, que Caixa cofundada em 2005Disse que o modelo subagente “definitivamente será o futuro dos sistemas de agentes em larga escala”.
O CEO também disse que a chave para melhor o desempenho da IA é fornecer a esses modelos “as informações mais precisas e apenas os dados mais precisos”.
“Você precisa ser muito preciso em suas instruções e, em seguida, precisa dar ao modelo uma quantidade incrível do contexto certo para operar, mas muito contexto, na verdade, ele se sairá pior”, acrescentou.
Os agentes da IA estão longe de ser perfeitos
O Vale do Silício está zumbindo sobre agentes de IA, com empresas correndo para usá -las para cada vez mais elaboradas, Multi-Etapa tarefas.
O prospect de “agentes de vendas de piloto automático” da Regie AI e acompanhamento com os compradores, o Devin de Cognition AI aborda o trabalho de engenharia complexo e a empresa de serviços profissionais Big Four Professional, a PWC introduziu o “agente OS” para ajudar diferentes agentes a se coordenarem.
Mas a realidade é confusa. Em teoria, os agentes podem resolver problemas, executar tarefas e ficar mais inteligentes à medida que aprendem. Na prática, quanto mais passos eles tomam, mais frágeis o processo se torna.
Os pesquisadores alertaram que erros de agentes são predominantes e composto a cada passo que eles dão.
“Um erro em qualquer etapa pode inviabilizar toda a tarefa. Quanto mais etapas envolvidas, maior a chance de algo dar errado no final”, escreveu o Patronus AI, uma startup que ajuda as empresas a avaliar e otimizar a tecnologia de IA, escreveu em seu blog.
A startup criou um modelo estatístico que descobriu que um agente com uma taxa de erro de 1% por etapa pode compor com uma chance de 63% de erro na 100ª etapa.
Ainda assim, a empresa disse que guardrails – como filtros, regras e ferramentas para identificar e remover conteúdo impreciso – podem ajudar a mitigar as taxas de erro. Pequenas melhorias “podem produzir reduções exageradas na probabilidade de erro”, disse Patronus AI.