Negócios

Eu trabalhei na IA há 15 anos. Aqui estão os poucos sinais de lavagem de IA.

Este ensaio é baseado em uma conversa com John Fitzpatrick, diretor de tecnologia da startup de gerenciamento de documentos Nitro. Foi editado por comprimento e clareza.

Eu trabalhei na IA há 15 anos e sou um dos engenheiros originais por trás da Apple’s Siri. Atualmente, sou o diretor de tecnologia da Nitro – uma empresa de software que ajuda as empresas a gerenciar e garantir documentos com mais eficiência.

No último ano, eu vi muita lavagem de IA, especialmente depois de Chatgpt decolou.

A IA Washing é quando as empresas exageram ou deturpam o que sua IA pode realmente fazer, apenas para que possam dizer que estão usando a IA.

De repente, toneladas de aplicativos que eram apenas uma nova pele em cima do chatgpt apareceu. As empresas começaram a renomear seus recursos de automação existentes como IA sem fazer aprimoramentos reais de produtos.

Eu vejo isso como semelhante ao hype da “nuvem” há muitos anos. De repente, todo negócio se tornou um negócio de nuvem. Estamos vendo isso com a IA hoje. Se você ouvir as chamadas de ganhos, toda empresa está falando sobre IA.

Dados recentes do Alphasense mostram um aumento de 779% em menções de termos como “Ai agêntico“” Ai Workforce “,” Digital Labor “e” AI Agents “durante as chamadas de ganhos no ano passado.

Quase todos comece Agora tem que ter um ângulo de IA para garantir financiamento.

Sinais de Ai Lavagem de IA

Existem alguns exemplos diferentes de lavagem de IA.

Um exemplo são as camadas de interface do usuário fino em cima do ChatGPT e talvez uma pequena quantidade de engenharia imediata. Em alguns casos, isso pode ser realmente valioso, mas em muitos casos não agrega nenhum valor específico.

O outro desafio com a AI lavando são as empresas que aceleram a IA aparece no mercado com essas integrações simples sem considerar a privacidade ou a segurança do cliente.

Nos piores casos, os principais players lançam recursos de assistente de assistente e atualizam seus termos e condições para permitir que eles usem dados do cliente para treinamento.

Depois, há o problema de confiar em APIs públicas de terceiros e fornecedores de serviços não controlam. Isso significaria que documentos sensíveis seriam enviados a terceiros, o que é um grande risco de segurança.

Nas indústrias regulamentadas, onde elas geralmente lidam com documentos extremamente importantes, você deseja ter muito cuidado com a alucinação e garantir que está obtendo coisas como pontuações de confiança dos modelos.

Muitos de nossos clientes têm faturas e dados financeiros em documentos em PDF. É realmente importante ser preciso quando esses dados são extraídos, ou onde o modelo tem baixa confiança, para ser muito óbvio.

As empresas também estão tentando fazer fluxos de automação completos sem ter essa verificação humana, e é aí que os erros podem acontecer.

Nesses tipos de indústrias, esses erros podem ser realmente caros,

Estamos indo além do hype e para a parte de adoção – onde a IA se torna um detalhe de implementação da construção de recursos realmente poderosos do produto.

As empresas estão aprendendo o que a IA pode e não pode fazer, construindo bons recursos e alavancando a IA.

Por causa disso, os investidores e o mercado estão começando a entender onde há IA superficial versus realmente adicionando utilidade real.

Artigos Relacionados

Botão Voltar ao Topo