A primeira pele humana feita em laboratório está equipada com um suprimento de sangue total

Por que as câmeras de vigilância estão equipadas com inteligência artificial constantemente enganadas?
No ano passado, a London Transport Authority analisou câmeras de vigilância para um circuito de televisão fechado equipado com inteligência artificial, na estação de metrô Wilden Green, onde as transmissões foram operadas através de sistemas automáticos, de outubro de 2022 a setembro de 2023.
Metade dos alertas está errada
O objetivo era detectar evasão com o pagamento de taxas de transporte, movimentos e gestos agressivos e riscos de segurança. Mas o sistema, que emitiu mais de 44.000 alertas – não era um monitoramento, pois parecia que quase metade dos alertas estavam errados ou enganosos, como escreveu o colal Samuel Adibayo.
.
Os rastreadores infantis de seus pais por meio de barreiras de ingressos lançaram avisos sobre a fraude de pagar a tarifa, e os algoritmos enfrentaram dificuldade em distinguir entre bicicletas dobráveis e bicicletas regulares.
Monitoramento imediato .. em troca de um defeito profundo
O efeito foi imediato; Os funcionários enfrentaram mais de 19.000 alertas imediatos que exigem uma revisão humana, não por causa da presença de problemas reais, mas porque a inteligência artificial não conseguiu distinguir entre aparência e intenção; Como o sistema técnico e seu treinamento em monitoramento e a situação, não no contexto, revelaram um defeito mais profundo na essência de muitas ferramentas de inteligência artificial hoje.
O comportamento humano normal se transforma em uma ameaça
Com a disseminação da inteligência artificial na vida cotidiana – de lojas a aeroportos – sua incapacidade de explicar o motivo de nosso movimento, e não como nos movemos, ameaça converter o comportamento humano comum em falsos avisos.
Os limites do que as câmeras podem “ver”
A maioria das técnicas de inteligência artificial se destaca em padrões de monitoramento, como: cruzando as fronteiras, entrando em uma área específica e quebrando a rotina. Mas as nuances, o mistério e a diferença cultural os impedem.
“Em ambientes dinâmicos ou lotados, um dos maiores desafios é bloquear pessoas ou coisas da visão … quando as pessoas interferem ou se movem rapidamente na iluminação fraca, o sistema pode mesclá -las em uma pessoa, ou a pior disso: repeti -las”, diz Twan Lee Anna, CEO de inovações de tecnologia avançada (atin) baseadas no Vietnã. É fácil para as câmeras perder de vista os principais eventos ou serem enganadas ao classificar o que está acontecendo completamente. ”
A inteligência artificial vê o verbo, não a razão
Essa deficiência no contexto são conseqüências graves; Pode ser a pessoa que dirige o exercício, escapa do perigo ou persegue um ônibus, mas a inteligência artificial só vê o mesmo ato, não o motivo.
A maioria dos sistemas lida com clipes visuais breves sem levar em consideração o tempo, a dinâmica da multidão ou o som. E Li Ann observa que ela pode “determinar o que está acontecendo (como uma pessoa que corre), mas sem determinar o motivo”. “Essa deficiência no pensamento causal cria pontos cegos”.
Na prática, isso levou à mistura de câmeras de lojas entre os movimentos de chegada e roubo e à prática de discriminação em sistemas de transporte público para passageiros coloridos coloridos e misturando dispositivos de saúde entre gestos de rotina e marcas de angústia, às vezes causando atenção a situações reais de emergência.
Argumenta -se por mim que a solução é treinar inteligência artificial para ver toda a cena. “Quando várias fontes de dados coletam e permitem que o modelo aprenda com os padrões ao longo do tempo, ele se aproxima de um sistema que entenda a intenção … aqui essa tecnologia pode parar de cometer erros e começar a se tornar realmente útil”.
Padrões falsos e consequências reais
Esse problema reflete o que Saji bin Moshe, CEO da Lomana, reflete: “A armadilha dos padrões correspondentes”. A inteligência artificial treinada na classificação de pixels (pontos de imagem) geralmente monitora detalhes superficiais sem nenhum significado real.
Ele acrescenta: «Um dos exemplos clássicos veio dos projetos para identificar imagens militares; Quando especialistas treinaram o regime para descobrir tanques usando um instantâneo coincidente perto das árvores. O que aconteceu é que o sistema aprende a descobrir árvores, não tanques. O regime teve sucesso em um teste maravilhoso, mas falhou no campo. ”
Lomana é projetada artificialmente para evitar esses problemas. Seus “modelos de aprendizado contínuo” seguem o movimento ao longo do tempo e no contexto.
Uma vasta diferença entre visão … e compreensão
“Há uma grande diferença entre visão e compreensão”. Atualmente, a inteligência artificial pode descobrir a identidade da pessoa, mas ele não sabe se está em um estado de angústia, dispersão ou aguarda um carro. E quando os sistemas operam com base nessa visão incompleta, arriscamos a “automação de mal -entendidos” em larga escala.
Os riscos atingem seu pico nas escolas, hospitais e estádios esportivos, que são lugares onde a segurança depende da classificação exata, e os resultados errados podem exacerbar o problema ou negligenciar ameaças.
Entender as regras físicas
Por que a inteligência artificial precisa de física, não apenas pixels? Especialistas argumentam que um entendimento real requer mais do que apenas uma visão bidimensional. A inteligência artificial deve aprender as mesmas regras físicas e espaciais que os humanos absorvem em sua infância: gravidade, movimento, causa e resultado.
Bin Moshe diz: “Os sistemas de inteligência artificial de hoje não têm um senso compacto de lógica física; a criança sabe que, se uma bola é paga, ela está rolando. Quanto ao modelo de inteligência artificial, isso não é conhecido, a menos que ele assista a milhões de vídeos de bolas enquanto rolam de maneiras semelhantes.” Portanto, os esforços da indústria estão nessa direção; Lomana adota modelos organizados de objetos, forças e cenas, enquanto “atin” explora a visão baseada em transformadores e gráficos para as cenas 3D para capturar a profundidade e o contexto nas relações. Mas a alta precisão e a interpretação imediata requer uma tremenda força de tratamento, que não pode ser facilmente explicada.
Construir inteligência artificial “entende”
Com as empresas que competem para automatizar os espaços físicos, os riscos são claros: a menos que a inteligência artificial aprenda contexto, corremos o risco de converter fraquezas humanas em fraquezas automáticas.
Conectando o movimento ao significado e intenção
Bin Mosheh e Wali concordam que o futuro da inteligência artificial não dependerá de câmeras mais precisas ou de melhores classificações, mas do pensamento lógico – ligando o movimento ao significado e tempo à intenção. Se a inteligência artificial tem que coexistir com os seres humanos, ele deve primeiro entender e entender nosso mundo.
O progresso ocorre, após modelos de tempo de mesclagem, sinais de som e ambientais foram desenvolvidos. Mas a confiança real dependerá de sistemas não apenas mais inteligentes, mas também transparentes, interpretáveis e compatíveis com as características da complexidade humana.
Quando essa mudança ocorre, o papel da inteligência artificial não se limitará ao reconhecimento facial ou rastreamento de movimentos, mas acomodará o contexto subjacente por trás disso. Isso abre a porta para a tecnologia que não apenas nos monitora, mas também trabalha conosco para criar espaços públicos mais seguros, justos e de resposta.
* Revista “Fast Companish”, “Tribune Media” Services
Source link