As capturas de tela do iOS 26 podem ser uma prévia intrigante da retarda retardada da Apple.

Quando foi lançado, Inteligência visual da Apple O recurso permitiu que você aponte a câmera do seu telefone compatível com você e execute uma pesquisa de imagens do Google ou faça perguntas via ChatGPT. Na WWDC 2025, a empresa mostrou atualizações para ampliar a utilidade da inteligência visual, em grande parte incorporando -a ao sistema de capturas de tela. Para citar o comunicado de imprensa da empresa“A inteligência visual já ajuda os usuários a aprender sobre objetos e lugares ao seu redor usando a câmera do iPhone, e agora permite que os usuários façam mais, mais rápido, com o conteúdo na tela do iPhone”.
Isso me lembrou a “consciência na tela” que a maçã descrito Como uma das capacidades da Siri quando anunciou a Apple Intelligence no ano passado. Em que O comunicado à imprensa, disse a empresa: “Com a conscientização na tela, a Siri poderá entender e agir com o conteúdo dos usuários em mais aplicativos ao longo do tempo”. Embora não seja exatamente o mesmo, a inteligência visual baseada em captura de tela atualizada permite que seu iPhone sirva ações contextuais do seu conteúdo na tela, mas não via Siri.
De certa forma, faz sentido. A maioria das pessoas já está acostumada a tirar uma captura de tela quando deseja compartilhar ou salvar informações importantes que viram em um site ou postagem do Instagram. A integração de ações de inteligência da Apple aqui teoricamente colocaria as ferramentas onde você espera, em vez de fazer os usuários conversarem com a Siri (ou aguardam a atualização).
Esse conteúdo incorporado não está disponível em sua região.
Basicamente, no iOS 26 (em dispositivos que suportam a inteligência da Apple), pressionar os botões de energia e volume para tirar uma captura de tela resultará em uma nova página sendo puxada para cima. Em vez da miniatura da sua imagem salva aparecendo no canto inferior esquerdo, você verá a foto pegar quase toda a tela, com opções em torno de editar, compartilhar ou salvar o arquivo, além de obter respostas e ações baseadas em inteligência da Apple na parte inferior. Nas cantos inferior esquerdo e direito, as opções de solicitar ChatGPT e fazer uma pesquisa de imagens do Google, respectivamente.
Dependendo do que está na sua captura de tela, a Apple Intelligence pode sugerir várias ações abaixo da sua imagem. Isso pode estar perguntando onde comprar um item de aparência semelhante, adicionando um evento ao seu calendário ou identificando tipos de plantas, animais ou alimentos, por exemplo. Se houver muita coisa acontecendo na sua captura de tela, você poderá desenhar um item para destacá -lo (semelhante a como selecionar um objeto para apagar em fotos) e obter informações específicas para essa parte da imagem.
Aplicativos ou serviços de terceiros que permitiram intenções de aplicativos, como Google, Etsy e Pinterest, também podem aparecer aqui para que você possa executar ações nesse espaço também. Por exemplo, se você encontrou um suporte de livros que gosta, tirou uma captura de tela e o identificou, você pode comprar no Etsy ou prendê -lo no Pinterest.
Um aspecto desta atualização para a inteligência visual que me dá uma pausa é que, para pessoas como eu que exibem uma exibição sem pensar e não querem fazer nada além de receber recibos, isso pode adicionar um passo frustrante entre capturar uma captura de tela e salvá -la nas fotos. Parece que você pode desligar essa interface e seguir o sistema de captura de tela existente.
Esse conteúdo incorporado não está disponível em sua região.
Os exemplos que a Apple deu para a capacidade da Siri de entender o que está na sua tela parecia um pouco semelhante. Em seu comunicado de imprensa do ano passado, a Apple disse: “Por exemplo, se um amigo manda mensagens de texto a um novo endereço em mensagens, o receptor pode dizer: ‘Adicione este endereço ao seu cartão de contato’.”
Como a inteligência visual nas capturas de tela, isso envolve a digitalização do conteúdo na tela em busca de informações pertinentes e ajudá -lo a colocá -las em um local (como contatos ou calendário), onde é mais útil. No entanto, a promessa da nova era da Siri era mais sobre interagir com todas as partes do seu telefone, em aplicativos de primeira e terceira partidos. Assim, você pode pedir ao assistente para abrir um artigo adicionado à sua lista de leitura no Safari ou enviar fotos de um evento especificado para um contato.
Está claro que a Apple ainda não entregou esses avanços à Siri, e como Craig Federighi disse na palestra da WWDC 2025, aqueles que podem só ser discutido ainda este ano. Ainda assim, enquanto aguardamos a atualização de status, as mudanças que chegam às capturas de tela podem ser uma prévia das coisas que estão por vir.
Se você comprar algo através de um link neste artigo, podemos ganhar comissão.