A Apple Intelligence fica mais inteligente: tradução ao vivo, atualizações de genmoji, inteligência visual, novas ferramentas de desenvolvedor e muito mais

A Apple visualizou uma expansão significativa para a Apple Intelligence, seu conjunto de recursos de inteligência artificial incorporados em iPhone, iPad, Mac, Apple Watch e Apple Vision Pro. A atualização apresenta novos recursos, como tradução ao vivo, inteligência visual para conteúdo na tela, mais expressivo genmoji e criação de imagens personalizadas através do Image Playground. É importante ressaltar que a Apple também está dando aos desenvolvedores de terceiros acesso direto ao seu modelo de fundação no dispositivo, interações promissoras, rápidas, privadas e offline da IA.
“No ano passado, demos os primeiros passos em uma jornada para trazer a inteligência dos usuários que é útil, relevante, fácil de usar e exatamente onde os usuários precisam, enquanto protegem sua privacidade”, disse Craig Federighi, vice -presidente sênior de engenharia de software da Apple. “Agora, os modelos de que a Apple Intelligence estão se tornando mais capazes e eficientes, e estamos integrando recursos em ainda mais lugares em cada um de nossos sistemas operacionais”.
Ele acrescentou: “Também estamos dando o enorme passo de dar aos desenvolvedores acesso direto ao modelo de fundação no dispositivo que alimenta a Apple Intelligence … mal podemos esperar para ver o que os desenvolvedores criam”.
Tradução ao vivo: mensagens multilíngues em tempo real e chamadas
Uma das adições mais poderosas é a tradução ao vivo, agora integrada a mensagens, FaceTime e telefone. Os usuários podem digitar ou falar em um idioma e traduzi -lo automaticamente em tempo real, com voz e legendas, dependendo do aplicativo. Esse recurso usa modelos no dispositivo para preservar a privacidade do usuário e funciona totalmente offline.
Genmoji e Image Playground: Creative AI, personalizada
Com novas atualizações, o Genmoji agora pode ser criado misturando emojis e adicionando prompts de texto para personalizá -los ainda mais. Os usuários podem ajustar penteados, expressões e atributos para fazer Genmoji se assemelhar a amigos e familiares com mais precisão. No Image Playground, a Apple adiciona geração no estilo ChatGPT, permitindo que os usuários escolham estilos artísticos como vetor ou pintura a óleo ou use “qualquer estilo” para definir uma aparência personalizada.
Notavelmente, o Image Playground envia apenas dados para ChatGPT se os usuários fornecerem permissão explícita.
Inteligência visual: entendimento contextual entre as telas
A inteligência visual da Apple estende o utilitário de IA ao que estiver na tela de um usuário. Com um toque simples de botão, os usuários podem solicitar a Inteligência ChatGPT ou Apple para identificar produtos, analisar visuais ou extrair informações como detalhes do evento de mensagens e páginas da web. Esses dados podem ser transformados em entradas de calendário, lembretes ou pesquisas on -line por meio de aplicativos compatíveis como Etsy e Google.
Apple Watch fica mais inteligente com o comando de treino
O Apple Watch vê a estréia do treino Buddy, um assistente motivacional em tempo real alimentado pelos dados do usuário. Ele analisa o histórico de fitness, freqüência cardíaca, distância e outras métricas para fornecer feedback dinâmico personalizado e dinâmico usando modelos de voz da Fitness+ Trainers. O treino Buddy trabalha offline e respeita a privacidade do usuário, com dados armazenados e processados no dispositivo.
Modelos de fundação para desenvolvedores: a IA da Apple se abre
Em uma grande jogada, a Apple está abrindo o modelo de IA no dispositivo por trás da Apple Intelligence para os desenvolvedores. Usando a nova estrutura de modelos de fundação, os aplicativos podem integrar a inteligência focada na privacidade sem precisar de acesso à Internet ou incorrer em custos em nuvem. Recursos como geração guiada, chamada de ferramentas e entendimento da linguagem natural são acessíveis com apenas três linhas de código.
Exemplo de casos de uso incluem testes personalizados em aplicativos educacionais ou recursos controlados por voz em aplicativos de navegação offline.
Atalhos e Siri: mais inteligente, mais particular
O aplicativo de atalhos da Apple fica mais inteligente com novas ações impulsionadas pela Apple Intelligence. Os usuários podem criar fluxos de trabalho personalizados que explorem a IA no dispositivo ou usam computação de nuvem privada. A Apple também aprimorou o Siri, permitindo lidar com consultas complexas, manter o contexto de conversação e interagir com recursos como ferramentas de escrita e chatgpt.
Por exemplo, um aluno pode comparar transcrições de palestras com suas anotações ou gerar um resumo usando o Siri sem que os dados nunca sanhem do dispositivo.
Aprimoramentos diários em todo o ecossistema de maçã
• Lembretes agora ações de categorização automática de e-mails e notas.
• A Apple Wallet resume o rastreamento de pedidos de vários comerciantes.
• As mensagens introduzem pesquisas sugestionadas e antecedentes gerados pela IA.
• Correio e fotos oferecem resumos avançados e criação de memória usando a linguagem natural.
• A inteligência visual pode identificar objetos via câmera ou tela e sugerir eventos de calendário.
• A limpeza nas fotos remove os elementos de distração de imagens sem alterar o conteúdo -chave.
• A varinha de imagem transforma esboços ásperos em visuais polidos dentro das notas.
• Resposta inteligente, visualizações e redução de interrupções Foco Refinar notificações e mensagens.
Estratégia de privacidade da AI da Apple: primeiro local, nuvem apenas quando necessário
A Apple continua a priorizar a privacidade do usuário. A maioria dos processos de IA acontece totalmente no dispositivo e, quando necessário, a Compute de Cloud Private lida com tarefas mais intensivas sem armazenar dados do usuário. Os servidores em nuvem são executados no Apple Silicon e seu código está aberto à auditoria independente para garantir a transparência.
Idiomas e cronograma de lançamento
A Apple Intelligence apoiará mais oito idiomas até o final de 2025, incluindo dinamarquês, holandês, norueguês, português (Portugal), sueco, turco, chinês tradicional e vietnamita. Os idiomas apoiados atuais incluem inglês (várias regiões), francês, alemão, italiano, espanhol, japonês, coreano e chinês simplificado.
Os recursos estão agora disponíveis para os desenvolvedores através do Programa de Desenvolvedores da Apple e entrarão na versão beta pública no próximo mês através do Programa de Software Beta da Apple. O lançamento completo é esperado neste outono em todos os modelos do iPhone 16, iPhone 15 Pro Série e M1 ou iPads e Macs mais recentes, com Siri e linguagem do sistema definida como uma opção suportada.