A Apple traz o Linember para Macs e apresenta um novo modo de leitor de acessibilidade

Esta quinta -feira é Dia global da conscientização sobre acessibilidade (Gaad), e como tem sido o costume nos últimos anos, MaçãA equipe de acessibilidade está gastando esse tempo para compartilhar alguns novos recursos de assistência que chegarão ao seu ecossistema de produtos. Além de trazendo “rótulos nutricionais de acessibilidade” para a App StoreEle está anunciando o novo Lippier para Mac, um leitor de acessibilidade, acesso aprimorado em braille, bem como uma verdadeira cornucópia de outras atualizações das ferramentas existentes.
De acordo com o comunicado de imprensa da empresa, este ano em particular marca “40 anos de inovação de acessibilidade na Apple”. Faz 20 anos desde que a empresa lançou seu leitor de tela, e uma quantidade significativa das atualizações deste ano foi projetada para ajudar aqueles com deficiências de visão.
Linente para Mac
Um dos mais notáveis é a chegada do LoupiPer em Macs. O recurso de assistência baseado em câmera esteve disponível em iPhones e iPads Desde 2016, deixando as pessoas apontarem seus telefones para as coisas ao seu redor e obtendo leituras auditivas do que está em cena. O Linember também pode facilitar a vista das coisas difíceis de ler, oferecendo a opção de aumentar o brilho, aumentar o zoom, adicionar filtros de cores e ajustar a perspectiva.
Com o Linember para Mac, você pode usar qualquer câmera conectada ao USB ou seu iPhone (via câmera de continuidade) para obter feedback sobre as coisas ao seu redor. Em um vídeo, a Apple mostrou como um aluno em uma grande sala de aula conseguiu usar o iPhone, anexado ao topo do MacBook, para entender o que foi escrito em um quadro branco distante. O Melífriador para Mac também funciona com a visualização da mesa, para que você possa usá -la para ler mais facilmente documentos à sua frente. Várias janelas de sessão ao vivo estarão disponíveis, para que você possa acompanhar uma apresentação através da sua webcam enquanto estiver usando a visualização da mesa para, digamos, ler um livro ao mesmo tempo.
Leitor de acessibilidade
O Linente para Mac também funciona com outra nova ferramenta que a Apple está revelando hoje – o leitor de acessibilidade. É um “novo modo de leitura em todo o sistema, projetado para facilitar a leitura do texto para usuários com uma ampla gama de deficiências, como dislexia ou baixa visão”. O leitor de acessibilidade estará disponível em iPhones, iPads, Macs e o Apple Vision Pro, e é praticamente a parte do Linember que permite personalizar seu texto, com “extensas opções para fonte, cor e espaçamento”. Pode ajudar a minimizar as distrações, livrando -se da desordem, por exemplo.
O leitor de acessibilidade também suporta Conteúdo faladoE, como está incorporado ao aplicativo Melífriador, pode ser usado para facilitar a leitura de texto do mundo real, como sinais ou menus. Você também pode iniciá -lo em qualquer aplicativo, pois é um modo disponível no nível do sistema operacional.
Acesso em Braille
Para as pessoas que se sentem mais confortáveis em escrever em Braille, a Apple apoiou a contribuição do Braille há anos e, mais recentemente, começou a trabalhar com Exibirs em Braille. Este ano, a empresa está trazendo acesso ao Braille a iPhones, iPads, Macs e Vision Pros, e foi projetado para facilitar as anotações em Braille. Ele virá com um lançador de aplicativos dedicado que permite que as pessoas “abra qualquer aplicativo digitando com entrada da tela do Braille ou um dispositivo Braille conectado”. O Braille Access também permite que os usuários façam anotações no formato Braille e usem o código Nemeth para seus cálculos de matemática e ciências. O Acesso em Braille pode abrir arquivos no Braille Ready Format (BRF), para que você possa retornar aos documentos existentes de outros dispositivos. Finalmente, “uma forma integrada de legendas ao vivo permite que os usuários transcrevam conversas em tempo real diretamente nos displays do Braille”.
Suporte à interface do computador cerebral (BCI) para controlar dispositivos com sua mente
Em uma versão anterior desta história, observei o seguinte:
Falando em dispositivos conectados, a Apple também está adicionando um novo protocolo ao controle de troca que permitiria suporte para interfaces de computador cerebral (BCIs). Teoricamente, isso significaria o controle baseado em ondas cerebrais de seus dispositivos, e a Apple lista iOS, iPados e Visionos como aqueles no convés para apoiar esse novo protocolo. Novamente, não se sabe se podemos chegar ao ponto de dizer que o controle baseado em ondas cerebrais está chegando, e também pedi à Apple mais informações sobre isso.
Como se vê, o Wall Street Journal publicado uma história exclusiva Esta manhã detalhando como “a Apple quer que as pessoas controlem dispositivos com seus pensamentos”. Basicamente, a empresa está trabalhando com a Synchron, uma startup de interface de computador cerebral, para trazer suporte de entrada de comutador movido a BCI aos seus produtos. Mais em nosso artigo aqui: A Apple se uniu à Synchron para desenvolver tecnologia que permite que as pessoas controlem seus dispositivos com pensamentos.
Apple Watch recebe legendas ao vivo; Vision Pro recebe reconhecimento ao vivo
A encerramento das atualizações relacionadas à visão é uma expansão de tais recursos de acessibilidade no Visionos. A função de zoom, por exemplo, está aumentando para permitir que os usuários ampliem o que veem na realidade virtual e, bem, realidade real. Isso usa as câmeras do Vision Pro para ver o que está no seu ambiente, e a Apple disponibilizará uma nova API que “permitirá que os aplicativos aprovados acessem a câmera principal para fornecer assistência ao vivo e pessoa a pessoa para interpretação visual em aplicativos como Be My Eyes”. Finalmente, o reconhecimento ao vivo está chegando ao Vision Pro, usando o aprendizado de máquina no dispositivo para identificar e descrever as coisas em seu ambiente. Também pode ler folhetos ou convites, por exemplo, e dizer o que há neles.
Para aqueles que têm perda auditiva, o recurso Live Listen que já está no iPhones será complementado por controles no Apple Watch, além de alguns recursos de bônus. Quando você inicia uma sessão de escuta ao vivo no seu iPhone, que transmitia o que seu microfone reche para seus AirPods conectados, bate em fones de ouvido ou aparelhos auditivos compatíveis, em breve você poderá ver legendas ao vivo no seu Apple Watch emparelhado. Você também receberá controles no seu pulso, para poder começar, parar ou rebobinar uma sessão. Isso significa que você pode permanecer no seu sofá e começar a Live Lister Sessions sem ter que ir até a cozinha para pegar seu iPhone e ouvir o que seu parceiro pode estar dizendo enquanto estiver cozinhando. A Live Listen também trabalha com os recursos de saúde e aparelho auditivo auditivos introduzidos no AirPods Pro 2.
Sons de fundo, voz pessoal, dicas de movimento do veículo e rastreamento ocular, obtenha atualizações
Enquanto estamos no tópico do som, a Apple está atualizando seu recurso de sons de fundo que pode ajudar as pessoas com zumbido tocando ruído branco (ou outros tipos de áudio) a combater os sintomas. No final deste ano, os sons de fundo oferecerão a temporizadores automáticos para parar após um período de tempo definido, ações de automação em atalhos e uma nova opção de configurações de eq para personalizar os sons.
A voz pessoal, que ajuda aqueles que correm o risco de perder a voz a preservar sua identidade vocal, também está obtendo uma grande melhoria. Quando testei o recurso para escrever um tutorial sobre Como criar sua voz pessoal no seu iPhoneFiquei chocado por exigir que o usuário lesse 150 frases. Além disso, o sistema precisava percorrer durante a noite para criar a voz pessoal. Com a próxima atualização, as vozes pessoais podem ser geradas em menos de um minuto, com apenas 10 frases precisando ser gravadas. A voz resultante também parece mais suave e com menos recorte e artefatos. A Apple também está adicionando apoio do idioma espanhol para os EUA e o México.
No ano passado, a Apple apresentou rastreamento ocular embutido em iPhones e iPadsbem como dicas de movimento do veículo para aliviar a doença do carro. Este ano, continua a melhorar esses recursos, trazendo as dicas de movimento para o MACS, além de adicionar novas maneiras de personalizar os pontos na tela. Enquanto isso, o rastreamento ocular está obtendo uma opção para permitir que os usuários habitem ou usem um switch para confirmar as seleções, entre outras atualizações de digitação do teclado.
Mais na Apple TV, CarPlay, rastreamento de cabeça e configurações
O ecossistema da Apple é tão vasto que é quase impossível listar todas as alterações individuais relacionadas à acessibilidade que chegam a todos os produtos. Vou gritar rapidamente o rastreamento da cabeça, o que a Apple diz que permitirá que as pessoas controlem mais facilmente seus iPhones e iPads, movendo a cabeça “semelhante ao rastreamento ocular”. Não há muito mais foi compartilhado sobre isso, embora Atualmente, rastrear em iPhones e iPads é suportado através de dispositivos conectados. A ideia de que seria “semelhante ao rastreamento ocular” parece implicar suporte integrado, mas ainda não sabemos se isso é verdade. Pedi mais informações e atualizei esta peça com o que descobri.
Para quem usa Apple TVO ACESSION ACESSO está recebendo um novo aplicativo personalizado da Apple TV, com um “Media Player simplificado”, enquanto os hápticos musicais no iPhone oferecerão a opção de ativar os hápticos para uma faixa inteira ou apenas os vocais, bem como as configurações gerais para ajustar a intensidade de torneiras, texturas e vibrações.
O recurso de reconhecimento de som que alerta aqueles que são surdos ou com dificuldades para ouvir sons (como alarmes ou bebês choros) adicionarão o reconhecimento de nome para informar os usuários quando estiverem sendo chamados. O reconhecimento de som para o CarPlay, em particular, informará os usuários quando identificar crianças chorando (além do suporte existente a ruídos externos, como buzinas e sirenes). O CarPlay também receberá suporte para um texto grande, o que deve facilitar a obtenção de informações visíveis.
Outras atualizações incluem maior suporte ao idioma em legendas e controle de voz ao vivo, bem como a capacidade de compartilhar configurações de acessibilidade de maneira rápida e temporária entre iPads e iPhones para que você possa usar o dispositivo de um amigo sem precisar personalizá -lo minuciosamente para suas necessidades.
Há muito mais lançamentos de acessibilidade da Apple em seus locais de varejo, listas de reprodução de música, livros, podcasts, TV, notícias, fitness+ e a App Store, principalmente em maior representação e inclusão. Não há muita janela de lançamento exata para a maioria dos novos recursos e atualizações que eu cobri aqui, embora eles geralmente aparecessem no próximo lançamento de iOS, iPados, macOS e Visionos.
Provavelmente teremos que esperar até o lançamento público do iOS 19, iPados 19 e mais para experimentá -los por conta própria, mas por enquanto, a maioria deles parece potencialmente muito útil. E como sempre, é bom ver as empresas projetando de forma inclusiva e considerar uma gama mais ampla de necessidades.
Atualização, 13 de maio de 2025, 12:28 ET: Esta história foi atualizada para criar uma nova seção para entrada de interface do computador cerebral e adicionar detalhes de um Wall Street Journal Relate e mova a menção anterior desse recurso para essa seção.
Se você comprar algo através de um link neste artigo, podemos ganhar comissão.