PUBLICIDADE

iPhone e iPad poderão ser usados apenas com olhos e voz em atualização focada em acessibilidade

Além da capacidade de rastrear olhar, novo recurso poderá reduzir enjoo causado por veículos em movimento

PUBLICIDADE

Foto do author Henrique Sampaio
Por Henrique Sampaio

A Apple anunciou uma série de novos recursos de acessibilidade para seus iPhones e iPads mais recentes, em tempo para o Dia Global da Consciência sobre Acessibilidade. Entre as novidades estão o suporte a rastreamento ocular, atalhos vocais personalizáveis e uma solução para o mal-estar causado pelo uso dos dispositivos durante o movimento de veículos.

A principal novidade é a capacidade de interagir pelo sistema operacional e aplicativos dos dispositivos usando apenas a câmera frontal, sem a necessidade de hardware ou acessórios adicionais. Com o recurso ativado, os usuários só precisam olhar para a tela para mover um cursor e fixar o olhar em um item para selecioná-lo.

Além da capacidade de rastrear olhar, recurso do iOS poderá reduzir enjoo causado por veículos em movimento Foto: Daniel Teixeira/Estadão

Esse método de seleção, chamado Dwell Control, já estava disponível em outras configurações de acessibilidade da Apple, como no Mac. A ativação do recurso envolve um processo de configuração e calibração e a inteligência artificial do dispositivo trabalha para entender o olhar do usuário. Além disso, o recurso será compatível com aplicativos de terceiros desde o lançamento, pois é uma camada no sistema operacional.

Comandos por voz e recursos para o CarPlay

PUBLICIDADE

Os controles de voz também estão sendo aprimorados nos celulares e tablets da Apple. Utilizando inteligência artificial que roda no próprio dispositivo, a empresa cria modelos personalizados para cada pessoa que configura um novo atalho vocal. Os usuários podem configurar um comando para uma única palavra ou frase, e a Siri será capaz de entendê-los para executar uma determinada tarefa. Uma vez configurados, os atalhos podem ser usados para iniciar aplicativos ou executar uma série de ações definidas no aplicativo Atalhos, sem a necessidade de ativar a Siri previamente.

Outra melhoria nas interações vocais é o recurso “Ouvir por Fala Atípica”, que faz com que iPhones e iPads usem aprendizado de máquina para reconhecer padrões de fala e personalizar seu reconhecimento de voz de acordo com a maneira única de vocalização do usuário. Para desenvolver essas ferramentas, a Apple colaborou com o Projeto de Acessibilidade de Fala da Universidade de Illinois, nos EUA.

Para pessoas surdas ou com dificuldade de audição, a Apple está introduzindo respostas táteis na reprodução de música no iPhone, começando com seu próprio aplicativo Música. Quando ativada, a tecnologia háptica musical reproduzirá toques, texturas e vibrações em conjunto com o áudio, trazendo uma nova camada de sensação. Ela estará disponível como uma API para que desenvolvedores possam aumentar a acessibilidade em seus aplicativos.

A Apple também está expandindo recursos de acessibilidade para o CarPlay, o modo de uso para veículos. Controle de voz e filtros de cor estão chegando à interface, facilitando o controle de aplicativos por voz e ajudando pessoas com deficiências visuais a ver menus ou alertas. O CarPlay também receberá suporte para texto em negrito e grande, além de reconhecimento de som para ruídos como sirenes ou buzinas. Quando o sistema identificar um som desses, exibirá um alerta na parte inferior da tela para informar o usuário.

Publicidade

Para aqueles que sofrem de enjoo de movimento ao usar iPhone ou iPad em veículos, um novo recurso chamado Vehicle Motion Cues pode aliviar parte desse desconforto. Como o enjoo de movimento é baseado em um conflito sensorial de olhar para conteúdo estático enquanto se está em um veículo em movimentação, o novo recurso visa alinhar melhor os sentidos conflitantes por meio de pontos na tela. Quando ativado, esses pontos se alinharão nas quatro bordas da tela e balançarão em resposta ao movimento detectado.

Além desses recursos, a Apple está trazendo mais novidades para outros produtos, incluindo legendas em tempo real no VisionOS, um novo modo leitor no Magnifier (ferramenta que permite ampliar textos para facilitar a visualização), suporte para braile multilinha e um trackpad virtual para quem usa o Assistive Touch.

Ainda não há previsão de quando os recursos serão lançados. Com a conferência de desenvolvedores WWDC acontecendo em 10 de junho, é provável que muitas das ferramentas anunciadas hoje sejam oficialmente lançadas com a próxima versão do iOS, que deve ser anunciada no evento.

Comentários

Os comentários são exclusivos para assinantes do Estadão.