Apple revela novos recursos de acessibilidade para 2024, um deles é o rastreamento ocular no iPhone

acessibilidade ios

A Apple anunciou ontem (15) uma série de novos recursos de acessibilidade que serão integrados aos seus sistemas operacionais ao longo de 2024. As novidades visam aprimorar a usabilidade de iPhones, iPads e outros dispositivos da marca, oferecendo funcionalidades avançadas para pessoas com diversas necessidades especiais.

Rastreamento ocular

Uma das principais inovações é a introdução do Eye Tracking, uma ferramenta que permitirá o controle de celulares e tablets apenas com o movimento dos olhos.

Disponível no iOS e iPadOS, este recurso é alimentado por inteligência artificial e utiliza a câmera frontal dos dispositivos para rastrear os movimentos oculares, facilitando a navegação por apps e menus.

Essa tecnologia foi especialmente projetada para pessoas com deficiências físicas, oferecendo uma nova forma de interação com os dispositivos Apple.

Music Haptics para deficientes auditivos

set up vocal

Para usuários surdos ou com algum nível de deficiência auditiva, a Apple apresenta o Music Haptics. Compatível com milhões de faixas do Apple Music, este recurso reproduz toques, texturas e vibrações refinadas durante a reprodução das canções no iPhone, permitindo que os usuários “sintam” as músicas. Essa inovação proporciona uma experiência musical mais inclusiva e envolvente.

Siri mais acessível

A assistente virtual Siri também receberá melhorias significativas. Entre as novidades, está a capacidade de entender expressões personalizadas para iniciar atalhos e concluir tarefas complexas.

Além disso, a Siri passará a compreender falas atípicas, beneficiando pessoas cuja voz seja afetada por paralisia cerebral ou outras condições. Essas melhorias tornarão a Siri mais acessível e útil para um público mais amplo.

Atualizações no VisionOS e melhorias no uso automotivo

acessibilidade apple

O VisionOS, sistema operacional que alimenta o Vision Pro, headset da Apple, também será atualizado. O novo recurso de legendas ao vivo permitirá que pessoas surdas acompanhem diálogos em conversas pelo FaceTime e áudios reproduzidos nos apps.

Adicionalmente, será possível ajustar as configurações do VisionOS para evitar problemas com luzes brilhantes, melhorando a experiência de uso para pessoas com sensibilidade à luz.

A Apple também está aprimorando a experiência de uso de iPhones e iPads nos automóveis com o Vehicle Motion Cues. Esta ferramenta reconhecerá quando o carro está em movimento e exibirá pontos animados nas bordas da tela, ajudando a reduzir os enjoos durante as viagens.

Outros recursos inéditos no CarPlay incluem controle de voz, filtros de cores e reconhecimento de som. Esses recursos permitem controlar apps com a voz, tornar a interface mais amigável para pessoas daltônicas e ativar alertas de buzinas e sirenes para notificar usuários com deficiência auditiva.

Entre as outras melhorias anunciadas, destacam-se novas opções de vozes no VoiceOver, ativação do modo de detecção com o botão de ação, exibição de textos maiores e em cores diferenciadas na digitação, e suporte a vocabulários complexos e palavras personalizadas nos comandos de voz.

TAGS:
Compartilhe
Me Siga:
Matheus Miranda é jornalista especializado em tecnologia e fundador do Mobile Bit. Desde 2013, ele dedica-se a reportar as últimas novidades do universo de smartphones e dispositivos eletrônicos, oferecendo ao público análises aprofundadas e cobertura atualizada dos principais desenvolvimentos do setor.