A Apple antecipou a WWDC 2023 e acaba de anunciar novidades em relação à acessibilidade com seus dispositivos no iOS 17.
Quem diria no passado que seria a mesma Apple que revelaria algumas novidades de seu próximo sistema operacional antes de ser apresentada. Especificamente, os de Cupertino lançados para apresentar funções relacionadas à acessibilidade. Uma interface chamada "Acesso Assistido", além de outros recursos relacionados à voz. No ano passado, também anunciou uma série de notícias pré-WWDC relacionadas à acessibilidade.
você pode gostar 💪👉O incrível novo recurso da Apple que cria uma voz que soa como você em 15 minutosRecursos de acessibilidade no iOS 17 para iPhone e iPad revelados pela Apple
acesso assistido funcionará para usuários que têm algum tipo de deficiência cognitiva. Inovações de design são usadas nos aplicativos e experiências incluídas nos recursos que podem aliviar a carga cognitiva, descreve a Apple na apresentação. Ajudará principalmente com as funções mais utilizadas: conecte-se com a família e entes queridos, tire e veja fotos, bem como ouça música.
A experiência será simplificada para ser mais simples e intuitiva. Será através de um único aplicativo para acessar chamadas de voz, áudio e vídeo FaceTime. Os botões são de alto contraste e têm um tamanho de texto maior. Também existem ferramentas para "colaboradores de confiança", para que uma pessoa possa apoiar seu familiar com o iPhone ou iPad por meio dessas ferramentas.
você pode gostar 💪👉todas as novidades chegando ao seu iPhoneOutro recurso chamado "Live Speech" permitirá que os usuários digitem o que desejam dizer, o que será dito em voz alta em chamadas de voz e FaceTime. Também é feito para conversar com uma pessoa de forma física. Frases comuns podem ser criadas e salvas para serem acessadas em um bate-papo rápido.
Apple pensou em usuários que podem perder a fala e deficientes visuais
"Voz Pessoal"uma função também introduzida hoje é feito para usuários que correm o risco de perder a capacidade de falar. Eles serão capazes de criar uma voz que soe do jeito que eles querem. Para usuários diagnosticados com ELA (esclerose lateral amiotrófica) ou outra doença que afeta a fala, o Personal Voice estará presente para auxiliá-los quando necessário.
A voz criada será a partir da leitura de pequenos fragmentos aleatórios de texto. Cerca de 15 minutos de áudio serão gravados e “Machine Learning” será usado para que as informações do usuário sejam privadas e seguras. Essa criação pode ser usada no momento em que se conectam a qualquer chamada ou FaceTime.
você pode gostar 💪👉novo widget, histórico de conversas e mais notíciasOutra função importante é "Apontar e falar na lupa"servirá para que Usuários com deficiência visual podem interagir com objetos físicos rotulando-os. Por exemplo, ao usar um eletrodoméstico, a função combinará a câmera, o scanner LiDAR e o Machine Learning anunciar em texto o que o usuário move com o dedo na própria tela. O recurso será agrupado com o VoiceOver e também será combinado com outros recursos lançados anteriormente, como detecção de portas, detecção de pessoas e descrições de imagens.
Se quiser ver todas as novidades ao pormenor, pode consultar o comunicado de imprensa divulgado pelos de Cupertino faz umas horas. A Apple sempre na vanguarda das questões de acessibilidade, os dispositivos Apple mostram isso todos os dias.