Seja em um ambiente barulhento ou com o volume no mudo, as legendas são indispensáveis para milhões de pessoas, especialmente aquelas com deficiência auditiva. Porém, elas nem sempre capturam o tom ou os ruídos do ambiente, o que pode limitar a experiência.
Agora, com o novo recurso Legendas Expressivas, o Google está redefinindo a acessibilidade no Android, oferecendo legendas mais dinâmicas e contextuais. Quer saber como funciona essa novidade? Continue lendo para descobrir todos os detalhes!
As Legendas Expressivas são uma evolução do recurso Live Caption, capaz de identificar nuances do áudio, como tom de voz, intensidade e sons do ambiente. Isso significa que, além de transcrever o que é dito, elas refletem como algo é dito. Por exemplo:
Esse avanço é possível graças a modelos de inteligência artificial no dispositivo que analisam e traduzem o áudio em legendas estilizadas.
Se o seu dispositivo suporta o Live Caption, ativar as Legendas Expressivas é fácil. Aqui está o passo a passo:
1. Acesse as Configurações do Android: Procure por "Configurações de Acessibilidade".
2. Selecione Legendas ao Vivo (Live Caption): Ative o recurso se ainda não estiver habilitado.
3. Habilite as Legendas Expressivas: Ative a opção correspondente nas configurações do Live Caption.
Nota: Atualmente, o recurso está disponível apenas para dispositivos nos EUA com Android 14 ou superior e funciona exclusivamente em conteúdo em inglês.
Depois de habilitado, o recurso funciona em quase todo tipo de conteúdo multimídia que você assiste ou ouve, incluindo vídeos, músicas e podcasts. No entanto, ele não é compatível com chamadas telefônicas e plataformas como Netflix. Um ponto positivo é que as legendas funcionam mesmo em tempo real, sem depender de conexão com a internet.
O desenvolvimento das Legendas Expressivas foi uma colaboração entre as equipes Android e DeepMind. Usando avançados modelos de IA, o Google não apenas identificou palavras faladas, mas também traduziu esses dados em legendas que capturam o contexto e os sons ao redor.
Segundo Angana Ghosh, Diretora de Gerenciamento de Produtos de Acessibilidade do Android, o objetivo era entender como os usuários interagem com conteúdo sem som em seus dispositivos. Durante uma entrevista no podcast Android Faithful, ela explicou os desafios de treinar modelos para reconhecer sons específicos, como risos ou aplausos, e equilibrar o contexto entre sons relevantes e ruídos de fundo.
Com o lançamento das Legendas Expressivas, o Google demonstra um compromisso contínuo com a inclusão digital. Essa inovação não apenas melhora a experiência de quem depende das legendas, mas também expande sua utilidade para qualquer pessoa que queira entender melhor o conteúdo multimídia em diferentes contextos.
Quer mais novidades sobre tecnologia e acessibilidade? Acompanhe nosso blog e esteja sempre atualizado com os recursos que fazem a diferença no seu dia a dia! Acompanhe o School Android Br no X, Facebook, Pinterest. e YouTube.
Ative agora o Live Caption no seu Android e experimente as novas Legendas Expressivas!
1. As legendas expressivas estão disponíveis em outros idiomas além do inglês?
Ainda não. O recurso está disponível apenas em inglês e nos EUA, mas o Google planeja expandir para outros idiomas no futuro.
2. O recurso funciona em todos os dispositivos Android?
Embora a maioria dos dispositivos Android lançados recentemente ofereça suporte ao Live Caption, alguns ainda não são compatíveis. Modelos da HONOR, ASUS e Sony estão entre os que carecem de suporte.
3. As legendas expressivas reconhecem áudio multilíngue?
Por enquanto, o recurso funciona melhor com áudio em inglês e fala clara. Situações multilíngues ainda apresentam limitações, mas o Google está explorando melhorias.
4. É possível ajustar a sensibilidade das legendas?
No momento, os usuários não podem ajustar o nível de detalhamento das legendas, mas o Google está analisando formas de personalizar a experiência.
Aproveite para compartilhar clicando no botão acima!
Visite nosso site e veja todos os outros artigos disponíveis!