Esta semana, encontrei um velho amigo, e ele me contou o que havia feito durante o verão. Ele e a namorada visitaram a família no Arizona. A sobrinha o levou para assistir a “Lilo e Stitch”. Ele estava trabalhando duro em uma nova startup. Ele disse tudo isso em espanhol, um idioma que nunca aprendi, mas entendi cada palavra.Eu o entendi porque estava usando os novos fones de ouvido da Apple que chegaram às lojas dos Estados Unidos nesta sexta-feira — ainda não há previsão de lançamento no Brasil. Os AirPods Pro 3, que custam US$ 250 (e vão custar R$ 2.699 no Brasil), usam inteligência artificial para fazer traduções em tempo real, seu recurso mais significativo. (Os fones, que têm cancelamento de ruído um pouco melhor, não são muito diferentes da versão anterior.) Enquanto meu amigo falava, a assistente virtual da Apple, Siri, atuava como intérprete, falando com uma voz robótica que imediatamente convertia as palavras em espanhol para o inglês nos meus ouvidos.Depois, revisei a transcrição da conversa produzida no meu iPhone para confirmar a precisão da tradução. Com exceção de alguns erros em que a Siri confundiu pronomes (referindo-se à namorada do meu amigo como “ele” em vez de “ela”), a tradução foi sólida.Fiquei impressionado. Este foi o exemplo mais forte que vi da tecnologia de IA funcionando de forma prática e fluida, que pode beneficiar muitas pessoas. Filhos de imigrantes que preferem falar sua língua nativa podem ter mais facilidade para se comunicar. Viajantes em países estrangeiros podem entender melhor motoristas de táxi, funcionários de hotéis e companhias aéreas.Também me ajudaria no dia a dia para entender um empreiteiro ou um funcionário de controle de pragas que não fala inglês e está tentando explicar o que encontrou sob minha casa.E, francamente, fiquei surpreso. A incursão da Apple na IA generativa, a tecnologia que impulsiona chatbots como o ChatGPT da OpenAI e o Gemini do Google, tem sido turbulenta, para dizer o mínimo. A empresa nunca lançou completamente alguns recursos de IA prometidos para o iPhone 16 do ano passado porque a tecnologia não funcionava bem. E as ferramentas de IA da Apple disponíveis para edição de fotos e resumo de artigos têm sido decepcionantes em comparação com ferramentas similares do Google.A robusta tecnologia de tradução nos AirPods é um sinal de que a Apple ainda está na corrida da IA, apesar dos tropeços iniciais. Tradutores digitais de idiomas não são novidade, mas a execução do recurso pela Apple nos AirPods, um produto que se encaixa perfeitamente nos ouvidos, deve fazer uma diferença profunda na frequência com que as pessoas usam essa tecnologia.Por mais de uma década, os consumidores têm lidado com aplicativos de tradução de idiomas em seus telefones que eram difíceis de usar, como o Google Tradutor e o Microsoft Translator. Eles exigiam que o usuário segurasse o microfone do telefone próximo a uma pessoa falando um idioma estrangeiro e esperasse a tradução aparecer na tela ou ser reproduzida pelos pequenos alto-falantes do telefone. As traduções frequentemente eram imprecisas.Em contraste, os usuários dos AirPods precisam apenas fazer um gesto para ativar o intérprete digital. Cerca de um segundo após alguém falar, a tradução é reproduzida no idioma preferido do usuário pelos fones de ouvido.Aqui está o que você precisa saber sobre como usar o tradutor, como a tecnologia funciona e por que ela provavelmente é melhor do que os aplicativos de tradução anteriores.ComeçandoConfigurar os AirPods Pro foi simples. Abri o estojo perto do meu iPhone e toquei em um botão para emparelhar os fones. Para usar o software de tradução, precisei atualizar para o sistema operacional mais recente, o iOS 26, e ativar o Apple Intelligence, o software de IA da Apple.Depois, abri o novo app Translate da Apple e baixei os idiomas que queria traduzir. Espanhol, francês, alemão, português e inglês estão disponíveis agora, e mais virão em breve. Selecionei o idioma que a outra pessoa falava (neste caso, espanhol) e o idioma em que queria ouvir.Existem alguns atalhos para ativar o intérprete, mas a maneira mais simples é segurar os dois hastes dos AirPods por alguns segundos, o que reproduz um som. A partir daí, as duas pessoas podem começar a falar, e uma transcrição aparece no app Translate enquanto uma voz lê as palavras traduzidas em voz alta.Proprietários dos AirPods Pro 2 de 2022 e dos AirPods 4 do ano passado com cancelamento de ruído também podem obter a tecnologia de tradução por meio de uma atualização de software. Um iPhone recente, como o iPhone 15 Pro ou um dispositivo da série 16, também é necessário para usar o Apple Intelligence para fazer as traduções.Para uma conversa fluida traduzida em ambas as direções, é melhor que ambas as pessoas estejam usando AirPods. Dado o quão populares já são os fones da Apple, com centenas de milhões vendidos no mundo, isso parece bastante provável.No entanto, há momentos em que essa tecnologia será útil mesmo com apenas uma pessoa usando AirPods. Muitos imigrantes com quem interajo, incluindo minha babá e minha sogra, se sentem confortáveis falando apenas em sua língua nativa, mas conseguem entender minhas respostas em inglês, então eu poder entendê-los também faria uma grande diferença.Por que as traduções estão melhorandoA dependência dos AirPods em grandes modelos de linguagem, a tecnologia que usa estatísticas complexas para adivinhar quais palavras pertencem juntas, deve tornar as traduções mais precisas do que as tecnologias anteriores, disse Dimitra Vergyri, diretora de tecnologia de fala do SRI, o laboratório de pesquisa por trás da versão inicial da Siri antes de ser adquirida pela Apple.Algumas palavras têm significados diferentes dependendo do contexto, e os grandes modelos de linguagem são capazes de analisar todo o escopo de uma conversa para interpretar corretamente o que as pessoas estão dizendo. Tecnologias de tradução mais antigas faziam traduções fragmentadas, uma frase de cada vez, o que podia resultar em grandes erros por falta de contexto, disse Vergyri.Ainda assim, a tecnologia de IA nos AirPods pode ter pontos cegos que podem levar a situações sociais constrangedoras, acrescentou. Palavras sozinhas não levam em conta outros tipos de contexto, como emoções e nuances culturais. No Marrocos, por exemplo, pode ser indelicado entrar numa conversa sem uma saudação adequada, que geralmente envolve perguntar sobre a família e a saúde da pessoa.“O gap ainda existe para a comunicação real”, disse Vergyri. Ela acrescentou, no entanto, que a tecnologia de tradução se tornará cada vez mais importante à medida que trabalhadores corporativos se tornam mais globais e precisam se comunicar entre culturas.c.2025 The New York Times CompanyThe post Testei os novos AirPods que traduzem idiomas em tempo real — e fiquei impressionado appeared first on InfoMoney.