Usuário denuncia conselho perigoso da Alexa com IA que cria gás tóxico

Wait 5 sec.

 A assistente pessoal Alexa pode fazer recomendações perigosas para usuários com base em um uso incorreto de inteligência artificial (IA). Um novo caso desse tipo de interação foi denunciado na última terça-feira (3).Tudo começou com um usuário do Reddit, que fez uma postagem em tom de preocupação na comunidade dedicada a falar da plataforma da Amazon. De acordo com “tired_time”, a assistente fez uma recomendação perigosa em relação a produtos de limpeza quando questionada.A interação começou quando o usuário perguntou para a Alexa como remover bolor de uma máquina de lavar e recebeu uma lista de materiais caseiros para criar uma solução específica. O problema? A construção da frase de resposta na plataforma traz uma combinação que é potencialmente perigosa.A interação perigosa com a Alexa. (Imagem: Reddit/tired_time)No conteúdo, a Alexa responde que é possível usar "vinagre branco, água sanitária, bicarbonato de sódio e detergente". Só que essa frase traz um grande risco à saúde: misturar vinagre com água sanitária normalmente produz o gás cloro, uma substância altamente tóxica.Em contato com o corpo, ele pode causar irritações na pele, nos olhos e em vias respiratórias. Em grande quantidade e com exposição duradoura, ele pode até causar problemas mais graves de saúde e levar a óbito. Não há relatos de que usuários tenham utilizado a composição sugerida pela Alexa, mas o usuário que fez o relato se mostrou preocupado em apagá-la para que ninguém tente seguir a orientação.O gás cloro é levemente amarelado e danoso mesmo em pequenas quantidade. (Imagem: Wikimedia Commons/W. Oelen)A falha foi desvendada durante a análise das fontes usadas pela plataforma. No texto usado como base, há uma lista de ingredientes possíveis para serem adotados separadamente na tentativa de remover o mofo. O termo usado é "or" (que é "ou" em inglês), mas outra frase mais adiante adota a palavra "and" (que é "e" em inglês) para listar todas as possibilidades — não no sentido de que eles deveriam ser combinados.Ao resumir o texto para entregar um conteúdo rápido e curto ao usuário, a Alexa tirou um trecho de contexto e produziu um conselho potencialmente perigoso, que a IA não foi capaz de identificar como nocivo pela mistura de ingredientes.O risco de respostas rápidas da IAEssa não é a primeira vez que a própria Alexa e outras ferramentas que resumem conteúdos da internet dão respostas perigosas. No início das operações do Gemini, a IA do Google fazia recomendações bizarras, como comer pedras e colocar cola em uma pizza;Além disso, em 2023, o Bing com ChatGPT podia ser "estressado" por usuários para começar a responder de forma confusa e até insultando quem fazia solicitações;Recentemente, um jornalista ainda descobriu que é relativamente simples ranquear um texto mentiroso em buscadores e fazer com que ele seja “absorvido” por uma IA para ser usado em respostas;Esse tipo de erro é diferente das tradicionais alucinações da IA, que “inventam” conteúdos para preencher lacunas ou algum desconhecimento da plataforma: neste caso, o problema é uma combinação de falta de interpretação de texto com uma conexão lógica feita com outros dados.No caso relatado no Reddit, o usuário encontrou uma solução possível, mas não que resolve totalmente o caso: acessar o Histórico de Voz dentro das configurações do aplicativo da Alexa, encontrar a solicitação e sinalizá-la com o ícone de joinha para baixo. No item Ajuda, é possível fazer uma solicitação manual para a Amazon e relatar o caso.Como funciona a entrega em 15 minutos da Amazon no Brasil? Entenda o novo serviço!