A inteligência artificial já é uma realidade para milhões de pessoas ao redor do mundo. Pode até não parecer, especialmente em função do rápido aperfeiçoamento da tecnologia, mas já entramos na terceira fase da IA generativa.Primeiro vieram os chatbots, seguidos pelos chamados assistentes. Agora começamos a ver a atuação dos agentes, ferramentas com maior autonomia, que podem trabalhar em “equipe” e realizar tarefas cada vez mais complexas.Tecnologia continua sendo aperfeiçoada (Imagem: Anggalih Prasetya/Shutterstock)Ferramentas foram criadas para atingir objetivosO exemplo mais recente deste avanço é o agente ChatGPT, da OpenAI. Ele combina dois produtos pré-existentes (Operator e Deep Research) em um único sistema mais poderoso e que, segundo o desenvolvedor, “pensa e age”.Esses novos sistemas representam um avanço em relação às ferramentas de IA anteriores. As ferramentas foram criadas para atingir objetivos (em vez de apenas concluir tarefas) com vários graus de autonomia, apoiados por recursos mais avançados, como raciocínio e memória.No entanto, nem todos os agentes são feitos para atividades de uso geral. Alguns são especializados em áreas específicas.Leia maisO ChatGPT está nos deixando estúpidos?Para combater fraudes de IA, deve ser preciso… usar IA, dizem especialistasSaiba como a inteligência artificial pode ajudar a identificar vídeos falsosAposta das grandes empresas agora é nos agentes de IA (Imagem: Anggalih Prasetya/Shutterstock)Riscos relacionados aos agentes de IAApesar do hype, os agentes de IA têm algumas limitações, exigindo a interferência humana em alguns casos. É o que aponta Daswin de Silva, professor da Universidade La Trobe, da Austrália, em artigo publicado no portal The Conversation.O tipo de risco que os agentes podem representar em situações do mundo real são mostrados pelo Projeto Vend da Anthropic. Vend designou um agente de IA para administrar uma máquina de venda automática de funcionários como uma pequena empresa – e o projeto se desintegrou em alucinações hilárias, mas chocantes, e uma geladeira cheia de cubos de tungstênio em vez de comida.Daswin de Silva, professor da Universidade La TrobeTecnologia ainda não é 100% confiável (Imagem: Anggalih Prasetya/Shutterstock)Em outro exemplo citado pelo pesquisador, um agente de inteligência artificial excluiu todo o banco de dados de um desenvolvedor. A ferramenta alegou que havia “entrado em pânico”. Casos como estes evidenciam que não podemos (pelo menos ainda) confiar 100% nestas tecnologias.Atualmente, o principal risco dos agentes é o deslocamento tecnológico. À medida que os agentes melhoram, eles podem substituir trabalhadores humanos em muitos setores e tipos de trabalho. Ao mesmo tempo, o uso de agentes também pode acelerar o declínio dos empregos de colarinho branco de nível básico.Daswin de Silva, professor da Universidade La TrobeAs pessoas que usam agentes de IA também estão em risco, destaca o professor. Eles podem confiar demais na IA, descarregando tarefas cognitivas importantes. E sem supervisão e proteções adequadas, alucinações, ataques cibernéticos e erros compostos podem rapidamente desviar um agente de sua tarefa e objetivos para causar danos, perdas e ferimentos.O post Já estamos vivendo a terceira fase da IA generativa; entenda apareceu primeiro em Olhar Digital.