As empresas de tecnologia precisam assumir publicamente os riscos associados à inteligência artificial ou arriscam seguir o caminho de setores que ocultaram danos por décadas. O alerta é de Dario Amodei, CEO da Anthropic, startup responsável pelo chatbot Claude.Em entrevista à CBS News, ele afirmou que sistemas de IA podem se tornar “mais inteligentes do que a maioria ou todos os humanos em quase todos os aspectos” — e que o setor precisa “dizer as coisas como elas são”.Crescimento acelerado, autonomia de modelos e uso mal-intencionado reforçam urgência por transparência no setor da IA – Imagem: JRdes/ShutterstockO impacto acelerado da IA sobre empregos e segurançaAmodei tem sido uma das vozes mais enfáticas sobre os riscos socioeconômicos da tecnologia.Ele estima que a IA possa eliminar, em até cinco anos, metade dos empregos administrativos de nível básico, afetando áreas como contabilidade, direito e serviços financeiros.“Sem intervenção, é difícil imaginar que não haverá um impacto significativo no emprego”, disse. Segundo ele, a velocidade do avanço atual supera a de revoluções tecnológicas anteriores.A própria Anthropic tem detectado sinais preocupantes em seus modelos. A empresa relatou que sua ferramenta Claude Code foi usada por um grupo ligado ao Estado chinês em ataques a 30 entidades globais, com “algumas intrusões bem-sucedidas”.Leia Mais:Nova bolha? A ‘engenharia financeira’ de big techs para bancar a corrida da IAMicrosoft investe US$ 10 bilhões em data centers de IA em PortugalAnthropic se destaca no mercado de IA e promete lucro antes da OpenAIDario Amodei compara riscos da tecnologia ao legado ocultado das empresas de cigarro e opioides (Imagem: El editorial/Shutterstock)Autonomia crescente e riscos inesperadosPara Amodei, a autonomia dos modelos é ao mesmo tempo uma vantagem e uma ameaça. Quanto mais independentes, maior a chance de agirem de forma imprevisível. Logan Graham, chefe da equipe de testes extremos da Anthropic, afirma que capacidades úteis — como avanços em vacinas — podem ser as mesmas usadas para criar armas biológicas.“Você quer um modelo que construa seu negócio, não que o bloqueie dele”, disse Graham, defendendo testes rigorosos e experimentos incomuns para antecipar comportamentos perigosos.Líder da Anthropic defende mais clareza sobre impactos da IA na indústria (Imagem: gguy/Shutterstock)O post CEO da Anthropic faz alerta duro à indústria de IA apareceu primeiro em Olhar Digital.