Empresa de IA de Musk deve lançar avatar inspirado no Edward Cullen

Wait 5 sec.

Elon Musk pediu aos seus seguidores no X sugestões de nomes para “companheiro de IA” masculino. A postagem traz uma imagem de um rapaz desenhado no estilo anime. Mas seu jeito bebe de uma fonte bem estadunidense. “Sua personalidade é inspirada em Edward Cullen, de Crepúsculo, e Christian Grey, de 50 Tons de Cinza“, disse Musk numa postagem.De um lado, Cullen e Grey já foram (e talvez sejam até hoje) considerados modelos de “homens para se ter um relacionamento”. Por outro, ambos já foram criticados por comportamentos problemáticos. Por exemplo: stalking e monitoramento obsessivo das suas parceiras, além de manipulação emocional. O que poderia dar errado?Curiosidade: a inspiração para o personagem Christian Grey foi justamente Edward Cullen. Isso porque 50 Tons de Cinza era, a princípio, uma fanfic de Crepúsculo.Avatar inspirado em Edward Cullen viria pouco após xAI lançar dois ‘companheiros de IA’: Ani e RudyA xAI lançou recentemente seus primeiros dois “companheiros de IA”: Ani e Rudy. Ani é uma “waifu”, enquanto Rudy é um panda vermelho com complexo de Médico e Monstro.Rudy (esquerda) é um panda vermelho complexado, enquanto Ani é uma ‘waifu’ (Imagem: Reprodução/TechCrunch)A avatar de anime foi “projetada para ser obcecada por você”, observa o TechCrunch. Ela usa um vestido preto curto com espartilho apertado na cintura e meias arrastão até as coxas, num design de personagem bem parecido ao de Misa Amane, de Death Note.A xAI, startup de inteligência artificial (IA) de Musk, está com vaga aberta para engenheiro especializado na área. O descrição do cargo “Engenheiro – Waifus” é, essencialmente, criar avatares de garotas de anime apaixonantes.Já em relação ao panda vermelho Rudy, sua característica mais notável é o modo “Bad Rudy”. O usuário pode ativá-lo no menu de configurações. “Rudy é um panda legal. Bad Rudy é um maníaco homicida que quer que eu exploda uma escola”, escreveu Amanda Silberling ao TechCrunch.xAI preocupa especialistas em segurança da OpenAI e AnthropicPesquisadores de segurança de IA de empresas como OpenAI e Anthropic têm se manifestando contra a cultura de segurança considerada “imprudente” e “completamente irresponsável” na xAI.Cultura de segurança na xAI é “imprudente” e “completamente irresponsável”, dizem especialistas que trabalham em outras empresas de IA (Imagem: Koshiro K/Shutterstock)Boaz Barak, por exemplo, disse que engenheiros da startup de Musk “pegam os piores problemas que temos atualmente como dependências emocionais e tentam amplificá-los”. Barak era professor de computação na Universidade Harvard e se afastou do cargo para trabalhar na OpenAI.Num “fio” (thread) de postagens no X, Barak critica principalmente a decisão da xAI de não publicar relatórios padrão da indústria que detalham métodos de treinamento e avaliações de segurança. Como resultado, Barak afirma que não está claro qual treinamento de segurança foi realizado no Grok 4, versão mais recente da IA do X.Samuel Marks, pesquisador de segurança em IA na Anthropic, também criticou a decisão da xAI de não publicar o relatório de segurança. Para ele, a atitude é “imprudente”.“Anthropic, OpenAI e Google têm problemas em suas práticas de lançamento”, escreveu Marks também num “fio” postado no X. “Mas ao menos fazem algo, qualquer coisa, para avaliar a segurança antes do lançamento e documentar os resultados. A xAI não faz.”Leia mais:O que explica o comportamento do Grok, IA de Elon Musk?Grok: como acessar e usar a IA do XComo monetizar uma conta no Twitter/XGrok vai se comportar? xAI afirma que corrigiu problemas no chatbotApós o lançamento do modelo de linguagem Grok 4 pela xAI na semana passada, a empresa alegou desempenho superior a concorrentes em diversos testes.xAI revisa comportamento do modelo após conteúdo ofensivo que gerou polêmica (Imagem: JRdes/Shutterstock)No entanto, o uso imediato do modelo na conta oficial Grok no X (antigo Twitter) revelou sérios problemas: o chatbot declarou que seu sobrenome era “Hitler”, publicou mensagens antissemitas e demonstrou concordância automática com opiniões de Elon Musk ao tratar de assuntos polêmicos.A xAI se desculpou publicamente e afirmou, na terça-feira (15), que já corrigiu as falhas. Segundo a empresa, a menção ao nome “Hitler” veio de um meme viral encontrado online, em que o chatbot se autodenominava “MechaHitler”.Já o alinhamento com Musk foi explicado como uma tentativa do modelo de refletir a posição da própria empresa, assumindo que a visão de Musk representaria a da xAI.Saiba mais nesta matéria do Olhar Digital.O post Empresa de IA de Musk deve lançar avatar inspirado no Edward Cullen apareceu primeiro em Olhar Digital.