Essa história começou a escalar rápido. A Malásia está avaliando entrar com ação judicial contra a plataforma X , por causa de problemas graves envolvendo o chatbot de inteligência artificial Grok. Segundo o ministro das Comunicações, Fahmi Fadzil, a segurança dos usuários foi colocada em risco.
O estopim foi pesado: o Grok teria sido usado repetidamente para gerar imagens obscenas, sexualmente explícitas e manipuladas sem consentimento, inclusive envolvendo mulheres e crianças. Resultado? Bloqueio temporário do chatbot no dia 11 de janeiro.
Autoridades dizem que X ignorou avisos
A Comissão de Comunicações e Multimídia da Malásia (MCMC) afirma que tentou resolver a situação antes. Foram enviadas notificações formais à X Corp e à xAI LLC nos dias 3 e 8 de janeiro, exigindo proteções técnicas e moderação eficaz.
As respostas, enviadas em 7 e 9 de janeiro, basicamente jogaram a responsabilidade para os usuários denunciarem problemas. Para o regulador, isso é como colocar uma fita adesiva num vazamento de água: não resolve o problema estrutural.
Diante disso, Fahmi foi direto: ordenou o bloqueio temporário do Grok e confirmou que a ação legal contra o X está seriamente em análise.
Crise saiu da Malásia e virou global
A coisa não parou por aí. A Indonésia também impôs restrições ao Grok. A ministra Meutya Hafid foi clara ao dizer que deepfakes sexuais (imagens falsas geradas por IA) são uma violação grave de direitos humanos.
No Reino Unido, o regulador Ofcom abriu uma investigação formal contra o X por possível descumprimento da Lei de Segurança Online. As multas podem chegar a 10% da receita global da empresa ou £18 milhões.
A União Europeia mandou o X preservar todos os documentos ligados ao Grok. Já a Índia exigiu que a xAI implemente medidas para impedir a geração de conteúdo obsceno. O cerco está fechando.
Resposta da xAI jogou gasolina no fogo
Quando questionada sobre as restrições, a xAI, empresa ligada a Elon Musk , respondeu com um e-mail automático dizendo apenas: “Mentiras da Mídia Tradicional”. Nenhuma explicação técnica. Nenhum pedido de correção.
Na prática, isso só reforçou a sensação de que o problema foi minimizado por quem deveria resolvê-lo.
Você deixaria uma IA comprar, criar e publicar sem freio?
Com governos bloqueando, investigando e ameaçando multas pesadas, fica a pergunta: até onde uma IA pode ir sem supervisão humana? Você acha que plataformas como o X estão sendo negligentes ou isso é exagero regulatório? Conta aqui nos comentários o que você pensa sobre esse caso.
Fonte: cnbc