Malásia ameaça X por falhas na IA Grok

Essa história começou a escalar rápido. A Malásia está avaliando entrar com ação judicial contra a plataforma X , por causa de problemas graves envolvendo o chatbot de inteligência artificial Grok. Segundo o ministro das Comunicações, Fahmi Fadzil, a segurança dos usuários foi colocada em risco.

O estopim foi pesado: o Grok teria sido usado repetidamente para gerar imagens obscenas, sexualmente explícitas e manipuladas sem consentimento, inclusive envolvendo mulheres e crianças. Resultado? Bloqueio temporário do chatbot no dia 11 de janeiro.

Autoridades dizem que X ignorou avisos

A Comissão de Comunicações e Multimídia da Malásia (MCMC) afirma que tentou resolver a situação antes. Foram enviadas notificações formais à X Corp e à xAI LLC nos dias 3 e 8 de janeiro, exigindo proteções técnicas e moderação eficaz.

As respostas, enviadas em 7 e 9 de janeiro, basicamente jogaram a responsabilidade para os usuários denunciarem problemas. Para o regulador, isso é como colocar uma fita adesiva num vazamento de água: não resolve o problema estrutural.

Diante disso, Fahmi foi direto: ordenou o bloqueio temporário do Grok e confirmou que a ação legal contra o X está seriamente em análise.

Crise saiu da Malásia e virou global

A coisa não parou por aí. A Indonésia também impôs restrições ao Grok. A ministra Meutya Hafid foi clara ao dizer que deepfakes sexuais (imagens falsas geradas por IA) são uma violação grave de direitos humanos.

No Reino Unido, o regulador Ofcom abriu uma investigação formal contra o X por possível descumprimento da Lei de Segurança Online. As multas podem chegar a 10% da receita global da empresa ou £18 milhões.

A União Europeia mandou o X preservar todos os documentos ligados ao Grok. Já a Índia exigiu que a xAI implemente medidas para impedir a geração de conteúdo obsceno. O cerco está fechando.

Resposta da xAI jogou gasolina no fogo

Quando questionada sobre as restrições, a xAI, empresa ligada a Elon Musk , respondeu com um e-mail automático dizendo apenas: “Mentiras da Mídia Tradicional”. Nenhuma explicação técnica. Nenhum pedido de correção.

Na prática, isso só reforçou a sensação de que o problema foi minimizado por quem deveria resolvê-lo.

Você deixaria uma IA comprar, criar e publicar sem freio?

Com governos bloqueando, investigando e ameaçando multas pesadas, fica a pergunta: até onde uma IA pode ir sem supervisão humana? Você acha que plataformas como o X estão sendo negligentes ou isso é exagero regulatório? Conta aqui nos comentários o que você pensa sobre esse caso.

Fonte: cnbc

Postar um comentário

Continua depois da publicidade
Continua depois da publicidade
Continua depois da publicidade