Lá em 2018, quando a inteligência artificial começava a ganhar os holofotes, o Google fez um juramento solene: sua tecnologia não seria usada para fins destrutivos, muito menos em armas ou vigilância invasiva. Parecia uma declaração de princípios, um compromisso moral com um futuro mais ético.
Agora, sete anos depois, essa promessa sumiu. Sem alarde, sem explicações. O trecho sobre evitar "danos significativos" desapareceu discretamente da página de princípios de IA da empresa.
O silêncio que diz tudo
A mudança não passou despercebida. Margaret Mitchell, ex-chefe da equipe de IA ética do Google, não poupou palavras: "Isso apaga anos de trabalho de pesquisadores e ativistas dentro da empresa. O pior? Agora, provavelmente, o Google vai desenvolver tecnologia que pode matar pessoas."
Exagero? Talvez. Mas o Google não está sozinho nesse retrocesso. Em 2023, a OpenAI também apagou sua promessa de não criar IA para uso militar. Coincidência ou sintoma de um problema maior?
O Google respondeu com um discurso genérico: empresas, governos e organizações devem trabalhar juntos para criar IA que proteja as pessoas e fortaleça a segurança nacional. Traduzindo: "Vamos fazer o que quisermos. Se não gostou, paciência."
De "não seja mau" para "seja esperto"
O Google já foi visto como a grande promessa do mundo digital. Seu lema original, "Don't be evil" (Não seja mau), resumia um ideal quase ingênuo. Mas o tempo passou, os acionistas bateram à porta e a realidade do capitalismo de vigilância tomou conta.
A pesquisadora Shoshana Zuboff descreveu o Google como o pioneiro de uma nova era: um modelo econômico baseado na extração de dados pessoais, no rastreamento e na previsão do comportamento humano. O que antes era apenas um mecanismo de busca virou uma máquina implacável de publicidade direcionada, coleta de informações e manipulação digital.
futurism.com |
Olhando para trás, parece que tudo foi um grande prenúncio. Nos anos 2000, o Google percebeu que os rastros digitais dos usuários — um rastro invisível, mas valioso como ouro — poderiam ser usados para prever comportamentos e vender anúncios com precisão cirúrgica. Com o colapso da bolha da internet, a empresa apostou tudo nessa estratégia, criando o maior império de vigilância da história.
Agora, com bilhões sendo despejados no desenvolvimento de IA, o ciclo se repete. As empresas precisam justificar seus investimentos astronômicos, e se isso significa abandonar velhas promessas e explorar novas formas de lucro — seja espionando, seja ajudando a desenvolver tecnologia para guerra —, que assim seja.
O passado já mostrou como essa história termina. A questão é: será que alguém vai tentar mudar o final desta vez?
O impacto disso na sua vida
- Menos transparência. Empresas como Google e OpenAI estão apagando promessas éticas sem aviso.
- IA pode ser usada para guerra. Com menos restrições, tecnologias avançadas podem ser aplicadas em conflitos.
- Privacidade cada vez mais ameaçada. O Google já domina o mercado de dados pessoais e pode ir além.
- Falta de controle público. Sem regulamentação, as decisões ficam nas mãos de poucas empresas.
- O lucro vence a ética. O foco das big techs é ganhar dinheiro, não proteger as pessoas.
O jogo mudou. Mas a pergunta continua a mesma: quem realmente controla a inteligência artificial?
Fonte: Futurism