Enquanto muitos se preocupam com a substituição de empregos pela inteligência artificial, há quem esteja mais atento ao risco de a tecnologia cair nas mãos erradas — e à falta de mecanismos eficazes para controlar sistemas cada vez mais autônomos e potentes.
Durante o festival SXSW em Londres, o cofundador da DeepMind, Demis Hassabis, conversou com a jornalista Anna Stewart, da CNN, e destacou que os desafios envolvendo a IA vão muito além do mercado de trabalho. "Ambos os problemas são sérios e complexos", afirmou, referindo-se à possibilidade de perda de empregos e ao uso indevido da tecnologia.
Na mesma semana, Dario Amodei, CEO da Anthropic, alertou que sistemas de IA poderiam acabar com até metade dos empregos de nível inicial em áreas administrativas. No entanto, para Hassabis, a maior ameaça está no uso impróprio de sistemas avançados — especialmente o que os especialistas chamam de "IA geral", uma forma teórica de inteligência artificial comparável à capacidade humana.
“Se pessoas mal-intencionadas tiverem acesso a essas tecnologias, os danos podem ser imensos”, disse. “A questão é como impedir que agentes perigosos utilizem esses sistemas, ao mesmo tempo em que incentivamos aplicações positivas e construtivas.”
Casos reais já chamam atenção. Em maio, o FBI alertou sobre golpes em que IA foi usada para imitar vozes de agentes do governo. Além disso, ferramentas de IA têm sido utilizadas para criar pornografia deepfake, o que motivou a aprovação da "Lei Take It Down", recentemente sancionada pelo ex-presidente Donald Trump, para coibir a divulgação de conteúdo íntimo gerado artificialmente e sem consentimento.
Embora Hassabis não seja o único a demonstrar preocupação, sua fala reforça o dilema: a IA representa tanto uma oportunidade histórica quanto um perigo real. O avanço acelerado da tecnologia, combinado com a escassez de regulamentações claras, tem dado margem para abusos — enquanto potências como Estados Unidos e China travam uma corrida para dominar o setor.
Em fevereiro, o Google chegou a revisar suas diretrizes sobre uso ético da IA, retirando trechos que proibiam explicitamente seu uso em armamentos e vigilância, o que gerou polêmica.
Para Hassabis, o caminho ideal seria um pacto internacional que estabeleça limites e responsabilidades no desenvolvimento da IA. “Com o cenário político atual, isso parece difícil”, reconheceu. “Mas espero que, conforme a tecnologia evolua, o mundo perceba a necessidade urgente de uma governança global.”
O executivo também prevê um futuro no qual assistentes de IA se tornem parte do cotidiano das pessoas, organizando compromissos, indicando conteúdos culturais e até sugerindo novas conexões pessoais. Essa é, inclusive, a visão que o Google persegue com seus avanços em busca inteligente e dispositivos com IA embutida, como os óculos conectados.
Enquanto isso, os modelos continuam evoluindo — especialmente em áreas como programação e criação de vídeos — o que intensifica o debate sobre o impacto no emprego. Amodei, da Anthropic, afirmou que a IA está começando a superar os humanos em tarefas cognitivas e que a sociedade precisará lidar com essa transformação em massa.
Mark Zuckerberg também entrou na discussão: em abril, o CEO da Meta disse esperar que, até 2026, metade do código da empresa seja gerado por IA.
Apesar de todo o otimismo, ainda há limitações graves. Algoritmos continuam apresentando erros, enviesamentos e até inventando informações — como aconteceu quando dois jornais dos EUA publicaram listas de leitura criadas por IA contendo livros que não existem.
Para Hassabis, o impacto na força de trabalho é inegável, mas ele acredita que, como em outras revoluções tecnológicas, novos empregos surgirão. A questão é como redistribuir os ganhos de produtividade trazidos por essa transformação.
"Vamos ver como a sociedade responde", concluiu. "As mudanças serão profundas, mas há potencial para que venham acompanhadas de novas oportunidades."