A Cúpula Global “AI for Good” ocorreu em Genebra entre os dias 8 e 11 de julho de 2025. Desde o início, o evento trouxe à tona projetos de inteligência artificial voltados ao desenvolvimento sustentável, educação inclusiva, saúde e digitalização com foco humano.
No entanto, apesar do espírito de cooperação internacional, uma polêmica com censura de discurso rapidamente mudou o foco. Como resultado, surgiram debates intensos sobre liberdade acadêmica e o poder das big techs no evento.
Promessa de equidade ofuscada pelo controle corporativo
Inicialmente, os organizadores apresentaram uma agenda ambiciosa. Ela priorizava acessibilidade, transparência, ética, segurança de dados e cooperação global.
Nesse sentido, a meta era clara: diminuir desigualdades e tornar os benefícios da IA mais acessíveis. Áreas como agricultura de precisão, energia limpa e cidades inteligentes foram destaque (AI for Good – Wikipédia).
Contudo, à medida que as falas se sucediam, surgiu uma crítica frequente: havia baixa diversidade na representatividade.
De fato, cerca de 45% dos palestrantes eram de empresas privadas. Em contraste, menos de 10% vinham de universidades ou ONGs.
Consequentemente, vozes acadêmicas e sociais se sentiram excluídas. Isso foi visto como incoerente com a proposta de inclusão e pluralismo (AI for Good – Wikipédia).
Abeba Birhane denuncia tentativa de censura
No terceiro dia, a pesquisadora etíope-irlandesa Abeba Birhane fez uma denúncia séria. Segundo ela, os organizadores tentaram editar seu discurso.
Mais especificamente, pediram que ela retirasse críticas a big techs, menções ao conflito Israel-Palestina e até o termo “genocídio”.
Entretanto, Birhane se recusou. Em um ato de resistência, divulgou o texto original em suas redes sociais.
Imediatamente, a repercussão foi intensa. Cientistas e ativistas de direitos humanos reagiram com indignação (AI for Good – Wikipédia).
Assim, o caso mostrou que, apesar do discurso oficial, grandes corporações ainda controlam parte dos debates sobre IA.
Além disso, o episódio levantou dúvidas sobre a neutralidade política do evento. Suspeitas de alinhamento com agendas geopolíticas específicas também surgiram.
EUA e Reino Unido se recusam a assinar documento final
Paralelamente à polêmica, outro ponto de tensão foi a recusa dos EUA e Reino Unido em assinar a declaração final da cúpula.
Esse documento, que defendia uma IA sustentável e inclusiva, foi apoiado por 58 países, mas não pelas duas potências tecnológicas (AI Action Summit – Wikipédia).
Segundo seus representantes, o texto era vago. Não oferecia garantias sobre segurança nacional nem clareza na governança global.
Assim sendo, a decisão reforçou a preferência dos dois por regulações mais flexíveis. Eles priorizam a autorregulação, diferente da postura mais rígida da União Europeia (Artificial Intelligence Act – Wikipédia).
Com isso, formou-se um cenário fragmentado. Enquanto países como França, Alemanha e Canadá apoiam legislações baseadas em direitos humanos, outros confiam mais no mercado.
Críticas à neutralidade e pedidos por mudanças
Em consequência dos fatos anteriores, a exclusão de Birhane e o impasse diplomático geraram críticas da imprensa e de especialistas.
Dessa forma, muitos passaram a questionar a neutralidade do “AI for Good”. Houve dúvidas sobre sua confiabilidade como fórum global de debates.
Adicionalmente, ONGs denunciaram o peso dos patrocinadores corporativos na curadoria dos discursos. Isso, segundo elas, limita a diversidade de ideias.
Por isso, entidades internacionais começaram a exigir mudanças no formato dos eventos. Sugerem, por exemplo, comitês mistos com presença obrigatória de ONGs, minorias tecnológicas e países em desenvolvimento.
Regulação ganha força em cenário desigual
Diante dessas tensões, cresce a pressão por marcos legais mais claros e rigorosos.
Nesse contexto, o AI Act Europeu, aprovado em 2024, já está em vigor. Ele impõe regras severas para empresas de IA, especialmente as que usam dados sensíveis ou biometria.
A propósito, a lei classifica as tecnologias por risco. Exige avaliações de conformidade e mecanismos de auditoria antes da implementação (Artificial Intelligence Act – Wikipédia).
Por outro lado, essa abordagem enfrenta resistência fora da Europa. Governos liberais temem que ela dificulte a inovação e reduza a escalabilidade.
Portanto, o impasse entre rigidez e flexibilidade regulatória deve continuar sendo pauta nas próximas conferências.
Tendências reveladas pela cúpula
Em resumo, os acontecimentos de Genebra deixaram duas tendências claras:
IA humanizada vs. IA comercial – Acadêmicos e entidades sociais defendem o uso da IA para o bem coletivo. Já o setor privado foca no lucro e na eficiência.
Fragmentação regulatória – A falta de consenso entre potências dificulta padrões globais. Por outro lado, abre espaço para coalizões mais plurais e alternativas.
Em conclusão, o “AI for Good 2025” revelou tanto o potencial da IA quanto suas contradições.
Se o mundo deseja uma IA ética e acessível, será necessário garantir fóruns realmente democráticos. Só assim será possível construir um debate justo, com regras claras e vozes diversas.
Veja aqui mais assuntos sobre Tecnologia:
Como Proteger Seus Dados Pessoais na Era Digital: 10 Dicas Infalíveis
Monte um PC Gamer Econômico e Potente em 2025: Guia Completo
As Tecnologias que Estão Moldando o Futuro em 2025
Plano de Ação de IA dos EUA