Cúpula “AI for Good 2025” destaca avanços sociais, mas sofre críticas por censura e domínio corporativo

A Cúpula Global “AI for Good” ocorreu em Genebra entre os dias 8 e 11 de julho de 2025. Desde o início, o evento trouxe à tona projetos de inteligência artificial voltados ao desenvolvimento sustentável, educação inclusiva, saúde e digitalização com foco humano.

No entanto, apesar do espírito de cooperação internacional, uma polêmica com censura de discurso rapidamente mudou o foco. Como resultado, surgiram debates intensos sobre liberdade acadêmica e o poder das big techs no evento.

Promessa de equidade ofuscada pelo controle corporativo

Inicialmente, os organizadores apresentaram uma agenda ambiciosa. Ela priorizava acessibilidade, transparência, ética, segurança de dados e cooperação global.

Nesse sentido, a meta era clara: diminuir desigualdades e tornar os benefícios da IA mais acessíveis. Áreas como agricultura de precisão, energia limpa e cidades inteligentes foram destaque (AI for Good – Wikipédia).

Contudo, à medida que as falas se sucediam, surgiu uma crítica frequente: havia baixa diversidade na representatividade.

De fato, cerca de 45% dos palestrantes eram de empresas privadas. Em contraste, menos de 10% vinham de universidades ou ONGs.

Consequentemente, vozes acadêmicas e sociais se sentiram excluídas. Isso foi visto como incoerente com a proposta de inclusão e pluralismo (AI for Good – Wikipédia).

Abeba Birhane denuncia tentativa de censura

No terceiro dia, a pesquisadora etíope-irlandesa Abeba Birhane fez uma denúncia séria. Segundo ela, os organizadores tentaram editar seu discurso.

Mais especificamente, pediram que ela retirasse críticas a big techs, menções ao conflito Israel-Palestina e até o termo “genocídio”.

Entretanto, Birhane se recusou. Em um ato de resistência, divulgou o texto original em suas redes sociais.

Imediatamente, a repercussão foi intensa. Cientistas e ativistas de direitos humanos reagiram com indignação (AI for Good – Wikipédia).

Assim, o caso mostrou que, apesar do discurso oficial, grandes corporações ainda controlam parte dos debates sobre IA.

Além disso, o episódio levantou dúvidas sobre a neutralidade política do evento. Suspeitas de alinhamento com agendas geopolíticas específicas também surgiram.

EUA e Reino Unido se recusam a assinar documento final

Paralelamente à polêmica, outro ponto de tensão foi a recusa dos EUA e Reino Unido em assinar a declaração final da cúpula.

Esse documento, que defendia uma IA sustentável e inclusiva, foi apoiado por 58 países, mas não pelas duas potências tecnológicas (AI Action Summit – Wikipédia).

Segundo seus representantes, o texto era vago. Não oferecia garantias sobre segurança nacional nem clareza na governança global.

Assim sendo, a decisão reforçou a preferência dos dois por regulações mais flexíveis. Eles priorizam a autorregulação, diferente da postura mais rígida da União Europeia (Artificial Intelligence Act – Wikipédia).

Com isso, formou-se um cenário fragmentado. Enquanto países como França, Alemanha e Canadá apoiam legislações baseadas em direitos humanos, outros confiam mais no mercado.

Críticas à neutralidade e pedidos por mudanças

Em consequência dos fatos anteriores, a exclusão de Birhane e o impasse diplomático geraram críticas da imprensa e de especialistas.

Dessa forma, muitos passaram a questionar a neutralidade do “AI for Good”. Houve dúvidas sobre sua confiabilidade como fórum global de debates.

Adicionalmente, ONGs denunciaram o peso dos patrocinadores corporativos na curadoria dos discursos. Isso, segundo elas, limita a diversidade de ideias.

Por isso, entidades internacionais começaram a exigir mudanças no formato dos eventos. Sugerem, por exemplo, comitês mistos com presença obrigatória de ONGs, minorias tecnológicas e países em desenvolvimento.

Regulação ganha força em cenário desigual

Diante dessas tensões, cresce a pressão por marcos legais mais claros e rigorosos.

Nesse contexto, o AI Act Europeu, aprovado em 2024, já está em vigor. Ele impõe regras severas para empresas de IA, especialmente as que usam dados sensíveis ou biometria.

A propósito, a lei classifica as tecnologias por risco. Exige avaliações de conformidade e mecanismos de auditoria antes da implementação (Artificial Intelligence Act – Wikipédia).

Por outro lado, essa abordagem enfrenta resistência fora da Europa. Governos liberais temem que ela dificulte a inovação e reduza a escalabilidade.

Portanto, o impasse entre rigidez e flexibilidade regulatória deve continuar sendo pauta nas próximas conferências.

Tendências reveladas pela cúpula

Em resumo, os acontecimentos de Genebra deixaram duas tendências claras:

  • IA humanizada vs. IA comercial – Acadêmicos e entidades sociais defendem o uso da IA para o bem coletivo. Já o setor privado foca no lucro e na eficiência.

  • Fragmentação regulatória – A falta de consenso entre potências dificulta padrões globais. Por outro lado, abre espaço para coalizões mais plurais e alternativas.

Em conclusão, o “AI for Good 2025” revelou tanto o potencial da IA quanto suas contradições.

Se o mundo deseja uma IA ética e acessível, será necessário garantir fóruns realmente democráticos. Só assim será possível construir um debate justo, com regras claras e vozes diversas.


Veja aqui mais assuntos sobre Tecnologia:
Como Proteger Seus Dados Pessoais na Era Digital: 10 Dicas Infalíveis
Monte um PC Gamer Econômico e Potente em 2025: Guia Completo
As Tecnologias que Estão Moldando o Futuro em 2025
Plano de Ação de IA dos EUA

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima