Na conferência, uma comissária europeia fala de “IA de confiança” ao microfone. Lá atrás, um fundador de start-up sorri em silêncio enquanto, no portátil, lança mais um modelo. À frente, slides impecáveis; ao fundo, um cluster de GPUs a trabalhar. Uns discutem limites e salvaguardas, outros procuram o atalho para o próximo salto tecnológico. Já vimos este desfasamento noutros temas - clima, finanças, protecção de dados -, mas na IA tudo parece em câmara rápida. Mal se escreve uma proibição, já aparece um workaround. A política tenta surfar a onda quando o próprio oceano ainda está a perceber a sua profundidade. E quase toda a gente finge manter a mão firme no volante. Só que há qualquer coisa, nesta imagem, que não bate certo.
A ilusão do controlo: quando a regulação colide com a inovação em modo turbo
Quando responsáveis políticos falam de IA, o discurso costuma soar a plano-mestre: regulamentos, classes de risco, responsabilidade civil - tudo aparentemente arrumado em artigos e números. Mas, nos corredores e salas discretas dos hotéis onde acontecem as reuniões, sente-se outra coisa: inquietação. A razão é simples: regular demora anos; a IA avança em semanas. O que hoje é “estado da arte” amanhã já é ultrapassado. Esta velocidade corrói os instrumentos clássicos de poder. Quem já tentou travar uma tendência do TikTok com um memorando interno percebe como isso pode parecer inútil.
Numa audição, um técnico da administração pública confidenciou-me: “Estamos sempre dois updates atrasados.” E não estava a dramatizar.
Um episódio ainda muito citado em Bruxelas ilustra bem o problema: quando os primeiros rascunhos da Lei da IA da UE (EU AI Act) se tornaram públicos, apareceram em poucos dias, em fóruns de programadores, listas do género: “Como evitar cair na categoria de alto risco”. Não eram piratas informáticos - eram, muitas vezes, curiosos a tratar a regulação como um puzzle.
Do outro lado do Atlântico, o Congresso norte-americano debate segurança da IA enquanto comunidades open-source já distribuem modelos que qualquer adolescente consegue treinar com uma placa gráfica razoável. E, com alguns milhares de euros em orçamento de nuvem (cloud), já se monta hoje algo que, há cinco anos, cheirava a laboratório de investigação. Os custos descem mais depressa do que as leis atravessam comissões e votações.
Ao falar com equipas técnicas, ouve-se repetidamente: “Não vamos ficar à espera de Bruxelas ou de Washington.” É aqui que a fronteira da regulação tradicional fica exposta:
- A lógica da política é vertical: regras em cima, execução em baixo.
- A lógica da IA é horizontal: código que se copia, se faz fork, se partilha, se melhora e se anonimiza.
Uma máquina administrativa pensa em competências e jurisdições; uma comunidade técnica pensa em repos e commits. Entre estes dois mundos há um fosso que não se fecha com uma nota de rodapé num diploma. E, sendo realistas, ninguém consulta o Jornal Oficial antes de fazer um git push.
O que “poder sobre a IA” pode significar hoje - chips, nuvem e dados
A expressão “poder sobre a IA” não quer dizer a mesma coisa para todos:
- Para governos, tende a significar reduzir riscos, clarificar responsabilidades e garantir soberania.
- Para empresas, traduz-se sobretudo em quota de mercado, acesso a dados e capacidade de computação.
- Para utilizadores, é autodeterminação no quotidiano: se um algoritmo decide, sem alarme, quem recebe crédito ou que oferta de emprego aparece no ecrã.
Quando se procura onde estão as alavancas reais, acaba-se quase sempre nos mesmos três pontos: chips, nuvem e dados. Em vez de “regular a IA” de forma abstracta, discute-se o acesso a hardware de alto desempenho, apertam-se controlos de exportação, criam-se incentivos para centros de dados, definem-se condições de acesso a conjuntos de dados sensíveis. O centro de gravidade desloca-se do plenário para a sala de servidores.
Muitos diplomas soam a debate moral, mas na prática regulam acessos:
- Que empresa chega a que clusters de GPU?
- Quem pode usar que dados sensíveis - e com que salvaguardas?
- Quem tem de divulgar detalhes de modelos, e quem fica isento?
Nas entrelinhas está uma verdade simples: quem domina a infraestrutura controla o perímetro do jogo. Não controla o pensamento de cada programador - mas controla o ambiente em que esse trabalho é possível. E, no terreno, isso transforma o dia-a-dia: uma funcionalidade nova? Primeiro formulário de risco, depois auditoria, só então deploy.
Do ponto de vista lógico, o conflito muda de “Vamos proibir IA perigosa?” para “Como limitamos os danos de um sistema que, de qualquer forma, se espalha?”. Reguladores não conseguem “desligar” os dados de treino da Internet como quem puxa uma ficha da parede. Mas conseguem redistribuir responsabilidade, impor transparência e criar obrigações de notificação. É um tipo de poder indirecto: menos sobre o código, mais sobre as condições de operação.
Ainda assim, este modelo falha quando projectos open-source estão distribuídos globalmente, quando programadores actuam de forma anónima e quando modelos comprimidos cabem num portátil. Um mercado mundial não se disciplina bem com formulários nacionais. Neste cenário, poder sobre a IA passa a ser uma questão de probabilidades e mitigação - raramente um “sim” ou “não” limpo.
Leitplanken pragmáticas para a IA de confiança (sem fantasias de omnipotência)
Na prática, a via mais eficaz raramente é o grande “banimento” universal; é a intervenção específica, cirúrgica. Um caminho que tem reunido consenso é concentrar esforços em aplicações de alto risco: diagnóstico médico, armamento autónomo, vigilância biométrica em massa. Aqui a regulação pode ser concreta: autorizações, testes exigentes, auditorias independentes, requisitos de robustez e segurança.
Dentro das organizações, há uma medida discreta, quase aborrecida, mas extremamente útil: um Registo de Modelos (Model Register). Nele, cada modelo relevante fica documentado com finalidade, dados de treino (ou fontes), responsáveis, versões, e onde está em produção. Não tem glamour - mas dá rastreabilidade. E cria, pelo menos internamente, uma forma de poder sobre o que já está a funcionar, e não apenas sobre o que aparece em apresentações bem desenhadas.
Muitas empresas caem no mesmo erro: subestimam a velocidade com que um “piloto” se torna infraestrutura crítica. Primeiro, um assistente para responder a e-mails de clientes; meses depois, metade do apoio ao cliente depende disso. Sem análise de risco, sem red-teaming, sem plano de contingência. E depois chega o momento em que a ferramenta se torna “indispensável” e ninguém sabe explicar ao detalhe como decide.
A resposta realista não é fingir que cada prompt será revisto quanto a enviesamento e equidade. É definir poucas linhas vermelhas, muito claras:
- nunca enviar certos tipos de dados para modelos externos,
- nunca deixar a IA decidir sozinha sobre crédito, despedimentos ou outras decisões com impacto grave,
- manter sempre supervisão humana nas decisões sensíveis.
Soam a regras banais - até ao dia em que fazem a diferença.
Um ponto adicional que raramente entra na conversa: compras públicas e contratos como instrumento de regulação
Há uma alavanca subestimada para criar IA de confiança: a contratação. Quando uma entidade pública (ou uma grande empresa) compra soluções de IA, pode exigir, em contrato, padrões de segurança, relatórios de auditoria, métricas de desempenho por grupos, mecanismos de explicabilidade, logs para investigação de incidentes e prazos claros para correcções. Muitas vezes, um caderno de encargos bem escrito consegue impor disciplina onde uma lei generalista não chega.
Outra peça essencial: preparação operacional para incidentes de IA
Tal como existe resposta a incidentes de cibersegurança, equipas que operam modelos em produção beneficiam de um plano explícito para falhas: quem desactiva o modelo, como se reverte para processos manuais, como se comunica com utilizadores e reguladores, e como se preservam evidências. Sem isto, “governança” vira papelada - e, no primeiro incidente sério, a organização descobre que não sabe travar a máquina com segurança.
Um responsável de ética de um grande grupo cotado no DAX resumiu-me assim:
“Aceitámos que não controlamos a IA por completo. O nosso trabalho é contê-la exactamente nos pontos onde as pessoas podem sofrer danos reais.”
Desta postura resultam lições práticas:
- Define zonas de exclusão (no-go zones) para a IA em vez de te perderes em debates infinitos.
- Cria equipas pequenas e experientes de governança de IA, em vez de megamonstros de compliance sem poder de decisão.
- Mantém um registo simples e escrito para cada modelo: finalidade, fontes de dados, responsáveis, versão e contexto de uso.
- Planeia, antes do lançamento, como vais parar ou reverter um modelo - não apenas quando já houver crise pública.
- Pensa em poder sobre a IA também como poder sobre a infraestrutura: quem opera o quê, onde, e com que padrões mínimos.
Entre impotência e responsabilidade: o que a discussão sobre regulação de IA nos ensina
O debate sobre regulação da IA parece, muitas vezes, uma disputa pelo volante quando o carro já está em modo autónomo. Uns agarram-se à ideia de que uma única lei vai domar o ritmo. Outros dizem: “Já é tarde, o génio saiu da lâmpada.” As duas leituras falham por simplificação.
O que existe, na verdade, é uma fase de transição em que o poder sobre a IA está fragmentado. Estados, grandes empresas, comunidades open-source, fornecedores de nuvem, equipas internas - todos seguram uma peça do puzzle, mas ninguém tem a imagem completa. Em vez de procurar uma entidade de controlo total, a pergunta útil é: onde consigo influenciar de forma concreta - e onde devo admitir, com honestidade, que só consigo fazer mitigação de danos?
É aqui que a responsabilidade deixa de ser abstracta e passa ao quotidiano: uma direcção escolar ao decidir se chatbots são permitidos em trabalhos; um médico ao explicar quando desconfia de um apoio algorítmico ao diagnóstico; um programador ao recusar integrar um modelo sem supervisão humana num sistema crítico. São actos pequenos, longe dos documentos estratégicos, mas determinam como a IA entra, de facto, nas nossas vidas.
A questão em aberto é se conseguimos transformar estas decisões dispersas numa atitude colectiva: uma cultura que reconheça que não controlamos totalmente a IA - mas que, ainda assim, consegue definir limites e proteger pessoas. Talvez seja essa a forma mais silenciosa, e ao mesmo tempo mais eficaz, de poder.
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| As regras ficam atrás da tecnologia | Ciclos legislativos longos enfrentam desenvolvimento de modelos extremamente rápido | Expectativas mais realistas sobre a capacidade política de orientar a IA |
| O poder desloca-se para a infraestrutura | Controlo de chips, nuvem e dados define as fronteiras do jogo | Compreensão de onde o poder é exercido, hoje, na prática |
| Leitplanken pragmáticas superam ambições totais | Foco em alto risco, zonas de exclusão e governança interna | Pontos de acção concretos para assumir responsabilidade com controlo limitado |
FAQ
Pergunta 1: Porque é tão difícil regular a IA?
Porque o desenvolvimento e a distribuição de modelos são rápidos e globais, enquanto as leis demoram a nascer e tendem a ficar limitadas por fronteiras nacionais.Pergunta 2: O Estado ainda consegue controlar a IA de forma eficaz?
Em parte. Pode actuar sobre infraestrutura, aplicações de alto risco e regras de responsabilidade - mas não consegue controlar cada fragmento de código espalhado por projectos open-source distribuídos.Pergunta 3: O que significa “poder sobre a IA” para uma empresa, na prática?
Significa sobretudo transparência sobre os modelos em uso, linhas vermelhas para aplicações sensíveis e responsabilidades claras que vão além de “ser um tema de TI”.Pergunta 4: A IA open-source é um problema para a regulação?
Torna mais difícil aplicar lógicas clássicas de proibição, mas também cria oportunidades: mais transparência, auditorias colaborativas e menor dependência de poucos fornecedores.Pergunta 5: O que posso fazer enquanto pessoa individual?
Escolher conscientemente onde usa IA no dia-a-dia, questionar quando algoritmos avaliam a sua vida (crédito, emprego, acesso a serviços) e estabelecer, no seu contexto, algumas leitplanken simples e firmes.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário