Ir para o conteúdo
Jacinto Law
  • História
  • Pessoas
  • Soluções
  • Tecnologia
  • JLaw News
  • JLaw Educação
  • Projetos Institucionais
Jacinto Law
Jacinto Law
  • História
  • Pessoas
  • Soluções
  • Tecnologia
  • JLaw News
  • JLaw Educação
  • Projetos Institucionais
Jacinto Law
  • Artigo

IA com Ética e Governança: Estratégias para Evitar Crises e Construir Confiança

  • 16/05/2025
Compartilhe:

A inteligência artificial (IA) vem transformando a economia global com um potencial estimado em até 4,4 trilhões de dólares por ano. No entanto, ao lado dessa promessa, surgem riscos concretos que podem comprometer não apenas a reputação das organizações, mas também a confiança do público, a integridade dos dados e a segurança de decisões automatizadas. Esses temas foram debatidos no painel “AI Ethics and Governance: Avoiding the Headlines”, realizado durante o South by Southwest (SXSW) deste ano. Moderado por Deborah D’Agostino (Oxford Economics), o painel contou com as contribuições de especialistas como Liz Brennan (McKinsey’s QuantumBlack AI), Kevin Fiume (Oracle) e Heather Doman (HCL Tech), e trouxe à tona diretrizes práticas para que empresas desenvolvam ou utilizem IA de forma ética e responsável.

Riscos Reais, Consequências Graves

O debate começou com um alerta claro: a ausência de uma governança robusta na aplicação de IA pode resultar em consequências sérias. Entre os principais riscos discutidos, destacou-se o potencial para viés e discriminação nos modelos, especialmente quando os dados utilizados refletem padrões históricos excludentes ou mal representados. Esse viés pode levar a diagnósticos incorretos, decisões injustas e perpetuação de desigualdades sociais. Ainda mais preocupante, os efeitos dessas falhas tendem a se acumular com o tempo, agravando desigualdades em larga escala.

Também foram discutidas as violações de privacidade, sobretudo em contextos onde dados sensíveis são manipulados sem consentimento ou de forma inadequada. A dificuldade de compreender como os sistemas tomam decisões, muitas vezes operando como verdadeiras “caixas-pretas”, levanta sérias preocupações sobre a explicabilidade. Em situações críticas, como decisões médicas ou jurídicas, essa opacidade pode gerar erros com implicações jurídicas e reputacionais irreversíveis.

Além disso, as limitações técnicas dos sistemas de IA — como taxas elevadas de alucinação, baixa precisão ou falhas em decisões autônomas — expõem organizações a riscos operacionais sérios. E há ainda as preocupações éticas mais amplas, como a tendência de antropomorfizar sistemas ou depositar expectativas irreais sobre suas capacidades.

Um dado apresentado por Liz Brennan sintetiza a gravidade do cenário: 61% dos funcionários do mundo corporativo já vivenciaram consequências negativas relacionadas a riscos da IA, mas apenas 18% das empresas contam com conselhos formais de governança de IA.

Cinco Pilares da Governança de IA

Como resposta a esses riscos, o painel propôs uma abordagem estruturada em cinco pilares fundamentais: justiça, privacidade, explicabilidade, transparência e segurança técnica.

1 - Justiça (fairness): Os especialistas enfatizaram a necessidade de lidar com os vieses históricos presentes nos dados, buscando formas de ampliar a representatividade e promover a equidade. Isso inclui políticas internas para testes contínuos de sistemas, treinamentos para desenvolvedores e cientistas de dados sobre identificação de viés, além de avaliações de impacto periódicas que ajudem a monitorar os efeitos sistêmicos das decisões automatizadas.

2 - Privacidade: Foi um dos pontos centrais da fala de Kevin Fiume. Segundo ele, é essencial que as empresas desenvolvam uma estratégia de dados sólida, começando por repositórios próprios, complementados com fontes públicas ou de terceiros cuidadosamente avaliadas. A qualidade dos dados deve ser priorizada em relação à quantidade. Avaliações de impacto de privacidade devem ser conduzidas com rigor, analisando a origem, os inventários e o uso dos dados. Técnicas como privacidade diferencial — que insere ruído aleatório nos dados para preservar a confidencialidade sem comprometer sua utilidade — devem ser adotadas, juntamente com processos robustos de desduplicação e limpeza de dados.

Para que essas práticas se tornem realidade, é indispensável contar com equipes de governança multidisciplinares que incluam profissionais de privacidade e cientistas de dados, além de políticas claras, capacitação contínua e alinhamento com padrões emergentes como os desenvolvidos pelo NIST. Fiume destacou que a privacidade deve ser entendida como uma jornada contínua, e não como uma obrigação pontual.

3 - Explicabilidade: Requer o uso de ferramentas que tornem visíveis os caminhos decisórios dos sistemas de IA. A incorporação de perspectivas multidisciplinares no desenvolvimento, a criação de métodos para entender as etapas de decisão, e o treinamento de profissionais para comunicar essas decisões em linguagem acessível são passos essenciais. A documentação consistente e a revisão periódica dessas práticas ajudam a manter os sistemas compreensíveis e auditáveis.

4 - Transparência: Envolve a criação de "model cards" com informações detalhadas sobre os modelos de IA — como dados de treinamento, pressupostos e cadeia de desenvolvimento — é um caminho eficaz. Isso deve vir acompanhado de mecanismos de responsabilização pelas decisões automatizadas e de uma comunicação clara sobre como os sistemas foram construídos e operam.

Embora a transparência seja essencial para gerar confiança e responsabilidade, ela precisa ser exercida com discernimento. A divulgação de informações sobre modelos e dados deve considerar os limites impostos pela confidencialidade corporativa, segurança da informação e proteção de propriedade intelectual. Em outras palavras, a transparência não exige a exposição de todos os detalhes técnicos, mas sim a comunicação clara, acessível e suficiente para permitir que usuários e partes interessadas compreendam os impactos, limitações e responsabilidades do sistema de IA — sem comprometer segredos de negócio ou segurança estratégica.

5 - Segurança e controles técnicos: Envolve a realização de avaliações de impacto, o monitoramento das taxas de erro e alucinação, e a implementação de processos com supervisão humana, conhecidos como “human-in-the-loop”. A escolha dos modelos mais adequados para cada contexto, a definição de tolerâncias ao risco e o fortalecimento da robustez técnica são elementos indispensáveis de uma IA confiável e segura.

Desafios na Implementação

Apesar do consenso sobre a importância da governança de IA, os desafios para sua implementação são significativos. No plano organizacional, muitas empresas ainda não dispõem de estruturas dedicadas à governança e enfrentam dificuldades na compreensão dos riscos entre suas lideranças. Pesquisas citadas no painel indicam que 60% dos CTOs não confiam no entendimento da alta liderança sobre IA, e 85% dos executivos se sentem despreparados para aplicar governança em escala.

Do ponto de vista técnico, os obstáculos incluem taxas elevadas de erro nos modelos, dificuldade em escolher tecnologias apropriadas e a complexidade dos conjuntos de dados necessários. Já no campo ético, lidar com preconceitos históricos, garantir a não discriminação e criar mecanismos de responsabilização continuam sendo barreiras significativas.

Somam-se a isso os desafios de capacitação: faltam profissionais com expertise em governança de IA, e as equipes precisam ser treinadas continuamente em aspectos técnicos e éticos. Na prática, implementar avaliações de impacto, processos transparentes e controles humanos exige esforço, coordenação e recursos. Além disso, as empresas enfrentam o desafio estratégico de equilibrar inovação com gestão de riscos, manter competitividade e, ao mesmo tempo, assegurar que a IA seja usada com responsabilidade.

Um Compromisso Contínuo

A principal mensagem do painel foi inequívoca: governança de IA não é um projeto com início, meio e fim — é uma disciplina viva que exige compromisso contínuo. As organizações que desejam evitar escândalos e construir confiança com seus usuários, clientes e reguladores precisam agir desde já.

Trata-se de uma jornada que começa com conscientização e diagnóstico, avança com capacitação e estruturação, e se consolida com uma cultura organizacional voltada à ética, à responsabilidade e à colaboração entre áreas. O futuro da IA será promissor apenas para quem souber administrá-la com rigor, transparência e humanidade.

Como especialista em privacidade e proteção de dados, acompanho de perto os avanços e desafios relacionados à governança de IA. Ajudar empresas a construir estruturas éticas, seguras e conformes com a legislação é parte central do meu trabalho.

Se sua organização está enfrentando dúvidas sobre como implementar essas práticas, procure sempre um especialista de sua confiança.

J. Law | Soluções estratégicas para você e sua empresa.

📲 (11) 99680-1390 ​
📧 contato@jacinto.adv.br

Destaques

  • Artigo

A IA barateou a execução — e encareceu a responsabilidade

  • 17/04/2026
  • Artigo

Proteção da Infância em Plataformas de Jogos Digitais: Impactos do ECA Digital no Roblox

  • 30/01/2026
  • Artigo

Snoopy 1 x 0 Herdeiros: as lições de Propriedade Intelectual no caso “Charlie Brown Jr”

  • 29/12/2025
  • Artigo

SLA e penalidades: quando a multa vira aliada do relacionamento

  • 26/12/2025
  • Artigo

Responsabilidade civil em saúde: protocolo que reduz sinistro e ação judicial

  • 22/12/2025

Assine nossa newsletter

Inscreva-se para receber informações relevantes sobre o universo jurídico e tomar decisões informadas que vão impactar seus negócios.

Nós respeitamos a sua privacidade e protegemos seus dados pessoais de acordo com a nossa Política de Privacidade.

(11) 3382-1390

(11) 99680-1390

contato@jacinto.adv.br

Instagram Linkedin-in

São Paulo

Avenida Brigadeiro Faria Lima, 1461, Torre Sul, 4º Andar - CEP 01452-002

Joinville

Rua Dr. João Colin, 1285, Sala 3 - CEP 89204-001

Atendemos todo o território nacional.

Fale conosco

Respeitamos o seu tempo e por essa razão responderemos o mais breve possível.

2026 © Todos os Direitos Reservados. Desenvolvido com ♥ por Agência e-nova.
  • Política de Privacidade
  • História
  • Pessoas
  • Soluções
  • Tecnologia
  • JLaw News
  • JLaw Educação
  • Projetos Institucionais
  • História
  • Pessoas
  • Soluções
  • Tecnologia
  • JLaw News
  • JLaw Educação
  • Projetos Institucionais