inova.jor

inova.jor

Como evitar preconceito e injustiça na inteligência artificial

Inteligência artificial: Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Parte do sistema foi desenvolvida no Thomas J. Watson Research Center / Daniel Langer

A inteligência artificial pode reproduzir, inadvertidamente, preconceitos humanos.

Por exemplo, um sistema desenhado para apontar qual é o melhor perfil de dirigente de grande empresa, com base nas 500 maiores da Fortune, corre o risco de chegar à conclusão de que CEOs precisam ser homens brancos.

Mal aplicada, a computação cognitiva pode automatizar injustiça e discriminação, com efeitos profundos na vida das pessoas.

Por causa disso, é preocupação crescente das companhias ter ferramentas para garantir que sistemas inteligentes tomem decisões de acordo com regras de governança e com a legislação.

Ontem (19/9), a IBM lançou um serviço de software chamado Trust and Transparency (confiança e transparência), para detectar vieses e explicar como a inteligência artificial decide.

“É importante ressaltar que a tecnologia revela quais parâmetros que a inteligência artificial usa para chegar às recomendações de decisões”, afirma Alexandre Dietrich, líder de IBM Watson Brasil. “Esse é um primeiro passo bastante importante, já que, no mundo corporativo, temos de explicar porque as decisões de negócios foram tomadas e quais os caminhos que seguimos para chegar nelas.”

O serviço roda na nuvem e permite gerenciar sistemas em plataformas de outros fornecedores, além do Watson.

Colaboração

Além disso, a IBM decidiu oferecer à comunidade de código aberto um conjunto de ferramentas para detecção e mitigação de viés, para incentivar a colaboração a respeito do tema.

Segundo relatório da empresa, apesar de 82% das empresas planejarem adotar inteligência artificial:

  • 60% temem ser penalizadas por decisões dos sistemas; e
  • 63% não possuem colaboradores com habilidades para gerenciar com confiança a tecnologia.

O serviço da IBM foi desenvolvido para detectar decisões com viés no momento em que são tomadas, apontando resultados injustos no momento em que ocorrem. Também recomenda dados a serem acrescentados ao modelo para mitigar o viés.

“Regulações como GDPR e LGPD apenas reforçam esse cenário de preocupação com uso dos dados e a IBM está sendo pioneira em abrir a caixa-preta da inteligência artificial”, complementa Dietrich.

GPDR é a lei de proteção de dados pessoais europeia e LGPD é a brasileira.

Comentários

comentários

Publicações relacionadas

A Nintendo tentou colocar a realidade virtual no mercado há 20 anos, com o Virtual Boy, mas não deu certo

Quando a realidade virtual era o futuro da tecnologia

O pesquisador Jaron Lanier é conhecido hoje por ser autor de livros como Gadget: você não é um aplicativo e Bem-vindo ao futuro, em que propõe que mudemos a forma como nos relacionamos com a tecnologia. No século passado, no entanto, ele era conhecido como o principal defensor da realidade virtual. Muita gente achava que[…]

Leia mais »
Mauiricio Ruiz, da Intel, alerta que as empresas brasileiras precisam inovar mais / Renato Cruz/inova.jor

‘Tudo está sendo transformado e está todo mundo sob pressão’

A principal fonte de ruptura no seu mercado pode ser uma empresa que você nem conhece. Esse foi um alerta feito hoje (27/11) por Maurício Ruiz, diretor geral da Intel Brasil, durante evento para imprensa. “Tudo está sendo transformado e está todo mundo sob pressão”, disse o executivo. “Nenhuma empresa[…]

Leia mais »

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Bitnami