Ética em Inteligência Artificial e a Explanable AI

Janete Ribeiro
4 min readNov 19, 2020

--

Fonte: desconhecida

Vamos falar hoje de um tema muito comentado nos últimos tempos , o uso “Ético da Inteligência Artificial” e uma técnica para auditá-la, a “Explainable AI (XAI)”.

A XAI, como é conhecida, é um método emergente na área de aprendizado de máquina (Machine Learning) que tem como objetivo abordar como as decisões tomadas pelos algoritmos de sistemas de IA são tomadas. Esta técnica inspeciona e tenta entender as etapas e os algoritmos utilizados na tomada de decisões. Assim, a maioria dos proprietários, operadores e usuários das soluções de IA esperam que a XAI possa responder algumas perguntas importantes como:

· Por que o sistema de IA fez uma previsão ou decisão específica?

· Por que o sistema de IA não fez outra coisa?

· Quando o sistema de IA teve sucesso e quando falhou?

· Quando os sistemas de IA dão confiança suficiente na decisão para que o humano possa confiar nela?

· Como o sistema de IA pode corrigir os próprios erros?

O método XAI utiliza-se de algoritmos de aprendizado de máquina (ML) para explicar o que cada um se propõem a fazer. Por exemplo, o método de árvores de decisão (Decision Tree), classificadores bayesianos e outros algoritmos que têm certas quantidades de rastreabilidade e transparência em sua tomada de decisão, podem fornecer facilmente a clareza necessária para sistemas críticos de IA, sem perder muito em performance ou assertividade. Algoritmos mais complexos, como as redes neurais, dentre outros, reduzem a transparência e a visibilidade em termos de desempenho e precisão.

A Agência de Projetos de Pesquisa Avançada de Defesa dos EUA (DARPA) está financiando uma série de iniciativas de pesquisa cientifica na área. A DARPA descreve a XAI ​​em três partes, que incluem:

1. Precisão da previsão, que significa que os modelos explicam como as conclusões são alcançadas para melhorar a tomada de decisões futuras.

2. Compreensão da decisão e confiança de usuários e operadores humanos, bem como inspeção e rastreabilidade das ações realizadas pelos sistemas de IA.

3. A rastreabilidade permitirá que os humanos entrem nos ciclos de decisão da IA ​​e tenham a capacidade de interromper ou controlar suas tarefas sempre que necessário.

Fonte: desconhecida

Com isso espera-se que em breve, seja possível um sistema de IA não apenas executar uma determinada tarefa ou impor decisões, mas também possa gerar um relatório transparente, com o “porquê”, o algoritmo chegou àquelas conclusões específicas.

Sendo os algoritmos cálculos matemáticos, podemos de certa forma concluir que haverá respostas que não são tão claras quanto normalmente seriam as respostas humanas. Por exemplo, como vocês julgam que um algoritmo responderia, se indagado sobre a razão pela qual o sistema de AI respondeu “4” quando perguntei quanto era a soma de “2 + 2”? Ele pode responder que na base de dados que foi treinado 99,9% das vezes a resposta foi “4” e foi considerado correto em “100%” das vezes que isso foi respondido assim.

Isso é esclarecedor?

Aqui pode até ser, mas se estivermos falando da prescrição de um medicamento, ou sugestão de uma rota de voo, talvez não seja tão clara essa resposta. Muito menos podemos considerar que não seja influenciada por algum viés, já que ele mesmo aponta a “base de dados” em que foi treinado como referência, não foi mesmo?

Por isso, podemos concluir que ainda falta tempo de pesquisa nessa busca por uma ferramenta que nos auxilie na investigação do uso ético da IA. E mesmo que consigamos uma ferramenta neste sentido, ainda teremos atrás dela a presença humana que a criou.

Na ética do uso da IA fica bem claro como a “cria” jamais substituirá seu “criador”. Isso pode ter um lado bom e alentador, para os que temem o domínio das máquinas, mas também nos remete a eterna busca humana pelos seus valores internos, já que é o caráter humano que estará representado e potencializado nas ferramentas que o humano cria. E a ética pode variar, de acordo com o caráter do humano em questão…

Fontes:

Site Google — https://cloud.google.com/explainable-ai

Site Forbes — https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/?sh=7b18f8e17c9e

Wojciech S., Montavon G., Vedaldi A, L.K. Hansen, K. R. Müller; Explainable AI: Interpreting, Explaining and Visualizing Deep Learning,1st ed. 2019, eBook Kindle

--

--

Janete Ribeiro
Janete Ribeiro

Written by Janete Ribeiro

AI/ML Specialist, Chief Data Officer Certified by MIT, MsC Business Administration, SENAC University Professor

No responses yet