Imagem Demi Getschko
Colunista
Demi Getschko
Por dentro da rede
Conteúdo Exclusivo para Assinante

Ética artificial

Atribuir às máquinas decisões que envolvem a essência do humano parece contradição

Demi Getschko, O Estado de S.Paulo

20 de agosto de 2019 | 05h00

A moda é falar de inteligência artificial. Ou IA. O primeiro percalço já vem no nome da coisa: primeiro há que se definir o que seria “inteligência”. E, mesmo após chegando a uma eventual definição satisfatória, é preciso ver como “artificial” se aplica. Afinal, se algo pode comportar-se de forma “inteligente” mesmo que via um artifício, essa qualidade estaria agora inerentemente adquirida e deixaria de ser “artificial”.

Sob essa denominação agrupam-se diferentes técnicas de processamento de dados e tomada de decisões que hoje usamos. Há a “ciência de dados”, que se ocupa dos mecanismos de tratamento de quantidades vultosas de dados brutos em busca de correlações e informações inferidas. Há o “aprendizado de máquina”, quando um programa escrito pretende aperfeiçoar seu funcionamento pelo que “observa” do mundo. E há ainda o “aprendizado profundo”, quando o sistema evolui para comportamentos não previstos em sua programação inicial e que decorreram de sua experiência com sucessos e fracassos anteriores.

É comum um sistema ser “treinado” na execução de tarefas humanas, valendo-se de uma quantidade imensa de informação a ele fornecida. Adicionando coleções de imagens sobre determinada manifestação de uma doença, podemos fazer com que o sistema a detecte. Um artigo no The New York Times, na semana passada, comenta que mão de obra humana é contratada até para “ouvir tosses”, de forma a ajudar o sistema a classificar qual tosse é suspeita de algo mais grave. Teremos sistemas fornecendo diagnósticos médicos, elaborando decisões judiciais ou econômicas, tomando decisões.

O que me preocupa nisso é que máquinas e programas, objetos materiais que são, não podem ser responsabilizados por resultados antiéticos ou amorais. 

Ética e comportamento humanísticos generoso são apanágio dos humanos. É humano desconsiderar eventuais características de outrem em prol de tratamento digno igualitário. É humano perdoar erros ou admitir falhas. Se fosse possível incluir na evolução da IA vieses humanos, nem sempre lógicos ou matemáticos, isso seria alvissareiro e positivo. Contemplar decisões com base em simples cômputo numérico, reforçado por resultados anteriores de sucesso e fracasso, é abrir mão da humanidade que ainda temos. 

Não se espera de um programa com IA que, por exemplo, na análise de concessão ou não de um empréstimo a um solicitante, exiba um comportamento “humano” como é o caso da intuição e da emoção. Pelo contrário, a regra que “aprendeu” da experiência anterior será inflexível: se há riscos financeiros no investimento, ele não será feito, mesmo nos casos em que, humanamente, a decisão pareceria cruel ou imoral. No confronto insensível dos números e resultados, a decisão tomada será a logicamente vantajosa, mesmo que moralmente abjeta. Lembro do filme de Kubrick e Clarke, 2001: Uma Odisseia no Espaço, quando Hal, o “inteligente” computador de bordo que controlava a viagem da nave, decide deixar o humano (o cientista David Bowman) morrer fora da espaçonave, para não colocar em risco a meta principal da viagem. 

Usar o potencial das máquinas como ajuda ao que queremos atingir é positivo, é o que vem pela frente e é bom que seja assim. Porém, atribuir a elas decisões em ações que envolvam a própria essência do que se entende por “humano”, parece-me uma contradição em termos, e pode ser um caminho sem volta.

Tudo o que sabemos sobre:
inteligência artificial

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

Tendências:

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.