terça-feira, 6 de julho de 2021

Apostas no escuro

Um relatório das Nações Unidas sobre uma reunião de especialistas do conflito na Libia deixa a entender que, em março de 2020, houve um ataque “bem sucedido”, feito autonomamente por “drones do tipo quadricóptero”. Os tais veículos aéreos não tripulados contariam com câmera, armamento e, claro, a indefectível inteligência artificial para os guiar e tomar as decisões.

Na cruenta história das guerras, a supressão de vidas em combates foi uma constante, e acabam representadas por frias tabelas numéricas e estatísticas anódinas. Exceto nos casos acidentais, as mortes foram resultantes da ação deliberada de humanos, seja em combates corpo-a-corpo, seja em bombadeiros. Mas mesmo nos piores casos, há linhas éticas que devem ser respeitadas, e efeitos colaterais que precisam ser minimizados. Veja-se por exemplo a necessidade de se removerem as minas anti-indivíduos que ficaram sem ter sido detonadas, para que não se tornem, anos depois, ameaças a terceiros. Há acordos internacionais que preveem limitações em armas nucleares, químicas e biológicas, numa tentativa de demarcar a linha ética que não se deveria cruzar.

Como se coloca aí o problema de equipamentos autônomos com IA? Pode-se argumentar que, com o avanço da IA e dos equipamentos, o número de erros que essas máquinas fariam seria menor que se essas mesmas operações estivessem a cargo de humanos. Eu não compro esse argumento... Delegar decisões, mormente as que envolvem vida ou morte, a máquinas, além de parecer uma declaração tácita de falêncĩa moral, pode carrear consequências que não se conseguiria avaliar hoje. Lembro da cena do filme baseado em conto de Arthur Clarke “2001, uma Odisséia no Espaço”, em que um computador com IA - o HAL 9000 - decide não permitir que o astronauta volte à segurança da nave, porque o programa chegou à conclusão de que isso colocaria em risco o objetivo final da missão… Mais um caso em que o fim buscado justificaria os meios, na voz sintética do HAL 9000: “esta missão é muito importante, e não vou permitir que você a coloque em risco”

Outro argumento é o de que, se houver uma auditoria profunda nos programas escritos, teríamos como prevenir ou impedir viéses e fatalidades. Também não me convence esse argumento. Como exemplo, vejam-se os programas que aprendem a jogar xadrez, partindo apenas das regras do jogo e usando aprendizagem de máquina. Com algumas horas de treino esses programas ganham de grandes mestres e, com muito mais facilidade, claro, do mesmo humano que escreveu o programa original. Ou seja, evoluiram para examinar autonomamente situações de jogo e, sem trapaça, montar uma estratégia ganhadora imbatível.

Temos uma tendência atávica de abrir “caixas de Pandora” que pode nos levar à autodestruição. Tópico do momento: hoje se pesquisa e debate a origem do virus da Covid. Saiu de laboratório ou da natureza? Não tenho a menor competência para opinar mas, pessoalmente, ficaria mais confortável se ele fosse o resultado de um experimento que vazou. Tento explicar: se for algo da natureza, estamos diante de situações perigosas, de difícil prognóstico e controle. Mas se foi um produto humano que escapou acidentalmente, isso poderia se enquadrar - caso análogo a alguma IA – em uma ousadia humana impensada, que pode gerar acidente devastador. Aqui sempre poderiamos declarar que “a linha de prudência foi ultrapassada” e que certos experimentos devem obedecer a restrições éticas e morais.

Há uma frase centenária de G. K. Chesterton que, penso, ainda se aplica bem hoje: “Hoje aprendemos a fazer coisas maravilhosas. Nossa próxima tarefa é aprender quando não fazê-las”...

===
Informações sobre o ataque:

https://www.livescience.com/ai-drone-attack-libya.htm

https://undocs.org/S/2021/229

===
Video sobre o HAL 9000 em "2001, uma Odisséia no Espaço":

https://www.youtube.com/watch?v=Jkv-lNAqfmk




===
Frase de G. K. Chesterton citada:

https://www.chesterton.org/quotations-of-g-k-chesterton/

“We are learning to do a great many clever things…The next great task will be to learn not to do them“                        Queen Victoria, 
Varied Types

===
Inteligência Artificial confundindo uma bola com a cabeça de um humano calvo...

https://www.youtube.com/watch?v=HjJmO9NvKL8


Nenhum comentário: