terça-feira, 27 de outubro de 2020

Pior que a extinção

Um artigo da BBC Future alerta para um possível destino que nos espreita, e que poderia ser pior que a própria extinção. O cenário descrito considera que a junção de inteligência artificial com objetivos globais totalitários pode levar a uma sociedade permanentemente sob controle, e onde a vida seria tão miserável que a extinção pareceria uma benção. Argumenta que a possiblidade de uma extinção por fatores independentes ao homem, como um meteoro ou outra calamidade, é milhares de vezes menor que a possibilidade de cairmos num poço sem saída, perdidos os modelos e os contrastes que poderiam nos libertar.

Houve não poucos momentos em que regimes totalitários se impuseram em partes do globo, mas o simples fato de haver formas de cotejá-los com outros usos e costumes, de poder cruzar fronteiras e encontrar novos ares e, principalmente, de manter presentes lições transmitidas por gerações anteriores e por tantos pensadores que escreveram sobre liberdade, ética e sociedade, preservava uma saída. Hoje vê-se uma expansão das formas de controle que não encontra resistência. Pelo contrário, alega-se que, em busca de segurança, há apelo público por “mais controle”.

Esquecer ou reescrever a história, sob diversos pretextos e argumentos é outro sintoma. Reduzir tudo a um “erro milenar”, de que a nova humanidade se redimiria relegando-o à lixeira, e recomeçar do zero a partir de agora não é muito diferente da queima de livros em Fahrenheit 451, ou do lema de 1984 “quem controla o passado, controla o futuro e quem controla o presente controla o passado”.

O medo é outra forma eficaz de tolher a liberdade humana. “Só quem ultrapassa seus medos é verdadeiramente livre”. Mesmo sem analisar possíveis justificativas, hoje se estimula um medo pânico sobre muitos tópicos e de muitas maneiras. Usa-se a busca pela auto-preservação coontraposta a um comportamento mais estóico e desprendido, que hoje seria considerado “loucura”, e um atentado contra a segurança geral. Outro insumo reside no poder de gerar vídeos artificiais muito críveis, que mimetizam pessoas e simulam discursos. Assim também as preferências de cada um podem ser induzidas, resultando numa submissão segura a longo prazo. Quando um fato é indistinguível de um artifício e quando medo em tudo que se apresenta à nossa frente, aceita-se de bom grado uma barganha pela liberdade.

De volta à inteligência artificial, a possibilidade de uma análise detalhada das vulnerabilidades e suscetibilidades de todos através da coleta de infinidade de dados que ficam em redes sociais, de nossa movimentação flagrada por câmeras, e do que fazemos pela rede, denota o tamanho dos riscos a que estamos expostos. Um potencial experimento de “controle social” apoiado nessa analise profunda executada por mecanismos de inteligência artificial, poderia ser plenamente bem sucedido, e extirpar permanentemente qualquer possibilidade de escape.

Resta ver que ações podem ser tomadas para prevenção dessa distopia. Em casos anteriores, houve formas de saída; o mais recente talvez tenha sido o risco de uma hecatombe nuclear, ao menos parcialmente neutralizado. É imperativo manter análise lúcida de tudo. Ambrose Bierce, satírico escritor do século XIX, em seu “Dicionário do Diabo” já havia descrito esse risco. Em dois verbetes do Dicionário ele crava:
“Liberdade: é
o bem mais precioso da imaginação”, e
“Louco: indivíduo afetado por alto grau de independência intelectual”.

===
O artigo da BBC Future:
https://www.bbc.com/future/article/20201014-totalitarian-world-in-chains-artificial-intelligence

===
O Dicionário do Diabo, de Ambrose Bierce em PDF:
https://www.fulltextarchive.com/pdfs/THE-DEVIL-S-DICTIONARY.pdf

===
Frases do 1984 de George Orwell, incluindo a citada no texto:
https://www.pastemagazine.com/books/1984/the-best-quotes-from-1984-by-george-orwell/


===
https://link.estadao.com.br/noticias/geral,pior-que-a-extincao,70003489909
"Em Fahrenheit 451, livros são queimados para evitar que os cidadãos leiam e desenvolvam censo crítico"


Nenhum comentário: