terça-feira, 12 de março de 2024

O Poder da Escolha

Se há um tema onipresente hoje é a discussão sobre Inteligência Artificial, seu poder tanto para o bem quanto para o mal, e as diversas propostas para sua regulação e conteção. No dia-a-dia, ao usarmos as ferramentas de LLM, não podemos deixar de nos maravilhar com o quão amigável é o diálogo que elas mantêm conosco, e como geram respostas plausíveis, com laivos de total verossimilhança. Há, até, os que buscam convencer a ferramenta de seus pontos de vista e, alegram-se ao conseguir que ela entregue os pontos, e reconheça que o humano estava certo.

Entretanto há mais mistérios entre o céu e a terra: um dos cientistas de dados da Meta, Colin Fraser, definiu a ferramenta como sendo projetada para “enganá-lo, no sentido de você pensar que está sempre conversando com alguém…”. Ou seja, mais do que nos fornecer respostas acuradas, os LLM buscam manter-nos em sua órbita, como “amigos virtuais”. E. parece-me. são muito bem sucedidos nessa função.

Em editorial recente, a Nature – respeitada publicação – alerta para que “cientistas podem estar confiando em excesso no que IA diz”, e aponta riscos resultantes. É tendência natural que nos apoiemos em ferramentas como IA que reduzam o esforço necessário para produzir algo, ou que nos apoiem na obtenção e tratamento dos dados necessários. Nature aponta para quatro instâncias em que o uso da IA pode trazer riscos: como “oráculo” para indicar tendências a partir dos dados que recolhe, sem que essas previsões passem por um crivo humano; em linha próxima, usando-se IA como “árbitro” da qualidade de artigos, alegadamente por ela ser potencialmente mais “neutra” que o exame “entre pares”, usual na ciência; como tendo “habilidades “sobrehumanas” na análise de vastos conjuntos de dados; finalmente como “agente complementar”, simulando a geração de dados difíceis de obter na prática. Desses quatro aspectos derivam riscos que precisam ser observados, como confundir a informação recebida da IA com um “conhecimento profundo” a ser assimilado pelo pesquisador, ou atribuir a ela uma objetividade que apenas reflete o que os dados a que ela acedeu mostram.

Entre os cientistas da área também há dispersão de avaliações. Weizenbaum, pioneiro em IA e autor do Eliza, programa de 1966 que, em texto, simulava um psicólogo dialogando com o usuário, tornou-se, décadas depois, um pessimista sobre o uso indiscriminado da ferramenta, e um auto-declarado “herético”. Um dos riscos que ele aponta, especialmente em comportamento, é que ao invés do computador simular humanos é possível que sejam os humanos que passariam a simular a máquna. Há uma boa descrição da história e das diatribes dele em artigo do The Guardian, de julho de 2023. Na revisão que fez do Eliza, Weizembaum comenta que “eu não tinha percebido como uma pequena exposição a um programa como o Eliza pode induzir depressão em pessoas normais”, Finalmente, em seu livro “O Poder do Computador e a Razão Humana”, Weizenbaum pontua que “a ciência prometeu poder ao homem, mas seu preço pode ser impotência e servidão. ‘Poder’ só tem sentido como ‘poder de escolher’”.



===
O texto da Nature:

https://www.nature.com/articles/d41586-024-00639-y
"...In one ‘vision’, which they call AI as Oracle, researchers see AI tools as able to tirelessly read and digest scientific papers, and so survey the scientific literature more exhaustively than people can. In both Oracle and another vision, called AI as Arbiter, systems are perceived as evaluating scientific findings more objectively than do people, because they are less likely to cherry-pick the literature to support a desired hypothesis or to show favouritism in peer review. In a third vision, AI as Quant, AI tools seem to surpass the limits of the human mind in analysing vast and complex data sets. In the fourth, AI as Surrogate, AI tools simulate data that are too difficult or complex to obtain."

===
O texto do The Guardian sobre Weizenbaum:

https://www.theguardian.com/technology/2023/jul/25/joseph-weizenbaum-inventor-eliza-chatbot-turned-against-artificial-intelligence-ai
"... Artificial intelligence, he came to believe, was an “index of the insanity of our world.”… Weizenbaum’s pessimism made him a lonely figure among computer scientists during the last three decades of his life; he would be less lonely in 2023."

Computer Power and Human Reason - from judgement to calculation





Nenhum comentário: