terça-feira, 23 de janeiro de 2018

Eliza: Conte-me seus problemas


Em época de conexão global, é de se esperar a chuva de notícias duvidosas, de perfis artificiais e de interlocutores automáticos. Nos anos 50, o matemático e pioneiro da computação Alan Turing havia proposto um teste que permitiria distinguir se nosso interlocutor é humano ou cibernético.No “teste de Turing”, sem que se possa ver o interlocutor, faz-se perguntas e, pelas respostas recebidas nesse diálogo, toma-se a decisão: é humano ou não. 

Se um programa de computador conseguir enganar os que o inquirem, esse programa terá passado no teste e chegado ao ponto de ser confundido com humanos. Lembro-me de Eliza, um programa escrito para simular diálogo sensato. Especificamente, recordo-me de uma versão em que Eliza se comportava como um “psicólogo”, o que lhe dava a vantagem de poder responder com outra pergunta e de ignorar convenientemente ilações mesmo que óbvias. Chegou a ter versão em português, e era bem divertido nos anos 70 “conversar” com Eliza usando os velhos terminais.

O teste de Turing prevê apenas texto para a interação. Claro que, se fosse possível ver o interlocutor, falar com ele, trocar olhares ou emoções, a sofisticação necessária para ele se fazer passar por humano seria muito maior e, creio, ainda estamos longe (ufa!) de ter que enfrentar esse problema. 

Mesmo assim, e como previsto no filme Blade Runner: O Caçador de Androides, será cada vez mais difícil discernir entre um robô e um humano. É interessante ver a evolução semântica da própria palavra “robô”, forma aportuguesada de “robot” que, muito provavelmente, vem do eslavo “rabota” significando algo como “trabalhador compulsório”: alguém que tem a obrigação de executar uma tarefa. Há quem diga que “arbeit” (“trabalho”, em alemão) compartilha da raiz linguística de “rabota”. 

Não havia, portanto, muito glamour no conceito original do robô: um servidor basicamente mecânico. Com a adição da capacidade de processamento a palavra adquiriu um significado mais sinistro, afim à ficção científica, que via em sua “humanização” um espectro de perigos. Não por menos Isaac Asimov escreveu o famoso Eu, Robô, onde enuncia o que seriam a regras morais básicas para a evolução segura desses mecanismos.

Na Internet não vemos, ainda, robôs, mas há uma grande população de “bots”, redução de “robots”. Há programas que escravizam computadores de terceiros para transformá-los em zumbis (“bots”) e usá-los como meios de ataque, e há os que parasitam as máquinas para roubar dados ou capacidade de processamento de forma invisível. Mas há também “bots” autônomos, que se comportam como perfis em redes sociais ou como indivíduos reais, que espalham notícias com propósitos obscuros, que arregimentam seguidores. 

Esses “bots”, conforme descrito por Turing, interagem conosco normalmente em texto. Se na categoria dos “bots” invasores há como ter alguma prevenção, evitar contágio e não cair nas armadilhas, na segunda, a dos autônomos, a tal “engenharia social” desempenha um papel central. O elo mais fraco da cadeia de segurança muitas vezes é o humano. 

E, sendo cínico, se aplicarmos o teste de Turing hoje, é bem provável que o erro mais frequente não seja o de detectar máquinas como se humanos fossem, mas o de concluir que alguns dos comportamentos humanos que encontramos parecem mais adequados a máquinas



Nenhum comentário: