terça-feira, 27 de fevereiro de 2024

 O que nos define “humanos”?

É uma pergunta que assombra desde sempre e não tenho a menor veleidade de tentar uma resposta satisfatória a ela, mas quando preenchemos formulários e acessamos páginas na rede, temos que superar eventuais charadas que procuram decifrar se o interlocutor é humano. Um dos objetivos pode ser evitar a garimpagem automática de dados. Se essa triagem continua sendo um objetivo, interações recentes com produtos de IA mostram que as ferramentas de que dispomos podem ser insuficientes.

Uma forma corriqueira de fazer a seleção de não-humanos é usando CAPTCHA, um acrônimo montado a partir da expressão em inglês “teste de Turing público e automatizado para distinguir computadores de humanos”. A implementação do CAPTCHA é razoavelmente recente, de 2003, mas a idéia de haver um teste que identifique máquinas é de 1950, quando Alan Turing propôs uma maneira de testar um programa de computador submetendo-o a um “jogo de imitação”: se conseguisse passar no teste poderia fazer com que seu interlocutor o confundisse com um humano. No teste, a forma de distinguir o humano do computador seria pela habilidade no uso da linguagem – uma das características dos humanos – em travar um diálogo. Uma implementação famosa, se bem que simples, foi o Eliza, um programa feito por J. Weizenbaum em meados dos anos 1960 e que “conversava” em texto.

O CAPTCHA inicialmente explorava a habilidade humana no reconhecimento visual de caracteres, mesmo que imersos em ruido gráfico. Com aprendizado de máquina, a IA rapidamente adquiriu potencial para não apenas igualar, mas até superar nossas habilidades nessa área. Como anedota do momento, uma imagem de um CAPTCHA padrão foi exibida ao ChatGPT-4 com a pergunta: “o que seria isso?”. A resposta que a IA forneceu é intrigante: “a imagem parece ser um CAPTCHA, projetado para distinguir humanos de máquinas. O texto distorcido dificulta seu entedimento por uma máquina,
mas para um humano ler-se-ia e3TJ6Ejdp”. Ou seja, ela, a máquina, nos informa o que um humano leria no desafio do CAPTCHA…

Certamente há maneiras mais sofisticadas de fazer testes, formas que usam a intelecção além de reconhecimento, métodos que se valem de nossos dados pregressos para nos reconhecerem… Claro que isso pode significar mais abusos quanto a guardar informações sobre o que fazemos, como navegamos na rede e, mesmo, como pensamos. Também é fato que testes podem gerar barreiras aos que têm alguma deficiência, especialmente se usam visão ou som. E pode ser que testes complexos demandem mais tempo e trabalho para um humano vencê-los, o que pode ser a um obstáculo sério ao acesso a serviços e dados.

É uma charada difícil de resolver. subir a barreira para impedir acesso de máquinas inteligentes, pode dificultar o acesso aos humanos também, além da aporrinhação de ter de responder perguntas… Será que a definição de “humano” está se tornando difusa e borrada? E será que ainda vale a pena tentar triar o acesso, usando mais dados nossos e aumentando os incômodos, mesmo num caso de uso válido e regular?
===




===
https://en.wikipedia.org/wiki/CAPTCHA
The term was coined in 2003 by Luis von Ahn, Manuel Blum, Nicholas J. Hopper, and John Langford.[2] It is a contrived acronym for "Completely Automated Public Turing test to tell Computers and Humans Apart."

https://en.wikipedia.org/wiki/Turing_test
The test was introduced by Turing in his 1950 paper "Computing Machinery and Intelligence" while working at the University of Manchester.It opens with the words: "I propose to consider the question, 'Can machines think?'" Because "thinking" is difficult to define, Turing chooses to "replace the question by another, which is closely related to it and is expressed in relatively unambiguous words."[6] Turing describes the new form of the problem in terms of a three-person game called the "imitation game", in which an interrogator asks questions of a man and a woman in another room in order to determine the correct sex of the two players. Turing's new question is: "Are there imaginable digital computers which would do well in the imitation game?"

https://en.wikipedia.org/wiki/ELIZA
ELIZA is an early natural language processing computer program developed from 1964 to 1967[1] at MIT by Joseph Weizenbaum. Created to explore communication between humans and machines, ELIZA simulated conversation by using a pattern matching and substitution methodology that gave users an illusion of understanding on the part of the program, but had no representation that could be considered really understanding what was being said by either party.

===









Nenhum comentário: