Poderíamos considerar Minority Report, um filme de Stanley Kubrick em 2002, como um precursor da discussão sobre algoritmos automáticos e seus riscos. No filme, mais ou menos como um Cesar Lombroso redivivo e usando Inteligência Artificial, tres mutantes humanos, flutuando num aquário, fazem-se de pitonisas para as ações futuras dos habitantes, pré-condenando alguns antes mesmo de que um crime tenha sido cometido. Um cenário aterrador, mas de “ficção”...
Leu-se recentemente que uma rede social está desenvolvendo algoritmos que implementam filtros de conteúdo com o propósito de prevenir, entre outras grosserias e comportamentos inadequados, “linguagem de ódio e atitudes discriminatórias”. Em um outro serviço na rede - um buscador indexador de conteúdos -, já há previsão de atendimento a solicitações de “remoção de resultados de busca” partindo de usuários que se sentem prejudicados pela possibilidade de acesso a algum conteúdo que, mesmo existindo na rede, seja polêmico ou incorreto em sua visão. Não é o funcionamento que se esperaria de uma máquina “automática e burra”, cuja função seria, apenas, de executar amplamente sua função mecânica sobre uma base enorme de informações, sem semântica ou exame de mérito que exija decisões próprias.
Pessoalmente tenho sérias reservas a esse tipo de “remédio”. É frequente e natural sentir-se a necessidade de suporte na decantação da pletora de informações que recebemos, ou em eventual bloqueio de conteúdos que nos sejam ofensivos, mas deveríamos evitar a tentação de erigir intermediários e seus mecanismos em censores ou ajudantes de nosso propósito pessoal.
Claro que há inúmeras situações em que, ao se jogar na rede afirmações pejorativas ou inverídicas, rompe-se não apenas a barreira da boa educação, mas até a de licitude. Mesmo assim, ao invés de redelegar aos intermediários a busca por algoritmos que eliminem esse comportamento, deveríamos procurar formas de onerar o real emissor, reponsável pelo conteúdo inadequado. Ou, de outra forma, tomar a nosso encargo a implementação das ferramentas de bloqueio e filtragem locais e pessoais que considerarmos adequadas, como muitos aplicativos já permitem. Repassar genericamente essa responsabilidade a terceiros pode representar abrir mão de nosso direito de acesso total e livre à informação. Certamente essa rede “depurada por outrem” não preservará a neutralidade a que se almeja. E a pressa impensada na busca de alívio pode gerar monstros ainda maiores, e de que não nos livraremos facilmente: um leviatã digital a controlar nosso dia a dia, soberana e perenemente.
Colabora para essa situação o aumento exponencial e contínuo da capacidade de processamento eletrônico e da transmissão e armazenagem de dados que, se por um lado criam um ferramental muito poderoso, por outro prenunciam um cenário obscuro de controle e de censura. Dar esse poder a um intermediário, excedendo sua missão específica de conectar interessados e informações geradas nas pontas, mesmo que revestido da melhor das intenções, pode acabar muito mal.
É mais uma caixa de Pandora que, uma vez aberta, liberará os miasmas que não conseguiremos recapturar. Caso típico em que a emenda pode sair muito pior que o soneto.
Leu-se recentemente que uma rede social está desenvolvendo algoritmos que implementam filtros de conteúdo com o propósito de prevenir, entre outras grosserias e comportamentos inadequados, “linguagem de ódio e atitudes discriminatórias”. Em um outro serviço na rede - um buscador indexador de conteúdos -, já há previsão de atendimento a solicitações de “remoção de resultados de busca” partindo de usuários que se sentem prejudicados pela possibilidade de acesso a algum conteúdo que, mesmo existindo na rede, seja polêmico ou incorreto em sua visão. Não é o funcionamento que se esperaria de uma máquina “automática e burra”, cuja função seria, apenas, de executar amplamente sua função mecânica sobre uma base enorme de informações, sem semântica ou exame de mérito que exija decisões próprias.
Pessoalmente tenho sérias reservas a esse tipo de “remédio”. É frequente e natural sentir-se a necessidade de suporte na decantação da pletora de informações que recebemos, ou em eventual bloqueio de conteúdos que nos sejam ofensivos, mas deveríamos evitar a tentação de erigir intermediários e seus mecanismos em censores ou ajudantes de nosso propósito pessoal.
Claro que há inúmeras situações em que, ao se jogar na rede afirmações pejorativas ou inverídicas, rompe-se não apenas a barreira da boa educação, mas até a de licitude. Mesmo assim, ao invés de redelegar aos intermediários a busca por algoritmos que eliminem esse comportamento, deveríamos procurar formas de onerar o real emissor, reponsável pelo conteúdo inadequado. Ou, de outra forma, tomar a nosso encargo a implementação das ferramentas de bloqueio e filtragem locais e pessoais que considerarmos adequadas, como muitos aplicativos já permitem. Repassar genericamente essa responsabilidade a terceiros pode representar abrir mão de nosso direito de acesso total e livre à informação. Certamente essa rede “depurada por outrem” não preservará a neutralidade a que se almeja. E a pressa impensada na busca de alívio pode gerar monstros ainda maiores, e de que não nos livraremos facilmente: um leviatã digital a controlar nosso dia a dia, soberana e perenemente.
Colabora para essa situação o aumento exponencial e contínuo da capacidade de processamento eletrônico e da transmissão e armazenagem de dados que, se por um lado criam um ferramental muito poderoso, por outro prenunciam um cenário obscuro de controle e de censura. Dar esse poder a um intermediário, excedendo sua missão específica de conectar interessados e informações geradas nas pontas, mesmo que revestido da melhor das intenções, pode acabar muito mal.
É mais uma caixa de Pandora que, uma vez aberta, liberará os miasmas que não conseguiremos recapturar. Caso típico em que a emenda pode sair muito pior que o soneto.