terça-feira, 12 de novembro de 2019

Voto ou consenso?


Terminou mais uma reunião da ICANN (Internet Corporation for Assigned Names and
Numbers), organização que cuida de nomes e números na Internet, especialmente do
conteúdo da “raíz de nomes” na rede, onde estão registrados os “sobrenomes” gerais. Desta
raíz constam os conhecidos .com, .net, .org, e os de países, como .br, .de, .it etc.

Tópicos recorrentes nos últimos encontros envolvem a definição de normas para uma nova
chamada de interessados por um “sobrenome” genérico. São cuidados a tomar, além da
definição dos procedimentos, a proteção de nomes especiais, como os geográficos. Não
seria razoável, por exemplo, que alguém postulasse o registro de .Itália, sem que houvesse
alguma relação com o país em questão. Até para que se evite, por exemplo, a repetição de
um problema, que hoje se arrasta por 7 anos: o “sobrenome” .Amazon deveria ser delegado
a uma empresa comercial ou, por ser nome de uma região, ser reservado? Vota-se quanto a
isso, ou busca-se um consenso?

Há hora do voto geral e livre, como é o caso dos processos democráticos de eleições
majoritárias, e há hora de se buscar consenso. Um exemplo mais claro deste caso é o
funcionamento do IETF (Internet Engineering Task Force), que cuida em suas reuniões da
formulação de eventuais novos padrões técnicos para a rede. Quando se trata de uma
reunião de especialistas num tema, é raro e talvez pouco razoável, que se decida por
votação. Uma analogia simplória pode ajudar a jogar luz: imaginemos 11 engenheiros civis,
os melhores da área, discutindo sobre a segurança de um determinado projeto de ponte de
concreto. Digamos que, ao final, 5 deles digam que não é seguro, enquanto 6 afirmem que
é sólido. Deveria a ponte ser construída, ou não? Um cidadão comum estaria
confortavelmente protegido sob a tal ponte? No âmbito do IETF, num caso assim, o
resultado provável seria: “Não há decisão. Continuaremos a discutir”. Se todos os 11 são
especialistas que dominam profundamente projeto de pontes, mas discordam da
conclusão, não há como se buscar uma solução por voto: não há “representatividade” (não
se pode argumentar que as opiniões representem a vontade geral), nem se pode ignorar
que a ênfase de cada um, a favor ou contra, pode ser muito diferente. Um caminho
possível seria algo como o “concílio papal”: trancam-se os 11 especialistas numa sala, sem
contacto externo, e eles discutem entre si até sair a “fumaça branca” do consenso, e o
resultado agora poder divulgado a todos: “habemus papam”!

Consenso não representa nem unanimidade, nem sequer maioria. Representa uma
proposta que, mesmo desagradando a muitos, não provoca objeções fundamentadas
veementess. Ou seja, a proposta é algo com que todos podemos viver, mesmo que
individualmente tivéssemos soluções ligeiramente diferentes. Um processo interativo, de
discussão entre especialistas, usualmente não é algo que de valha de um “voto de maioria”.

Em 1992 Davis Clark cunhou o que seria o lema mais conhecido sobre o processo de
decisão do IETF: “Nós rejeitamos reis, presidentes e votação. Nós acreditamos em
consenso simples, e código bem escrito”. Como alertaria o impagável e insubstituível
Millôr, “é proibido e ilegal ler o texto nas entrelinhas”...

===
The Tao of IETF - A Novice's Guide to the Internet Engineering
https://ietf.org/about/participate/tao/
===
'Rough Consensus and Running Code' and the Internet-OSI Standards War
https://ieeexplore.ieee.org/abstract/document/1677461
===
O Livro do IETF
https://cgi.br/media/docs/publicacoes/1/o-livro-do-ietf.pdf
===
Millôr
http://observatoriodaimprensa.com.br/mural/ed688-tantos-anos-de-millor/




terça-feira, 29 de outubro de 2019

Cinquenta Anos esta Noite


Gostamos de poder associar um evento marcante a uma data. A Internet que conhecemos é a evolução do projeto de rede ARPANET, iniciado nos Estados Unidos em 1966, e que deu o primeiro sinal de vida em 29 de outubro de 1969, às 22:30, quando dois computadores diferentes e distantes entre si trocaram a primeira mensagem. Esse momento está gravado em placa na sala 3420 do prédio Boelter, da engenharia da UCLA (Universidade da Califórnia, Los Angeles). Ainda hoje a sala é ocupada pelo pesquisador e pioneiro de redes Leonard Kleinrock.

A ARPANET foi desenvolvida dentro da Agência de Projetos Avançados de Pesquisa, ARPA, com recursos do Departamento de Defesa norte-americano, que em 1966 alocou 1 milhão de dólares para um projeto de rede que conectasse computadores de fabricantes diversos usando “comutação de pacotes”, tecnologia então desenvolvida por Paul Baran e Leonard Kleinrock. A rede resultante deveria resistir a quedas de linhas e de nós. Uma rede como a telefonia tradicional baseia a troca de dados entre dois pontos num caminho definido e único (“comutação de circuitos”). Uma ruptura nesse caminho porá a conexão a perder. Por outro lado, a “comutação de pacotes” utiliza uma malha de caminhos, com a mensagem dividida em pequenos pacotes de dados. Uma queda de linha ou nó resultará, no máximo, na perda de alguns pacotes, mas a comunicação continuará possível. É a base da resistência a falhas que a Internet apresenta.

Se nos anos seguintes surgiu uma pletora de redes de computadores a ARPANET prevaleceu a todas. Por ser independente de fabricante, por ter padrões abertos a disponíveis, por ser simples, por não ter um centro de controle, por ter mecanismos de recuperação de erros na transmissão, e por se basear em cooperação. Essas características ficaram definitivamente marcadas quando migrou definitivamente, em 1 de janeiro de 1983, de seu protocolo inicial NCP, escrito por Steve Crocker, para o TCP/IP. O projeto do TCP/IP fora iniciado em 1972 por Robert Kahn e Vinton Cerf. Com o sucesso do IP (Internet Protocol, ou “protocolo entre-redes”), que funcionou como “cola” entre todos os componentes da rede global, o nome “Internet” foi adotado para a rede. O IP permite que redes autônomas unam-se voluntariamente à Internet, sem ter que abrir mão de suas políticas administrativas.

Falando em espírito livre, aberto e de colaboração, características da Internet, é curioso notar que, há também 50 anos, ocorreu outro evento distintivo: o festival de música de Woodstock reuniu 200.000 jovens participantes e sinalizou a tendência libertária.

A ARPANET nasceu com financiamento militar, mas rapidamente redes acadêmicas passaram a integrá-la. A partir de 1980, com a implantação do TCP/IP, mais e mais redes passaram a constituir o tecido global. Ficou claro que a rede se tornara muito mais abrangente que seu objetivo inicial e chegara a hora de sua despedida. O bastão estava sendo passado à sua pujante filha, a Internet. Assim, em 28 de fevereiro de 1990 a ARPANET foi considerada definitivamente desligada. Vint Cerf escreveu um tocante “Réquiem para a ARPANET”, que traduzo livremente:


Foi a primeira e, sendo assim, também a melhor,
mas vai agora descansar para sempre.
Detenha-se comigo e derrame algumas lágrimas.
Em seu canto de cisne, por amor, por anos e anos
de serviço bem feito e fiel, eu choro.
Deite seu último pacote agora, amiga, e durma”.


===

Requiem for the ARPANET 
Vint Cerf 

Like distant islands sundered by the sea, 
We had no sense of one community. 
We lived and worked apart and rarely knew 
that others searched with us for knowledge, too. 

Distant ARPA spurred us in our request 
and for our part we worked and put to test 
new thoughts and theories of computing art; 
we deemed it science not, but made a start. 

Each time a new machine was built and sold, 
we’d add it to our list of needs and told 
our source of funds "Alas! Our knowledge loom 
will halt ’til it’s in our computer room." 

Even ARPA with its vast resources 
could not buy us all new teams of horses 
every year with which to run the race. 
Not even ARPA could keep up that pace! 

But, could these new resourcesonot be shared? 
Let links be built; machines and men be paired! 
Let distance be no barrier! They set 
that goal: design and build the ARPANET! 

As so it was in nineteen sixty-nine, 
a net arose of BBN design. 
No circuit switches these, nor net complete 
but something new: a packet switching fleet. 

The first node occupied UCLA 
where protocols and measurement would play 
a major role in shaping how the net 
would rise to meet the challenges unmet. 

The second node, the NIC, was soon installed. 
The Network Info Center, it was called. 
Hosts and users, services were touted: 
to the NIC was network knowledge routed. 

Nodes three and four soon joined the other two: 
UCSB and UTAH come on cue. 
To monitor it all around the clock 
at BBN, they built and ran the NOC. 

A protocol was built for host-to-host 
communication°.  Running coast-to-coast, 
below the TELNET and the FTP, 
we called this protocol the NCP. 

The big surprise for most of us, although 
some said they guessed, was another proto-
col used more than all the rest to shuttle 
mail in content flaming or most subtle.

When we convened the first I Triple C, 
the ARPANET was shown for all to see. 
A watershed in packet switching art, 
this demo played an overwhelming part. 

Within three years the net had grown so large 
we had to ask that DCA take charge 
to operate a system guaranteed 
for R&D and military need°.

Exploring other packet switching modes, 
we built the first spread spectrum mobile nodes° 
The Packet Radio, the mobile net, 
worked on the ground and even in a jet. 

Deployed at SAC and Eighteenth Airborne Corps, 
the Packet Radio unlocked the door 
to what we now know as the Internet. 
The driver for it all was PRNET. 

The Packet Satellite, another new technique, 
was added to the net milieu. 
And then to shed more light upon the dark, 
there came the Ethernet from Xerox PARC. 

To these we added yet another thing 
from MIT: a local token ring. 
We saw the local net techniques compound 
until the list could easily confound. 

The Internet foundation thus was laido 
Its protocols from many sources made. 
And through it all the ARPANET grew more; 
It was, for Internet, the central core°.

The hardware of the net was changing, too. 
The Honeywell was first, and then the SUE, 
which forms the heart of Pluribus today 
though where this platform sits one cannot say. 

The next big change was called the MBB. 
It emulated Honeywell, you see, 
so one by one they modified each node, 
by means of closely written microcode. 

Now known as 30 prefixed with a C, 
these nodes are everywhere from A to Zo 
The European MINET too was full 
of nodes like these from Mons to Instanbul. 

The second Autodin was long desired 
but once accepted instantly expired. 
Then to the rescue rode the ARPANET! 
And soon the MILNET by its side was set.

By Nineteen-Eighty DoD opined 
its data networks soon must be aligned 
with Internetwork protocols, to wit: 
by Eighty-Three the TCP was IT! 

Soon every host that sat on ARPANET 
became a gateway to a local net. 
By Eighty-Six new long haul nets appeared 
as ARPANET its second decade neared° 

The NSFNET and its entourage 
began a stately national dressage 
and soon was galloping at T1 speed 
out distancing its aging peer indeed. 

And so, at last, we knew its course had run, 
our faithful servant, ARPANET, was done. 

It was the first, and being first, was best, 

but now we lay it down to ever rest. 



Now pause with me a moment, shed some tears. 

For auld lang syne, for love, for years and years of 
faithful service, duty done, I weep. 

Lay down thy packet, now, O friend, and sleep.

===
A sala 3420, Boelter, UCLA:

https://gizmodo.com/this-is-the-room-where-the-internet-was-born-1527205592














===
E uma linha do tempo bem completa em:
http://theclarkespace.com/final-project-front/#/

===
Inspiração e plágio do título:

















terça-feira, 15 de outubro de 2019

Sem pressa...

É visível que a Internet trouxe sérias rupturas no que conhecíamos (ou achávamos conhecer) como o “velho mundo”. A tentativa remendar o que vemos nesse novo ambiente pode ser tão infrutífera como tampar furos de uma peneira colossal. Resta buscar entender o que se passa, para onde caminhamos, e de que recursos podemos lançar mão com eficiência.

A intercomunicação ampla e... involuntária é uma das dramáticas novidades. Os primeiros exemplos de algo “não explicitamente desejado” vieram com o hoje algo ingênuo “spam”, quando tentava nos vender algo. A evolução, via redes sociais, foi bem mais insidiosa. Trata-se não de vender quinquilharias, mas arrastar-nos a discussões sobre qualquer tema, incluindo os que ignoramos. E atendendo a esse tentador convite, todos falamos, alguns escutam, muitos se manifestam, alguns ofendem e, por seu lado, todos se sentem ofendidos. Há como mitigar? Será que o uso de receitas e tisanas antigas ainda daria resultado na era das redes?

Parte do arsenal canônico é a legislação nacional e uma eventual e judiciosa regulação do mercado, quando necessária. E aí é que a “porca torce o rabo”: com a ausência de fronteiras físicas, a ação local, mais do que resolver o problema, fará apenas com que ele mude seu local original de ação. Pode-se buscar estender o braço da lei para fora das fronteiras – o que parece ser pretensão da Comunidade Européia em certos casos - mas gerando possíveis conflitos de soberania.

A grande maioria dos abusos parece originar-se nas plataformas de poucas empresas, que hoje dominam um mercado altamente concentrado. Antes de discutir se essas empresas devem ou não se arvorar em censores do comportamento alheio, reconheça-se que elas tem os meios para fazer isso, não apenas retroativamente, mas como “prevenção”. Em abril deste ano, lemos que uma das líderes do mercado pedia ao governo de seu país-sede “mais regulação”. Colocava-se “à disposição” para discutir as melhores regras que deveriam ser seguidas para coibir uso e manifestações inadequadas. Se esse movimento, originado em quem lidera o mercado, poderá parecer “inesperado” a alguns, uma análise mais extensa pode jogar alguma luz. O primeiro resultado de uma ação negociada de “auto-controle” é obter uma segurança jurídica para o regulado além de melhora na imagem. Afinal estaria demonstrada a “boa-vontade” ao envidar esforços que mitiguem “abusos”. Uma segunda conseqüência, não tão óbvia, é proteção competitiva, aumentando a barreira de entrada para novos atores: afinal quem teria poder de fogo para alocar recursos humanos e ferramentas de inteligência artificial que deem conta do recado? Uma efeito adicional é passar a tratar uma aplicação comercial, mesmo que líder no mercado, como algo que encarna “interesse público”.

A busca de soluções adequadas aos nossos males é complexa mas há que se evitar o canto de sereia de uma regulação apressada, compartilhada entre governo e grandes agentes no mercado. Pode ser “esmola demais”.

Quanto à legislação adicional e eventual regulação, há que se ir com ponderação. Para que medidas de controle sejam efetivas, precisamos entender melhor o fenômeno e seu entorno. Vale aqui o que o imperador Augusto aconselhava quanto a açodamento: festina lente, apressa-te devagar!


===
Mark Zuckerberg e as quatra áreas para as quais ele pede regulação:

https://www.washingtonpost.com/opinions/mark-zuckerberg-the-internet-needs-new-rules-lets-start-in-these-four-areas/2019/03/29/9e6f0504-521a-11e9-a3f7-78b7525a8d5f_story.html

Andrew Sullivan, ISOC:
https://www.internetsociety.org/blog/2018/11/we-wont-save-the-internet-by-breaking-it/


terça-feira, 1 de outubro de 2019

A dose do remédio

Além de ameaças diárias à nossa privacidade, estamos expostos a uma cacofonia crescente no ambiente virtual, e isso nos causa incômodo. É compreensível e adequado querer livrar-se de um incômodo;  o risco é agir precipitadamente e acabar gerando um mal pior. Vale a regra enunciada por Jon Postel: para vivermos na Internet devemos ser liberais no que aceitamos e conservadores no que fazemos. Ou seja, é inevitável que tenhamos que passar por situações que nos desagradam, mas devemos evitar gerá-las aos demais. E resta tentar amenizar o quadro.

Para abordar alguns desses abusos, é importante distinguir entre “Internet” e as construções feitas sobre ela. A estrutura essencial da Internet é o conjunto de protocolos e equipamentos sobre os quais esse mundo imaterial e sem fronteiras opera. “Internet” não são as redes sociais, nem os aplicativos, nem mesmo os sítios que visitamos, mas é, sim, quem tornou viáveis essas construções. Foi a eletricidade, por exemplo, que permitiu motores elétricos, mas não parece sensato culpá-la quando alguém é eletrocutado, ou quando computadores elétricos ajudam a violar nossa privacidade. Isso, entretanto, não significa que não sejam necessários esforços contínuos para tornar essa plataforma mais sólida e segura.  É uma preocupação constante dos grupos técnicos a criação de protocolos que incorporem criptografia, processos que possam ser certificados por assinaturas digitais. Formas de tonar a rede mais resiliente a abusos dos mal-intencionados, cujo número só faz crescer...

Quem eventualmente espalha desinformação, dissemina medo, estigmatiza indivíduos, ameaça nossa segurança, são as ações que ocorrem nas construções sobre a Internet. Esse é objeto das preocupações comezinhas. Afinal não nos incomoda tanto o comportamento da infra-estrutura Internet, quanto o do que foi criado sobre ela. Enquanto todos dão tratos à bola de como melhorar esse cenário,  surge um novo e inesperado movimento: grandes empresas da área pedem aos governos “mais regulação”! Eis aí uma pílula dourada que devemos examinar com muito cuidado antes de decidir se a engolimos. Claro que uma empresa, como um clube, pode ter regras próprias de comportamento adequado para seus associados, mas isso é bem diferente de ela pedir a um governo que a regule, afetando por extensão o comportamento de todas as demais iniciativas. Fica para uma próxima um exame com mais detalhes do que se esconde sob essa aparente antinomia: um pedido de regulação sobre a eventual autorregulação.

Regulação é mecanismo importante para se garantir um jogo limpo no mercado. É um remédio para males que advém de desequilíbrios estruturais. Por exemplo, a lei de proteção de dados individuais devolve-nos o controle de nossas informações, reequilibrando o poder.  Como todo o remédio, regulação deve ser usada em situações específicas e em doses adequadas. Seu excesso ou sua falta são danosos.  No grego, remédio e veneno são a mesma palavra. Em português, “droga” pode ser remédio ou veneno. À época do descobrimento do Brasil, Paracelso, um médico e alquimista suiço, alertava: “o que separa remédio de veneno é apenas a dose”.

terça-feira, 17 de setembro de 2019

Vamos guardar um segredo?

Durante o momentoso caso Snowden em 2013, ouvimos falar bastante dos “5 olhos”, uma ação supra-nacional que envolveria as organizações de inteligência de cinco países: Estados Unidos, Grã-Bretanha, Austrália, Nova Zelândia e Canadá. Criada inicialmente no contexto da guerra fria, com o recrudescimento de atividades de terrorismo, passou a abarcar um universo geral e suas ações tornaram-se mais visíveis, envolvendo programas como o PRISM e outros.
No outro extremo do espectro, o abuso na aquisição de dados pessoais relacionado a empresas atuantes na Internet, levou países a buscarem legislação que protegesse as informações de seus cidadãos. A Comunidade Européia puxou o trem com a implementação da GDPR em maio de 2018 e, logo após, o Brasil também promulgou sua lei de proteção de dados individuais, a LGDP, que deverá entrar em pleno vigor em 2020.

A Internet segue equilibrando-se entre esses dois pólos, tentando preservar a íntegra de seus princípios. Princípios que refletem direitos básicos nossos. E ela, organicamente, reage às pressões e se altera correspondentemente: o excesso no monitoramento de nossos passeios pela rede provocou o expansão de navegadores como o Thor, que permitem uma navegação com privacidade; o abuso de terceiros, lerndo nossa correspondência, estimulou a popularização de criptografia. Da mesma forma que a população de mariposas na Inglaterra mudou darwinisticamente de cor, passando a se camuflar em locais com fuligem e poluição, a Internet lança mão de ferramentas que a protejam.

Como tudo tem pelo menos dois lados, surgiu o debate sobre a legalidade no uso da criptografia, especialmente a robusta, aquela muito difícil de quebrar. Sob o argumento de que “é necessário monitorar o que se passa para prover mais segurança aos cidadãos”, há os que querem acesso a material criptografado, seja impondo aos fabricantes de equipamentos que providenciem uma “porta dos fundos” pela qual os agentes de investigação possam “ler” o que se transmite, seja por simplesmente tentar colocar fora da lei o uso da criptografia. Exemplo recente e preocupante é a lei australiana, promulgada no final de 2018, que obriga prestadores de serviço e fabricantes a providenciarem formas de acesso “legível” ao que transita. Mais iniciativas no mesmo sentido podem ocorrer se a comunidade não tratar de se defender.

O argumento de que “é para o nosso bem que órgãos de segurança possam ler qualquer mensagem” não se sustenta. Não se troca privacidade por segurança: buscam-se as duas! Afinal, se houver uma “porta dos fundos”, acabará serventia também dos mal-intencionados. Recentemente o IAB, Internet Advisory Board, manifestou-se defendendo com ênfase o direito ao amplo uso de criptografia fim-a-fim, como sendo “fundamental para a busca da confiança” na rede. No mesmo documento, além do chamado à restauração da confiança na rede, há um alerta para os danos que uma legislação precipitada, ou mal elaborada, pode causar.

Sem criptografia, nossa privacidade está em risco. No 1984, de George Orwell esse futuro indesejável está descrito: “...daqui prá frente, se você quiser manter um segredo, você deverá escondê-lo até de si mesmo!”


===
Sobre a lei australiana de criptografia:
https://www.bbc.com/news/world-australia-46463029

Documento do IAB:
https://www.iab.org/documents/correspondence-reports-documents/2019-2/avoiding-unintended-harm-to-internet-infrastructure/

Página da ISOC correspondente:
https://www.internetsociety.org/issues/encryption/


terça-feira, 3 de setembro de 2019

Dilemas...


Dilemas...

Não é fácil encontrar a tramontana no ambiente de crescente complexidade em que estamos. Dados são insumo fundamental a qualquer ação, mas se colhidos sem cuidados podem violar nossa privacidade. Sua proteção mereceu uma lei específica e importante e que está a poucos meses de viger. Por outro lado, aplicações necessitam de dados e da experiência humana para melhorar a qualidade do serviço que prestam. A Lei Geral de Proteção de Dados, a exemplo do Marco Civil da Internet, demorou alguns anos para ser editada, e isso pode ser um bom indício. Ao inovar, a legislação deveria sempre ser cautelosa e valer-se do lema do imperador Augusto, “apressa-te devagar!”. Cuidemos para que se mantenha a base legal em que se funda nossa sociedade e que, ao definir a estrutura de direitos do homem, permitiu-lhe escapar da barbárie.
Tensões entre o novo e o já existente são perenes. Chesterton foi bastante feliz em definir conservador como “aquele que busca perpetuar os erros do passado”, e progressista como “aquele que procura produzir erros novos”.
Permito-me uma analogia com a inteligência artificial, especialmente no “aprendizado de máquina”. Sem discutir a aplicabilidade do conceito de “aprendizado”, haveria duas vertentes principais: sistemas “conservadores”, que aprimoram seu funcionamento ao acumular a experiência humana disponível, e os sistemas “progressistas” que buscam, por inferência independente, gerar novas soluções. No primeiro caso podemos exemplificar com a tradução automática, que melhorou bastante ao se valer da base de traduções humanas existentes. Para o segundo temos os sistemas que “aprendem” sem supervisão humana, e não raramente nos surpreendem pelas escolhas que fazem.
Outro debate corrente é quanto aos “algoritmos” e seu eventual viés. No caso “conservador” é pouco provável haver um viés intencional incluído no algoritmo: ele apenas seguiria o que os dados que recebeu indicam. Mesmo quando aspectos de seu funcionamento geram reservas, talvez devêssemos aceitar que ele reflete os dados que há no domínio amostrado. Adapto aqui uma frase de Vint Cerf sobre a Internet: os algoritmos varrem dados e, como espelho, mostram o que lá existe. Se não gostamos do que vemos, não é culpa do espelho.
A aventura humana nos levou a planar acima das estatísticas e dos dados. Ao esposarmos, por exemplo, a igual dignidade de todos os humanos, a tese não se funda em números ou em “big data”, mas no arcabouço filosófico e moral estabelecido. Não há nem como, nem por que, buscar confirmação numérica, estatística, ou mesmo científica dessa tese.
Bertand Russel, um cientísta filósofo e pacifista, escreveu em 1953 sobre a busca de objetivos pouco sensatos: “Se o objetivo for uma tolice, quanto mais eficientes os meios de que dispomos, pior será. Conhecimento é poder, tanto para o bem quanto para o mal. A menos que os homens cresçam ainda mais em sabedoria, qualquer aumento de conhecimento será apenas aumento da dor”.
Usemos os dados de que dispomos, sem violar a privacidade dos indivíduos, para conhecer melhor o mundo que temos. De novo nas palavras de Bertand Russell, “sabedoria é, inicialmente, entender o mundo como ele é, e não como gostaríamos que fosse”.

===
Video curto do Bertrand Russell sobre o futuro:
===

https://upload.wikimedia.org/wikipedia/commons/1/18/Bertrand_Russell_photo.jpg






terça-feira, 20 de agosto de 2019

Ética artificial?

A moda é falar de inteligência artificial, IA. O primeiro percalço já vem no nome da coisa: primeiro há que se definir o que seria “inteligência”. E, mesmo após chegando a uma eventual definição satisfatória, ver como “artificial” se aplica. Afinal, se algo pode comportar-se de forma “inteligente” mesmo que via um artifício, essa qualidade estaria agora inerentemente adquirida e deixaria de ser “artificial”.

Sob essa denominação agrupam-se diferentes técnicas de processamento de dados e tomada de decisões que hoje usamos. Há a “ciência de dados”, que se ocupa dos mecanismos de tratamento de quantidades vultosas de dados brutos em busca de correlações e informações inferidas, há o “aprendizado de máquina”, quando um programa escrito pretende aperfeiçoar seu funcionamento pelo que “observa” do mundo, e há o “aprendizado profundo”, quando o sistema evolui para comportamentos não previstos em sua programação inicial e que decorreram de sua experiência com sucessos e fracassos anteriores.


É comum um sistema ser “treinado” na execução de tarefas humanas, valendo-se de uma quantidade imensa de informação a ele fornecida. Adicionando coleções de imagens sobre determinada manifestação de uma doença, podemos fazer com que o sistema a detecte. Um artigo no New York Times da semana passada comenta que mão de obra humana é contratada até para “ouvir tosses”, de forma a ajudar o sistema a classificar qual tosse é
suspeita de algo mais grave. Teremos sistemas fornecendo diagnósticos médicos, elaborando decisões judiciais ou econômicas, tomando decisões.


O que me preocupa nisso é que máquinas e programas, objetos materiais que são, não podem ser responsabilizados por resultados anti-éticos ou amorais. Ética e comportamento humanísticos generoso são apanágio dos humanos. É humano desconsiderar eventuais características de outrem em prol de tratamento digno igualitário. É humano perdoar erros ou admitir falhas. Se fosse possível incluir na evolução da IA vieses humanos, nem sempre lógicos ou matemáticos, isso seria alvissareiro e positivo. 


Contemplar decisões com base em simples cômputo numérico, reforçado por resultados anteriores de sucesso e fracasso, é abrir mão da humanidade que ainda temos. Não se espera de um programa com IA que, por exemplo, na análise de concessão ou não de um empréstimo a um solicitante, exiba um comportamento “humano” como é o caso da intuição e da emoção. Pelo contrário, a regra que “aprendeu” da experiência anterior será inflexível: se há riscos financeiros no investimento, ele não será feito, mesmo nos casos em que, humanamente, a decisão pareceria cruel ou imoral. No confronto insensível dos números e resultados, a decisão tomada será a logicamente vantajosa, mesmo que moralmente abjeta. Lembro do filme de Kubrick e Clarke, 2001 Uma Odisséia no Espaço, quando Hal, o “inteligente” computador de bordo que controlava a viagem da nave, decide deixar o humano (Bowman) morrer fora da espaçonave, para não colocar em risco a meta principal da viagem.

Usar o potencial das máquinas como ajuda ao que queremos atingir é positivo, é o que vem pela frente e é bom que seja assim. Porém atribuir a elas decisões em ações que envolvam a própria essência do que se entende por “humano”, parece-me uma contradição em termos, e pode ser um caminho sem volta.


===
O artigo citado do N Y Times pode ser visto em:

https://www.nytimes.com/2019/08/16/technology/ai-humans.html

e sua tradução:

https://link.estadao.com.br/noticias/cultura-digital,conheca-a-rotina-nada-futurista-de-quem-treina-inteligencia-artificial,70002975428

Há um interessante artigo do Prof. Valdemar Setzer em:

https://www.ime.usp.br/~vwsetzer/IAtrad.html
===