terça-feira, 12 de dezembro de 2017

A simbiose homem-computador

O título é o de um texto profético de J.C.R.Licklider, Man-Computer Symbiosis, escrito em 1960 (!). Licklider foi um cientista brilhante com atuação em múltiplas áreas, uma delas o projeto Arpanet, que acabou gerando a Internet que conhecemos hoje.

No último texto no Link, resvalei em IA (inteligência artificial) e arrisquei afirmar que as máquinas não desenvolverão “ética e consciência” nos moldes humanos. Reconheço que há divergências quanto a essa previsão, mas o citado artigo de Licklider ajuda a diminuir as inquietudes de diversas formas. Além de espantosamente prever que a futura interação com máquinas seria baseada em voz, e de descrever em 1960 o que hoje chamamos de “computação em nuvem”, ele traz uma visão sobre o futuro papel das máquinas. Transcrevo: “se hoje os computadores ajudam na solução de problemas que nós formulamos, eles passarão a participar da própria formulação dos problemas. Numa futura simbiose, nós definiremos os objetivos, as hipóteses e os critérios, e faremos a decisão final. Os computadores além de todo o trabalho de rotina, prepararão o caminho para conclusões técnicas e, mesmo, para o pensamento e a pesquisa científica”. Simbiose é um conceito da biologia, que define uma relação de interdependência entre criaturas de espécie/natureza diferente. Um exemplo clássico é o da figueira, cuja polinização depende de um tipo específico de vespa, a qual, por sua vez, alimenta-se apenas de figo. Sem a vespa a figueira não frutifica. Sem o figo a vespa se extingue.

Num processo de tomada de decisão, gastamos a maior parcela de tempo em reunir material, organizá-lo de forma coerente, agrupar os dados em gráficos e tabelas. Só uma pequena (mas nobre) parcela de tempo é destinada a, dado todo o panorama construido, tirar uma conclusão. Essa preparação prévia já está em boa parte a cargo dos computadores, das ferramentas de busca, da Internet com seu imenso repositório. Com as referências certas, pode-se chegar a uma decisão sensata. O que existe hoje é, assim, a interação homem-computador. Um interação que é cada vez mais uma via de duplo sentido. Há tempos a automação instalou-se em fábricas, em linhas de montagem e, mesmo hoje, não é raro a máquina precisar da ajuda do homem para completar tarefas complexas. Nem o homem sozinho, nem a máquina de forma autônoma dariam conta do que há por fazer, ou seja, a dependência mútua já está posta. Evoluirá de uma extensão mecânica do homem para uma “simbiose”? Numa interdependência real, além de ajudar a organizar o pensamento e responder nossas perguntas, as máquinas poderão nos auxiliar na própria formulação das questões. Afinal, muitas vezes é mais importante e difícil descobrir qual a pergunta certa a fazer.

Há certamente uma revolução a caminho. G.K.Chesterton alerta para um desvio nessa busca, a ser considerado: “revolucionar” deveria ser usado como um verbo transitivo, buscando um foco, não um verbo intransitivo, que se autojustifica. Quanto à importância de fazer a pergunta certa, ao final do “Guia do Mochileiro das Galáxias” de Douglas Adams, o supercomputador onisciente finalmente consegue responder à obsedante pergunta “qual o sentido da vida, do universo e tudo o mais?”. A resposta foi “42”.


Referências:
http://groups.csail.mit.edu/medg/people/psz/Licklider.html
http://memex.org/licklider.pdf
http://www.chick.net/wizards/memo.html



https://jugglingpaynes.blogspot.com.br/2010/12/carnival-of-homeschooling-42-edition.html



terça-feira, 14 de novembro de 2017

Amazon em Abu Dhabi



Si (como afirma el griego en el Cratilo)
el nombre es arquetipo de la cosa
en las letras de 'rosa' está la rosa
y todo el Nilo en la palabra 'Nilo'.

Jorge Luis Borges, El Golem


A sexagésima reunião da ICANN (Internet Corporation for Assigned Names and Numbers) aconteceu há 10 dias em Abu Dhabi. A capital dos Emirados Árabes Unidos é uma cidade nova, limpa, com prédios arrojados e que transpira riqueza trazida pelo petróleo. Além de ser vizinha do Burj Khalifa, o prédio mais alto do mundo com quase 900 metros de altura, Abu Dhabi abriga a espantosa mesquita Sheikh Zayed com mais de mil colunas, toda revestida de mármore branco e com o maior tapete (persa) já tecido. De tirar o fôlego.

A ICANN é uma organização não governamental sem fins lucrativos, situada na Califórnia norte-americana, que assumiu em 1998 a função de coordenar a distribuição dos números IP (Internet Protocol), tanto na versão 4 como na versão 6, e o registro dos domínios de topo (TLD – Top Level Domain, caso do .br, .com, .net, .de, .etc, entre outros) na raiz da rede. Suas reuniões concentram-se em tentar acomodar interesses operacionais, comerciais, governamentais, de política pública e social, preservando uma Internet única, aberta e diversa.

A iniciativa de povoar a Internet com milhares de novos gTLDs (generic TLDs) escorou-se em argumentos como para “atender melhor a comunidades e nichos específicos de negócios, aumentar a competitividade no registro de nomes e incluir diversidade com alfabetos disponíveis”. Trouxe, além de maiores riscos com novos domínios fraudulentos, registrados para exploração de incautos, tensões com comunidades, culturas e, especialmente, governos. 

Se há, por um lado, posturas “liberalizantes” que admitiriam a priori registro de qualquer nome de domínio, há também os que opõem-se com sólidos argumentos a que um empreendedor possa obter para si nomes como .brasil, ou .ala, ou .deus

A ICANN, prudentemente, buscou minimizar a eventualidade de problemas, criando normas e reservando nomes que não poderiam ser automaticamente registrados. A situação, entretanto, é mais complexa. A nova política, por exemplo, permite que donos de marcas possam solicitar seu nome como um TLD. E a empresa Amazon assim o fez, requerendo .amazon para si. Claro que conceder a uma empresa o nome de toda uma região do mundo não é coisa que vá acontecer sem questionamentos, e rapidamente comunidades da região se organizaram para questionar o pedido.

Um órgão que dá insumos à ICANN, especialmente em temas de interesse público, é o GAC (Government Advisory Committee). E neste caso o GAC, liderado pelo Brasil e por representantes de países da América do Sul, logrou consenso: em comunicado oficial, pediu à ICANN que sustasse a concessão do .amazon, no que foi atendido. Mas há formas de recorrer, previstos nos estatutos da ICANN e a Amazon recorreu. O grupo que julgou o recurso pediu à ICANN que “revisite cuidadosamente sua decisão anterior”. 

Assim, hoje a ICANN está numa “sinuca de bico”. De um lado, o poderio econômico de uma empresa, que pode aplicar somas consideráveis em sua causa judicial, e de outro, o posicionamento de comunidades indígenas e do GAC. Não foi em Abu Dhabi que se pacificou a discussão sobre o .amazon, e a tensão deve se estender ao menos até março de 2018. Acompanharemos.


===
===

terça-feira, 31 de outubro de 2017

O Bebê da IA

Na semana que passou duas notícias, por inusitadas, chamaram a atenção para aplicações da Inteligência Artificial e suas conseqüências.

A primeira é sobre jogos. Há tempo lemos sobre um programa que joga Go, jogo de tabuleiro complexo e bastante popular no Oriente. O programa, AlphaGo, aprendeu os movimentos e foi alimentado com a base conhecida de todas as partidas disputadas até hoje. Aproveitou-se a experiência dos humanos, adicionada à enorme capacidade de memorização e de processamento de que se dispõe hoje. AlphaGo ganhou quase todas as partidas contra os mestres. Das poucas que perdeu, parece que a derrota deveu-se ao fato do jogador humano ter feito lances inusitados e controversos, que confundiram o AlphaGo e sua base de dados.  A estratégia de se valer do que nós, humanos, fizemos até aqui, tem sido usada   com sucesso em jogos, diagnósticos, traduções, apoio jurídico etc. E nada há de muito surpreendente aí. Ocorre que uma nova versão do AlphaGo, a AlphaGo Zero, foi colocada em testes recentemente. A nova versão usa outro tipo de abordagem: apenas ensinam-se as regras do jogo - como movimentar as peças - e colocam-se duas instâncias do programa a jogarem interminavelmente entre si. Esta opção já havia sido tentada, com resultados medíocres, nos anos 70 e 80, mas hoje, com capacidade de processamento disponível milhões de vezes maior, as coisas mudam: em pouco tempo de treinamento o programa testará uma quantidade impensável de alternativas. Ganhando e perdendo desenvolverá uma estratégia própria de jogo. Eu nada sei de Go mas, ao que se comentou, mestres humanos, vendo o jogo que o AlphaGo Zero faz, só conseguem classificá-lo como "alienígena". Ou seja, o programa desenvolveu uma forma de jogar que em nada lembra a dos terráqueos. Aprendeu da "tentativa e erro" levada ao extremo e chegou àquilo parece uma "outra realidade, inexplorada". Aparentemente desdizendo Millôr: "é errando que se aprende... a errar!". Tentador e, ao mesmo tempo, assustador.

O segundo caso é mais prosaico, porém preocupante. Releciona-se a um problema de tradução automática, que levou um homem à prisão temporária. Pelo que se soube, em Israel uma conhecida rede social trazia a foto de um trabalhador palestino ao lado do seu trator, com uma legenda que, na linguagem local, significaria "bom dia". O programa de tradução automática da rede social fez do "bom dia" algo como "quero machucar". Numa região conturbada como aquela, iniciou-se busca que terminou com a detenção do "suspeito". Desfeita a confusão, ele foi solto. Quem seria o real causador do problema? Se um programa que aprende, sozinho ou com a experiência humana, comete um erro grave, até fatal, contra um ser humano, quem é o responsável por isso? O usuário? O desenvolvedor? E, no caso de tentar uma auditoria, como descobrir que caminho levou o programa à conclusão que tomou? Haveria "conserto"?

De volta ao mundo simples, ontem foi a abertura da sexagésima reunião da ICANN (Internet Coorporation for Assigned Names and Numbers), desta vez em Abu Dhabi, Emirados Árabes. Teremos discussões importantes, entre elas a relacionada ao domínio .Amazon, hoje reservado a pedido das comunidades da região, mas fortemente desejado pela empresa homônima. Para que lado a balança penderá, e a que argumentos ela cederá, saberemos em breve.


===
Veja a evolução do AlphaGo Zero:(de: https://www.kdnuggets.com/2017/10/alphago-zero-biggest-ai-advance.html ):

terça-feira, 17 de outubro de 2017

Mentiras Eternas

À Internet e suas costas largas é imputada hoje a resposabilidade pela enxurrada de informações de duvidosa veracidade que nos atingem. É fato incontestável que ela possibilitou a adição de milhões de novas vozes à cacofonia universal, mas “espantar-se” com o resultado é falso pudor ou, pior, um apoio enviesado a algum tipo de silenciamento.

A justa ânsia e a pressa em querer conformar o mundo em algo mais elevado e puro ameaçam o risco de perdas maiores que os ganhos eventuais. Dar voz a todos é um valor incomparável ao incômodo (e, mesmo, ao real risco) que falsas informações trazem. Impedir a livre expressão sob o pretexto de proteger-nos pode equivaler ao surrado “jogar fora a criança com a água do banho”. J.P. Barlow escreveu em 1996, no seu libelo sobre a independência do espaço da rede: “estamos criando um mundo onde qualquer um poderá expressar suas opiniões, por mais singulares que sejam, sem o medo de ser coagido ao silêncio ou à conformidade”.

A mentira e a calúnia convivem com a humanidade desde que ela existe. Nada há de novo sob o sol! Dois exemplos clássicos na literatura aplicam-se: o arquivilão Iago, em Otelo, de Shakespeare e Dom Basílio, no Barbeiro de Sevilha, de Beaumarchais.

Da boca de Iago ouvimos que “a reputação de uma pessoa nada mais é que um bem falso e vão, que se ganha sem mérito, e se perde sem motivo”. Emília, sua mulher, o define: “Ele é invejoso. Não porque inveje algo. É, apenas, por ser”. No “credo” da ópera, Iago proclama: “Sou um celerado, porque sou um homem. E em mim sinto a lama originária”. Disseminando mentiras mas de forma a torná-las críveis, adicionando “provas” e “indícios” que não resistiriam a um escrutínio banal, Iago consegue destruir reputações e levar à morte, tanto a inocente Desdêmona, quanto o ingênuo e ciumento Otelo.

Já Dom Basílio cinicamente recomenda a calúnia como forma de desqualificar um pretendente indesejado: “Caluniem, caluniem, algo sempre sobrará”.

Deveríamos resignar-nos a acreditar no que se lê na rede? Não! Ao contrário, a constante reverificação é fundamental. Voltaire aconselhou “quando ouvimos novidades, devemos esperar pelo ´sacramento da confirmação´”. Hoje a mesma tecnologia que nos inunda de informações duvidosas, permite-nos consultar uma infinidade de fontes variadas, em busca de indícios melhor sobre a qualidade do que recebemos. A tecnologia pode aliviar os danos que ela indiretamente causa. Redes sociais, por exemplo, apregoam aplicativos e ferramentas, recursos que ajudariam nosso senso crítico, agindo como poderosos detectores do certo e do errado.

Mas mesmo sabendo dos portentosos avanços da inteligência artificial e dos algoritmos de avaliação da qualidade da informação, eu fico com um “pé atrás” nesse assunto. Provocativamente, faço uma analogia com o que está no Gênesis: se Eva foi ou não enganada pelo Malicioso é menos importante do que a isca usada: “morda esse fruto e passará a conhecer e a distinguir o bem do mal”. Será que “mordendo” os aplicativos e as ferramentas que nos oferecem, atingiríamos o que o Tentador prometeu? Passaríamos a separar claramente o bem do mal?

Alerta! Ainda prefiro a falibilidade humana à mecânica onisciência do infalível algoritmo.


=== 
Existe "qualitômetro" para informações? 😊





terça-feira, 3 de outubro de 2017

Coturnos e sandálias

A ISOC, Internet Society, está comemorando 25 anos de existência. Um dos locais da festa foi em Los Angeles no campus da UCLA e incluiu uma visita à sala (3420, “Boelter Hall) do Prof. Leonard Kleinrock, pioneiro no projeto da rede Arpanet, da DARPA (Defense Advanced Research Projects Agency), uma agência de pesquisa do Departamento de Defesa dos Estados Unidos. 

Logo na entrada, uma placa identifica a saleta como “o local de nascimento da Internet”. Dentro, outra placa, do IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos) comemorando o sucesso da Arpanet, mostra data e hora do “parto”: 22:30 de 29 de outubro de 1969. A Internet é filha da Arpanet, mas com diferenças: outro conjunto de protocolos a compõe, o TCP/IP que foi considerado “oficial” na DARPA em março de 1982. Em janeiro de 1983, toda a rede migrou para o TCP/IP e passou a ser conhecida como Internet devido ao IP (Internet Protocol). Assim, quem preferir vê-la como uma rede mais “jovem” pode adotar 1983 e dizer que a Internet tem 34 anos.

Internet é uma rede baseada na tecnologia de “chaveamento de pacotes de dados”, tema da tese de doutoramento de Kleinrock. Além dele, outros, como Paul Baran e Donald Davis, estudaram a tecnologia, mas foi o time de Kleinrock que logrou usá-la de fato na comunicação entre computadores. Na pequena 3420, além de pedaços do Sigma 7, computador da UCLA nessa conexão, está o primeiro IMP, o “interface message processor” fabricado pela BBN, uma empresa contratada. É uma caixa do tamanho de uma geladeira e que fazia a conexão de um computador à rede. O IMP liberou o computador de “entender” a rede e, com isso, diferentes fabricantes puderam participar. Os roteadores de hoje são os descendentes do IMP. 

Seria, então, a Internet uma rede com objetivo militar? Bem, o dinheiro que financiou o projeto foi do Departamento de Defesa, mas há outros aspectos a considerar: muitos dos projetos da própria DARPA como, por exemplo, o GPS do nosso dia-a-dia, geraram produtos de amplo uso. O desenvolvimento da Arpanet esteve a cargo de pesquisadores jovens, de primeira água, e o ambiente da costa oeste norte-americana nos 70 era marcado por movimentos de abertura, libertários. 

Se 1969 é ano de nascimento da Arpanet, é também o ano de Woodstock. Um dos ícones e pioneiro da rede, Jon Postel, falecido em 1998, além dos longos cabelos, perambulava com sandálias e mochila. Assim há que se separar o fato de o recurso ser militar, dos conceitos que nortearam o projeto. 

Uma rede formada pela colaboração voluntária de milhões de redes autônomas, sem um centro de controle, distribuída, aberta e neutra, certamente refletia as tendências da época. E, por conta da competência e genialidade dos que escreveram seus protocolos, Vint Cerf, Robert Kahn, Steve Crocker e muitos outros, mantém-se íntegra, cada vez mais potente e rápida e com um elenco imenso e dinâmico de serviços (basta ver a impressionante Web, introduzida no início dos anos 90). 

Kleinrock relembra: “o Licklider, chefe do projeto na DARPA, chegou com um monte de dinheiro e me disse: tome e faça algo útil com isso”. E eles fizeram!


===
Leonard Kleinrock mostrando o IMP - sala 3420, Boelter Hall, UCLA - 19 de setembro de 2017




terça-feira, 19 de setembro de 2017

Pecó-pedi-pego

Eu era muito ruim na “língua do pê”, artimanha usada no primário quando uma mensagem “secreta” deveria ser passada agilmente de um colega a outro. Eles eram bons nisso! Se um não iniciado ouvisse a torrencial sequência de sílabas com os “pê” intercalados, não entenderia: estava “criptografada”, acessível apenas ao destinatário. No delicioso conto de Lima Barreto, “O Homem que Sabia Javanês”, um malandro, para ganhar a vida, inventa tornar-se professor e único tradutor de uma língua fictícia. Na semana que passou, notícias na Internet informavam que dois famosos códigos teriam sido decifrados: o misterioso manuscrito Voynich, com mais de 600 anos, e uma “carta de Lúcifer” que teria sido enviada a uma monja na Itália há 360 anos. Mesmo que a notícia sobre o Voynich seja um trote (ou uma “pós-verdade”), revive-se a atração e a necessidade que temos do sigilo, do segredo, da manutenção de nossa privacidade.O uso da criptografia forte é agora acessível a todos, com diversas implementações abertas e à prova de testes. Uma das razões de sua popularidade reside no incômodo fato de que nossas comunicações privadas talvez estejam sendo monitoradas por alguém. Empresas, para preservar segredos industriais, e governos, por óbvios motivos, sempre esforçaram-se por usar criptografia em suas comunicações. Para nós, prosaicos usuários, em velhos e bons tempos uma carta era considerada suficientemente protegida pelo seu envelope. Hoje sabe-se que nossas cartas podem ser lidas ocultamente. Mas, já que temos formas novas, simples e gratuitas de usar criptografia... que tal aderir?

De forma geral, um efeito parece claro: sempre que se abusa do monitoramento de nossas ações na rede, surge uma reação em sentido contrário. Guardam informação sobre os sítios que acessamos? Que tal, então, usar o TOR, navegador que apaga traços? Querem saber o que buscamos na rede? Há o DuckDuckGo, buscador que não retem informações sobre quem e o quê busca. Quase tudo está na rede, mas há conteúdos que todos gostaríamos de ver protegidos, não localizáveis pelas ferramentas de busca usuais. É o caso das bases de dados de informações pessoais, como imposto de renda, exames de saúde, etc. Ao invés de visibilidade e popularidade, são conjuntos de informações, presentes sim, mas não abertas aos buscadores usuais. Esse conjunto dos “não encontráveis” faz parte da chamada “Web profunda”.

Há outros habitantes da “Web profunda”. A junção de criptografia, navegação anônima e conteúdos não facilmente encontráveis torna-se também um atrativo para os que pretendem montar negócios escusos. E as transações monetárias nesses negócios subterrâneos podem valer-se de pagamentos em moedas digitais. É a “Web escura”, mais um risco que surge. Sua existência deve ser vista como um efeito colateral, não um argumento contra o uso de criptografia, Thor e coisas do tipo. Valores importantes como nossa privacidade devem ser preservados, permitindo-nos o uso das medidas de que dispomos. Investigar ilícitos é fundamental e importante, porém sem invadir direitos. Afinal não se proíbem cadeados ou fechaduras pelo fato de que podem ser mal usados, protegendo produtos ilegais. E também nunca se proibiu a língua do “pê”.

Pea-peté pemais!

terça-feira, 5 de setembro de 2017

Construindo Confiança

Na Internet é cada vez mais importante poder confiar em algo. Em sua origem, entre acadêmicos, acreditava-se sempre na declaração dos colegas. Muitos dos protocolos como o do “correio eletrônico” por exemplo, foram escritos em analogia a serviços tradicionais. “Cartas” são encaminhadas ao destinatário sem que se viole o conteúdo ou, sequer, se verifique se o remetente é quem diz ser. A rede trabalha sem questionamentos ao transportar e entregar “cartas”. O que era nobre e elegante, entretanto, passou a ser abusado e o “spam” tornou-se praga. Uma eficiente forma de combater pragas trazidas pela tecnologia é adotar anti-pragas também tecnológicas, e assim, por exemplo, conseguiu-se atenuar os efeitos do “spam” sobre todos nós.

O mesmo ocorre em endereçamento de máquinas e serviços. Para chegar a algum lugar na rede precisamos do “endereço IP” daquele lugar. Uma poderosa estrutura distribuida e hierárquica chamada DNS (Domain Name System) traduz o nome do destino para um endereço, e também aí confiança era pressuposto: “Ei, eu quero ligar para o João. Qual é mesmo o telefone dele? - 99991111 - Ah, obrigado”. Claro que pode aparecer algum “espírito deletério” que, ouvindo a pergunta sobre o João, forja uma resposta falsa: 99992222. Acabaríamos ligando para o João errado e, pior, se houvesse má intenção, é bem capaz que um pseudo-João atendesse e acabássemos passando a ele informações que só deveriam ser dadas ao verdadeiro João. É uma das formas de desviar incautos para páginas falsas, implementando o “phishing”, “pescaria em águas turvas”.

A saída é recorrer de novo à tecnologia: o DNS ganha uma extensão chamada DNSSEC (“SEC” de “seguro”). Agora a resposta à pergunta sobre o “telefone do João” virá com uma assinatura verificável, garantindo assim ser verdadeira. Com DNSSEC quem realmente conhece o telefone do João assina a resposta, dando ao usuário a certeza de estar ligando ao João real. Funciona em cadeia hierárquica: o domínio .br, assinado pela raíz da Internet, garante por sua vez a existência de seu segundo nível. No segundo nível há subdomínios obrigatoriamente assinados, como o b.br (bancos) e jus.br (judiciário), enquanto em outros a decisão de assinar ou não é de quem opera o domínio. E o .br acaba de atingir 1 milhão de domínios assinados com DNSSEC, ficando entre os cinco maiores usários de DNSSEC do mundo. Bom pra nós!

A tendência clara é, paulatinamente, embutir “confiança” na própria estrutura da rede. Se antes usava-se um terceiro para “reconhecer nossa firma”, cada vez mais a própria rede cria mecanismos automáticos que proveem formas seguras de autenticação. Estamos ainda longe de dispensar cartórios, certificados e carimbos, mas DNSSEC é um exemplo de círculo virtuoso na segurança. Outro caso atual que pode tornar-se comum em breve é a tecnologia “blockchain”, aquela por trás de moedas virtuais. O “blockchain” se propõe a manter na rede uma estrutura disseminada de confiança não fraudável. Mostra que eventualmente poderemos prescidir do aval de alguém confirmando o que possuimos, seja um valor ou outro bem qualquer. São tempos interessantes...

terça-feira, 22 de agosto de 2017

Tempos de Pós-verdade

Está em voga hoje, especialmente em tempos de Internet e de redes sociais, falar em “pós-verdade” O dicionário Oxford recentemente introduziu o verbete “pós-verdade” como um adjetivo “relacionado ou denotando circunstâncias nas quais os fatos objetivos são menos influentes em moldar a opinião pública que os apelos à emoção e às crenças pessoais”. Além de chocar os que ainda creem mais em fatos que em deformações úteis, a definição espelha uma realidade que se infiltra, nem tanto subrepticiamente, entre nós. Aquilo que era tido apenas como uma “boutade”, uma frase espirituosa do ex-vice-presidente, o mineiro José Maria Alkimin, “o que importa não é o fato em si, mas sim a versão do fato” ganha espaço, momento e uma triste confirmação.

Diógenes, o Cínico, aquele que há 2500 anos perambulava pelas ruas de Atenas, com uma lanterna acesa em plena luz do dia “procurando um homem honesto”, sentir-se-ia superado pelo que ocorre nos “pós-tempos” de hoje. Do pós-modernismo à “pós-verdade” poucos resistem à tentação de falar, contra ou a favor de algo ou alguém, adicionando ou não algo de concreto ao discurso. É de Diógenes também a avaliação de que “dentre os animais ferozes, o que tem a mordedura mais perigosa é o delator, e dentre os animais domésticos, o adulador”.

São tempos fluidos, em que as novas possibilidades e dimensões trazidas pela internet não puderam ser, ainda, minimamente absorvidas, entendidas em sua extensão, incorporadas no corpo social de cultura e costumes. Hoje todos podem valer-se instantaneamente de um “lugar de fala” na rede, no que parece ser um “empoderamento” inimaginável há quarenta anos. É algo certamente positivo e auspicioso mas, associado à euforia da descoberta, ao inebriamento de novos e ilimitados horizontes, gera uma cacofonia de posicionamentos rasos e muitas vezes emprestados, de notícias verídicas misturadas a boatos, da incontinente repercussão instantânea de versões se sobrepondo-se a fatos. No início do tempos de Mao, na China, houve a implantação de um programa de “estímulo ao desabrochar de mil flores”. A ideia então era incentivar o surgimento das mais diversas discussões sobre qualquer linha de pensamento, de todas as teses e antíteses, visando abrir a fechada e milenar cultura chinesa às diferentes matizes de escolas internacionais de pensamento. Durou pouco e, paradoxalmente, redundou na instauração de uma única linha admissível, a do maoismo.

Não se trata de defender, nem de longe, qualquer limitação na expressão de ideias e de posicionamentos. A liberdade de expressão é valor central e inegociável do que hoje conhecemos como civilização. Mas espera-se que a balbúrdia acabe por decantar, que haja um maior amadurecimento e entendimento daquilo que nos abriu portas a avanços importantes. É alvissareiro poder usar livremente as novas ferramentas, tanto no apoio à consolidação do que nos pareça correto, como apostrofando e combatendo falhas morais. A Afinal, segundo o saudoso Millôr Fernandes, autor de tantas frases inesquecíveis: “jornalismo é oposição. O resto é armazém de secos e molhados”. Viremos a página da “pos-verdade”.

terça-feira, 8 de agosto de 2017

O Bom Demônio

“Demônio” carrega usualmente um sentido de malefício, de destruição, de pecado. Nem sempre teve, porém, essa semântica: no grego antigo “demon” (daimon) era algum espírito poderoso, eventualmente divino, sem nenhuma conotação maligna. Em computação o termo “demon” pode se referir a um programa que executa tarefas auxiliares num sistema, nem sempre visíveis ao usuário comum. Outro exemplo: a tradução do título do livro de Nikos Kazantzákis, “Zorba, o Grego”, que se usa em Portugal é “O Bom Demónio”... Se olharmos para o que os gregos entendiam por demônio faz todo o sentido chamar seu protagonista, um espírito livre, criativo e puro, de “bom demônio”.

Mas o que vem a fazer esses “demônios” no texto? Por partes: nesta semana a discussão sobre Inteligência Artifical, seus eventuais amplos benefícios e seus potencialmente fatais riscos, ocupou a cena do debate tecnológico. Divergiram publicamente sobre IA, de um lado o sul-africano Elon Musk, criador da SpaceX e da Tesla, talentoso e audacioso empreendedor, e de outro Mark Zuckerberg, o quinto na atual lista de multibilionários do mundo, dono do Facebook e adjacências... Um debate interessante, especialmente porque Musk, com raízes profundas em projetos de Inteligência Artificial, foi quem surpreendentemente advertiu os governos sobre a necessidade de se buscar maior entendimento quanto aos riscos que essa tecnologia traz. Do outro lado da cerca, Zuckerberg defendeu ardorosamente pesquisas ilimitadas na área, apontando apenas benefícios que ela trará à humanidade.

Podemos ser pessimistas quanto à IA e avaliar que ela destruirá empregos e que ao atingirmos a “singularidade” de Ray Kurtzweil, ou seja, quando as máquinas superarem a capacidade intelectual humana, a própria espécie estará em risco. Que andróides, meio humanos meio máquinas, dominarão o mundo e todo um porvir terrificante da nem-tanto-ficção científica. Podemos ser otimistas como Vint Cerf, que imagina o poder ilimitado do “software” ajudando-nos nas tarefas mais difíceis e tediosas, examinando com eficiência bases gigantescas de dados (“big data”) para tirar conclusões mais corretas do que conseguiríamos sobre diagnósticos médicos, ou como aperfeiçoar processos e sistemas. Seja qual for nossa posição, entretanto, o inarredável é que IA deve ser levada em conta seriamente.

No final de 2016, o IEEE (Instituto de Engenheiros Elétricos e Eletrônicos) publicou um documento de mais de 100 páginas chamado “Projetos Eticamente Alinhados” em que abre à discussão pública, exatamente, a necessidade de se incluir a ética entre os principais componentes de um projeto tecnológico, notadamente os de Inteligência Artificial. No sumário do documento aparece a busca da “eudemonia” - um termo cunhado por Aristóteles em Ética a Nicômaco - para definir o que seria o maior anelo do ser humano: viver uma vida plena, com bom espírito e felicidade. Em “eudemia” “eu” significa “bom” e “demon”, no contexto grego original, “espírito”. Aliás essa “busca pela felicidade” também aparece como um dos direitos inalienáveis do Homem na Declaração de Independência dos Estados Unidos.

Estamos, portanto, numa encruzilhada ética, tecnológica, mas também semântica: o demônio que invocaremos será uma espécie de Zorba, … ou de Mefistófeles?

terça-feira, 25 de julho de 2017

Os novos intermediários

Poderíamos considerar Minority Report, um filme de Stanley Kubrick em 2002, como um precursor da discussão sobre algoritmos automáticos e seus riscos. No filme, mais ou menos como um Cesar Lombroso redivivo e usando Inteligência Artificial, tres mutantes humanos, flutuando num aquário, fazem-se de pitonisas para as ações futuras dos habitantes, pré-condenando alguns antes mesmo de que um crime tenha sido cometido. Um cenário aterrador, mas de “ficção”...

Leu-se recentemente que uma rede social está desenvolvendo algoritmos que implementam filtros de conteúdo com o propósito de prevenir, entre outras grosserias e comportamentos inadequados, “linguagem de ódio e atitudes discriminatórias”. Em um outro serviço na rede - um buscador indexador de conteúdos -, já há previsão de atendimento a solicitações de “remoção de resultados de busca” partindo de usuários que se sentem prejudicados pela possibilidade de acesso a algum conteúdo que, mesmo existindo na rede, seja polêmico ou incorreto em sua visão. Não é o funcionamento que se esperaria de uma máquina “automática e burra”, cuja função seria, apenas, de executar amplamente sua função mecânica sobre uma base enorme de informações, sem semântica ou exame de mérito que exija decisões próprias.

Pessoalmente tenho sérias reservas a esse tipo de “remédio”. É frequente e natural sentir-se a necessidade de suporte na decantação da pletora de informações que recebemos, ou em eventual bloqueio de conteúdos que nos sejam ofensivos, mas deveríamos evitar a tentação de erigir intermediários e seus mecanismos em censores ou ajudantes de nosso propósito pessoal.

Claro que há inúmeras situações em que, ao se jogar na rede afirmações pejorativas ou inverídicas, rompe-se não apenas a barreira da boa educação, mas até a de licitude. Mesmo assim, ao invés de redelegar aos intermediários a busca por algoritmos que eliminem esse comportamento, deveríamos procurar formas de onerar o real emissor, reponsável pelo conteúdo inadequado. Ou, de outra forma, tomar a nosso encargo a implementação das ferramentas de bloqueio e filtragem locais e pessoais que considerarmos adequadas, como muitos aplicativos já permitem. Repassar genericamente essa responsabilidade a terceiros pode representar abrir mão de nosso direito de acesso total e livre à informação. Certamente essa rede “depurada por outrem” não preservará a neutralidade a que se almeja. E a pressa impensada na busca de alívio pode gerar monstros ainda maiores, e de que não nos livraremos facilmente: um leviatã digital a controlar nosso dia a dia, soberana e perenemente.

Colabora para essa situação o aumento exponencial e contínuo da capacidade de processamento eletrônico e da transmissão e armazenagem de dados que, se por um lado criam um ferramental muito poderoso, por outro prenunciam um cenário obscuro de controle e de censura. Dar esse poder a um intermediário, excedendo sua missão específica de conectar interessados e informações geradas nas pontas, mesmo que revestido da melhor das intenções, pode acabar muito mal.

É mais uma caixa de Pandora que, uma vez aberta, liberará os miasmas que não conseguiremos recapturar. Caso típico em que a emenda pode sair muito pior que o soneto.

terça-feira, 11 de julho de 2017

Sem Intermediários?

Antes da Internet, informação era algo a ser buscado naquelas poucas fontes, tradicionais e da escolha do usuário, como era o caso dos jornais. Essa missão é muito bem descrita nas palavras de Júlio de Mesquita Filho, sobre o “papel do jornal”: "Não procuro dirigir nem criar a opinião pública no meu Estado. Ao contrário, procuro apenas sondar com cautela as opiniões em que o Estado se divide e deixo-me ir, confiado e tranquilo, na corrente daquela que me parece seguir o rumo mais certo".

Muita água rolou debaixo da ponte desde que a Internet tornou-se personagem central em nosso dia a dia. E tentamos mapear suas características, às vezes com acerto, outras vezes errando o ponto. Certamente a rede representa uma ruptura, de amplitude, alcance e impacto ainda não dimensionáveis, e seu efeito no tecido social é igualmente assustador, podendo ser até mais profundo que seu impacto econômico. Mas há aspectos em que as coisas podem não ter mudado tanto, ou da forma como imaginávamos e apregoávamos. Um desses casos, penso, é a “desintermediação” que a rede teria trazido: hoje geradores e consumidores de qualquer coisa, desde informação até bicicletas usadas, passando por livros, mantimentos e serviços, poderiam se comunicar diretamente, sem um mediador. Um cenário que apontava para o eventual desaparecimento de muitos tipos de intermédiarios, o que de fato acontece, mas não de forma absoluta e com sutilizas não previstas nas análises em geral.

O fato é que não somos onipotentes ou oniscientes, e temos limites em absorver dados e em examinar sua coerência e precisão. Em muitos casos, não conseguimos prescindir de curadoria naquilo que consumimos, nem queremos perder o conforto que esse suporte nos trazia. Isso que pode ser óbvio no caso da saúde - ninguém em sã consciência abriria mão da consulta a um médico em troca dos palpites das redes sociais - pode ser menos óbvio no caso da obtenção de informação. Nesta fase de complexa transição em que vivemos, quando há abundância de microfones para todas as bocas, e os dedos são muito rápidos em replicar qualquer fato bombástico sem alguma ponderação anterior, não é de se estranhar que se surja a necessidade, às vezes inconsciente, de novos intermediários. Eles aliviariam nossa carga agindo como “filtros” e avalistas do que recebemos e restaurando algum conforto...

O “papel do jornal”, assim, não desapareceria com o “jornal de papel”, mas iria transmutar-se na Internet. Hoje recebemos “sugestões de leitura”, seguimos “youtubers” e canais virtuais, participamos de debates muitas vezes orientados para objetivos não muito claros. O risco é que esse novo e enorme conjunto de intermediários é muito mais fluido e, eventualmente, menos coerente ou fiel aos fatos. Claro que sempre haverá viés numa história que nos contam mas, no passado, esse viés era mais conhecido e mapeado do que é hoje. E o poder do intermediário pode ter se tornado subrepticiamente maior do que era. Longe de escaparmos da intermediação em nossas interações, corremos o risco de ser, não apenas mais tutelados, mas modulados pelos intermediários na rede, especialmente os que procuram dominar o cenário global atual, bem distantes da missão definida por Júlio de Mesquita Filho

domingo, 5 de fevereiro de 2017

Rashomon e a franquia da internet fixa (2)


Na primeira parte da coluna sobre o modelo de contratação de Internet fixa, sem franquia adicional – publicada em 22 de janeiro –, usou-se uma analogia com o serviço de energia elétrica. O paralelo entre as três camadas seria: geração de conteúdo (energia), transporte (“linhões”) e distribuição domiciliar. Na Internet, o conteúdo é gerado pelos membros da rede, nas pontas, e ele é grátis ou pago diretamente por assinatura.

Aos provedores caberia cuidar das duas camadas remanescentes: transporte e distribuição. A distribuição, já discutida, depende de uma estrutura local que deve ser projetada para atender à demanda média prevista (CIR, na sigla em inglês) e tem um custo médio invariável com o uso instantâneo. Tratemos do transporte.

Nos primeiros anos de nosso acesso à Internet, era natural que o conteúdo procurado estivesse no exterior, longe do usuário. Desta forma, o provedor teria de contratar uma banda adequada para trazer informação aos seus usuários. E esse custo, certamente, cresceria com a demanda. A analogia com a rede elétrica continua valendo: é preciso trazer mais eletricidade lá da usina para atender à demanda crescente dos usuários.

O que aqui acontece, entretanto, é que conteúdos frequentemente buscados no exterior acabam por migrar para perto dos usuários. Se na eletricidade “baterias” são usadas para fornecer energia instantânea sem demandá-la das “usinas”, na Internet usam-se “caches”. Mas há uma diferença fundamental: enquanto as baterias elétricas esvaziam com o uso e precisam ser recarregas, as “baterias de informação” da Internet não descarregam. Quando assisto a um filme por streaming, ele não é “gasto” e continua totalmente disponível para novo uso de todos.

Talvez uma analogia mais simples seria com TV por assinatura: o custo mensal não depende do tempo e dos canais aos quais o usuário assistiu.

A engenharia da Internet, automaticamente, traz para perto dos usuários a informação que eles mais usam. Com isso, o custo dos “linhões” da Internet deixa de subir na mesma taxa do consumo. Aliás, ao contrário da eletricidade ou da água, informações não são consumíveis. Os “bits” não se gastam com o uso e continuam sempre lá, disponíveis, usados ou não.

Os “caches”, as redes de distribuição de conteúdo (CDN) e os pontos de Troca de Tráfego são as baterias da rede. Informação disponível, barata e próxima do usuário. E, quanto mais previsível for o tipo de informação desejada, mais barato e eficiente será seu provimento. Nos pontos de troca de tráfego, geradores e consumidores de informação se interligam: os bits saem por uma porta e entram por outra, a caminho dos usuários e a um custo muito baixo.

Em resumo, o modelo de fornecimento por banda é viável, pouco sensível à previsível demanda crescente dos usuários. É um serviço estatístico, com limites impostos pela velocidade contratada e estrutura que atenda à média prevista, longe de ser uma Internet ilimitada.

Adaptando o final ao Rashomon e às historinhas de antanho, “nos pontos de troca de tráfego, a vai-se de porta a porta e... quem quiser que conte outra”!

domingo, 22 de janeiro de 2017

Rashomon e a franquia na Internet fixa (1)

Rashomon, clássico filme de Akira Kurosawa, mostra que há diversas versões de um mesmo fato. Segue uma leitura pessoal, sem valor subjetivo do que seria “melhor”, “pior”, “benéfico” ou “maléfico” para usuários e fornecedores, do tema recorrente: a introdução ou não de “franquia” para Internet fixa. Seria necessário estabelecer um segundo limite a algo que já tem um limite natural definido pela velocidade contratada? O modelo corrente é viável?

Existem modelos estatísticos a valor fixo e modelos proporcionais. Fixos podem ser planos de saúde, aluguel de veículos, restaurantes bufê ou rodízio e a própria Internet fixa de hoje, ao definir patamares de custo. É fixo dentro da opção escolhida ou definida: idade, carro, variedade de comida, velocidade. Há modelos proporcionais ao consumo, como a conta de água ou luz, restaurantes por quilo, onde o valor varia de acordo.

Em muitos casos não há porque assumir que o valor cobrado do usuário deva ser proporcional ao consumo do serviço. Mesmo em modelos quantitativos, papéis e remuneração diferem. Na rede elétrica, que nos cobra por consumo, há três funções distintas: geração, transmissão e distribuição. Recebemos nossa conta do distribuidor e, por exemplo, sabemos que a energia consumida não foi gerada por ele.

Ao distribuidor cabe manter a estrutura capaz de entregar, digamos, 35 kW a cada uma das casas. Há componentes, proporcionais ao consumo, que envolvem gerador e transmissor (“linhões”) e outros, quase fixos, que pouco dependem do consumo, como o do distribuidor. Na Internet, o que se consome também não é gerado pelo provedor. Ele cuida da obtenção e entrega de conteúdo, cuja fonte está nas pontas da rede. Ao provedor cabe manter a estrutura para isso.

Em nossas casas, o distribuidor da energia elétrica nos dá um limite de potência, por exemplo, 35 kW. Certamente a estrutura geral não comportaria uma demanda simultânea de “todas” as casas no pico. O distribuidor configura sua estrutura para suportar o pico do consumo “médio”. Esse máximo poderia, por exemplo, corresponder a 10 kW por residência, e a estrutura instalada deveria suportá-lo continuamente. O gerador e os “linhões” também estarão dimensionados para esse consumo.

Na Internet, onde fluxo de conteúdo é bidirecional, os geradores estão nas pontas da rede. São, em sua maioria grátis, ou pagos diretamente com assinaturas, portanto a parcela de custo variável do “gerador”, que está na conta de luz, não faz parte da conta do provedor de Internet.

Usemos, de forma ilustrativa, os mesmos números acima: alguém contrata um plano de acesso residencial a 35 Mbps. A estrutura estaria projetada, estatisticamente, para um consumo médio de 10 Mbps no conjunto de assinantes daquele plano de 35 Mbps. A expectativa lícita do usuário será, então, a de poder receber durante um mês, 10Mbps de média, o que daria cerca de 3 Terabytes de informação.

Esse seria o limite para ele. Tentar adicionar outro limite, uma “franquia” abaixo desse, é assumir que não se previu estrutura adequada e vendeu-se o que estatisticamente não é “entregável”.