domingo, 4 de outubro de 2015

As costas largas da Internet

É moda culpar a Internet por muito do que acontece hoje. Informações são garimpadas em cabos ópticos submarinos? É a Internet! Alguém foi ofendido em redes sociais? É a Internet! Celulares foram monitorados e conversas gravadas? É a Internet! Fotos intimas vazaram e causaram constrangimento? É a Internet! Há pouco, uma senhora, exasperada pelo vazamento de umas fotos de seu próprio celular, declarou em jornal que gostaria de “acabar com a Internet”.

Ao mesmo tempo em que cada vez mais imergimos na rede, é cômodo citá-la como álibi, desculpa para comportamentos humanos, que causaram dano a pessoas e instituições. Não é por outro motivo que surgem projetos de lei pretendendo “corrigir o problema” da Internet, como se a corda fosse a culpada pelos enforcamentos, ou se os atropelamentos devessem ser debitados aos pneus dos automóveis.

Busca-se legislar sobre crimes “eletrônicos”, mesmo que semanticamente isso faça pouco sentido. Se envenenamentos não são crimes “químicos” e afogamentos não são homicídios “hidráulicos”, por quê crimes “eletrônicos”? Indo além, e sob a argumentação de que o alcance da rede é maior que o de outros meios, propõe-se penas mais duras a quem cometer ofensa usando a rede. Há, por exemplo, uma proposta de lei que visa a aumentar a pena de crimes contra a honra se praticados pelas “redes sociais”. Além de ser difícil definir “rede social”, parece haver uma pressuposição de dolo do praticante. Usuários de “rede social” muitas vezes comportam-se como se estivessem numa “mesa de bar” ou “salão de clube” com amigos, usando linguagem direta, sem rebuscamentos e não raro jargão próprio. Não pretendem proselitismo ou difusão de ideias, apenas discussão dentro de seu grupo, mas a conversa pode vasar... Claro que também há os fazem da rede um “amplificador” e discursam para a atrair e converter grandes platéias. São intenções distintas e, cá entre nós, também pode estar havendo alguma hipersensibilidade já que todos, afinal, temos direito a opiniões, gostos, religiões e avaliações estéticas próprias, sem que isso seja automaticamente entendido como ofensa aos que pensam de forma diferente. Parece que estamos uma época de melindres exagerados, de egos inflados e de delicadezas artificiais. Não se trata, naturalmente, de minimizar o sofrimento de vítimas inequívocas de difamações, de crimes contra a honra e de ameaças, mas, como diziam os simples e sábios, “uma coisa é uma coisa, outra coisa é outra coisa”... E não esqueçamos que, mesmo neste caso, a rede continua tão inocente como o banquinho do orador de praça ou o microfone que ele usou.

A Internet, sim, é um ambiente em que pode haver (e há) formas de exortação à violência, linchamentos virtuais e, até, mera barbárie, mas os agentes disso somos nós, humanos, não a rede em si. Vint Cerf, em 2010 num fórum em Vilna, Lituânia, disse: “A Internet é como um espelho da sociedade. Se você não gosta do que nele vê, quebrá-lo não é a solução”. É mais sábio educar o objeto que lá está refletido...

domingo, 20 de setembro de 2015

Resiliência

“Quem controla o passado, controla o futuro. E quem controla o presente, controla o passado” (George Orwell, 1984). A Internet será uma ferramenta de controle ou um caminho de liberdade? É uma pergunta difícil, cuja resposta dependerá de opiniões e vieses. A própria percepção que temos da rede tem sido mutante no decorrer to tempo. A evolução visível da rede pode identificar paradigmas e dar pistas para a resposta. Sua expansão significou certamente uma ruptura importante, com as que ocorrem de tempos em tempo. A Internet tem cerca de 40 anos e a ruptura que provoca vai bem além da tecnológica. Uma invenção disruptiva segue, por sua vez, uma evolução gradual que busca aprimorar sua aplicação sem abandonar a essência. O automóvel à explosão, por exemplo, não é essencialmente distinto do que havia há 100 anos: trata-se da mesma ideia, para a mesma finalidade, com o mesmo suporte tecnológico básico, em constante evolução mas sem nova ruptura (mas, com certeza, mudanças radicais podem ocorrer a qualquer momento…)

É também comum que evolução sem ruptura ocorra em “espiral”: alguma característica secundária pode ser abandonada por algum tempo e voltar mais tarde, com força e em outra roupagem tecnológica, com outro nome. Isso acontece porque a tecnologia facilita o que antes era difícil, mesmo que já buscado. Na computação dos anos 70, por exemplo, o foco era o “mainframe”: aquela máquina central a que todos se dirigiam para obter capacidade de processamento. O “centro” foi sendo minado pelo processamento local, em nossa mesa, em computadores pessoais e estações de trabalho. Mas o conceito do “poder central” não morreu e, de alguma forma, é retomado agora, redivivo, com a “nuvem”, nossa nova “Meca” para a obtenção de serviços. Computação na “nuvem” é a volta ao “modelo centralizado”, mesmo que pareça imaterial?

A tendência de “volta às origens”, esse “eterno retorno”, tem um nome apropriado: resiliência, do latim “resilire”, volta ao estado anterior. Refere-se à autodefesa, uma resistência a mudanças que buscam desfigurar o que nos é caro. E há sim resiliência na Internet: começou distribuída e colaborativa, sem controle central, aberta à livre experimentação e… ela quer continuar a ser assim.

Com as sucessivas ondas de novos atores, vieram formas de comercialização, monetarização e comportamento que não existiam. Afinal, dados pessoais tem valor! Preferências, navegação e hábitos podem ser explorados comercialmente. E a rede pode também servir para que informações de “segurança” sejam coletadas, mesmo que à revelia. Não era o que se tinha em mente nos anos 80. Mas os conceitos resistem e, quando a tensão chegasse a certo ponto, haveria reação de defesa.

Pode-se identificar a resiliência da Internet com o crescimento da criptografia simples (PGP, 2007), nas propostas de moedas independentes (Bitcoin, 2009) e na criação de novas formas de navegar (TOR – The Onion Router, 20 de setembro de 2002 – há exatos treze anos). Sem discussão do mérito, de falhas inatas, ou daquelas que o uso inadequado das ferramentas permite, pode-se dizer que é uma resposta de defesa, esperada, contra o rastreamento da navegação, monitoramento de interações e ataques à privacidade.

segunda-feira, 13 de julho de 2015

Viva a diferença!

Trabalho na área de Tecnologia da Informação (TI) há 44 anos e convivo com excelentes profissionais, mulheres e homens. Nos anos 70, a computação era uma área muito procurada e já havia grande contribuição feminina. Se essa participação aumentar, ainda melhor. Mas quando vejo campanhas como “mais mulheres em TI” ou “mais homens em enfermagem”, algo me incomoda. Lutar por homogenia não é o mesmo que lutar por direitos iguais.

Essa impressão foi reforçada ao ver na Internet um vídeo norueguês. É dado indisputável que a Noruega é um dos países mais avançados no que tange a oportunidade iguais. Mesmo assim o vídeo traz o que parece um paradoxo: após décadas de avanços, o cenário é muito diverso: 90% dos engenheiros civis são homens, 95% dos enfermeiros são mulheres e, estranhamente, essa polarização teria crescido nos últimos anos. Um contrassenso? Algo vai mal e precisa ser corrigido?

Há especialistas que defendem o fator cultural como único determinante pelo desequilíbrio nas opções de carreira entre os sexos. E há outros, que explicam isso majoritariamente pela diferença de vocação inata que os sexos apresentariam.

Sim, haveria tendências diferentes para uma ou outra ocupação. Claro que isso não é uma tábua rasa: há brilhantes engenheiras (e em minha família!) e enfermeiros dedicadíssimos, mas buscar uma distribuição igual nas ocupações entre sexos é, a meu ver, errado e perigoso.

O vídeo termina com uma conclusão interessante: num país igualitário como a Noruega, as vocações florescem livremente e cada indivíduo opta pelo que quer, pelo que lhe agrada.

Já num país menos igualitário, a discriminação pode desembocar numa pressão sobre os indivíduos, fazendo-os crer que “colaborariam mais com a causa” se escolhessem profissões associadas ao outro sexo.

Sobrevivemos e evoluímos darwinianamente para nos tornarmos o que somos. Fatores culturais são importantes e é vital sua revisão cuidadosa, mas isso não passa por ignorar a biologia.

Não creio sermos uma espécie estranha em que as opções independam de cromossomos e dos hormônios que agem sobre nós. Não vai aí nenhum juízo de valor, mas afirmação da diferença. A igualdade pressupõe tratamento equânime e que independe de nossas opções, não uma distribuição homogênea e igualitária delas.

Mulheres são mais da metade dos universitários. Seu nível médio de educação ultrapassou a dos homens há tempos. A luta deve ser pela abolição de quaisquer barreiras ou discriminação, mas a negação da biologia não faz parte desse cardápio.

Onde termina a biologia começa a cultura, que inclui história, ideologia, crença e dogma. Pode-se transformar radicalmente a cultura em poucas décadas. Não é caso da herança genética. Preocupa-me a crescente caudal dos que propõem ignorar a natureza e considerar apenas aspectos culturais.

Chesterton afirma ser fácil seguir a corrente: até um cachorro morto a segue. Ir contra ela, entretanto, requer vida. Só um ser vivo e com possibilidade de escolha consegue ir contra a corrente. A espécie humana está, felizmente, ainda viva.

segunda-feira, 29 de junho de 2015

O que há num nome?

Pizza.com é um nome de domínio que foi vendido por cerca de US$ 3 milhões em 2008. Outros custaram muito mais. Essa valorização explica em parte a corrida por novos TLD (Top Level Domain) genéricos que a Icann (Internet Corporation for Assigned Numbers and Names) disparou em 2011.

Na semana passada, foi realizado em Buenos Aires o encontro Icann 53. Como sabemos, a Icann ganhou a concorrência de privatização da Iana (Internet Assigned Numbers Authority), organização que cuidava dos recursos coordenados da Internet: distribuição dos endereços (números) IP, gestão da raiz de nomes da rede (como .br, .com, .org), além de ser repositório de documentos, parâmetros e definições técnicas.

Na origem da rede operavam apenas os TLDs .com, .net, .org, .edu, .gov, .mil e .int. Com sua expansão para além das fronteiras dos EUA, foram criados domínios de duas letras, que se referiam a territórios e códigos de país (ccTLD). Surgiram mais de 200, entre eles o .ar, .br, .za etc.

O registro sob todos os domínios era à época sem custo. Em 1995, os domínios .com, .net e .org passaram a ser administrados por uma empresa, a Network Solutions, e a ser cobrados. Também perderam a conotação de “norte-americanos” e consolidaram-se como “genéricos”, gTLDs, ou seja, não restritos a determinado país.
A concentração da operação desses três domínios genéricos em uma única empresa gerou tensões e atraiu muitos empreendedores para o negócio de operar domínios genéricos.

Assim, no cenário em que o Icann assume a Iana em 1998, estava subentendido que uma das metas seria a criação de mais domínios genéricos para tornar esse mercado menos concentrado. Sete domínios foram logo criados, mas passou-se tempo até que o Icann abrisse chamada a interessados, englobando mais de 1.900 propostas de nomes genéricos. Hoje, cerca de 600 deles já existem na raiz de nomes e começam lentamente a se disseminar pela Internet.

É isso bom ou mau para rede? Os que defendem o programa dirão que ele permite a criação de novos rótulos relacionados a locais geográficos, atividades, marcas etc. É o caso dos domínios .berlin, .club, .lgbt, .toyota etc. Os que não são favoráveis dirão que é apenas uma iniciativa comercial, tentando tirar proveito de nomes interessantes.

Um caso emblemático foi discutido na Icann 53: o TLD .sucks, que significa “algo desagradável, que aborrece e incomoda”. Os que defendem o .sucks dirão que é uma forma da comunidade expressar seu desagrado, criando um sítio sob nome do serviço, marca, pessoa que quer criticar.

Os que veem nele um “caça-níqueis” apontarão para o fato de que o .sucks cobra milhares de dólares para o registro de palavras que eles próprios avaliam como “interessantes”. E se alguém quiser se proteger, pode ser que tenha que comprar o próprio nome lá. Esse potencial de “chantagem” existe sempre que um novo domínio genérico é criado. É de se apoiar tal uso?

Como disse Shakespeare pela boca da gentil Julieta, afinal, qual o valor intrínseco de um rótulo? “Chamássemos a rosa de outro nome, teria ela ainda assim o mesmo doce perfume!”

segunda-feira, 15 de junho de 2015

Feijoada dietética

Hoje discute-se muito a validade de propostas como Internet.org. Seria uma boa ideia trazer à rede os que têm equipamento móvel mas não podem pagar pacotes de dados? Mesmo que esse acesso seja possível apenas a uma parte fechada e segregada da rede? Ou seria essa uma forma de violar neutralidade da rede em si, dando ao usuário uma visão restrita da Internet e fazendo-o pensar que se trata da rede toda? 

Queremos preservar as características essenciais da Internet. É nessa direção que o decálogo do CGI.br foi publicado em 2009 e em que o próprio Marco Civil seguiu. Duas dessas características são a possibilidade de livre inovação e a neutralidade dos protocolos da rede. Na Internet não só é difícil fazer profecias sobre o que surgirá, como nada do que é novo precisará de licença para “dar as caras” na rede: bastará que siga os padrões acordados. Poderá tornar-se um sucesso em poucos anos, ou cair num esquecimento impiedoso, dependendo de como a comunidade o receber.

Aplicativos e propostas surgem continuamente e a Internet acaba por, darwinianamente, selecionar os mais competitivos. Por outro lado, os mesmos protocolos que permitem a inovação sem barreiras leem os envelopes do que trafega, mas, sabiamente, ignoram o conteúdo. Não importa para a rede se um pacote carrega um importante trecho de mensagem, um pedaço de fotografia ou parte de uma música. E, além de não violar o conteúdo, não vetam origens e destinos da mensagens: é a neutralidade dos protocolos.

No Internet.org, nota-se um problema já no nome. “Internet.org” leva-nos a pensar que se trata da Internet em si, mas isso é falso. É um serviço que, ao tempo em que se propõe “grátis”, é também restrito. Claro que “grátis” nada é, mas esqueçamos isso por enquanto.

Imaginemos um restaurante que anuncia “feijoada grátis” a quem quiser. Vamos com nosso prato ao balcão e recebemos nele uma colherada de couve. “Feijoada é mais que isso”, dirão, aborrecidos, os que conhecem. Mas, mesmo esses não teriam motivo de decepção se o cartaz anunciasse “couve grátis”. E, para os que nunca houvessem provado da feijoada, poderia parecer que feijoada é algo parecido com um punhado de couve refogada... Concluimos que o nome de “Internet.org” não é apenas inadequado como pode gerar uma falsa percepção aos marinheiros de primeira viagem.

Independentemente do que achamos desse pedaço de couve fornecido, se aos bois fosse dado o nome correto, a razão de revolta seria menor. Afinal nada impede que existam serviços restritos e limitados na Internet, mas eles não se confundem com o “acesso à Internet”, que deve ser amplo, neutro e sem restrições.

Há, portanto, que respeitar ambos os princípios que aqui foram citados: deixar a livre experimentação na Internet sem levar ao engano usuários, fazendo passar a parte pelo todo e, ao mesmo tempo, manter o conceito do acesso à rede geral amplo e neutro. Quem quiser provar da couve, especialmente os que nunca provaram da feijoada, deveria saber que há mais do que couve na Internet. E que não venham a nos dizer que cuidam “do nosso bem” fornecendo-nos uma “feijoada dietética”!

segunda-feira, 25 de maio de 2015

Janela Indiscreta

Boa parte dos temas hoje em discussão sobre a Internet ganharam muita ênfase após as revelações de Edward Snowden sobre espionagem. E à Internet coube o papel de vilã principal no processo. Uma reflexão mais calma poderia nos levar a outra avaliação.

Espionar os outros é uma tendência imemorial em governos e órgãos de segurança. A tecnologia apenas deu ferramental mais eficiente à realização dos desígnios daqueles que querem saber de tudo e de todos.

Onde seria mais eficiente espionar? Claro que é onde a maioria frequenta ou passa. Colocam-se bem mais câmeras em estações de metrô e saguões movimentados, que em becos e vielas. A engenharia, que define o traçado das grandes rotas a partir dos interesses de tráfego, gera, necessariamente, pontos de concentração. Se quisermos ir de Bauru a Verona provavelmente passaremos por São Paulo e Roma. Um mapa de cabos submarinos mostra que praticamente toda a conectividade da America Latina vai aos Estados Unidos, antes de seguir para Europa, África ou Ásia.

Se alguém quer monitorar dados na infraestrutura de telecomunicações, o mais eficiente é fazê-lo num ponto de concentração e estará vendo tudo, de telefonia a TV além da Internet. Eis a primeira (e maior em volume) fonte explorável de informações. Se, ainda, uma lei local, der respaldo a esse tipo de "monitoramento" em nome de "prevenção a atividades terroristas", o cenário está armado. O pretexto para monitorar algo serve para monitorar tudo.

Outro ponto vulnerável é usar um meio coletivo. Equipamentos sem-fio, como celulares, falam pelo "ar": é como dois indivíduos conversarem numa sala em que há muito mais gente.

A menos que conversemos "em javanês", é provável que o diálogo seja monitorável. Claro que há meios de diminuir os riscos de terceiros interceptarem essa comunicação, mas ela é intrinsecamente aberta. Celulares são passíveis de monitoramento pelo simples fato de que sua conversa se dá pelo ar. Snowden também nos confirmou isso.

Os casos acima independem da Internet, mas ela também pode ser usada para violar a privacidade dos indivíduos. Redes sociais, correio eletrônico, dados armazenados em lugares indefinidos e inseguros na própria rede, são fragilidades que podem deixar nossas informações expostas e à revelia.

Há, por fim, formas capciosas, maliciosas, e mais difíceis de neutralizar. Nada nos garante que equipamentos e programas, que usamos diariamente, não se aproveitem do que sabem para alimentar bases de dados e interesses desconhecidos. Equipamentos há em que foram identificadas "portas ocultas" ou "janelas indiscretas" por onde alguém pode copiar dados. A desculpa canônica é que pode haver emergências que justifiquem um acesso privilegiado pelo fabricante ao equipamento. Apenas pelo fabricante? Ora, se há uma porta, alguém a abrirá, por mais guardada (ou não) que esteja a sua chave.

Criptografia para todos é o que parte da comunidade defende. Sim, mas, de novo, caberá ao usuário proteger-se de algo que sequer deveria ocorrer. Carregar mais um fardo para que, ao menos, lhe sobre alguma privacidade.

segunda-feira, 11 de maio de 2015

Presentes de Grego

Em novembro de 1988 um estudante da universidade de Cornell, nos EUA, Robert Morris, teve uma “ideia”: criar uma ferramenta para medir o tamanho da Internet, à época uma rede ainda pequena. Escreveu um programa que fazia duas coisas: descobria que outras máquinas estavam ligadas à sua, para ver se conseguia entrar nelas. Uma vez lá dentro, replicava-se em diversas cópias que seguiam o mesmo método de tentar entrar nas máquinas ligadas à recém-infectada.

Não sei se foi bem-sucedido em medir o tamanho da Internet de então, mas conseguiu sobrecarregar muitas máquinas (que não conseguiram rodar todos os clones do invasor) e entupiu de tal forma o “backbone” (“espinha dorsal” da rede) que causou uma “negação de serviço” geral. Três dias depois, finalmente o problema estava resolvido. O programa de Morris ficou conhecido como “o verme da Internet” e é o antepassado dos vermes da rede de hoje.

O que caracteriza um “verme” é que, por analogia aos que nos parasitam, é ser um programa auto-suficiente, um “ser vivo”. Ele se multiplica e tenta se propagar usando o que conhece da rede e de suas fraquezas. Não é a única (nem a mais comum) ameaça que temos hoje. Além dos vermes, há outros delinquentes à espreita na rede. Entre os mais comuns temos os vírus. Ao contrário dos vermes, os vírus não tem “vida autônoma”: precisam estar hospedados em outra estrutura que lhes dê suporte. Assim como os vírus da vida infectam os animais, os vírus da rede infectam programas, estruturas lógicas de apoio, memórias auxiliares, discos, etc.

É a gripe da rede. E se entramos em contato com alguém gripado, podemos ficar contaminados também.


Se o verme da Internet não tinha objetivos maldosos, o cenário piorou muito desde então: os atacantes de hoje visam destruir coisas, apagar informações, roubar dados, escravizar máquinas, derrubar sistemas. No caso dos vermes, a prevenção é a higiene que consiste em senhas mais fortes, programas sem vulnerabilidades. Quando se trata de viroses, o jeito é usar “vacinas anti-viróticas”. O virtual espelha o real.

Mas isso está longe de ser tudo. Homero também foi fonte de inspiração. Troia resistiu bravamente ao cerco dos gregos, mas caiu frente ao estratagema de Ulisses: um belo “presente” na forma de um cavalo, deixado às portas de Ílion. Os felizes troianos o levaram, ingenuamente, para dentro das defesas da cidade. Lá dentro e sem a proteções das muralhas, seu conteúdo, gregos, foi funesto à cidade.

Os que saíram do cavalo abriram as portas aos colegas que espreitavam de fora e Troia acabou saqueada e incendiada. Eis aí outra ideia “do mal”. Ora, que tal “embrulhar” num joguinho interessante, numa imagem atraente, numa tabela eletrônica, um programinha malicioso que, uma vez dentro de nossa máquina, “faz a festa” da forma como foi programado?

Todos esses são “presentes”, sejam de “grego” ou não. E a segurança é resultado da constante vigilância. Ao verme seguiu-se a criação do CERT/CC “pessoas a chamar quando coisas ruins acontecem” e temos nossa valente versão: http://cert.br. Mantenhamos nossa higiene, as vacinas em dia e não aceitemos presentes de estranhos. Pode sair caro.

segunda-feira, 27 de abril de 2015

O primeiro ano do Marco Civil da Internet

É aniversário da aprovação do Marco Civil e está em curso sua regulamentação.

Mesmo com tanto debate, alguns pontos podem não ter ficado claros. Aos que, por exemplo, dizem “mas veja, o MC existe há um ano e nada mudou”, responderia: ainda bem! Ele está cumprindo sua função de proteger a saúde da rede. Não veio tanto para melhorar algo, como para evitar que coisas piorassem, que a rede ficasse menos livre ou que a nossa privacidade ficasse ainda mais comprometida. E, também, para demarcar o “campo de jogo”, de direitos e deveres dos que atuam e empreendem. A Internet aberta não impõe barreiras de entrada a novas idéias e propostas.

Outro ponto muitas vezes mal compreendido é o que trata da guarda de registros de acesso. Não raro alguém lê essa guarda como “vigilantismo” ou “monitoração”, mas o objetivo é diverso. A Internet foi concebida como uma rede fim-a-fim, onde a interação entre origem e destino deve estar livre de interferências do meio. E para que isso ocorra, os participantes devem ter uma identificação única – o número IP – e usarem protocolos padrão. Assim, para usar a rede, é necessário ser reconhecido por ela em todas as ações que executa. E se não houver alguma restrição à coleta indiscriminada de dados, estaremos expostos. O MC, que será complementado com a Lei de Proteção de Dados Pessoais, impõe regras e restrições ao que pode ser coletado. E aqui a arte é equilibrar forças diversas: de um lado, os que tem sede dos dados dos usuários para fins comerciais, ou os que veem a rede como elemento de investigação de delitos; de outro os que prezam a anonimidade dos internautas e a proteção de sua navegação.

A versão em uso dos números IP é a 4, que tem 4 bilhões de endereços, claramente insuficiente e que teriam se esgotado há alguns anos se a rede não tivesse se “defendido”. Uma das maneiras de economizar números é “emprestá-los” a quem vai navegar e recolhê-los de volta: alocação dinâmica de IPs. É como se alugássemos um carro e o devolvêssemos ao final do percurso. A guarda de qual o IP alocado, e em que hora ele foi entregue e devolvido, é o cerne do “registro de acesso”. Isso não implica, de maneira alguma, na identificação positiva do usuário. Muitas vezes um IP pode ser entregue a alguém que participa de uma rede WiFi aberta e quem o recebeu é um participante genérico, e assim deve continuar a ser.

O MC pede a guarda de “registro de acesso” que consta apenas do IP cedido e da hora de uso. É um equilíbrio entre proteger a privacidade do indivíduo e de sua navegação da rede, e de ter alguma forma de verificar qual período em que um IP esteve ativo. Outro registro que se pede é o de acesso a aplicações comerciais de porte. Também nesse caso há apenas a guarda do número IP e do momento do acesso. E, cá entre nós, todas as aplicações comerciais de porte tendem a guardar bem mais que isso.

Em nenhum dos casos se guardarão conteúdos recebidos e enviados ou ações. Para isso, é obrigatória ordem judicial. Nada diferente do mundo da telefonia onde há registro dos números chamados e hora, mas não há a retenção de nenhum conteúdo da conversa, exceto com ordem judicial de monitoramento.

segunda-feira, 13 de abril de 2015

A negação do serviço

No Fausto, de Goethe, Mefistófeles aposta com Deus que vai ganhar a alma de Fausto e se autodefine como “aquele que sempre nega tudo”. É o diabo!

Uma das pragas que assolam hoje nosso mundinho das redes é o “ataque de negação de serviços”, conhecido como DDoS (Distributed Denial of Service). O objetivo desse ataque é fazer com que algum sítio ou algum serviço torne-se temporariamente inoperante ou inacessível. Não é o tema aqui discutir motivos que tentem justificar o ataque, mas vale a pena examinar que brechas e ferramentas os atacantes usam para consumá-lo.

Uma das formas clássicas e bem mais conhecidas é a dominação das máquinas de usuários incautos, infectadas com programas maliciosos. Sob controle de seu feitor, as máquinas escravas iniciam um ataque simultâneo à vítima (sítio ou serviço) até sufocá-lo de atividade fictícia impedindo-o de atender a perguntas legítimas. Uma espécie de “piquete eletrônico” usando máquinas-zumbis.

Há um complexo processo de “aliciar” o esquadrão de ataque que passa pela distribuição e instalação do programa malicioso que, por necessitar de um controle central, pode expor os mentores do ataque. E tudo o que é centralizado na Internet é frágil por construção.

Armas distribuídas e mais elaboradas surgiram. Por exemplo, redirecionar um tráfego caudaloso, tirando-o do seu leito normal e jogando-o contra a vítima. Melhor ainda se esse tráfego puder ser multiplicado. Que tal trocar o endereço de um destino de sucesso, por exemplo um sítio de compras, pelo de um sítio que se quer atacar? Ou levar o usuário a um sítio falso, cópia do original, para roubar dados e senha. Se conseguirmos enganar o “guia de endereços” da rede, podemos fazer com que parte do tráfego que se destina a um sitio seja direcionado a outro.

O DNS (Domain Name System) é a coleção de tabelas que traduz nomes para endereços (números). Uma “lista telefônica” da Internet. Se alguém quer “falar” com um sítio, envia o nome do sítio ao DNS esperando receber o número para completar a ligação. E se o DNS estiver comprometido e responder com um número falso, ligaremos erradamente, com eventuais consequências para o destinatário e para nós mesmos. Os DNS que têm autoridade sobre seu conteúdo são em geral muito seguros e sempre confiáveis.

Mas, há incontáveis cópias dinâmicas deles pela rede, justificadas para aumentar a eficiência do processo. Nossas últimas consultas são armazenadas em “caches” para reutilização em curto espaço e tempo. A integridade dessas sublistas dinâmicas é bem frágil. Há alguns anos temos uma segurança adicional, o DNSSEC – assinatura aposta à tradução para que sua confiança seja verificável – está sendo paulatinamente adicionado ao DNS. A assinatura deveria ser conferida por todos na cadeia, mas ainda demorará para que essa segurança se espalhe.

Há certamente outras formas de “negar serviço” e outras vulnerabilidades que Mefistófeles tenta explorar para conseguir a danação de Fausto. Esperemos, entretanto, que Mefisto perca mais essa aposta. E ele costuma perder!

===

segunda-feira, 30 de março de 2015

Regulamentar para preservar

Jacques Cousteau, famoso oceanógrafo, teria dito que "quando o oceano enfeitiça alguém, o prende em sua rede para sempre". E é assim o oceano da Internet, sem fronteiras, sem limites. Quem dele provou acaba enfeitiçado e passa também a ser responsável por preservá-lo como o encontrou.

Amanhã encerra-se o período que o Ministério da Justiça estabeleceu para ouvir a comunidade sobre a regulamentação do Marco Civil. Sancionado há quase um ano, é um exemplo único de lei que passou por um longo escrutínio e debates públicos que se estenderam por mais de cinco anos. Seu início está relacionado ao "decálogo" do CGI.br, de 2009, que, como o Marco Civil hoje, visa à defesa da Internet e a reafirmar e proteger seus conceitos e princípios.

Em abril de 2014 o Marco Civil foi sancionado, mas ficou algo ainda a ser regulamentado posteriormente em decreto.

Em que consistiria essa "regulamentação"? Não se trata de reescrever ou modificar por decreto o que já é lei. Há alguns pontos a complementar expressamente citados e outros aos que é importante trazer luz: reafirmar o que se pretendeu, diminuindo a possibilidade de leituras enviesadas por deconhecimento, ingenuidade ou malícia.

O que falta complementar é, por exemplo, a definição de eventuais exceções à neutralidade. O texto chama a essa discussão mas sabiamente define a priori que exceções só podem se amparar em "requisitos técnicos indispensáveis", ou "priorização de serviços de emergência". Ou seja, a neutralidade lá está, instituída, e essas exceções devem ser mínimas e bem definidas.
Outro ponto importante é que o escopo do Marco Civil é a Internet. Ele não substitui, mas complementa outras instâncias, tais como a proteção ao consumidor, a defesa econômica e o combate a condutas anticoncorrenciais, o estatuto do adolescente, a lei de propriedade intelectual e a tão aguardada e necessária lei de proteção de dados individuais. E com elas dialoga.

A Internet é uma estrutura complexa, sobre a qual rodam diversos serviços. Desde os abertos à rede, como o acesso à Internet provido a todos, como aplicações específicas, com acesso restrito e sobre os quais não há que se falar em neutralidade. A rede em si também não é uniforme. Há filtros em países e sítios que podem impedir nosso acesso aberto, da mesma forma que nós podemos impedir o acesso de alguém a nossa casa, mas a rua, como o oceano, deve ser livre e desobstruída. Quem provê acesso à rede geral deve repassar a seus usuários o que ele consegue ver de seu ponto de acesso à rede, sem nenhuma filtragem ou privilégio a destinos/serviços.

Finalmente, o Marco Civil define as responsabilidades dos segmentos e os direitos dos usuários. Em conjunto com a nova lei sobre privacidade de dados, também colocada em debate, há proteção a dados do usuário e limites claros sobre o que pode ou não pode ser coletado, obrigando o provedor de serviços a informar a todos qual sua política de aquisição e guarda de informações. Assim, o usuário pode decidir se quer ou não usar determinado serviço, com conhecimento prévio das condições propostas. E tenhamos uma livre navegação.

segunda-feira, 9 de março de 2015

Fósseis eletrônicos

Tudo começou com o micro de casa travado. Era o sistema operacional com a famosa e fatal "tela azul". "É a vida", pensei, e fui atrás do CD de instalação: não lia. Tentei outras versões, tentei um monte de vezes e... acabei destruindo o diretório do disco rígido. Bem, nada de muito inesperado nem de intratável: é só persistir. Que tal começar com um novo disco rígido? E é aí que a porca torce o rabo. Meu velho micro usa A negação do serviço

No Fausto, de Goethe, Mefistófeles aposta com Deus que vai ganhar a alma de Fausto e se autodefine como “aquele que sempre nega tudo”. É o diabo!

Uma das pragas que assolam hoje nosso mundinho das redes é o “ataque de negação de serviços”, conhecido como DDoS (Distributed Denial of Service). O objetivo desse ataque é fazer com que algum sítio ou algum serviço torne-se temporariamente inoperante ou inacessível. Não é o tema aqui discutir motivos que tentem justificar o ataque, mas vale a pena examinar que brechas e ferramentas os atacantes usam para consumá-lo.

Uma das formas clássicas e bem mais conhecidas é a dominação das máquinas de usuários incautos, infectadas com programas maliciosos. Sob controle de seu feitor, as máquinas escravas iniciam um ataque simultâneo à vítima (sítio ou serviço) até sufocá-lo de atividade fictícia impedindo-o de atender a perguntas legítimas. Uma espécie de “piquete eletrônico” usando máquinas-zumbis.

Há um complexo processo de “aliciar” o esquadrão de ataque que passa pela distribuição e instalação do programa malicioso que, por necessitar de um controle central, pode expor os mentores do ataque. E tudo o que é centralizado na internet é frágil por construção.

Armas distribuídas e mais elaboradas surgiram. Por exemplo, redirecionar um tráfego caudaloso, tirando-o do seu leito normal e jogando-o contra a vítima. Melhor ainda se esse tráfego puder ser multiplicado. Que tal trocar o endereço de um destino de sucesso, por exemplo um sítio de compras, pelo de um sítio que se quer atacar? Ou levar o usuário a um sítio falso, cópia do original, para roubar dados e senha. Se conseguirmos enganar o “guia de endereços” da rede, podemos fazer com que parte do tráfego que se destina a um sitio seja direcionado a outro.

O DNS (Domain Name System) é a coleção de tabelas que traduz nomes para endereços (números). Uma “lista telefônica” da internet. Se alguém quer “falar” com um sítio, envia o nome do sítio ao DNS esperando receber o número para completar a ligação. E se o DNS estiver comprometido e responder com um número falso, ligaremos erradamente, com eventuais consequências para o destinatário e para nós mesmos. Os DNS que têm autoridade sobre seu conteúdo são em geral muito seguros e sempre confiáveis.

Mas, há incontáveis cópias dinâmicas deles pela rede, justificadas para aumentar a eficiência do processo. Nossas últimas consultas são armazenadas em “caches” para reutilização em curto espaço e tempo. A integridade dessas sublistas dinâmicas é bem frágil. Há alguns anos temos uma segurança adicional, o DNSSEC – assinatura aposta à tradução para que sua confiança seja verificável – está sendo paulatinamente adicionado ao DNS. A assinatura deveria ser conferida por todos na cadeia, mas ainda demorará para que essa segurança se espalhe.

Há certamente outras formas de “negar serviço” e outras vulnerabilidades que Mefistófeles tenta explorar para conseguir a danação de Fausto. Esperemos, entretanto, que Mefisto perca mais essa aposta. E ele costuma perder!discos IDE e tem "floppy". Não é fácil achar discos IDE e menos ainda recuperar o becape (claro, feito há mais de ano). Eis aí todos os ingredientes para uma dor de cabeça...

Num artigo recém-publicado do Vint Cerf, ele recomenda que imprimamos em papel as fotos de que mais gostamos, para garantir que o acesso a elas continue possível. É um conselho precioso! Quantas fitas cassete temos que não conseguiremos mais ler? Vídeos gravados em VHS? Eu tenho algumas óperas gravadas em discos laser de 12 polegadas, duas faces. Do tamanho dos velhos elepês, tem boa imagem, ótimo som mas... e o equipamento para ler? Quem conserta? Ainda suporta conserto?

Quando saí da USP gravei arquivos pessoais em fitas de rolo digitais, 10 polegadas, 12 trilhas. Servem no máximo para mostrar a alunos de história da computação...

Estamos cercados de fósseis eletrônicos e cremos que ainda funcionam e que podem ser usados. Tente ler sua coleção de discos "zip", ou mesmo os "floppies". Certamente não será fácil. Já as velhas listagens, naqueles formulários contínuos zebrados, se não estiverem comidas pelas traças ainda permitem leitura... sim, os egípcios, os gregos, os monges (e o Vint) tinham razão: papel dura, e o antigo, especialmente se for de pele de carneiro ou de trapos de pano, dura ainda mais.

O jeito é manter um equipamento que ainda leia os velhos meios. Por exemplo, um toca-discos, com cápsula magnética de qualidade ainda lê bem os elepês. Mas não basta ler: preciso de um amplificador que aceite a saída que o toca-discos gera. Resolver a forma de manter e recuperar o que está gravado ainda não é nos dá a garantia de aceder à informação.

O Stolfi, amigo meu e pesquisador de computação de primeira água, envolve-se com um caso mais enigmático: o manuscrito Voynich. É um documento medieval com mais de 200 páginas em pergaminho, cheio de belos desenhos da natureza e palavras que... ninguém consegue ler. Ao contrário dos hieróglifos, ninguém conseguiu decifrar o manuscrito Voynich, nem mesmo alguém da estatura de Jorge Stolfi! E isso acontece também com programas escritos em linguagens que não mais compilam, para rodar em sistemas operacionais que não mais existem, usando computadores que só se acham em depósitos.

Se queremos preservar o que temos e o seu uso, o trabalho não é pequeno. Afinal, Aristóteles sobreviveu a 2.500 anos porque preservamos o conhecimento do grego antigo e porque os monges, séculos após séculos, recopiaram o material em suporte confiável. Se queremos ter segurança é preciso empenho, paciência e tempo. O sábio Millôr é quem tem a palavra final: "o preço da segurança é a eterna chateação".

segunda-feira, 23 de fevereiro de 2015

As camadas da internet

Cibernética, palavra de raiz grega, tem o sentido de governança. Já que falamos de redes, talvez cibernética seja mais adequada a esse conceito difuso: diríamos cibernética da Internet quando discutirmos sua governança e, para isso, há as pistas que a própria Internet fornece: ela tem contextos e camadas. A cibernética também os terá.

A camada mais profunda é a estrutura física e está afeita às telecomunicações. Internet chega até nós via linhas telefônicas, rádio, cabos coaxiais e ópticos, satélites, etc. E nesse nível a cibernética anda bem definida há tempo. Usa recursos públicos, às vezes escassos. Há concessões para exploração do serviço, regras técnicas de alocação de recursos, normas jurídicas a serem seguidas. No Brasil, o órgão regulador das telecomunicações é a Anatel.

Sobre essa camada, diversos conjuntos de programas implementam famílias de protocolos, há mais de 40 anos, para que computadores (e humanos) possam conversar. De todas as alternativas, o TCP/IP baseado em padrões e processos abertos foi a solução eleita pela “comunidade Internet”: pesquisadores, técnicos, terceiro setor, empresas e governos.

Quanto à sua cibernética, essa camada vale-se muito dos que debatem e dos que têm interesse em implementar os protocolos. Todos podemos participar dessa discussão, mas a necessidade de conhecimentos específicos torna-a mais adaptada à comunidade técnica/acadêmica. Aqui não se destacam o uso de recursos públicos ou regulação: a solução que prevalece é a que, ungida pelo consenso, mostra-se tecnicamente sólida, estável, confiável e permite o crescimento da rede.

Chega-se agora aos níveis de interação, de geração e consumo ilimitados de conteúdo, onde os atores, humanos ou máquinas, enviam e recebem informações entre si na gigantesca matriz onde todos estão ligados a tudo. É o nível mais complexo e desafiador. A Internet permitiu que todos pudessem expressar suas ideias e convicções, além de executar transações pela rede num ambiente global, ignorando fronteiras nacionais.

Entretanto note-se que legislações nacionais raramente coincidem: a definição do é “legal” ou “permitido” varia de um país a outro, mas a rede é global, desafiando-nos a prover coexistência, preservar a liberdade e os direitos individuais, combater os ilícitos, etc.

Trata-se de um complexo e colorido mosaico onde as peças nem sempre se encaixam, onde valores locais e globais podem conflitar. Aqui cibernética é a arte de harmonizar as diferenças e preservar o convívio numa rede única, não fracionada: preservar a autonomia dos componentes do mosaico sem que ele se estilhace.

Trata-se assim de promover e estimular o diálogo entre os que têm interesse nessa rede única, estável, socialmente útil, e também disruptiva e revolucionária.

Fóruns nacionais como o “Observatório da Internet”, mantido pelo CGI, e internacionais como o IGF são espaços para defender a rede e seus princípios. E podemos nos orgulhar que o Brasil é visto como protagonista nesse tema: aprovamos há um ano o Marco Civil e estamos tratando de proteção de dados individuais. Que tenhamos persistência e sorte no caminho.

segunda-feira, 9 de fevereiro de 2015

O Marco Civil não é a cura de todos os males

Esculápio, o deus da Medicina, teve duas filhas: Higia ("saúde", de onde vem "higiene") e Panaceia, "a que tudo cura".

O Marco Civil está em vigor há quase um ano. Há, entretanto, pontos a esclarecer, especificar ou, até, regulamentar. Essa complementação será feita por decreto mas, para isso, os diversos segmentos da sociedade são chamados a contribuir com idéias e sugestões.

Em "neutralidade da rede", por exemplo, há espaço para a definição de possíveis exceções a ela. Para isso, o CGI (Comitê Gestor da Internet) e Anatel (Agência Nacional de Telecomunicações) serão ouvidos. Mas antes de procurar exceções, temos que voltar à essência do que estamos tratando. Um de meus temores pessoais, por exemplo, é que se tente usar o Marco Civil como uma panaceia para todos os males que nos afligem. Nunca é demais lembrar que ele surgiu para, mais do que "curar males", evitar que surjam. Uma espécie de vacina para manter a saúde da Internet.

Não espere do Marco Civil que resolva o problema da baixa inclusão na rede, que combata desequilíbrios econômicos, que promova o uso competitivo e socialmente adequado da Internet. Para isso há leis e organismos específicos, que existem antes do Marco Civil e que agora atuarão em sinergia com ele, cada qual em sua esfera.

O que se busca com a neutralidade, então? A meu ver, queremos que a experiência total de rede esteja disponível a todos. Que se possa provar de tudo, como num imenso bufê, porque é dessa exposição que deriva o crescimento da rede, o surgimento de novos aplicativos, o ativismo da comunidade.

A forma com que se chega à rede é um dos complicadores dessa discussão e afeta nossa experiência. Ligados de forma perene, em casa ou no trabalho, teremos disponível uma "capacidade", uma bitola de cano que nos liga ao manancial da Internet. Mas se a estivermos usando de forma móvel, via telefone, o que temos não é "bitola de cano", mas "tamanho de balde": a franquia.

De qualquer forma, seja no acesso fixo, seja no móvel, a neutralidade defende que nenhum destino nos seja vedado, nenhuma aplicação restringida ou tecnicamente privilegiada. A rede é rica e nela há serviços pagos e serviços grátis, mas esse não pode ser critério que privilegie ou obste tecnicamente um serviço. Se eu contrato uma franquia de "x" gigabytes, devo poder usá-la como quiser, até o último byte. Pode ser que alguns serviços, devido a acordos comerciais, não gastem minha franquia, e isso pode ter efeitos em áreas como a de competição ou a econômica mas, em meu entendimento, se o meu livre arbítrio em usar o que contratei estiver preservado, e se os "pacotes de dados" não forem priorizados, não perco neutralidade com isso. Penso, assim, que a discussão sobre bytes que gastam a franquia e outros que não gastam, cabe dentro de uma rede que não restringe o arbítrio do usuário, tecnicamente neutra. Poderia isso deformar o cenário competitivo e econômico? Pode ser.

Mesmo assim, não é missão do Marco Civil tratar desse aspecto. Se o sobrecarregarmos com nossos próprios projetos, poderá ser ineficiente para cuidar de sua missão específica! O Marco Civil serve muito mais a Higia do que a Panaceia.

segunda-feira, 26 de janeiro de 2015

Oba! Temos um segundo a mais em 2015

Os relógios atômicos, de césio, de rubidio, de são muito precisos. Muito mesmo. Mais precisos do que os eventos a que eles visam medir no nosso dia a dia. Até mais precisos do que o necessário... Claro, nada impede que meçamos a espessura de um fio de cabelo, ou de um tijolo, usando um micrômetro.  Ao buscarmos medir o tempo de forma cada vez mais acurada, acabamos por construir um instrumento mais preciso do que boa parte daquilo que objetivamos medir, por exemplo, a duração exata de um dia terrestre. Com a insensível crueza da acuidade do relógio atômico nota-se que a rotação da Terra tem desacelerado, de forma muito lenta mas mensurável, tornando os dias ligeiramente maiores.

De tempos em tempos há que somar 1 segundo aos 86.400 segundos que cada "dia padrão" tem. É importante que as horas do dia não "escorreguem", que o meio-dia seja, de fato, o momento do sol a pino e, por isso, essa diferença deve ser compensada. Daí a necessidade da introdução eventual do "leap second", o "segundo extra".

Certamente esse segundo a mais não seria perceptível em nossa vida comum, nas prosaicas atividades humanas, mas a coisa muda muito quando falamos de informática, de computadores, de satélites, do sincronismo mundial.

Um segundo é uma piscada para nós, mas pode ser uma eternidade para um processador digital. Um microprocessador corriqueiro que use um relógio interno de 3GHz poderia, por exemplo, executar bilhões de instruções nesse segundo. Pior que isso, se esse segundo adicional não for adequadamente tratado, há o forte risco de problemas: uma ação de um processador poderia durar zero "tiques" de relógio interno ou, mesmo, durar um tempo "negativo". E, como todos sabemos, não é necessário muito para que coisas travem, programas desandem, sistemas operacionais congelem.

Assim, em 30 de junho de 2015, para atendermos ao sincronismo terrestre, exatamente às 21 horas teremos que esperar por um segundo a mais.

Em ocorrências anteriores da inserção do "segundo extra", em 2012 e 2008, alguns problemas com máquinas e sistemas foram descritos. Não é o fim do mundo, nem um novo "bug do milênio", mas é importante dedicar tempo e atenção ao evento, para que os incidentes não se repitam em 2015.

A notícia boa é que hoje, com tudo e todos ligados à rede, é mais fácil (e mais importante!) obter sincronização entre os relógios dos equipamentos eletrônicos, tanto para uma referência adequada de eventos e ocorrências, quanto para mater o ritmo.

O IETF (Internet Engineering Task Force) trabalhou nesse sentido. Um protocolo foi proposto, discutido e aceito para que a sincronização dos equipamentos possa ser feita automaticamente pela própria rede: o NTP (Network Time Protocol) tem uns 30 anos de existência e retrabalho desde o RFC 958 (1985) até a versão mais atual, o RFC 5905 (2010).

Quem tiver interesse em instalar NTP em seu computador (muito recomendável!) pode olhar no sitio ntp.br onde há extensa documentação em português.

De resto, "... nada pode lutar contra a foice do tempo" (Shakespeare, soneto 12).

segunda-feira, 12 de janeiro de 2015

IETF: A força-tarefa que organiza a rede

Está na hora da lista das boas resoluções para 2015 e vai aí uma sugestão: que tal participar de alguma reunião do IETF? São três por ano. A próxima (a 92ª) será em março, em Dallas, Texas. Para os técnicos, ir ao IETF pode equivaler a fazer o caminho para Santiago de Compostela. Há até um guia, The Tao of IETF, traduzido como O Livro do IETF e que explica a dinâmica e a etiqueta nas reuniões.

O IETF (força-tarefa de engenharia da Internet, na sigla em inglês), reúne milhares de voluntários que discutem e produzem documentos técnicos e padrões da rede. Trabalha-se com padrões abertos obtidos por consenso, disponíveis publicamente, de aceitação voluntária e livres de royalties. Regras claras que permitam um trabalho em conjunto na rede. Participam do IETF técnicos, pesquisadores, professores, estudantes e qualquer interessado.

Desde janeiro de 1986 produz RFCs (“request for comments”) das quais temos já quase 7.500. A grande maioria são apenas informativas, ou históricas, ou superadas por outras, mas todos os padrões que regem a Internet estão lá, rebatizados como STDs. A definição do TCP (protocolo de controle de transmissão, padrão usado para trâfego de dados na Internet) é a RFC 793, ou STD7 e há apenas 79 STDs.

Outra categoria é a das RFCs que se tornaram “melhores práticas comuns”: as BCPs. Há 193 BCPs hoje (inclusive com co-autoria de brasileiros, como a BCP 140, ou RFC 5358, de Frederico Neves, do Núcleo de Informação e Coordenação do Ponto BR, NIC.br).

Fui a reuniões do IETF nos anos 90, das quais guardo ótimas e gratas lembranças. Um dos motivos de não voltar a frequentá-las – à parte minha natural obsolescência e às outras atividades – tem a ver com o que o saudoso escritor Rubem Alves recomendava: se gostou muito de algum lugar, melhor não voltar a ele, mesmo porque não há como voltar: o que ele representou não existe mais. Sem exageros, foi divertido participar do IETF naquela época, e deve continuar a sê-lo hoje.

Uma presença constante era a do falecido Jonathan (Jon) Postel, que era ao mesmo tempo um fundamental pioneiro da Internet, e a personificação de uma instituição, a Iana (Internet Assigned Numbers Authority). Outros sempre presentes eram Vint Cerf, Bob Braden e Steve Crocker (autor da RFC 1). A RFC 1336, de 1992 é uma coleção de minibiografias dos participantes.

Os frequentadores típicos usavam camisetas, jeans e sandálias, além das mochilas e das longas melenas. Algo como um Woodstock tardio. A exceção era Vint Cerf, sempre de terno com colete. Mesmo ele acabou abrindo exceções: num IETF vestiu uma camiseta com os dizeres “IP everywhere”, que em inglês pode ter o duplo sentido de “IP em todos os lugares” e “eu urino em todos os lugares”.

Para reunir os interessados em discutir o TUBA (RFC 1347 – TCP and UDP with Bigger Addresses), um protocolo de 1992 e hoje abandonado, que substituiria o IPv4 em vias de esgotar, Ross Callon, seu proponente, percorria o recinto com um tocador de tuba. Já na camiseta do Postel lia-se “vivemos em tempos interessantes, e ainda temos muito a fazer…”. Mas essa história fica para uma próxima.