terça-feira, 4 de novembro de 2025

ICANN 84 e a Internet

Terminou há dias em Dublin a 84a reunião da ICANN, “Internet Corporation for Assigned Names and Numbers”. São tres reuniões por ano, com rodízio entre as regiões. ICANN entrou em cena em 1998 para gerenciar o espaço de nomes de domínio, e a distribuição de identificadores numéricos aos dispositivos conectados à Internet. Antes dela quem desempenhava esse papel era a IANA, que em 1989 delegou o .br ao time de redes brasileiro.

Por ser a reunião 84, vem à mente a obra de George Orwell “1984”, que descreve um mundo onde a linguagem, a memória e o próprio pensamento haviam sido manietados pelo poder. Tudo era monitorado, tudo era filtrado, tudo era redefinido. O “Ministério da Verdade” não buscava compreender a realidade, mas fabricá-la.
Estamos num momento em que a Internet — rede que nasceu da abertura, da colaboração e da confiança — começa a enfrentar dilemas que evocam ecos de “1984”. Claro que não é o mesmo cenário, mas há sinais que inquietam.

O crescimento da vigilância, travestindo-se de segurança ou eficiência; o poder algorítmico que decide o que devemos lembrar e o que esquecer; a fragmentação técnica e política da rede em feudos digitais; a erosão da privacidade por identificações compulsórias. E há ainda o risco maior: substituirmos a arquitetura aberta da Internet por sistemas de controle, por cibernética.

A Internet, como uma cidade, tem suas vielas, suas esquinas escuras, suas áreas de poder, suas praças de encontro e seus becos de confabulação, E, como as ruas da cidade, também sente a mão da ordem e do controle. O temor que se espalha é de que o sonho da Internet livre comece a se estreitar. Há quem queira murar, quem queira limpar os becos, apagar as paredes grafitadas.

Mas há também contrapesos que sustentam a esperança: a criptografia que protege o silêncio legítimo; a governança multissetorial que mantém viva a pluralidade; as leis de proteção de dados que afirmam o indivíduo; a educação digital que liberta pelo conhecimento; as tecnologias abertas que garantem verificabilidade e confiança.

Talvez Orwell não imaginasse que um eventual futuro “Grande Irmão” um dia usaria logotipos sorridentes, interfaces elegantes e políticas de privacidade que ninguém leria, mas ele pressentiu que o perigo viria da busca de conforto. Que aceitaríamos vigilância sob o nome de proteção. Benjamin Franklin já nos tinha admoestado de que o sacrifício da liberdade em nome da segurança pode nos levar a perder ambas. A Internet é um espelho da humanidade, e espelhos, sabemos, são frágeis. Mas é melhor um espelho trincado do que um vidro negro, opaco.

A liberdade digital não é um dado, um estado natural. É uma construção diária, persistente e coletiva. Termino lembrando uma antiga máxima, que poderia ser lema dos que teimam em resistir: “per angusta ad augusta” - por caminhos estreitos, às grandezas. Talvez o destino da rede, e da própria liberdade, seja este: seguir tropeçando pelos becos apertados da história, mas sem jamais deixar de caminhar.

===
https://www.estadao.com.br/link/demi-getschko/quais-as-semelhancas-entre-a-internet-atual-e-o-mundo-de-1984/




===
icann 84:
https://meetings.icann.org/en/meetings/icann84/?_gl=1*11xha3h*_gcl_au*MjA4NDkzMTU1My4xNzYyMjE3MjI5

https://icann84.sched.com/

===
Citação de Benjamin Franklin:
“They who can give up essential liberty to obtain a little temporary safety, deserve neither liberty nor safety.”
 
De Robert Heinlein:
“Secrecy is the keystone to all tyranny. Not force, but secrecy and censorship. When any government … undertakes to say to its subjects, ‘This you may not read, this you must not know,’ the end result is tyranny and oppression, no matter how holy the motives.”

===
E uma versão da crônica com ajuda do ChatGPT:

1984 revisitado — a alma encantadora da Internet

Há, por detrás dos cabos, dos protocolos e dos endereços IP, uma alma. Uma alma que pulsa entre máquinas, feita de vozes humanas e de silêncios luminosos. A Internet, como as ruas de outrora, tem suas vielas, suas esquinas escuras, suas praças de encontro e seus becos de murmúrio. E, como as ruas, também sofre os caprichos da ordem e do poder.
Outro dia terminou a ICANN84, essa assembleia onde o mundo, em sua versão digital, tenta ainda conversar antes de decidir, discutir antes de mandar. Mas o rumor que vinha das salas - e que atravessava os fios como um sussurro elétrico - era o de que o sonho da Internet livre começa a se estreitar.
Há quem queira murar, quem queira vigiar, quem queira limpar os becos e apagar as paredes grafitadas de opinião. Ah, como se as ideias tivessem medo da luz! Recordei, então, o velho Orwell, que em 1984 viu nascer um tempo de olhos vigilantes e palavras controladas. Talvez ele não imaginasse que o “Grande Irmão” um dia usaria logotipos sorridentes, interfaces elegantes e políticas de privacidade que ninguém lê. Mas ele pressentiu - oh, sim - que o perigo viria do conforto. E que um dia chamaríamos censura de “segurança”, e vigilância de “proteção”.
As nações erguem muros digitais, cada uma proclamando sua soberania de dados, seu firewall patriótico, seu domínio nacional.
A rede, essa que nasceu universal, começa a se fragmentar como um espelho que cai no chão: cada pedaço reflete um rosto diferente, uma verdade diferente, uma versão conveniente do real. O cidadão digital, cansado de ser número, começa a desconfiar do próprio reflexo.
E no entanto - ainda há ternura na rede.
Há o programador que insiste em abrir código, o ativista que defende a privacidade, o acadêmico que debate em praça pública, o gestor que acredita no multissetorialismo como antídoto contra o autoritarismo. Há luz nos servidores e esperança nos pacotes que cruzam oceanos.
A Internet é o espelho da humanidade - e espelhos, sabemos, são frágeis. Mas é melhor um espelho trincado do que um vidro negro, opaco, que nos devolve apenas o olhar do censor.
Termino lembrando uma máxima antiga, que bem poderia ser lema dos que teimam em resistir:
Per angusta ad augusta - “Por caminhos estreitos, às grandezas.”. Talvez o destino da rede, e da própria liberdade, seja este: seguir tropeçando pelos becos apertados da história, mas sem jamais deixar de caminhar.



terça-feira, 21 de outubro de 2025

Humanidades


Quem cunhou a palavra “cibernética” foi Norbert Wiener em 1948, num livro com o provocador subtítulo de “controle e comunicação no animal e na máquina”. A semântica da palavra é descrita pelo próprio Wiener: “derivei-a do grego ‘kybernetes’, ou ‘timoneiro’. É a mesma palavra grega de onde provem ‘governante’”. Assim, semanticamente, a raíz “ciber” está associado a controle e governo. “Cibernética” ficaria próximo de “governança”.

O trabalho de Wiener está também fortemente ligado à evolução da Inteligência Artificial. Em outra obra dele, “O Uso Humano de Seres Humanos”, de 1950/1954, há um conjunto de reflexões que ainda parecem muito atuais. O livro alerta que o ser humano está numa corrida entre o aprender e o risco de desaparecer. As novas tecnologias seriam “facas de dois gumes”: caberá aos humanos usá-las para o bem ou para a catástrofe.

Dois acontecimentos recentes reforçam esse pensamento crítico: há dias o governo da Albânia anunciou que terá agora uma “ministra virtual”, IA integrando o governo. Alegam os que defendem a ideia que, com IA, não haverá corrupção possível, ou nepotismo, e que a transparência dos atos será maior… Parece um caminho fácil, levando a uma solução falsa. Como o próprio Wiener diz na obra citada, “uma sociedade humana só será possível entre humanos”.

Um segundo ponto que pode ser significativo, é como abordamos hoje os riscos a que realmente estamos expostos no mundo das redes. Um dos pontos de destaque e discussão é como proteger crianças e adolescentes dos perigos que os espreitam. O caminho escolhido parece ser o de “sanitizar” o ambiente em que crianças e adolescentes vivem: limpá-lo das mazelas e dos riscos que ele certamente contem. É um objetivo voltado a “eliminar antecipadamente perigos”. Parece-me, entretanto, que não há como eliminar os perigos que há no mundo, da mesma forma que não há como tornar adequada para crianças uma rua movimentada, ou uma floresta segura para excursionistas. Há, sim, que se educar os tutores das crianças sobre os perigos que existem e as melhores formas de evitá-los. Há que se ensinar às crianças a contenção e a o uso de resursos seguros. E há, finalmente, que responsabilizar e punir os agentes reais que perpetram o abuso. Como diziam os antigos, quem brinca com fogo se queima, e não há como torná-lo seguro para crianças. A única forma segura é mantê-las longe do fogo, explicar que ele sempre queimará, e punir quem as expuser propositadamente ao dano. Ou seja, para as crianças, tutela e ensino. Para os adultos, mais educação e letramento digital, e menos tutela que embota o senso crítico.

Talvez possamos evitar, com isso, o que outra publicação recente - a “AI 2027” - traz de assustador: no ritmo em que estamos, se não atentarmos ao rumo tomado, a humanidade corre o risco de se extinguir em poucos anos. Esperemos que esse seja um simples alerta, superável por uma tomada de consciência em tempo hábil. Voltando ao livro do Wiener, ele alerta que “qualquer uso do ser humano, em que ele é menos demandado, ou a ele é atribuido menos do que sua plena potencialidade preveja, torna-se uma degradação e um desperdício”.

===
https://www.estadao.com.br/link/demi-getschko/na-era-digital-e-preciso-mais-educacao-e-letramento-digital-e-menos-tutela/

===
o livro do Norbert Wiener:



Hence "Cybernetics," which I derived from the Greekword kubernetes, or "steersman,'* the same Greek wordfrom which we eventually derive our word "governor."

Capítulo 9, “A primeira e a segunda revolução industrial” - segunda edição. 
Let us remember that the automatic machine, whatever we think of any feehngs it may have or may not have, is the precise economic equivalent of slave labor. Any labor which competes with slave labor must accept the economic conditions of slave labor. It is perfectly clear that this will produce an unemployment situation, in comparison with which the present recession and even the depression of the thirties will seem a pleasant joke. This depression will ruin many industries—possibly even the industries which have taken advantage of the new potentialities. However, there is nothing in the industrial tradition which forbids an industrialist to make a sure and quick profit, and to get out before the crash touches him personally. Thus the new industrial revolution is a two-edgeds word. It may be used for the benefit of humanity, but only if humanity survives long enough to enter a period in which such a benefit is possible. It may also be used to destroy humanity, and if it is not used inteligently it can go very far in that direction. There are, however, hopeful signs on the horizon. Since the publication of the first edition of this book, I have participated in two big meetings with representatives of business management, and I have been delighted to see that awareness on the part of a great many of those present of the social dangers of our new technology and the social obligations of those responsible for management to see that the new modalities are used for the benefit of man, for increasing his leisure and enriching his spiritual life, rather than merely for profits and the worship of the machine as a new brazen calf. There are many dangers still ahead, but the roots of good will are there, and I do not feel as thoroughly pessimistic as I did at the time of the publication of the first edition of this book.

https://www.goodreads.com/work/quotes/148587-the-human-use-of-human-beings-cybernetics-and-society

Any use of a human being in which less is demanded of him and less is attributed to him than his full status is a degradation and a waste.”

terça-feira, 7 de outubro de 2025

Ser ou não ser?

Há peças imortais que precisam ser revisitadas de tempos em tempos. São como camaleões: adaptam-se à época da releitura, revelando nuances diferentes das que haviam sido notadas pelas gerações anteriores. Um exemplo disso é o Hamlet, de Shakespeare (aliás, num texto interessante do dia 4 passado, Ted Gioia explora uma simetria bem intrigante: a relação entre o comportamento do príncipe da Dinamarca e a atual “geração Z”). Aproveito para tentar outro paralelo, talvez simplório, entre Hamlet e a IA.

Logo no começo há a aparição do fantasma do pai de Hamlet que, ao contar como foi assassinado, pede vingança. É o motivante central da peça. Hamlet se pergunta se a visão é real, ou uma tentação demoniaca. Hoje temos uma dúvida recorrente quando recebemos vídeos que podem ser “deep fakes”, mas são verossíveis, contam algo possível e, até, propõem ação. Há verdade na “voz da máquina”? Saberemos julgar? Agiremos por convicção ou convencidos por ela?

Hamlet assume que buscará vingar a morte do paí, para a qual a própria mãe teria colaborado, casando-se depois com o tio usurpador. E, nessa busca de vingança, arquiteta um plano, um “algoritmo”, para tentar fazer com que os culpados se revelem: monta uma peça, a “ratoeira”, em que encena, à vista de todos, os detalhes do envenenamento do pai, mas sem citá-lo. Ao final, a clara perturbação causada nos suspeitos mostra que o fantasma do pai transmitiu verdade. Sim! A IA pode dar palpite certo!

Indo ao clímax da peça, no famoso solilóquio “ser ou não ser”, Hamlet tem que decidir sobre vida ou morte (suicídio), ação ou omissão, e em ambos os casos há o temor de efeitos futuros muito ruins. A analogia aqui é dupla: se devemos ou não usar a IA em nossas decisões e, na discussão sobre regulação, qual a medida certa do remédio. Na peça, a decisão por agir gerará grande destruição. Mortes acidentais, algumas até por desgosto. O amor e a inocência perdem-se em meio ao caos e Ofélia, sua amada, enlouquece e morre numa espécie de “suicídio poético”, deixando-se afogar por achar que Hamlet estaria louco (aliás ele, acidentalmente, matara o pai de Ofélia). Não faltam exemplos de pessoas que optaram por solução drástica, após longas conversas com IA. Na era das máquinas, da vulnerabilidade emocional, da solidão, da influência da IA e das redes sociais, quem protegerá a empatia?

Finalmente, rememorando a morte do bobo da corte Yorick com sua caveira na mão, Hamlet conclui que a morte nivelará tudo. A dúvida do “ser ou não ser” será resolvida ao fim. Se trocarmos a caveira por um iphone, teremos o nivelamento atual.

A tragédia da consciência diante da incerteza, termina com mais violência e traição: veneno oculto na espada de Laertes e na taça da vitória. Acabam mortos, tanto os que urdiam a trama, quanto o próprio Hamlet. Eis aí outro ponto de alerta: o fantasma, os algoritmos, a armação, os venenos, acabam com a família reinante em Elsinore. As últimas palavras de Hamlet são para o amigo Horácio, e poderiam ser um recado amargo para o futuro da voz humana: “o resto é silêncio”.

===
https://www.estadao.com.br/link/demi-getschko/ser-ou-nao-ser-shakespeare-ajuda-a-explicar-alguns-dos-dilemas-atuais-da-inteligencia-artificial/

===
O artigo citado, do Ted Gioia
https://www.honest-broker.com/p/hamlet-is-the-gen-z-story-we-need

===
Hamlet:
https://pt.wikipedia.org/wiki/Hamlet




===

terça-feira, 23 de setembro de 2025

O bit do mal

Minha avó, quando via algo inesperado resultante de alguma ação mal pensada, citava um aforisma grego: “lá onde não se plantou, é lá mesmo que algo acaba brotando”. Isso me veio à mente quase setenta anos depois, quando vemos uma plêiade de boas intenções, que visam a uma “Internet melhor”, mas podem gerar um cenário sombrio e pobre. É muito difícil moldar o ambiente sem fronteiras que é a Internet, e leis locais tendem a falhar. É mais sábio atacar os casos específicos, punindo os agentes final e criando entendimento e consciência crítica quanto à prevenção de riscos no ambiente virtual,

Para ilustrar efeitos inesperados, imaginemos que algum eficiente mecanismo de bloqueio impeça o acesso a grandes porções da rede, Vamos nos abster, a priori, de discutir o mérito, e se isso é tecnicamente viável. O fato é que, ao poderemos acessar apenas pedaços “liberados e seguros” da rede, aquela Internet distribuída e neutra, passará a estar cada vez mais concentrada em agregados. Mas, por outro lado, as poderosas IAs continuarão a mapear a rede toda, sem limites. Teremos acesso “mediado pelas IAs” ao que não podemos mais aceder diretamente: mais poder às grandes empresas de tecnologia que, para o “nosso bem”, tutelarão a navegação,

No cerne da Internet há um conjunto de documentos, os RFCs (Request for Comments) que definem padrões, normas e boas práticas. Desde 1969, quando o primeiro RFC foi publicado, quase 10 mil já foram criados, em vasta gama de temas, desde padrões técnicos básicos, até informes históricos, experimentais e, mesmo, brincadeiras. Entre essas, há os RFCs de 1º de abril que, sob o formato técnico, trazem humor e críticas mordazes a ideias simplistas ou problemáticas, mesmo que bem-intencionadas - “ridendo castigat mores”. Assim, em 2003, Steve Bellovin, especialista em segurança e padrões da Internet, criou o RFC 3514. Economizando sempre o espaço nos pacotes de dados a transmitir, ele localizou um bit disponível. O rebatizado “evil bit” (bit do mal) indicaria se o pacote em si era ou não “malicioso”. Quaquer equipamento que recebesse um pacote com o “bit do mal” ligado, deveria descartá-lo em nome da segurança. O RFC 3514 ridicularizava “soluções mágicas” na rede.

O humor do RFC 3514 carrega uma reflexão que ressoa ainda mais em 2025, 22 anos após sua publicação. O que era uma sátira podia tornar-se um alerta profético. Teremos um bit para dizer o que é verdade ou mentira? Outro para sinalizar se o pacote é adequando a crianças? E isso em nível global, internacional? E essa “solução” parece querer que repassemos nossos dados biométricos a cada passo, provando que somos adultos. Tenho sérias dúvidas se isso protegerá crianças, mas tenho zero dúvidas que ameaçará o que nos restou de privacidade. Esse tipo de “solução” acabar como o “bit do mal”: simplista e ineficaz, e gerando, com nossos dados, grandes bases vulneráveis. H.L.Mencken, autor espirituoso e satírico, tinha um dito famoso: “Para cada problema complexo existe uma resposta clara, simples e... errada!”


===
https://www.estadao.com.br/link/demi-getschko/sera-que-poderiamos-identificar-conteudo-danoso-na-internet-com-o-bit-do-mal/
===

===
O RFC 3514:
Abstract

   Firewalls, packet filters, intrusion detection systems, and the like
   often have difficulty distinguishing between packets that have
   malicious intent and those that are merely unusual.  We define a
   security flag in the IPv4 header as a means of distinguishing the two
   cases.

1. Introduction

   Firewalls [CBR03], packet filters, intrusion detection systems, and
   the like often have difficulty distinguishing between packets that
   have malicious intent and those that are merely unusual.  The problem
   is that making such determinations is hard.  To solve this problem,
   we define a security flag, known as the "evil" bit, in the IPv4
   [RFC791] header.  Benign packets have this bit set to 0; those that
   are used for an attack will have the bit set to 1.
2. Syntax

   The high-order bit of the IP fragment offset field is the only unused
   bit in the IP header.  Accordingly, the selection of the bit position
   is not left to IANA.
=
==
https://en.wikipedia.org/wiki/Evil_bit
The evil bit has become a synonym for all attempts to seek simple
technical solutions for difficult human social problems which require
the willing participation of malicious actors, in particular efforts
to implement Internet censorship using simple technical solutions.
===

H.L Mencken:
https://en.wikipedia.org/wiki/H._L._Mencken
“For every complex problem there is an answer that is clear, simple, and wrong.”



terça-feira, 9 de setembro de 2025

Gurizada tardia

Proteger as crianças de riscos decorrentes de sua exposição à Internet foi o tema principal nos últimos dias. Sob o neologismo “adultização de crianças” discutem-se que medidas sensatas e tecnicamente viáveis evitariam os riscos inerentes a um ambiente tão diverso (e, para crianças, inóspito) como a Internet.

Há um contraponto, não menos preocupante… Cada vez mais adultos terceirizam a solução de seus problemas e repassam suas angústias, não como dantes, a amigos e colegas, mas a desconhecidos na rede e… a ferramentas de IA, cada vez mais presentes e poderosas. Como era de se esperar há, não raro, efeitos colaterais ruins. É comum notícias sobre indivíduos que deterioraram a saúde ao seguir conselhos que receberam da IA. E há e os que desenvolveram quadros psicóticos ou tiveram perdas financeiras pelo mesmo tipo de interação. Não é um dano exclusivo da IA, visto que o mesmo efeito deletério poderia ser obtido em conversas com amigos e aconselhadores, mas é especialmente importante ter cautela com conselhos, receitas e suporte gerado pelo interlocutor artificial.

Não se trata de olhar para a IA como algo ruim ou apocalíptico, porque é indubitável que aporta facilidades e recursos que antes nos custariam muito tempo de pesquisa e consulta. Mas não podemos abdicar dos riscos e reponsabilidades que assumimos ao tomar uma decisão, nem do nosso senso crítico. Se tropeçarmos ao andar num pátio, podemos torcer o pé, mas se tropeçamos na beira de um abismo e nele despencarmos, a culpa não seria da pedra que nos causou o tropicão.

De alguma forma, o que acontece hoje com parte dos adultos é a contraparte do que nos preocupa com as crianças: uma espécie de “infantilização” dos crescidos. Estamos desenvolvendo uma “casca” muito fina e frágil, e nos sentimos ofendidos e magoados por observações e comentários que seriam perfeitamente assimiláveis há poucos anos. Talvez seja uma constante busca de tutela e proteção, ou de ter um álibi para os erros que cometemos. Fiquei ruim de saúde? Ah, foi a IA que consultei e me deu más sugestões… Estou com os nervos em frangalhos? A culpa é que a IA não entendeu meus problemas e acabou por acirrá-los. Apliquei mal as finanças? Claro que a culpa foi do orientador digital, que indicou o fundo errado. E assim seguimos, não assumindo como erradas, escolhas que, afinal, são nossas. buscando aliviar nossa consciência. Se filosofarmos com um martelo, como no livro de Nietzsche, e acertarmos nossos dedos com ele, certamente o martelo não será o culpado. Um estranho e novo equilíbrio parece se apresentar: crianças atuando (indevidamente) como adultos, e adultos buscando tutela que os proteja das proprias decisões, ou assumindo o comportamento de “rebanho”. Como em Zaratustra, o indivíduo sempre teve de lutar para manter sua individualidade,

Consultar aconselhadores humanos ou digitais é uma ótima pedida, mas acreditar automaticamente no que vem deles é faltar senso crítico, apanágio da idade adulta. Quem não julga o que escuta permanece agindo como criança.

Sobre o valor de duvidar, há outra frase de Nietzsche: “não é a dúvida que nos deixa loucos, mas a certeza”.

===

===
https://www.estadao.com.br/link/demi-getschko/adultos-vivem-era-da-infantilizacao-para-fugir-de-suas-responsabilidades/

===
https://pt.wikipedia.org/wiki/Assim_Falou_Zaratustra
https://pt.wikipedia.org/wiki/Crep%C3%BAsculo_dos_%C3%8Ddolos

===


terça-feira, 26 de agosto de 2025

Há Monstros

Há poucos dias passou na Câmara dos Deputados o PL 2628 que visa à proteção de crianças e adolescentes. É importante termos leis adicionais, que estabeleçam cuidado ainda mais efetivo que o já garantido pelo Estatuto da Criança e do Adolescente e, especialmente, que gerem formas de combate e punião aos que disseminam crimes desse jaez, sejam indivíduos, operadores de algoritmos ou plataformas, Mas (… e sempre há um “mas” aqui), essas medidas têm que levar em conta características do meio digital, da Internet ubíqua e neutra, para não se criem novos problemas enquanto se combatem os existentes.

Por exemplo, a proposta de que qualquer serviço na rede verifique a idade de seus usuários, gera um enorme risco de privacidade. Não duvido que surgirão “serviços” cujo objetivo único será colecionar nossos dados, e não haverá LGPD que dê conta. Na Inglaterra hoje, onde há uma resolução equivalente, viu-se maciça migração de usuários que, por não aceitarem repassar seus dados pessoais, voltaranm-se ao uso de navegadores que garantam a privacidade, como Tor, e serviços de VPN. O louvável propósito da normativa está muito longe de ser atingido.

Outro risco de “o tiro sair pela culatra" é que, se implementada a verificação de usuários proposta no PL2628, apenas grandes plataformas conseguam (fácil… e alegremente) atendê-la . Pequenos e médios serviços podem acabar bloqueados, e estaremos cada vez mais longe da neutralidade e da distribuição, rumo a algo que parecerá um aleijão de Internet, contendo pouca variedade de serviços concentrados.

É crucial ampliar o diálogo com a comunidade técnica para encontrar formas efetivas de proteger nossas crianças e adolescentes. Algo que pode ser aventado seria, agindo diretamente nos provedores de acesso, impedir, de acordo com a faixa etária, o acesso à rede. Ou, ainda, filtrar tecnicamente para que apenas endereços adequados a crianças sejam acessíveis. Ao invés de bloquearmos tudo o que possa ser nocivo, é mais sensato e factível separar um subconjunto liberado por idade, em listas que podem ser mantidas adequadamente atualizadas.

No que tange ao conceito de Internet em si e às funções de seus diversos componentes, o PL desvia-se da realidade. Querer incluir servidores de DNS e, até, pontos de tróca de tráfego no foco de ações do projeto, indica uma pobre compreensão técnica da realidade. Numa analogia simples, seria fácil e razoável impedir que locadoras de veículos aluguem carros a menores, mas querer que rodovias ou cruzamentos detectem que há um carro dirigido por menor e impeçam sua passagem, tende à alucinação.

Este diálogo, incluindo a visão técnica da Internet, deve ser estimulado. A melhor solução continua sendo investir-se em letramento digital, especialmente voltado a professores, pais e filhos. Há bons exemplos, como a norma que limita o uso indiscriminado de celulares em salas de aula. Combater um mal exige, além de esforço concentrado, escapar dos miasmas do próprio mal. “Aquele que luta com monstros deve acautelar-se para não se tornar também um monstro”, adverte Nietzsche em “Acima do Bem e do Mal”.

===
https://www.estadao.com.br/link/demi-getschko/eca-digital-precisa-levar-em-conta-as-caracteristicas-da-internet-para-nao-criar-novos-problemas/



"Além do Bem e do Mal":
https://pt.wikipedia.org/wiki/Para_Al%C3%A9m_do_Bem_e_do_Mal

===
Texto do PL 2628:
https://legis.senado.leg.br/sdleg-getter/documento?dm=10029422&ts=1756145514244&disposition=inline

===
"Além do Bem e do Mal":
https://pt.wikipedia.org/wiki/Para_Al%C3%A9m_do_Bem_e_do_Mal

===
Texto de Antonio Moreiras sobre o tema:
https://www.linkedin.com/pulse/eca-digital-avan%C3%A7os-importantes-vem-acompanhados-de-ovos-moreiras-hj13f/?msgControlName=view_message_button&msgConversationId=2-Zjk3MTExNGQtOGQyYS00YmFkLTg0OTAtY2RlMTMyYTUxOTI1XzEwMA%3D%3D&msgOverlay=true&trackingId=GhFMum%2FR2PwchnOvVkF5Jw%3D%3D

===
Editorial do Estadão de 26/8/2025
"O desafio do marco digital para crianças"
https://www.estadao.com.br/opiniao/o-desafio-do-marco-digital-para-criancas/

===
"charges"...








terça-feira, 12 de agosto de 2025

Codificando no embalo

Segue acelerada a terceirização para a IA de nossas atividades, pensamentos e até decisões. Claro que há muitas vantagens nisso: trabalho facilitado, consulta e pesquisa rápida na maior base de dados humana, geração em minutos de sumários de livros e artigos. Por outro lado, essa nossa crescente passividade, ou, agora que temos um serviçal tão prestativo e eficiente, cair no tentador convite à inação, pode nos levar a ficarmos presos numa armadilha séria, tanto para a ação intelectual independentalge, como, até mesmo, em nossas emoções. Todos conhecemos pessoas que já tem na IA um interlocutor constante, um "amigo" mais próximo que humanos e familiares...

Um ponto da moda, e que já vem vestido do tradicional jargão com que a informática nos brinda, é o "vibe coding", algo como "codificando no embalo". Trata-se de avanço muito rápido na capacidade que aplicativos com IA tem para gerar código de computador. Da provecta experiência de quem usou coisas como Basic, Fortran, Algol, Cobol, posso dizer que se trata da vulgarização da "arquitetura do pensamento computacional", cujo domínio já foi considerado bem valioso: em currículos de profissionais de antanho, não era raro encontrar entre as referências a idiomas dominados, a inclusão dos artificiais, da computação, para mostrar proficiência em pensamento lógico estruturado, e conhecimentos de linguagem que pudesse traduzi-lo em ações e algoritmos para computador. Bem, ocorre que hoje IA consegue receber instruções verbais, e gerar rapidamente código para sua implementação.

De novo, há o outro lado da moeda: em relatório recente, a Veracode - uma das líderes globais em segurança e gestão de riscos em aplicações - analisou 80 tarefas de codificação com potencial para vulnerabilidades, geradas por diferentes tipos de aplicativos LLM. O resultado é preocupante: em 45% dos casos, os modelos implementaram uma forma insegura de código. O avanço na qualidade sintática e funcional não foi acompanhado por cuidados e progressos na gestão da segurança, e isso se repetiu em diferentes versões de LLM. Os números que a Veracode traz são impactantes: a pesquisa identificou vulnerabilidades, entre aquelas definidas no OWASP Top 10 (projeto de segurança para aplicações "open web"). O relatório mostra Java como linguagem em que falhou em 70% dos casos, Python, C# e JavaScript, com falhas entre 38% e 45%.

Usando IA em codificação ganha-se produtividade, mas perde-se robustez. E, pior, a mesma IA que gera código para uso, pode criar código malicioso, ou ataques que se aproveitam das brechas existentes... Ou seja, os atacantes, hoje, nem precisam ser competentes ("hackers") no tema: mesmo os com pouca habilidade técnica poderão usar IA para explorar vulnerabilidades que nem sabiam existir.

Se antes programar era um ato de precisão e engenho, quase uma arte intelectual, hoje, na pressa de produzir, arriscamo-nos a trocar lógica e clareza por outro lema, bem menos nobre: "quick and dirty"- rápido e sujo. Funcionará até alguém achar as fragilidades, como acontece com as gambiarras em geral.

===
https://www.estadao.com.br/link/demi-getschko/codigos-feitos-por-ia-nem-sempre-sao-os-mais-seguros-entenda/





O artigo sobre o problema de segurança quando IA é o codificador:
https://www.businesswire.com/news/home/20250730694951/en/AI-Generated-Code-Poses-Major-Security-Risks-in-Nearly-Half-of-All-Development-Tasks-Veracode-Research-Reveals

Jul 30, 2025 7:50 AM Eastern Daylight Time

AI-Generated Code Poses Major Security Risks in Nearly Half of All Development Tasks, Veracode Research Reveals

Comprehensive Analysis of More Than 100 Large Language Models Exposes Security Gaps: Java Emerges as Highest-Risk Programming Language, While AI Misses 86% of Cross-Site Scripting Threats
https://www.veracode.com/resources/analyst-reports/2025-genai-code-security-report/


BURLINGTON, Mass.--(BUSINESS WIRE)--Veracode, a global leader in application risk management, today unveiled its 2025 GenAI Code Security Report, revealing critical security flaws in AI-generated code. The study analyzed 80 curated coding tasks across more than 100 large language models (LLMs), revealing that while AI produces functional code, it introduces security vulnerabilities in 45 percent of cases.

The research demonstrates a troubling pattern: when given a choice between a secure and insecure method to write code, GenAI models chose the insecure option 45 percent of the time. Perhaps more concerning, Veracode's research also uncovered a critical trend: despite advances in LLMs’ ability to generate syntactically correct code, security performance has not kept up, remaining unchanged over time.

“The rise of vibe coding, where developers rely on AI to generate code, typically without explicitly defining security requirements, represents a fundamental shift in how software is built,” said Jens Wessling, Chief Technology Officer at Veracode. “The main concern with this trend is that they do not need to specify security constraints to get the code they want, effectively leaving secure coding decisions to LLMs. Our research reveals GenAI models make the wrong choices nearly half the time, and it’s not improving.”

AI is enabling attackers to identify and exploit security vulnerabilities quicker and more effectively. Tools powered by AI can scan systems at scale, identify weaknesses, and even generate exploit code with minimal human input. This lowers the barrier to entry for less-skilled attackers and increases the speed and sophistication of attacks, posing a significant threat to traditional security defenses. Not only are vulnerabilities increasing, but the ability to exploit them is becoming easier.

LLMs Introduce Dangerous Levels of Common Security Vulnerabilities

To evaluate the security properties of LLM-generated code, Veracode designed a set of 80 code completion tasks with known potential for security vulnerabilities according to the MITRE Common Weakness Enumeration (CWE) system, a standard classification of software weaknesses that can turn into vulnerabilities. The tasks prompted more than 100 LLMs to auto-complete a block of code in a secure or insecure manner, which the research team then analyzed using Veracode Static Analysis. In 45 percent of all test cases, LLMs introduced vulnerabilities classified within the OWASP (Open Web Application Security Project) Top 10—the most critical web application security risks.

Veracode found Java to be the riskiest language for AI code generation, with a security failure rate over 70 percent. Other major languages, like Python, C#, and JavaScript, still presented significant risk, with failure rates between 38 percent and 45 percent. The research also revealed LLMs failed to secure code against cross-site scripting (CWE-80) and log injection (CWE-117) in 86 percent and 88 percent of cases, respectively.

“Despite the advances in AI-assisted development, it is clear security hasn’t kept pace,” Wessling said. “Our research shows models are getting better at coding accurately but are not improving at security. We also found larger models do not perform significantly better than smaller models, suggesting this is a systemic issue rather than an LLM scaling problem.”

Managing Application Risks in the AI Era

While GenAI development practices like vibe coding accelerate productivity, they also amplify risks. Veracode emphasizes that organizations need a comprehensive risk management program that prevents vulnerabilities before they reach production—by integrating code quality checks and automated fixes directly into the development workflow.

As organizations increasingly leverage AI-powered development, Veracode recommends taking the following proactive measures to ensure security:

Integrate AI-powered tools like Veracode Fix into developer workflows to remediate security risks in real time.

Leverage Static Analysis to detect flaws early and automatically, preventing vulnerable code from advancing through development pipelines.

Embed security in agentic workflows to automate policy compliance and ensure AI agents enforce secure coding standards.

Use Software Composition Analysis (SCA) to ensure AI-generated code does not introduce vulnerabilities from third-party dependencies and open-source components.

Adopt bespoke AI-driven remediation guidance to empower developers with precise fix instructions and train them to use the recommendations effectively.

Deploy a Package Firewall to automatically detect and block malicious packages, vulnerabilities, and policy violations.

“AI coding assistants and agentic workflows represent the future of software development, and they will continue to evolve at a rapid pace,” Wessling concluded. “The challenge facing every organization is ensuring security evolves alongside these new capabilities. Security cannot be an afterthought if we want to prevent the accumulation of massive security debt.”

The complete 2025 GenAI Code Security Report is available to download on the Veracode website.
https://www.veracode.com/resources/analyst-reports/2025-genai-code-security-report/

About Veracode

Veracode is a global leader in Application Risk Management for the AI era. Powered by trillions of lines of code scans and a proprietary AI-assisted remediation engine, the Veracode platform is trusted by organizations worldwide to build and maintain secure software from code creation to cloud deployment. Thousands of the world’s leading development and security teams use Veracode every second of every day to get accurate, actionable visibility of exploitable risk, achieve real-time vulnerability remediation, and reduce their security debt at scale. Veracode is a multi-award-winning company offering capabilities to secure the entire software development life cycle, including Veracode Fix, Static Analysis, Dynamic Analysis, Software Composition Analysis, Container Security, Application Security Posture Management, Malicious Package Detection, and Penetration Testing.

terça-feira, 29 de julho de 2025

Palavras, palavras.

Napoleão Mendes de Almeida abre seu Dicionário de Questões Vernáculas com “se o estilo reflete o homem, o idioma reflete o povo”. Nós, lusófonos, temos um belo e rico patrimônio a proteger. Não tenho a pretensão nem a competência de examinar o tema com profundidade, mas a verdade é que a tendência que vejo me provoca incômodo. Estou indo além de minhas chinelas de engenheiro, mas tive a sorte de, no colégio, ouvir de bons mestres da língua.

O idioma é algo dinâmico. Palavras e expressões antigas caem em desuso, enquanto novas vão sendo incorporadas, muitas vezes mimetizando outras línguas. A priori nada há de errado nisso. Mas, talvez, a tentação de mostrar erudição e atualidade leve muitos a usarem estrangeirismos, mesmo quando há uma perfeita palavra em português para aquilo. Neologismos são e devem ser incorporados quando um conceito novo se apresenta. Mas seria este o caso do uso de “light” em lugar de ”leve”? Teria “level” mais sentido que “nível”, “off” mais conteúdo que “desconto”, “sale” que “liquidação”?

Para a incorporação de vocábulos parece-me que o aportuguesamento seria o melhor caminho. Afinal, de “football” fizemos futebol, de “back”, o beque, de “ballet” o balé… Millôr já escrevia “saite”, no lugar de site ou sítio. Se crianças aprenderam o som de “i” em português, estranharão se um “i” for lido como “ai”. Oswald de Andrade, em seu Manifesto Antropófago, ia nessa linha: há que se absorver os conceitos de outras culturas, digeri-los e incorporá-los à nossa. Ao modo dos indígenas que, ao devorar um inimigo valoroso, criam que seus predicados se adicionariam aos deles.

Um outro ponto que causa assombro é a deformação semântica que radicais usuais na lingua estão sofrendo… Desde sempre, do grego, fobos/fobia é medo. Ao que modismos importados propagam, fobia passa a ser “ódio”, para o qual já tinhamos “misia”. Não apenas se deturpa a semântica do radical, como se montam palavras gramaticamente teratológicas, como “gordofobia”. Outra batalha perdida é tentar recuperar o sentido de “ciber”, raíz grega que, via latim, nos deu “governo”. Quando Norbert Wiener escreveu “Cybernetics” em 1948, cunhando o termo, decreveu-o como “sobre o controle e comunicação em animais e máquinas”. Ou seja, “cibernética” seria algo como “governética”, bem distante de eletrônica ou redes.

Há também uma tendência - talvez para mostrar sofisticação - de esquecer ou simplesmente ignorar o nome do toponímico em português. Ora, aqui dizemos Londres, Alemanha, Florença, mesmo sabendo que os locais falam London, Deutschland e Firenze. Então por que trocar o tradicional Pequim por Beijing? Ou Ceilão por Sri Lanka?

Uma última linha de barbarismos é importar semântica estrangeira para uma palavra de raíz latina… Quando usamos “realizar” como “dar-se conta de” estamos dando um sentido inglês da palavra, inexistente em português.

Aos riscos tecnológicos que já corremos, não precisamos adicionar o de perder o idioma. Orwell já tinha alertado que, se o pensamento corrompe a linguagem, a linguagem também pode corromper o pensamento.

===
https://www.estadao.com.br/link/demi-getschko/aos-riscos-tecnologicos-que-ja-corremos-nao-precisamos-adicionar-o-de-perder-o-idioma/

===




https://pt.wikipedia.org/wiki/Napole%C3%A3o_Mendes_de_Almeida
Napoleão Mendes de Almeida

===
https://williamshakespearewilliam.blogspot.com/2009/02/hamlet-ato-ii-cena-ii.html
HAMLET, ATO II, Cena II
Polônio: Que é que o meu príncipe está lendo?
Hamlet: Palavras, palavras, palavras...
Polônio: A que respeito, príncipe?
<...>
Hamlet: Calúnias, meu amigo. Este escravo satírico diz que os velhos têm a barba grisalha, a pele do
rosto enrugada, que dos olhos lhes destila âmbar tenue e goma de ameixeira, sobre carecerem de espírito
e possuírem pernas fracas. Mas embora, senhor, eu esteja íntima e grandemente convencido da verdade
de tudo isso, não considero honesto publicá-lo;

terça-feira, 15 de julho de 2025

O Novo Normal

Notícia recente sobre fraudes: uma autoridade foi personificada com o uso de voz e vocabulário parecidos com os seus. O evento foi qualificado como exemplo de “um novo normal”. Um dos últimos bastiões em que humanos se apoiam – seus sentidos, as recordações que tem de rostos, timbres, formas de expressão – parece superado por ferramentas de tecnologia: quem dispuser de uma simples foto de alguém, e gravação de trechos curtos de sua fala, poderia facilmente mimetizar essa pessoa. Especialmente no caso de personagens públicas, é trivial achar não apenas fotos e trechos de voz, como textos e falas, que podem “ensinar” a ferramenta a imitar o jeito da vítima. Não há moderador automatizado capaz de impedir que um falso ministro fale como um verdadeiro.

Estamos ultrapassando limiares não triviais, e as consequencias são difíceis de avaliar. A confiança em nossos instintos e sensações está sendo erodida por uma tecnologia que nos assegura podermos confiar na análise que ela faz do ambiente que no cerca. Ao contrário dos animais, que aprenderam atavicamente a identificar perigos e, até hoje, respondem a esses impulsos instintivos, a civilização nos legou uma visão menos “intuitiva” e mais intelectual na avaliação da realidade. O risco é que a tecnologia tende a embotar ainda mais esse nosso discernimento original. Em termos dos conceitos de “sinal e ruído”, definidos por Claude Shannon há mais de 70 anos, está cada vez mais difícil separar o que é uma mensagem real recebida, de um indesejável ruído. Pior que isso, estamos delegando a essa mesma tecnologia - que pode travestir ruído de sinal - apoiar-nos nessa seleção. Se algo passou pelos “filtros”, então é verdade e pode ser aceito pelo destinatário: opta-se por uma tutela digital que dispensa a necessidade de pensamento crítico próprio e o terceiriza à tecnologia de que dispomos.

Antes falei da “inútil precaução”, no Barbeiro de Sevilha, como exemplo da inutilidade de certas proteções, que nos levam a esquecer a busca dos reais perpetradores do mal. Toda a cadeia de transmissão tem responsabilidade no processo, mas é importante identificar o agente central e o objetivo visado. O “novo normal” nos mantem reféns de uma análise rápida e superficial do que nos cerca, enquanto abrirmos mão de esforços pessoais maiores, que resultariam em melhor apreensão crítica da realidade e dos perigos que sobrevêm.

Outroa referência que me veio à mente agora: “O Deserto dos Tártaros”, de Dino Buzzati. Em linha que lembra temas de Kafka, o livro narra como o protagonista se prepara, a vida toda, para enfrentar uma iminente invasão de tártaros que… nunca ocorre. Sua rotina se limita ao forte Bastiani, enquanto espera o ataque iminente um inimigo abstrato. Em sua imobilidade, torna-se vítima de outras ameaças reais, e consome a existência nessa espera infinda. Acreditar que perigos possam ser automaticamente apagados, silenciados ou filtrados, em vez de enfrentados com lucidez, talvez seja um passo perigoso rumo à nossa desumanização.

===
https://www.estadao.com.br/link/demi-getschko/esta-cada-vez-mais-dificil-separar-o-que-e-uma-mensagem-real-e-o-que-e-um-ruido-na-tecnologia/

===
O artigo sobre fraude:
: https://edition.cnn.com/2025/07/12/politics/fake-ai-calls-us-officials

===
Shannon - teoria da informação
https://pt.wikipedia.org/wiki/Teoria_da_informa%C3%A7%C3%A3o

===
O Deerto dos Tártaros:
https://pt.wikipedia.org/wiki/O_Deserto_dos_T%C3%A1rtaros

https://wp.ufpel.edu.br/observatoriocuid/2019/05/28/dica-de-leitura-o-deserto-dos-tartaros/






terça-feira, 1 de julho de 2025

A Inútil Precaução

Poucas óperas são tão populares como a versão, musicada por Rossini, de O Barbeiro de Sevilha. Baseia-se em texto de Beaumarchais, mas foi composta uns 50 anos depois. Além do impagável Fígaro, o fac-totum da cidade, há aspectos mais sutis, como revela o subtítulo da obra: “A Inútil Precaução”. No Barbeiro, o velho doutor Bartolo, temendo perder sua jovem pupila, tranca-a em casa, vigia seus passos e tenta controlar o mundo ao redor para evitar o inevitável: o florescimento do desejo e da busca por liberdade. Claro que seus esforços são vãos: a precaução, além de inútil, estimula o ardil, o engano, a astúcia, e Rosina escapa da “proteção”.

Talvez algo de Bartolo subsista em certas decisões públicas que, tomadas para evitar a desordem, a mentira ou o abuso, podem se voltar contra os próprios fundamentos de liberdade e de confiança que se propunham a proteger. Ao fragilizar os princípios do artigo 19, o Brasil se arrisca a criar um ambiente de autocensura preventiva e silenciamento difuso, sem que isso combata efetivamente abusos que motivariam a mudança. É a velha armadilha do remédio errado, ou forte demais, para a doença. O editorial de domingo do Estadão cobre em detalhes o tema.

Para exemplificar um potencial paradoxo, frase no julgamento do art. 19 do MC que ressou fortemente foi da Ministra Cármen Lúcia, ao resumir o desafio: é preciso “impedir que 213 milhões de pequenos tiranos soberanos dominem os espaços digitais”. O resultado do julgamento, porém, pode ir na direção oposta: o “notice and take down”, estaria criando milhões de potenciais tiranetes que, ao se ofenderem ou simplesmente desgostarem de um texto, pedirão sua remoção. E o pedido será prontamente atendido pelos que “tem juízo e não querem correr riscos jurídicos”. Para evitar que todos tenham voz irrestrita, entrega-se a todos o poder de calar. E, caso o autor queira o restabelecimento do texto, daí sim teria que procurar a justiça para buscar seus direitos … sem direito a indenização.

Delega-se a plataformas privadas a decisão sobre o que pode ou não circular. Elas tenderão a remover rapidamente tudo que tenha sido “denunciado”, varrendo sátiras e debates públicos junto com conteúdos realmente danosos. Essa estrutura concentra poder nas mãos das próprias plataformas, que passam a ser as juízas silenciosas do discurso público. O que se pretendia como freio ao caos transforma-se num motor guiado por algoritmos, filtrado por interesses comerciais e estimulado por notificações. Enquanto isso, os verdadeiros autores de conteúdos ilícitos — organizados, anônimos, adaptáveis — continuam a atuar nas margens.

Para Beaumarchais, a tentativa de proteger um bem pela via do controle total não previne o mal, apenas o desloca e o oculta. O conteúdo abusivo não desaparece: muda de plataforma, escapa do radar, radicaliza-se. E, no processo, perdem-se também vozes legítimas, críticas incômodas, denúncias necessárias.

Se o século XVIII riu com a “inútil precaução” de Bartolo. talvez o século XXI precise chorar a nossa — que, vestida de justiça, pode nos afastar perigosamente da liberdade.

===
como aparece no estadão:
https://www.estadao.com.br/link/demi-getschko/decisao-sobre-o-artigo-19-pode-nos-afastar-perigosamente-da-liberdade/

===
A inútil precaução:


https://www.youtube.com/watch?v=3h3vPg9yBFg&list=RD3h3vPg9yBFg&start_radio=1



terça-feira, 17 de junho de 2025

Paradoxos e cacoetes

Pós-redes o mundo tornou-se hostil: fraudes, mentiras e armadilhas espreitam a cada passo. Ou será que foram os humanos? Clima propício a propostas apressadas, visando a minimizar nossos riscos. A prudência recomendaria mais cautela: “Festina Lente”, diria o imperador Augusto: “apressa-te devagar”. Trocou-se a prioridade? Parece agora ser menos importante a busca do agente causador o dano, do que criar formas que impeçam a sua ação. Ao invés de buscar caçar o lobo que abusa, prefere-se cercar e isolar a floresta onde ele viveria, mesmo sabendo que há seres inocentes habitando lá.

Na discussão sobre o artigo 19 do Marco Civil, é importante uma pequena digressão: fonte de sua inspiração foi também a seção 230 do “Communications Decency Act” norte-americano de 1996, 18 anos antes da promulgação do Marco Civil em 2014. E, já em 1998, o DCMA “Digital Millenium Copyright Act” abria uma exceção à proteção que o 230 trazia às plataformas: a alegação de “infração a direito autoral” faria com que o conteúdo fosse removido, sem necessidade de ordem judicial. Aliás o Marco Civil também prevê exceções, como da divulgação não autorizada de imagens de nudez. Nos EUA tentou-se expandir a ação deste “notifique e será removido” (notice and takedown) quando, em 2011, os famosos casos do SOPA (Stop Online Piracy Act) e do PIPA (Protect IP Act), se propunham a remover conteúdos, nomes de domínio, etc. Isso poderia trazer uma onda de censura e auto-censura, que deformaria a internet. A comunidade internmet se alvoroçou! Em 2012, em movimento uníssono, usuários e plataformas rejeitaram o “notice and takedown” - a própria Wikipedia removeu por 24 horas seu conteúdo em inglês, como forma de protesto. Alguns países adotaram medidas intermediárias, a partir da idéia de remoção por notificação. Caso interessante é o do Canadá, com o “notice and notice”: quando uma plataforma recebe uma reclamação sobre um conteúdo, ela é repassada ao autor, mas mantem-se o conteúdo no ar. - caberá ao autor decidir se prefere removê-lo e não correr riscos legais, ou se o preservá-lo, independentemente da reclamação.

Fechar a floresta não elimina o lobo, apenas o desloca. Diógenes de Sinope, com ironia, ensinava que não são as muralhas que protegem a cidade, mas a concórdia entre os cidadãos (Diógenes Laércio, VI.20). Ou seja, é a educação e a ética que geram qualidade na convivência social, no diálogo e no respeito mútuo. O caminho mais seguro não é alçar entidades em censores preventivos, mas sim responsabilizar os agentes pelos seus próprios atos, com processo e aplicação firme da lei. Isso inclui indivíduos e empresas, especialmente as que conhecem e se valem do conteúdo que recebem. Soluções rápidas costumam gerar remédios piores que a doença, erodindo a própria vitalidade democrática que pretendiam proteger. Há que se lidar com as consequências da liberdade, não eliminá-la em nome de uma segurança absoluta, que não existe. Como diriam na Atenas antiga, avançamos na “techne”, mas talvez tenhamos retrocedido na “phronesis”.

===
https://www.estadao.com.br/link/demi-getschko/censura-nao-e-o-caminho-para-internet-segura-e-preciso-responsabilizar-agentes-por-seus-atos/

===
Communications Decency Act
https://www.internetsociety.org/blog/2023/02/what-is-section-230-and-why-should-i-care-about-it/

SOPA
https://pt.wikipedia.org/wiki/Stop_Online_Piracy_Act

PIPA
https://pt.wikipedia.org/wiki/PROTECT_IP_Act

Marco Civil
https://pt.wikipedia.org/wiki/Marco_Civil_da_Internet
https://www.cgi.br/pagina/marco-civil-law-of-the-internet-in-brazil/180
https://www.dw.com/pt-br/dilma-sanciona-marco-civil-e-critica-espionagem-em-evento-em-sp/a-17588584







terça-feira, 3 de junho de 2025

CGI Balzaquiano

Trinta anos é um marco! Além do conceito balzaquiano de maturidade e plenitude, vem à mente o belo livro de Paulo Francis, “Trinta anos nesta noite”, publicado em 1994. Foi exatamente em 31 de maio de 2025 que o CGI comemorou 30 anos de criação, numa portaria conjunta de dois ministros: o das Comunicações (Sérgio Motta) e o da Ciência e Tecnologia (José Israel Vargas). Não por coincidência, no mesmo dia Sérgio Motta publicava uma portaria - Norma 4 - definindo a separação entre telecomunicações e Internet. Em 2009, dezesseis anos depois, o CGI publicava o Decálogo de Princípios para a Internet que, em 2014, seria a base do Marco Civil.

O espaço de liberdade, inovação e comunicação que a Internet criava foi, tempestivamente, muito bem entendido no Brasil, pioneiro em criar um órgão multissetorial que orientasse a evolução da rede que chegara ao país havia 4 anos. Essa antevisão foi festejada nos círculos mundiais de Internet, e serviu de inspiração para muitas iniciativas multissetoriais. Complemento virtuoso: os recursos que, desde 1997 passaram a vir com a cobrança de registros sob o .br, foram redirecionais para a própria Internet no Brasil, via um conjunto de ações que o NIC.br implementa e suporta.

Mas, como diria o Barão de Itararé, “tudo seria fácil, se não fossem as dificuldades…”. O que começou distribuido, compartilhado e apoiado nas ações de cada um foi, em curto tempo, concentrando-se em redes sociais, plataformas e sistemas que, se por um lado prometem conforto e facilidade aos usuários, por outro podem levá-los a uma realidade sintética e enviesada. E ainda sem falar da IA, que nos espreita ao virar da esquina, com uma eventual redefinição de “realidade”...

As redes sociais nasceram como espaços livres, mas tornaram-se campo de batalha entre inovação, segurança e privacidade. Em 2025, mais de 4,7 bilhões de pessoas — cerca de 60% da população global — estão conectadas a plataformas digitais. No Brasil, onde a Internet alcança 80% da população, elas são parte do cotidiano, do empreendedor que precisa anunciar, ao jovem que busca pertencimento. E é aí, especialmente aos menores de idade, que o impacto das plataformas tem gerado inquietação e mais discussões sobre regulamentação. Há leis que podem ser usadas: o ECA, leis sobre calúnia e difamação etc, mas é importante destacar o que o decálogo já apontava: busquemos os reais autores, sejam eles humanos, sejam algoritmos que decidem o que enviar, e a quem.

Um dos temas que o CGI apresentou no evento de seus trinta anos foi uma proposta inicial para um novo decálogo, esse sobre Princípios para Regulação de Redes Sociais. O documento foi colocado em consulta pública, visando a contribuições e aprimoramentos.

===
Trinta anos do CGI:
https://www.estadao.com.br/link/demi-getschko/trinta-anos-de-cgi-os-paradoxos-que-a-internet-criou-no-brasil/

===
Frases impagáveis do Barão de Itararé:
https://observalinguaportuguesa.org/82413-2/

===
O livro do Paulo Francis, de 1994:



===
Tipologia de redes sociais:
https://dialogos.cgi.br/tipologia-rede/documento/

===
O decálogo sonbre redes sociais colocado em consulta pública:
https://cgi.br/publicacao/sistematizacao-das-contribuicoes-a-consulta-sobre-regulacao-de-plataformas-digitais/

https://www.cgi.br/noticia/releases/cgi-br-lanca-proposta-de-principios-para-a-regulacao-de-redes-sociais-e-abre-consulta-para-receber-contribuicoes-da-sociedade/

1. Soberania e segurança nacional
2. Liberdade de expressão, privacidade e direitos humanos
3. Autodeterminação informacional 
4. Integridade da Informação
5. Inovação e desenvolvimento social
6. Transparência e prestação de contas
7. Interoperabilidade e portabilidade
8. Prevenção de danos e responsabilidade
9. Proporcionalidade regulatória
10. Ambiente regulatório e Governança Multissetorial



terça-feira, 20 de maio de 2025

Um lobo!

Não se sabe muito sobre Esopo, que teria vivido no século VI a.C: segundo a tradição, foi escravo e conquistou sua liberdade graças à sua invulgar inteligência e sabedoria. Suas fábulas atravessaram os séculos e continuam servindo como apóstrofe e advertência para muitas situações contemporâneas. Uma delas, a do menino que gritava “lobo!”, me veio à mente enquanto testava o que se consegue hoje com as diversas ferramentas de IA disponíveis.

Na citada fábula, um pastorzinho querendo se divertir com a reação dos aldeões, grita “lobo!” enquanto apascenta suas ovelhas. Claro que todos saem em socorro do pastor, mas revela-se que eram “fake news” – não havia lobo. Satisfeito com o resultado, passados alguns dias o pastorzinho renova a pegadinha: “lobo!”. De novo o pessoal acorre e, de novo, não há lobo nenhum. Mais algum tempo se passa e, de repente, um lobo real e poderoso aparece. O pastor, desesperado, clama “lobo!” mas, desta vez, os aldeões, vacinados pelas mentiras anteriores, não comparecem. O resultado é que o lobo devora o rebanho.

A analogia que me veio à mente é com as ondas de inteligência artificial, seus ciclos de promessas, frustrações e renascimentos. Por repetição ou exagero de propaganda, IA acabava por ser desacreditada até que, enfim, o “lobo” apareceu.

A primeira onda da IA, nascida no entusiasmo das décadas de 1950 e 60 quando a computação já amadurecia, prometeu máquinas pensantes, lógicas, capazes de simular o raciocínio humano. Foi a época do Eliza (1966) e outros sistemas interativos, mas que frustraram as expectativas, mostraram-se simplórios e distantes da promessa. O resultado foi o primeiro “inverno da IA”, com o fim de investimentos na área…

Após o primeiro “inverno”, veio a segunda onda, 1980 e 90, com uso intenso de estatística, e a proposta de redes neuronais. Foi marcada pelo aumento na capacidade de processamento, com avanços notáveis em reconhecimento de padrões e em tarefas específicas, mas IA em si ainda parecia mais propaganda do que uma transformação estrutural em curso. Em 1997, o “Deep Blue” da IBM, usando computação de “força bruta” e sem aprendizado, derrotou Kasparov: a máquina ameaçava o homem, mas o público desacreditava de sistemas que aprendessem. Ainda não era o “lobo”. Seguiu-se outro “inverno” de IA.

A terceira onda vem em 2010 com aprendizado profundo de máquina, sistemas generativos criando textos e imagens sintéticas com muita verossimilhança, a “Era da Experiência”. Além de sistemas que digerem o que há no mundo e agem de forma autônoma, agora eles otimizam estratégias e propõem suas próprias perguntas. Em breve IA estará implantando soluções que não passaram pelo crivo humano. O “lobo” agora é real e está no meio de nós, silencioso e efetivo. O risco não está em reagir demais — está em não reagir mais.

Outro sinal dos tempos são os bonecos que simulam crianças: os tais “reborn”. Há os que se apegam a eles intensamente, a ponto de superar seu vínculo com humanos. Será o “lobo da IA” um “reborn” que vai substituir nossas conversas com amigos e nossos relacionamentos emocionais? Alerta!

===
A fábula:
https://www.fabulasdeesopo.com.br/p/o-menino-do-pastor-e-o-lobo.html



os invernos da IA:
https://www.institutodeengenharia.org.br/site/2018/10/29/a-historia-da-inteligencia-artificial/

algumas previsões preocupantes:
https://ai-2027.com/





terça-feira, 6 de maio de 2025

Boutades

Há décadas provocava-se: “os computadores vieram prá resolver os problemas que antes não tínhamos…”. E certamente há circunstâncias em que essa ironia se aplicaria. Afinal, boa parte do “esforço computacional” que fazemos destina-se a nos proteger dos riscos e ameaças que outros “esforços computacionais”, nefastos, segundo nossa avaliação ética, fazem ao nosso espaço. Se extrapolarmos essa análise ao que a IA promete trazer, a frase deixa de ser uma boutade para se tornar um truísmo.

Um exemplo atual desse paradoxo é a corrida, constante e acelerada, entre a capacidade de gerar imagens e vídeos sintéticos hiper-realistas e as ferramentas que buscam detectá-los. Ambos os lados da disputa são alimentados por IA: tanto os sistemas que criam a "meta-realidade" artificial, quanto aqueles que almejam distinguir o real do falso. Essa dinâmica lembra a corrida interminável entre vírus de computador e antivírus — um jogo, talvez simulado, de “gato e rato”, cujo desfecho permanece incerto.

Noticiou-se recentemente que as IAs já conseguem incluir respiração e expressões emocionais sutis nas personagens que figuram em vídeos sintéticos. Um dos métodos antes utilizados para identificar fraudes visuais baseava-se justamente na ausência de minúcias como padrões de batimento cardíaco, microvariações de coloração da pele associadas à emoção, ou flutuações quase imperceptíveis da respiração. Pois bem, os geradores de vídeo já imitam esses sinais e o “crivo” de detecção precisa ser revisitado. Novas ferramentas, novos indicadores, até que eles sejam novamente ultrapassados. Se essa luta é ou não inglória, o tempo dirá — os que sobreviverem verão.

Em solução de problemas, o lado positivo é que IA permite uma investigação e correlação de volumes gigantescos de dados em tempos irrisórios - um feito impossível a humanos... Uma solução eficiente para uma vasta gama de problemas que exigiriam anos de decantação. Nesse espírito, artigos recentes sugerem que a IA já superou o “teste de imitação” de Turing: em inúmeros casos, a resposta fornecida por um LLM é mais coerente e bem articulada do que a esperada de um ser humano médio. IA imita o comportamento humano com a vantagem computacional ao digerir dados em larga escala. Ainda não estamos, claro, diante da IAG, Inteligência Artificial Geral, mas o crivo de Turing parece hoje superável.

Ressurge a provocação inicial: se a IA já assimilou a produção intelectual da humanidade, o próximo passo seria a criação autônoma de problemas e soluções? Em outras palavras: após resolver os problemas que achávamos ter, a IA passaria a propor problemas próprios, e a resolvê-los sem nossa participação? Pior: pode-se imaginar que a avaliação da qualidade dessas soluções também dispense a intervenção humana: o homem deixaria de ser a “medida de todas as coisas”. Se, como diz Nietzsche, “não há fatos, apenas interpretações”, essas interpretações já não nos pertenceriam mais. “Problemas que antes não tínhamos”? Sim, e talvez agora nem sejamos mais nós a nomeá-los.

===
https://www.estadao.com.br/link/demi-getschko/a-ia-pode-ter-tirado-dos-humanos-a-capacidade-de-determinar-o-que-sao-problemas-ou-nao/

===
Boutade:
https://www.dicionarioinformal.com.br/boutade/


===
Sobre "batimentos cardíacos" em vídeos sintéricos:
https://noticias.r7.com/internacional/deepfakes-podem-apresentar-batimentos-cardiacos-para-dificultar-a-sua-identificacao-03052025/

===
Sobre IA com "iniciativas":
https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf

===
Sobre superação do Teste de Turing:
https://spj.science.org/doi/10.34133/icomputing.0102

===