terça-feira, 19 de dezembro de 2023

Fênices na tecnologia

É curioso observar, no vórtice de evolução tecnológica em que vivemos, a alternância de tendências e dos modismos. Ao sabor do que é mais impactante mercadologicamente, e qual a mitológica fênix, conceitos algo esquecidos são reciclados e revividos, quando a roda da tecnologia volta a lhes dar fôlego. Inteligência Artificial, em seus quase 70 anos de existência, passou por diversos “invernos” durante os quais sua popularidade caiu, mas hoje, graças às capacidades de processamento e armazenamento, é o tema mais quente. Há que se descontar as extrapolações que, indiscriminadamente, aplicam a etiqueta IA em tudo.

Só pra recordar temas dormentes - mas que podem reviver de um momento a outro - a discretização do digital tem como alternativas computadores analógicos. Do mesmo modo que há espaço para a “lógica difusa” (fuzzy) além da lógica binária fixa. Afinal o cérebro humano tem um funcionamento analógico, mais associado a eventos químicos e elétricos que a eventos binários. Essa era a abordagem das “redes neurais”, ao simularem formas de simulação do aprendizado que acontece com as conexões e sinapses neuronais em nossos miolos.

O maciço poder que a computação tradicional desenvolveu, manteve-a como principal simulador, em lógica discreta, de eventos que seriam mais apropriadamente tratados como analógicos. Mas isso não preclude a cíclica retomada de linhas antes abandonadas ou menos estimuladas. Notícia desta semana, por exemplo, apregoa que um supercomputador, usando redes neurais e a ser lançado em abril do ano que vem, conseguirá atingir a capacidade humana em termos de conexões neuronais. O DeepSouth, em desenvolvimento por equipe australiana e alemã, alega que realizará mais de 200 trilhões de operações sinápticas por segundo, rivalizando com o que o cérebro humano consegue. E há ainda um ponto muito importante nos dias de hoje: o consumo de energia do DeepSouth, por usar plataforma diversa da dos supercomputadores convencionais, deve ser muito menor do que o destes.

Enquanto aguarda-se a comprovação desses números, alguns dos pontos de debate hoje poderão ser recalibrados. Afinal, adotando-se um esquema de rede neuronal com aprendizagem não supervisionada, estamos criando algo que aprende de forma muito próxima à nossa. Revisitaríamos a discussão que temos hoje sobre “ética da IA”? Indo “além das sandálias”, arrisco-me a dizer que é uma saida simplória bradar por ética sem definirmos a priori o que queremos que IA entenda por isso. Arrisco-me a dizer que nós mesmo usamos “ética” como uma platitude que não gerará reação adversa, mas sem nos darmos ao difícil trabalho de definir o que esperamos com isso. Afinal, cada um quer da IA a ética que a ele próprio parecer adequada...

E com isso termina o último texto do ano. Pegando carona com Mário Quintana, “quando se vê, já são seis horas! / quando se vê, já é sexta-feira! / quando se vê, já é Natal.../ quando se vê, já terminou o ano…”. Obrigado, bom Natal a todos, e um excelente 2014!

===
O anúncio do DeepSouth:

https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/
===

Textos sobre 'lógica difusa" e computadores analógicos
https://en.wikipedia.org/wiki/Fuzzy_logic
https://en.wikipedia.org/wiki/Analog_computer
===


O poema de Mário Quintana:
https://manoelafonso.com.br/politica/o-tempo-mario-quintana-2/

A vida é o dever que nós trouxemos para fazer em casa.
Quando se vê, já são seis horas!
Quando de vê, já é sexta-feira!
Quando se vê, já é Natal…
Quando se vê, já terminou o ano…
Quando se vê perdemos o amor da nossa vida.
Quando se vê passaram 50 anos!
Agora é tarde demais para ser reprovado…
Se me fosse dado um dia, outra oportunidade, eu nem olhava o relógio.
Seguiria sempre em frente e iria jogando pelo caminho a casca dourada e inútil das horas…
Seguraria o amor que está a minha frente e diria que eu o amo…
E tem mais: não deixe de fazer algo de que gosta devido à falta de tempo.
Não deixe de ter pessoas ao seu lado por puro medo de ser feliz.
A única falta que terá será a desse tempo que, infelizmente, nunca mais voltará.

===
Fênix:
https://pt.wikipedia.org/wiki/F%C3%A9nix



Imagem da Fénix renascendo, do "Bestiário de Aberdeen"


terça-feira, 5 de dezembro de 2023

Aprender e Desaprender

As duas vertentes da tecnologia que mais estão em evidência hoje são a IA e a computação quântica. Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida – e que hoje, até, pode ser encontrada em forma aberta – é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde vieses e preconceitos”. Especificamente sobre vieses a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA num auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA, vai ainda uma grande distância. 

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “vies humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras. Nesse tema, surge hoje é um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desrendizagem” IA poderia geral resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e
equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em sí não é ético nem aético.

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “...só um deus poderá nos salvar!”



===
texto sobre tecnologia e filosofia:
https://www.sfu.ca/~andrewf/books/Essentialism_Constructivism_Philosophy_Technology_Crossroads.pdf

===
Sobre "desaprendizado":

https://www.infopedia.pt/dicionarios/lingua-portuguesa-aao/desaprender