A moda é falar de inteligência artificial, IA. O primeiro percalço já vem no nome da coisa: primeiro há que se definir o que seria “inteligência”. E, mesmo após chegando a uma eventual definição satisfatória, ver como “artificial” se aplica. Afinal, se algo pode comportar-se de forma “inteligente” mesmo que via um artifício, essa qualidade estaria agora inerentemente adquirida e deixaria de ser “artificial”.
Sob essa denominação agrupam-se diferentes técnicas de processamento de dados e tomada de decisões que hoje usamos. Há a “ciência de dados”, que se ocupa dos mecanismos de tratamento de quantidades vultosas de dados brutos em busca de correlações e informações inferidas, há o “aprendizado de máquina”, quando um programa escrito pretende aperfeiçoar seu funcionamento pelo que “observa” do mundo, e há o “aprendizado profundo”, quando o sistema evolui para comportamentos não previstos em sua programação inicial e que decorreram de sua experiência com sucessos e fracassos anteriores.
É comum um sistema ser “treinado” na execução de tarefas humanas, valendo-se de uma quantidade imensa de informação a ele fornecida. Adicionando coleções de imagens sobre determinada manifestação de uma doença, podemos fazer com que o sistema a detecte. Um artigo no New York Times da semana passada comenta que mão de obra humana é contratada até para “ouvir tosses”, de forma a ajudar o sistema a classificar qual tosse é
suspeita de algo mais grave. Teremos sistemas fornecendo diagnósticos médicos, elaborando decisões judiciais ou econômicas, tomando decisões.
O que me preocupa nisso é que máquinas e programas, objetos materiais que são, não podem ser responsabilizados por resultados anti-éticos ou amorais. Ética e comportamento humanísticos generoso são apanágio dos humanos. É humano desconsiderar eventuais características de outrem em prol de tratamento digno igualitário. É humano perdoar erros ou admitir falhas. Se fosse possível incluir na evolução da IA vieses humanos, nem sempre lógicos ou matemáticos, isso seria alvissareiro e positivo.
Contemplar decisões com base em simples cômputo numérico, reforçado por resultados anteriores de sucesso e fracasso, é abrir mão da humanidade que ainda temos. Não se espera de um programa com IA que, por exemplo, na análise de concessão ou não de um empréstimo a um solicitante, exiba um comportamento “humano” como é o caso da intuição e da emoção. Pelo contrário, a regra que “aprendeu” da experiência anterior será inflexível: se há riscos financeiros no investimento, ele não será feito, mesmo nos casos em que, humanamente, a decisão pareceria cruel ou imoral. No confronto insensível dos números e resultados, a decisão tomada será a logicamente vantajosa, mesmo que moralmente abjeta. Lembro do filme de Kubrick e Clarke, 2001 Uma Odisséia no Espaço, quando Hal, o “inteligente” computador de bordo que controlava a viagem da nave, decide deixar o humano (Bowman) morrer fora da espaçonave, para não colocar em risco a meta principal da viagem.
Usar o potencial das máquinas como ajuda ao que queremos atingir é positivo, é o que vem pela frente e é bom que seja assim. Porém atribuir a elas decisões em ações que envolvam a própria essência do que se entende por “humano”, parece-me uma contradição em termos, e pode ser um caminho sem volta.
===
O artigo citado do N Y Times pode ser visto em:
https://www.nytimes.com/2019/08/16/technology/ai-humans.html
e sua tradução:
https://link.estadao.com.br/noticias/cultura-digital,conheca-a-rotina-nada-futurista-de-quem-treina-inteligencia-artificial,70002975428
Há um interessante artigo do Prof. Valdemar Setzer em:
https://www.ime.usp.br/~vwsetzer/IAtrad.html
===
Sob essa denominação agrupam-se diferentes técnicas de processamento de dados e tomada de decisões que hoje usamos. Há a “ciência de dados”, que se ocupa dos mecanismos de tratamento de quantidades vultosas de dados brutos em busca de correlações e informações inferidas, há o “aprendizado de máquina”, quando um programa escrito pretende aperfeiçoar seu funcionamento pelo que “observa” do mundo, e há o “aprendizado profundo”, quando o sistema evolui para comportamentos não previstos em sua programação inicial e que decorreram de sua experiência com sucessos e fracassos anteriores.
É comum um sistema ser “treinado” na execução de tarefas humanas, valendo-se de uma quantidade imensa de informação a ele fornecida. Adicionando coleções de imagens sobre determinada manifestação de uma doença, podemos fazer com que o sistema a detecte. Um artigo no New York Times da semana passada comenta que mão de obra humana é contratada até para “ouvir tosses”, de forma a ajudar o sistema a classificar qual tosse é
suspeita de algo mais grave. Teremos sistemas fornecendo diagnósticos médicos, elaborando decisões judiciais ou econômicas, tomando decisões.
O que me preocupa nisso é que máquinas e programas, objetos materiais que são, não podem ser responsabilizados por resultados anti-éticos ou amorais. Ética e comportamento humanísticos generoso são apanágio dos humanos. É humano desconsiderar eventuais características de outrem em prol de tratamento digno igualitário. É humano perdoar erros ou admitir falhas. Se fosse possível incluir na evolução da IA vieses humanos, nem sempre lógicos ou matemáticos, isso seria alvissareiro e positivo.
Contemplar decisões com base em simples cômputo numérico, reforçado por resultados anteriores de sucesso e fracasso, é abrir mão da humanidade que ainda temos. Não se espera de um programa com IA que, por exemplo, na análise de concessão ou não de um empréstimo a um solicitante, exiba um comportamento “humano” como é o caso da intuição e da emoção. Pelo contrário, a regra que “aprendeu” da experiência anterior será inflexível: se há riscos financeiros no investimento, ele não será feito, mesmo nos casos em que, humanamente, a decisão pareceria cruel ou imoral. No confronto insensível dos números e resultados, a decisão tomada será a logicamente vantajosa, mesmo que moralmente abjeta. Lembro do filme de Kubrick e Clarke, 2001 Uma Odisséia no Espaço, quando Hal, o “inteligente” computador de bordo que controlava a viagem da nave, decide deixar o humano (Bowman) morrer fora da espaçonave, para não colocar em risco a meta principal da viagem.
Usar o potencial das máquinas como ajuda ao que queremos atingir é positivo, é o que vem pela frente e é bom que seja assim. Porém atribuir a elas decisões em ações que envolvam a própria essência do que se entende por “humano”, parece-me uma contradição em termos, e pode ser um caminho sem volta.
===
O artigo citado do N Y Times pode ser visto em:
https://www.nytimes.com/2019/08/16/technology/ai-humans.html
e sua tradução:
https://link.estadao.com.br/noticias/cultura-digital,conheca-a-rotina-nada-futurista-de-quem-treina-inteligencia-artificial,70002975428
Há um interessante artigo do Prof. Valdemar Setzer em:
https://www.ime.usp.br/~vwsetzer/IAtrad.html
===