A inovação tecnológica esteve desde sempre associada a correntes de entusiasmo e adesão, mas também de rejeição e de descrédito. Por isso precisa sempre de persistência e tempo para enfrentar a pressão da desconfiança e, principalmente, do medo. Assim aconteceu em momentos como os da invenção e da difusão da imprensa, do surgimento da fotografia e do cinema, da expansão do telefone, da rádio e da televisão, da massificação dos computadores e da Internet, ou da propagação da leitura digital. Em qualquer deles, a tendência inicial foi para a desconfiança e para o boicote, tomando-se a sua recetividade como algo que os profetas da desgraça, em defesa do «status quo», sempre consideraram mero capricho de quem apenas procura a novidade.
Algo idêntico está a acontecer com a inteligência artificial (IA) e os problemas que o seu uso levanta. A IA é um conceito complexo que, de forma simplificada, traduz a capacidade de máquinas definirem e realizarem tarefas em regra associadas ao pensamento e à iniciativa humana, podendo até fazê-lo de forma autónoma, sem a necessidade de um estímulo exterior. Logo após a Segunda Guerra Mundial, o matemático inglês Alan Turing – também conhecido pelo papel crucial na decifração de mensagens militares codificadas dos nazis e depois pela brutal punição por ser homossexual – abordou essa possibilidade no artigo «Computing Machinery and Intelligence». Nas últimas décadas, a explosão do computador moderno, da robótica e das redes de comunicação permitiu dar passos de gigante no seu desenvolvimento.
O debate sobre a IA, bem como a vaga de medo pelos seus possíveis efeitos, que estamos a viver 25 anos depois da vitória do computador Deep Blue sobre o campeão de xadrez Garry Kasparov, deve-se ao lançamento, em novembro passado, e de imediato à rápida propagação, com 100 milhões de utilizadores em dois meses, do ChatGPT. Trata-se de um «bot» com capacidade de aprendizagem a partir de informação dispersa nas redes, que consegue responder a perguntas de uma forma detalhada e articulada inacessível à maioria dos humanos. Com o seu êxito, outras empresas, como a Microsoft, a Baidu e a Google, anunciaram ferramentas similares capazes de escrever artigos, desenhar, manipular imagens, compor música, analisar dados e até programar.
É todo um novo universo de problemas, mas também de possibilidades. As primeiras utilizações ocorreram em universidades e na pesquisa científica, logo se percebendo como passa a ser fácil, na avaliação de conhecimentos ou na produção científica, abrir caminho à fraude ou a raciocínios simplificados, ainda que sempre apresentados de forma aparentemente consistente. Passou também a ser possível misturar informações contraditórias e ideologias antagónicas, conferindo-lhes uma aparência de novidade, coerência e certeza. Os riscos sucedem-se: perpetuar e ampliar os estereótipos, facilitar a desinformação, ou usar dados pessoais e trabalhos protegidos por direitos de autor.
Podem juntar-se algumas ameaças: o The Economist aborda em recente editorial o temor da substituição dos humanos pelas máquinas, enquanto em artigo do New York Times Noam Chomsky vê a situação como «o ataque mais radical ao pensamento crítico, à inteligência e particularmente à ciência» que alguma vez conheceu, considerando que ele pode levar à inércia analítica e criativa. No entanto, são também claros os benefícios da IA: maior eficácia e rapidez na produção de texto, na tradução, na criação ou na pesquisa, ou uma superior capacidade para processar enormes quantidades de informação, aumentando a produtividade. Como com todas as inovações, o problema central está na forma de nos relacionarmos com ela. Sendo impossível, além de estúpido, bloqueá-la, devemos usá-la garantindo a hegemonia da inteligência humana.
Rui Bebiano
Imagem: Chuan Chuan/ShutterstockPublicado no Diário As Beiras de 13/5/2023