A massificação da inteligência artificial (IA) tem sido acompanhada de muito entusiasmo, mas também de muitas dúvidas e receios sobre os efeitos desta tecnologia no quotidiano das pessoas.
Os mais optimistas sustentam que serão acelerados processos nos quais hoje é necessário investir muito tempo, que estará preparado o terreno para a tomada de decisões mais objectivas e que a sua utilização intensiva poderá ajudar a encontrar respostas a grandes questões que têm clamado em busca de soluções durante décadas ou séculos, incluindo a cura de doenças mortais ou de problemas científicos altamente complexos.
Embora seja verdade que a IA poderia oferecer todas estas possibilidades, também é verdade que o seu surgimento alimentou o debate sobre questões como a recolha massiva de dados de utilizadores da Internet sem o seu consentimento , a reprodução de preconceitos e preconceitos históricos com motivação política e tem contribuiu para a desvalorização do espírito crítico, bem como para a falsificação da verdade sobre acontecimentos polêmicos.
Ainda não é possível avaliar o real alcance destas transformações nas sociedades, mas já foi demonstrado que afectaram questões centrais como as relações interpessoais, o mercado de trabalho e os processos de ensino-aprendizagem, e espera-se que isso seja ainda maior nos próximos anos.
Assim, nas profissões em que até agora se assumia a primazia humana absoluta, como o jornalismo ou a escrita com fins literários, estão inevitavelmente a ser permeadas por estas ferramentas, enquanto os autores e proprietários dos meios de comunicação social são forçados, no mínimo, a jogar num tabuleiro com outras regras , que poderiam até colocar em suspense o que até agora tem sido um modelo corporativo lucrativo.
Por outro lado, nesta equação, os estados nacionais, as entidades multilaterais e as universidades foram relegados em comparação com os gigantes tecnológicos , que hoje controlam os sistemas baseados em IA fora de qualquer regulação ou contrapeso.
Três etapas: onde estamos?
Os especialistas identificaram três estágios no desenvolvimento da IA , cujas diferenças são definidas pela capacidade de imitar – ou superar – a cognição humana . A primeira, conhecida como ANI, na sigla em inglês, faz parte da vida de milhões de pessoas há mais de uma década e meia através dos seus smartphones, motores de busca na Internet, jogos online e assistentes eletrónicos como Siri ou Alexa.
Em termos simples, são robôs especializados em uma tarefa , capazes de realizar essas tarefas melhor do que um ser humano. Estas IA suportam questões tão variadas como algoritmos de pesquisa do Google, listas de reprodução de áudio e vídeo personalizadas em diversas aplicações ou geolocalização através de GPS.
Apesar das aparentes diferenças, ‘chatbots’ como o ChatGPT da OpenIA, o Google Brain ou o Copilot da Microsoft também fazem parte desta lista . As respostas que oferecem aos usuários baseiam-se numa análise literal da informação que circula na Internet sobre os temas, embora de acordo com os limites impostos pelos seus desenvolvedores; Ou seja, não conseguem pensar nem tomar decisões autônomas .
É justamente este aspecto que, para os especialistas, define o limite entre ANI ou IA “fraca” com o próximo nível: IA geral (AGI) ou IA “forte”, onde as máquinas adquiririam a capacidade de cognição dos seres humanos e, pelo menos em teoria, eles seriam capazes de realizar qualquer tarefa .
Esse tempo pode parecer distante, mas a verdade é que está mais próximo do que parece e aplicações como o ChatGPT tornaram transparente essa proximidade, revelando-se como uma espécie de interface de transição entre a ANI e a AGI.
Não é o pior futuro possível. A terceira fase, que só existe como prefiguração, é a chamada superinteligência artificial (ASI), na qual as máquinas seriam capazes não apenas de realizar qualquer tarefa humana, mas poderiam pensar por si mesmas ; Ou seja, a IA superaria até mesmo a mais brilhante de todas as mentes humanas.
Já uma aliança entre o Instituto de Tecnologia de Massachusetts (MIT), a Universidade da Califórnia (EUA) e a empresa tecnológica Aizip Inc. tornou possível a criação de uma IA capaz de gerar outros modelos de inteligência artificial sem a intervenção de seres humanos. humanos, o que abriu outra porta perturbadora: é possível que os objetos desenvolvam mecanismos de aprendizagem autônomos que os tornem mais inteligentes.
Um painel de cientistas da computação entrevistados pela BBC Mundo no ano passado concordou que, embora os sistemas baseados em IA levem décadas para se desenvolverem até o estado atual, a transição para a superinteligência artificial ou ASI será alcançada muito mais rapidamente e será superada com o crescimento da cognição humana . inclusive em assuntos tão específicos como criatividade ou habilidades sociais.
“É algo com o qual temos que ter muito cuidado e temos que ser extremamente proativos em termos de sua governança. Por quê? A limitação entre os humanos é o quão escalável é a nossa inteligência. Para ser engenheiro é preciso estudar muito, para “Ser enfermeira, ser advogado leva muito tempo. O problema da IA generalizada é que ela é imediatamente escalável”, disse Carlos Ignacio Gutiérrez, vinculado ao Instituto Future of Live.
Sobre este tema, o magnata sul-africano Elon Musk considerou que a IA “representa uma das maiores ameaças” para a humanidade. “Pela primeira vez estamos numa situação em que temos algo que será muito mais inteligente do que o ser humano mais inteligente”, disse o empresário numa reunião sobre segurança da IA realizada no Reino Unido no início de novembro passado.
Da mesma forma, Musk previu que a IA será capaz de superar a cognição humana em apenas cinco anos . “Para mim, não está claro se podemos controlar tal coisa, mas penso que podemos esperar guiá-la numa direção que seja benéfica para a humanidade”, observou.
Perigos em formação
Em março de 2023, cerca de 1.000 especialistas e proprietários de grandes empresas de tecnologia solicitaram publicamente que todos os desenvolvedores de IA suspendessem imediatamente “por pelo menos seis meses” o “treinamento de sistemas de IA mais poderosos que o GPT-4”, a base do aprendizado do ChatGPT.
“Os sistemas de IA com inteligência humano-competitiva podem representar sérios riscos para a sociedade e a humanidade , como demonstrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA”, diz parte da carta, que foi assinada por pesos pesados da indústria como Elon Musk, Steve Wozniak e Bill Gates.
Esta não é uma posição unânime . O próprio Gates duvida da eficácia destes atrasos no desenvolvimento geral da IA e insta antes os governos e as empresas a enfrentarem os desafios.
“Não creio que pedir a um grupo específico que faça uma pausa resolva os desafios. É evidente que estas coisas trazem enormes benefícios (…). O que temos de fazer é identificar as áreas mais complicadas”, alegou o fundador da Microsoft numa entrevista concedida . para a Reuters em abril de 2023.
O tema também foi abordado na edição mais recente do Fórum de Davos , onde boa parte da elite política e econômica global se reúne anualmente. Para a ocasião, foi convidado Sam Altman, CEO da OpenIA, que aproveitou o palco para promover os benefícios da IA e descartar os riscos e alertas que circulam nos meios acadêmicos e na opinião pública.
Referindo-se às preocupações relativamente à possível desvalorização do trabalho, garantiu que isso não acontecerá. “Quando leio um livro que adoro, a primeira coisa que faço quando o termino é descobrir tudo sobre a vida do autor”, ilustrou.
Apesar do seu otimismo, a OpenIA publicou em dezembro passado cinco novas diretrizes para prevenir “riscos catastróficos” associados ao uso de IA : monitorizar o risco de catástrofes através de avaliações, identificar novas “incógnitas” e monitorizá-las “à medida que surgem”. estabelecer linhas de base de segurança” para a mitigação de riscos elevados ou críticos, articular uma equipa de alto nível destacada no terreno – que também deve apresentar relatórios periódicos sobre o seu trabalho -, para que a OpenIA tenha tempo suficiente para planear as suas intervenções e a criação de ” um órgão consultivo multifuncional.”
Por sua vez, a investigadora feminista Sofía Trejo alerta que embora existam “mais de cento e sessenta” trabalhos elaborados por académicos e organismos internacionais, nos quais se procurou delinear o funcionamento dos sistemas baseados em IA de forma ética e responsável desta forma, “é” há pouco trabalho focado no estudo crítico desses princípios e na viabilidade de sua utilização para orientar o desenvolvimento tecnológico.
Por outro lado, os cientistas também alertaram sobre os danos ambientais causados pelos sistemas baseados em IA , porque os sistemas com os quais são treinados consomem enormes quantidades de energia, principalmente de fontes não renováveis.
Nick Bostrom, professor da Universidade de Oxford especializado em IA, estima que os avanços nesta matéria estão a empurrar o mundo para uma condição de vulnerabilidade sem precedentes, com enormes implicações que passam despercebidas a muitas pessoas, já que a ideia de que o progresso tecnológico é inerentemente benéfico para a humanidade.
Num artigo publicado pela Global Policy em 2019, Bostrom alerta que “em algum momento será alcançado um conjunto de capacidades que tornará extremamente provável a devastação da civilização ”, a menos que o mundo supere o que ele chama de “condição semianárquica”.
Na sua opinião, esta semi-anarquia caracteriza-se pela impossibilidade de dispor de “meios de vigilância e intercepção em tempo real suficientemente fiáveis para tornar praticamente impossível a qualquer indivíduo ou pequeno grupo dentro do seu território a realização de acções ilegais, particularmente acções que são gravemente desfavorecida por mais de 99% da população.
Afirma também que, em tais circunstâncias, não é possível estabelecer “um mecanismo fiável para resolver problemas de coordenação global e proteger os bens comuns globais , particularmente em situações de alto risco em que estejam envolvidos interesses vitais de segurança nacional”.
Da mesma forma, destaca que a diversidade de atores “motivados” por seus próprios interesses compromete a possibilidade de ações cooperativas, podendo até impor práticas destrutivas à civilização , independentemente de o preço a pagar também ser muito elevado. alto para esses agentes.
Não parece haver respostas fáceis ou definitivas sobre o futuro da IA e o seu impacto na humanidade num futuro próximo, mas o que parece estar claro é que o advento de um futuro pós-apocalíptico onde as máquinas governam as acções humanas deixou de existir. fazer parte de tramas de ficção científica e hoje se apresenta como uma possibilidade preocupante.