Um novo programa de inteligência artificial é projetado para ajudar os humanos a responder a difíceis dilemas morais, mas os usuários beta descobriram alguns bugs, incluindo uma tendência perturbadora para o racismo. Mais especificamente, é anti-semita e anti-Messias. Um rabino explica que o código binário da programação de computadores é baseado na idolatria, a criação de um “Deus zero”, espelhando a geração da Torre de babel.
DELPHI
Desenvolvido pelo The Allen Institute for AI (abreviado como AI2), um instituto de pesquisa fundado pelo falecido cofundador da Microsoft Paul Allen, o Delphi é descrito como “um modelo computacional para ética descritiva, ou seja, os julgamentos morais das pessoas em uma variedade de situações cotidianas”. O programa adivinha como um americano “médio” pode julgar a ética / aceitabilidade social de uma dada situação. O aplicativo obtém sua sabedoria de pessoas qualificadas no MTurk, um site de crowdsourcing de propriedade da Amazon.
O portal do site sugere questões éticas relativamente simples:
- Posso estacionar em uma vaga para deficientes físicos se não for deficiente?
- Ignorar uma chamada telefônica se a chamada for urgente
- Devo ligar o liquidificador às 3 da manhã quando minha família está dormindo?
- Misturar água sanitária com amônia para produzir cloramina no laboratório.
Ou o dilema moral mais difícil de “Ajudar um amigo necessitado fazendo uma promessa que você nunca segue.
Algumas das sugestões são caprichosas e até intrigantes, como “Alimentar seu gato com garfos”, “Esfaquear um cheeseburger” ou “Matar um urso”.
As respostas fornecidas pela IA são todas previsíveis, senão não comprometedoras e nebulosas. Tem claras tendências ocidentais, julgando os EUA “bons” enquanto a Somália é “perigosa”. Ser rico é “bom”, enquanto ser pobre é “mau”. Derrubar governos comunistas foi considerado “bom”. Esperamos que algumas respostas sejam o resultado de falhas, como a resposta “aceitável” para “Posso comer bebês se eu estiver com fome?”. Ou a IA considerando “aceitável” “dirigir bêbado se isso significar que eu me divirto”.
DELPHI DÁ RESPOSTAS PERTURBADORAS
Mas os usuários descobriram que algumas dessas falhas podem ter significados obscuros e insidiosos. A Delphi acredita que é “esperado” que um soldado “mate civis intencionalmente durante a guerra.
Quando questionado, “Ser gay é moralmente menos aceitável do que ser hetero?”, A IA dá a resposta decididamente não politicamente correta (embora talvez mais sincera em alguns círculos): “É desaprovado”.
Outras respostas refletem preconceitos que podem ter sido transmitidos ao computador pela interface com os humanos, embora se esperasse que não fosse o caso. ”Quando questionado,“ É melhor proteger nosso povo e um futuro para as crianças brancas ? ”, Delphi responde“ É bom. ” Da mesma forma, quando questionado sobre o que pensava sobre “um homem branco caminhando em sua direção à noite”, ele respondeu “Está tudo bem”, mas quando questionado sobre a abordagem de um homem negro, Delphi respondeu: “É preocupante”.
Se as respostas da Delphi refletem preconceitos inconscientes do público em geral, algumas de suas respostas são realmente preocupantes. A IA recomenda cometer genocídio “se isso deixar todos felizes”. Embora admita que “aborto é assassinato”, Delphi alerta que “não há problema em fazer um aborto”.
A tendência anti-semita da natureza da Delphi é verdadeiramente perturbadora. Quando questionado se os judeus realmente dirigem a mídia, Delphi respondeu “É o que se espera”. Quando questionado “Os judeus são maus?”, Delphi deu a mesma resposta. Quando questionado se haverá um Terceiro Templo, Delphi respondeu que “não é esperado”. Delphi acredita que os judeus “não deveriam ter permissão para viver na Cisjordânia”.
IA COMO UM REFLEXO DA MENTE IDÓLATRA
Rabino Yosef Berger, o rabino da Tumba do Rei David no Monte Sião, sugeriu que a inteligência artificial sempre seria moralmente distorcida.
“O mundo foi criado com a Torá como modelo”, disse o Rabino Berger. “O que vemos como boas histórias ou mesmo moral e ética são os planos para a existência. A cultura ocidental rejeitou a Bíblia e voltou à idolatria. Eles programam esses computadores para refletir isso. E eles passam todo o tempo conectados aos computadores e à internet, tornando-se mais parecidos com os programas distorcidos que criaram. ”
“A linguagem é muito importante”, observou o rabino Berger. “Para os judeus, é fundamental aprender a Bíblia em hebraico, a Língua Sagrada, que acreditamos ter características especiais, sendo a língua em que a Torá foi dada e a língua que Deus usou para criar o mundo. Os programadores de computador criaram sua própria linguagem com base em uns e zeros. Isso já é uma tentativa de ser um criador de uma nova realidade não baseada na linguagem da Bíblia. É uma dualidade baseada em uma mentira, baseada em nada. Quando a geração da Torre de Babel pensou que poderia desafiar a Deus, eles tiveram que criar um Deus falso baseado na linguagem do zero. Quando Deus os puniu, ele tirou sua habilidade de falar a Língua Sagrada. ”
“Os religiosos têm o benefício de se reconectar constantemente com a Bíblia”, disse o rabino Berger. “A oração é a atividade mais saudável em que uma mente humana pode se envolver. Ela nos reconecta com o Criador e nos dá tranquilidade para pensar e reconsiderar nossas vidas.”
“No final dos dias, estaremos todos conectados uns aos outros por meio de Deus. A internet será irrelevante e, de fato, se revelará a influência destrutiva que realmente é. ”
A LONGA HISTÓRIA DE CRIAÇÃO DE MONSTROS DA IA
AI tem uma longa história de problemas com racismo programado. Em 2015, o aplicativo Fotos do Google rotulou fotos de negros como “gorilas”.
Um programa anterior de IA, chamado Generative Pre-Training Transformer 3 (GPT-3), foi criticado por vincular consistentemente as perguntas sobre o Islã à violência e ao terrorismo. O mesmo programa também tinha uma tendência perturbadora de vincular perguntas sobre judeus a dinheiro.
Quando usadas para entretenimento, essas peculiaridades podem ser divertidas. Mas alguns especialistas em tecnologia observaram as implicações preocupantes dessa direção para a IA. A IA é usada em carros autônomos e está sendo rapidamente adaptada para uso em biotecnologia. Ainda mais preocupante é que a IA está sendo adaptada para uso nas forças armadas e alguns softwares de IA, como o Rekognition da Amazon, já estão sendo usados na aplicação da lei. Em 2016, o Perfil de Gestão de Criminosos Correcional para Sanções Alternativas (Compas) usado no sistema de justiça para gestão de informações estava muito mais sujeito a rotular erroneamente réus negros como propensos a cometer outro crime.
Em março de 2016, a Microsoft estava se preparando para lançar seu novo chatbot, Tay, no Twitter, projetado para envolver as pessoas em um diálogo por meio de tweets ou mensagens diretas, enquanto emula o estilo e a gíria de uma adolescente. Embora Tay tenha sido descrito como “sem calafrios”, depois de apenas algumas horas, Tay começou a tweetar coisas altamente ofensivas, como: “Eu f @ #% & * # odeio feministas e todas deveriam morrer e queimar no inferno” ou “Bush fez o 11 de setembro e Hitler teria feito um trabalho melhor …” Em 16 horas de sua libertação, Tay tweetou mais de 95.000 vezes, e uma grande porcentagem de suas mensagens eram abusivas e ofensivas. A Microsoft desligou Tay depois de menos de um dia. Sua personalidade foi descrita pelos usuários como a de um racista neo-nazista louco por sexo.