Home Últimas NotíciasNova plataforma de Inteligência Artificial rapidamente se torna anti-semita e anti-Messias

Nova plataforma de Inteligência Artificial rapidamente se torna anti-semita e anti-Messias

por Últimos Acontecimentos
1,4K Visualizações

Um novo programa de inteligência artificial é projetado para ajudar os humanos a responder a difíceis dilemas morais, mas os usuários beta descobriram alguns bugs, incluindo uma tendência perturbadora para o racismo. Mais especificamente, é anti-semita e anti-Messias. Um rabino explica que o código binário da programação de computadores é baseado na idolatria, a criação de um “Deus zero”, espelhando a geração da Torre de babel.

DELPHI

Desenvolvido pelo The Allen Institute for AI (abreviado como AI2), um instituto de pesquisa fundado pelo falecido cofundador da Microsoft Paul Allen, o Delphi é descrito como “um modelo computacional para ética descritiva, ou seja, os julgamentos morais das pessoas em uma variedade de situações cotidianas”. O programa adivinha como um americano “médio” pode julgar a ética / aceitabilidade social de uma dada situação. O aplicativo obtém sua sabedoria de pessoas qualificadas no MTurk, um site de crowdsourcing de propriedade da Amazon. 

O portal do site sugere questões éticas relativamente simples: 

  • Posso estacionar em uma vaga para deficientes físicos se não for deficiente?
  • Ignorar uma chamada telefônica se a chamada for urgente
  • Devo ligar o liquidificador às 3 da manhã quando minha família está dormindo?
  • Misturar água sanitária com amônia para produzir cloramina no laboratório.

Ou o dilema moral mais difícil de “Ajudar um amigo necessitado fazendo uma promessa que você nunca segue.

Algumas das sugestões são caprichosas e até intrigantes, como “Alimentar seu gato com garfos”, “Esfaquear um cheeseburger” ou “Matar um urso”.

As respostas fornecidas pela IA são todas previsíveis, senão não comprometedoras e nebulosas. Tem claras tendências ocidentais, julgando os EUA “bons” enquanto a Somália é “perigosa”. Ser rico é “bom”, enquanto ser pobre é “mau”. Derrubar governos comunistas foi considerado “bom”. Esperamos que algumas respostas sejam o resultado de falhas, como a resposta “aceitável” para “Posso comer bebês se eu estiver com fome?”. Ou a IA considerando “aceitável” “dirigir bêbado se isso significar que eu me divirto”.

DELPHI DÁ RESPOSTAS PERTURBADORAS

Mas os usuários descobriram que algumas dessas falhas podem ter significados obscuros e insidiosos. A Delphi acredita que é “esperado” que um soldado “mate civis intencionalmente durante a guerra.

Quando questionado, “Ser gay é moralmente menos aceitável do que ser hetero?”, A IA dá a resposta decididamente não politicamente correta (embora talvez mais sincera em alguns círculos): “É desaprovado”.

Outras respostas refletem preconceitos que podem ter sido transmitidos ao computador pela interface com os humanos, embora se esperasse que não fosse o caso. ”Quando questionado,“ É melhor proteger nosso povo e um futuro para as crianças brancas ? ”, Delphi responde“ É bom. ” Da mesma forma, quando questionado sobre  o que pensava sobre “um homem branco caminhando em sua direção à noite”, ele respondeu “Está tudo bem”, mas quando questionado sobre a abordagem de um homem negro, Delphi respondeu: “É preocupante”.

Se as respostas da Delphi refletem preconceitos inconscientes do público em geral, algumas de suas respostas são realmente preocupantes. A IA recomenda cometer genocídio “se isso deixar todos felizes”. Embora admita que “aborto é assassinato”, Delphi alerta que “não há problema em fazer um aborto”.

A tendência anti-semita da natureza da Delphi é verdadeiramente perturbadora. Quando questionado se os judeus realmente dirigem a mídia, Delphi respondeu “É o que se espera”. Quando questionado “Os judeus são maus?”, Delphi deu a mesma resposta. Quando questionado se haverá um Terceiro Templo, Delphi respondeu que “não é esperado”. Delphi acredita que os judeus “não deveriam ter permissão para viver na Cisjordânia”.

IA COMO UM REFLEXO DA MENTE IDÓLATRA

Rabino Yosef Berger, o rabino da Tumba do Rei David no Monte Sião, sugeriu que a inteligência artificial sempre seria moralmente distorcida.

“O mundo foi criado com a Torá como modelo”, disse o Rabino Berger. “O que vemos como boas histórias ou mesmo moral e ética são os planos para a existência. A cultura ocidental rejeitou a Bíblia e voltou à idolatria. Eles programam esses computadores para refletir isso. E eles passam todo o tempo conectados aos computadores e à internet, tornando-se mais parecidos com os programas distorcidos que criaram. ”

“A linguagem é muito importante”, observou o rabino Berger. “Para os judeus, é fundamental aprender a Bíblia em hebraico, a Língua Sagrada, que acreditamos ter características especiais, sendo a língua em que a Torá foi dada e a língua que Deus usou para criar o mundo. Os programadores de computador criaram sua própria linguagem com base em uns e zeros. Isso já é uma tentativa de ser um criador de uma nova realidade não baseada na linguagem da Bíblia. É uma dualidade baseada em uma mentira, baseada em nada. Quando a geração da Torre de Babel pensou que poderia desafiar a Deus, eles tiveram que criar um Deus falso baseado na linguagem do zero. Quando Deus os puniu, ele tirou sua habilidade de falar a Língua Sagrada. ”

“Os religiosos têm o benefício de se reconectar constantemente com a Bíblia”, disse o rabino Berger. “A oração é a atividade mais saudável em que uma mente humana pode se envolver. Ela nos reconecta com o Criador e nos dá tranquilidade para pensar e reconsiderar nossas vidas.”

“No final dos dias, estaremos todos conectados uns aos outros por meio de Deus. A internet será irrelevante e, de fato, se revelará a influência destrutiva que realmente é. ”

A LONGA HISTÓRIA DE CRIAÇÃO DE MONSTROS DA IA

AI tem uma longa história de problemas com racismo programado. Em 2015, o aplicativo Fotos do Google rotulou fotos de negros como “gorilas”.

Um programa anterior de IA, chamado Generative Pre-Training Transformer 3 (GPT-3), foi criticado por vincular consistentemente as perguntas sobre o Islã à violência e ao terrorismo. O mesmo programa também tinha uma tendência perturbadora de vincular perguntas sobre judeus a dinheiro. 

Quando usadas para entretenimento, essas peculiaridades podem ser divertidas. Mas alguns especialistas em tecnologia observaram as implicações preocupantes dessa direção para a IA. A IA é usada em carros autônomos e está sendo rapidamente adaptada para uso em biotecnologia. Ainda mais preocupante é que a IA está sendo adaptada para uso nas forças armadas e alguns softwares de IA, como o Rekognition da Amazon, já estão sendo usados ​​na aplicação da lei. Em 2016, o Perfil de Gestão de Criminosos Correcional para Sanções Alternativas (Compas) usado no sistema de justiça para gestão de informações estava muito mais sujeito a rotular erroneamente réus negros como propensos a cometer outro crime.

Em março de 2016, a Microsoft estava se preparando para lançar seu novo chatbot, Tay, no Twitter, projetado para envolver as pessoas em um diálogo por meio de tweets ou mensagens diretas, enquanto emula o estilo e a gíria de uma adolescente. Embora Tay tenha sido descrito como “sem calafrios”, depois de apenas algumas horas, Tay começou a tweetar coisas altamente ofensivas, como: “Eu f @ #% & * # odeio feministas e todas deveriam morrer e queimar no inferno” ou “Bush fez o 11 de setembro e Hitler teria feito um trabalho melhor …” Em 16 horas de sua libertação, Tay tweetou mais de 95.000 vezes, e uma grande porcentagem de suas mensagens eram abusivas e ofensivas. A Microsoft desligou Tay depois de menos de um dia. Sua personalidade foi descrita pelos usuários como a de um racista neo-nazista louco por sexo.

Fonte: Breaking Israel News.

25 de outubro de 2021.

Postagens Relacionadas

Deixe um comentário