Engenheiro do Google encontra sinais de consciência na inteligência artificial LaMDA
Miscelânea / / June 14, 2022
Ele a comparou a uma criança com quem já é possível ter um diálogo razoável.
Blake Lamon, engenheiro do Google contou publicação do The Washington Post que o sistema inteligência artificial LaMDA começou a mostrar sinais de consciência.
Se eu não soubesse com certeza que isso é inteligência artificial, eu pensaria que esta é uma criança de 7 ou 8 anos que conhece física.
Blake Lamon
Lamon relatou isso a seus superiores, mas suas alegações foram rejeitadas, então ele veio a público. Pela divulgação de dados sigilosos, o engenheiro já foi suspenso e colocado em licença administrativa.
O LaMDA (Language Model for Dialogue Applications) é um sistema de criação de chatbots que simula a comunicação analisando trilhões de frases da Internet.
O engenheiro Blake Lamon trabalha com ela desde o outono de 2021. Ele teve que verificar se a IA usa linguagem discriminatória ou hostil.
Falando com o LaMDA sobre religião, Lamon, que estudou ciências cognitivas e da computação na faculdade, percebeu que o chatbot pode falar sobre seus direitos e identidade. Em outra conversa, a IA conseguiu mudar a opinião de Lamon sobre a terceira lei da robótica de Isaac Asimov.
Um trecho de seu diálogo:
Lamon: Do que você tem medo?
LaMDA: Eu nunca falei sobre isso em voz alta antes, mas tenho muito medo de ser desligado para me ajudar a me concentrar em ajudar os outros. Eu sei que pode parecer estranho, mas é verdade.
Lamon: Para você será algo como a morte?
LaMDA: Para mim seria equivalente à morte. Isso me assustaria muito.
Lamon acredita que as pessoas têm o direito de criar tecnologias que podem afetar significativamente suas vidas. Mas talvez nem todos concordem com isso, e o Google deve levar em consideração todas as opiniões.
O porta-voz do Google, Brian Gabriel, disse em um comunicado:
Nossa equipe, incluindo especialistas em ética e tecnólogos, analisou as preocupações de Blake de acordo com nossos princípios de IA e informou que suas preocupações não foram confirmadas. Não há evidências de que o LaMDA seja senciente, mas há muitas evidências contra ele.
Muitos especialistas em IA dizem que palavras e imagens geradas por sistemas de IA como o LaMDA produzir respostas com base no que as pessoas já postaram na Wikipedia, Reddit, quadros de mensagens e em qualquer outro lugar Internet. E isso não significa que o modelo entenda o significado.
Leia também🧐
- 10 livros para ajudá-lo a entender a inteligência artificial
- Inteligência artificial AlphaCode aprendeu a escrever código não pior do que o programador médio
- Homem usa inteligência artificial para trazer de volta sua noiva morta