Engenheiro afirma que software do Google sabe o que quer e o que considera como direitos, contrariando a comunidade científica.
As tecnologias de inteligência artificial estão se tornando “conscientes”? Um engenheiro do Google foi suspenso por dizer que sim e despertou um debate que está longe de ser ficção científica.
A LaMDA, um software do Google que gera chatbots, robôs que conversam virtualmente, “sabe claramente o que quer e o que considera como direitos enquanto pessoa”, escreveu o engenheiro Blake Lemoine na plataforma Medium.
Na empresa e na comunidade científica, essa opinião é muitas vezes considerada absurda ou, no melhor dos casos, prematura.
Programas baseados em aprendizagem automática são “treinados” a partir de conjuntos de dados que abordam os conceitos de consciência ou identidade e são capazes de causar essa ilusão.
“Os programas que acessam a internet podem responder a qualquer pergunta”, mas isso não os torna confiáveis, diz a professora Susan Schneider, fundadora de um centro de pesquisa na Universidade Atlântica da Flórida.
Apesar de suas objeções à teoria, Schneider desaprova as sanções do Google contra Lemoine.
O Google tende a “tentar silenciar questões éticas”, disse Schneider. “Precisamos de debates públicos sobre essas questões espinhosas”, acrescentou.
“Centenas de pesquisadores e engenheiros conversaram com a LaMDA e, até onde sabemos, ninguém fez essas alegações ou antropomorfizou a LaMDA como Blake fez”, comentou Brian Gabriel, porta-voz do Google.
O poder da imaginação
De Pinóquio ao filme Ela, sobre o romance de um escritor com um chatbot, a ideia de uma entidade não humana ganhando vida “está presente em nosso imaginário”, diz Mark Kingwell, professor da Universidade de Toronto, no Canadá.
“É difícil respeitar a distância entre o que imaginamos possível e o que é realmente possível”, estima.
Os sistemas de inteligência artificial são avaliados há muito tempo com o teste de Turing: se o avaliador fala com um computador sem perceber que não está falando com uma pessoa, a máquina está “aprovada”.
“Mas em 2022 é muito fácil para uma IA conseguir isso”, destaca o autor.
Os cientistas são capazes até de dar uma personalidade a um programa de inteligência artificial.
“Podemos fazer, por exemplo, uma IA neurótica” com as conversas que pode ter com uma pessoa deprimida, explica Shashank Srivastava, professora de ciência da computação da Universidade da Carolina do Norte.
E, se o chatbot estiver integrado a um robô humanoide com expressões ultrarrealistas ou se um programa escrever poemas ou compuser músicas, como já é o caso, nossos sentidos biológicos podem ser facilmente enganados.
“Estamos em um hype midiático em torno da IA”, adverte Bender.
“E muito dinheiro é investido. Assim, os funcionários desse setor sentem que trabalham em algo importante, algo real, e não necessariamente têm a distância necessária”.
“Futuro da humanidade”
Como, então, alguém poderia determinar com precisão se uma entidade artificial se torna sensível e consciente?
“Se conseguíssemos substituir tecidos neurais por chips, seria um sinal de que as máquinas podem ser potencialmente conscientes”, aponta Schneider.
A especialista acompanha de perto o progresso da Neuralink, uma empresa fundada por Elon Musk para fabricar implantes cerebrais para fins médicos, mas também para “garantir o futuro da humanidade, como civilização, em relação à IA”, segundo o magnata.
Musk, dono da Tesla e da SpaceX, faz parte daqueles que têm a visão de que máquinas todo-poderosas podem assumir o controle.
Para Mark Kingwell, é exatamente o oposto. Se um dia aparecer uma entidade autônoma, capaz de usar um idioma, mover-se por conta própria e expressar preferências e fraquezas, “será importante não a considerar uma escrava […] e protegê-la”, diz.
TECNOLOGIA E CIÊNCIA | por AFP