O próprio sistema de inteligência artificial da OpenAI aponta ataques cibernéticos e armas automatizadas como riscos da tecnologia; confira também o que diz a carta assinada por Elon Musk
Uma carta aberta alertando para os perigos do desenvolvimento desenfreado de inteligência artificial (IA) foi assinada pelo Elon Musk nesta quarta-feira (29).
Elaborado pelo Future of Life, instituto sem fins lucrativos que trata da criação responsável de novas tecnologias, o texto pede a suspensão imediata por seis meses do treinamento de sistemas de IA mais avançados que o GPT-4. Confira abaixo a carta na íntegra.
O GPT-4 é uma espécie de evolução do ChatGPT, esta uma das ferramentas de inteligência artificial mais famosas do mundo. Com mais recursos e maior precisão nos resultados, a versão 4 do sistema está disponível para assinantes da modalidade paga do sistema.
Diante da publicação, pedimos que o ChatGPT elaborasse sobre as ameaças da IA e o texto do Future of Life. Antes de tecer a análise, o sistema afirma que é apenas um modelo de linguagem, sem crenças pessoais ou opiniões. No vídeo acima, você confere como a plataforma funciona.
A ferramenta aponta que muitas pessoas na comunidade que cria inteligência artificial apoiam a posição da carta, com divergências específicas em alguns pontos.
Em todo caso, o impacto da IA na sociedade vai depender de como as ferramentas serão desenvolvidas e usadas, escreve o robô.
Sobre os riscos gerais dessa tecnologia, a resposta do ChatGPT concorda em vários pontos com o texto assinado por Musk. Um deles é que consequências que não foram previstas podem levar a danos significativos.
“A IA pode ser usada de forma maliciosa, como em ataques cibernéticos, vigilância ou armas autônomas”, diz o chatbot. Abaixo, veja a declaração completa do ChatGPT sobre os perigos da inteligência artificial.
Além de bilionário e dono de empresas como Tesla, Musk é um dos criadores da OpenAI, empresa criadora do ChatGPT. Ele deixou a companhia em fevereiro de 2018, após desentendimentos com Sam Altman, o outro fundador.
O que pede a carta aberta sobre inteligência artificial?
O texto aponta que os sistemas de IA podem representar riscos profundos para a sociedade e para a humanidade.
Por isso, a entidade pede a suspensão temporária do desenvolvimento para que os criadores das ferramentas e especialistas independentes criem um conjunto de protocolos de segurança, que evitem consequências catastróficas.
O que o ChatGPT diz sobre os riscos da inteligência artificial?
A Inteligência Artificial (IA) tem o potencial de beneficiar muito a humanidade, fornecendo novas soluções para problemas complexos em áreas como saúde, educação, transporte e muito mais. No entanto, também há preocupações de que o rápido avanço da IA possa representar riscos e desafios para a humanidade.
Uma ameaça potencial da IA é o risco de consequências não intencionais ou erros que podem levar a danos significativos. Por exemplo, um sistema de IA pode ser projetado para otimizar um determinado objetivo, mas seu processo de tomada de decisão pode levar a consequências negativas não intencionais.
Outra preocupação é a possibilidade de que a IA possa ser usada de forma maliciosa, como em ataques cibernéticos, vigilância ou armas automatizadas.
É importante notar, no entanto, que a IA não é inerentemente boa ou ruim. Em vez disso, seu impacto na sociedade dependerá de como é desenvolvido e usado. Esforços estão sendo feitos para garantir que a IA seja desenvolvida de maneira segura e responsável, como por meio do estabelecimento de diretrizes éticas e estruturas regulatórias.
No geral, embora existam riscos potenciais associados à IA, é possível mitigar esses riscos por meio do desenvolvimento e uso responsável e aproveitar os benefícios da IA para a melhoria da humanidade.
Leia a carta aberta assinada por Musk sobre os riscos da IA
Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA.
Conforme declarado nos amplamente endossados Princípios de IA de Asilomar, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais.
Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.
Os sistemas contemporâneos de IA estão se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios?
Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização?
Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema.
A declaração recente da OpenAI sobre inteligência artificial geral afirma que “Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordar em limitar a taxa de crescimento da computação usada para criar novos modelos”. Nós concordamos. Esse ponto é agora.
Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.
Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa-preta cada vez maiores e imprevisíveis com capacidades emergentes.
A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.
Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA.
Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.
A humanidade pode desfrutar de um futuro próspero com IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um “verão de IA” no qual colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade. Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não correr despreparados para o outono.
BAND JORNALISMO