,

Risco de extinção pela IA deve ser uma prioridade global, dizem especialistas

Centenas de líderes de tecnologia pedem que o mundo trate a IA como um perigo equiparável a pandemias e guerras nucleares.

Um grupo de especialistas em tecnologia de destaque de todo o mundo alertou que a tecnologia de inteligência artificial deve ser considerada um risco social e prioritizada da mesma forma que pandemias e guerras nucleares.

A declaração, assinada por centenas de executivos e acadêmicos, foi divulgada pelo Centro de Segurança de IA na terça-feira, em meio a crescentes preocupações com a regulamentação e os riscos que a tecnologia representa para a humanidade.

“Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear”, disse a declaração. Os signatários incluíam os executivos-chefes do Google’s DeepMind, o desenvolvedor do ChatGPT OpenAI e a startup de IA Anthropic.

Líderes globais e especialistas do setor, como os líderes da OpenAI, têm pedido regulamentação da tecnologia devido a temores existenciais de que ela possa afetar significativamente os mercados de trabalho, prejudicar a saúde de milhões de pessoas e usar desinformação, discriminação e falsidade para fins de armamento.

Neste mês, o homem frequentemente considerado o “padrinho da IA” – Geoffrey Hinton, também signatário – deixou o Google, citando seu “risco existencial”. O risco foi ecoado e reconhecido pelo governo britânico na semana passada pela primeira vez – uma mudança rápida de postura dentro do governo que ocorreu dois meses após a publicação de um white paper de IA que, segundo especialistas do setor, já está desatualizado.

Embora a carta publicada na terça-feira não seja a primeira, ela é potencialmente a mais impactante, dada sua ampla variedade de signatários e sua preocupação existencial central, de acordo com Michael Osborne, professor de aprendizado de máquina na Universidade de Oxford e co-fundador da Mind Foundry.

“É realmente notável que tantas pessoas tenham assinado esta carta”, disse ele. “Isso mostra que está havendo uma crescente conscientização entre aqueles de nós que trabalham com IA de que os riscos existenciais são uma preocupação real.”

O potencial da IA para agravar riscos existenciais existentes, como pandemias criadas artificialmente e corridas armamentistas militares, são preocupações que levaram Osborne a assinar a carta pública, juntamente com as ameaças existenciais inéditas da IA.

Os apelos para conter as ameaças surgem após o sucesso do ChatGPT, lançado em novembro. O modelo de linguagem foi amplamente adotado por milhões de pessoas e avançou rapidamente além das previsões dos mais bem informados do setor.

Osborne disse: “Como não entendemos muito bem a IA, existe a possibilidade de que ela desempenhe um papel como um tipo de novo organismo concorrente no planeta, uma espécie invasora que projetamos e que pode desempenhar um papel devastador em nossa sobrevivência como espécie”.

 

Fonte: The Guardian

0 respostas

Deixe uma resposta

Want to join the discussion?
Feel free to contribute!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *