fbpx
Início > Executivos e especialistas pedem em carta que pesquisas em IA seja suspensa por 6 meses

Executivos e especialistas pedem em carta que pesquisas em IA seja suspensa por 6 meses

O futuro de humanidade e a política está em risco com o crescimento desenfreado da IA, diz signatários da carta | Imagem: Freepik

Mais de mil pessoas que integram especialistas em inteligência artificial e executivos do setor, incluindo o bilionário Elon Musk, estão pedindo uma pausa de seis meses no desenvolvimento de sistemas de Inteligência Artificial (IA) mais poderosos que o recém-lançado GPT-4 da OpenA, que tem a Microsoft como um dos principais apoiadores. O pedido consta de uma carta aberta que cita potenciais riscos para a sociedade e a humanidade, emitida pela organização sem fins lucrativos Future of Life Institute, cuja íntegra, em inglês, pode ser lida ao clicar neste link.

“Poderosos sistemas de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, diz trecho da carta assinada pelo grupo. O documento detalha os riscos potenciais para a sociedade e a civilização na forma de problemas econômicos e políticos e convoca os desenvolvedores a trabalharem com formuladores de políticas e autoridades reguladoras sobre governança.

A carta se inicia fazendo um apelo: “Apelamos a todos os laboratórios de IA para que parem imediatamente durante pelo menos 6 meses a formação de sistemas de IA mais potentes do que o GPT-4.” E faz questionamentos: “: Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e mentira? Deveríamos automatizar todos os trabalhos, incluindo os de preenchimento? Deveríamos desenvolver mentes não humanas que possam eventualmente ultrapassar em número, ser mais espertas, obsoletas e substituir-nos? Deveríamos arriscar-nos a perder o controlo da nossa civilização?”

E complementa: “Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Os poderosos sistemas de IA só devem ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e de que os seus riscos serão controláveis. Esta confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema”

“Riscos para a sociedade e a humanidade”

O documento ainda faz a seguinte afirmação: “Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, como demonstrado por investigação extensiva[1] e reconhecido pelos melhores laboratórios de IA. Como declarado nos Princípios de IA de Asilomar, amplamente endossados, a IA avançada pode representar uma mudança profunda na história da vida na Terra, e deve ser planeada e gerida com cuidados e recursos proporcionais”.

“Infelizmente, este nível de planeamento e gestão não está a acontecer, ainda que nos últimos meses se tenham visto laboratórios de IA fechados numa corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo os seus criadores – consegue compreender, prever, ou controlar de forma fiável. Os sistemas de IA contemporâneos estão agora a tornar-se competitivos em termos humanos nas tarefas gerais[3], e temos de nos interrogar”, prossegue.

Pausa de seis meses

“Por conseguinte, apelamos a todos os laboratórios de IA para que parem imediatamente durante pelo menos 6 meses a formação de sistemas de IA mais potentes do que o GPT-4. Esta pausa deve ser pública e verificável, e incluir todos os atores-chave. Se uma tal pausa não puder ser decretada rapidamente, os governos deveriam intervir e instituir uma moratória”, continua a carta.

“Os laboratórios de IA e peritos independentes deveriam utilizar esta pausa para desenvolver e implementar conjuntamente um conjunto de protocolos de segurança partilhados para a concepção e desenvolvimento avançado de IA que são rigorosamente auditados e supervisionados por peritos externos independentes. Estes protocolos devem assegurar que os sistemas que os aderem são seguros para além de qualquer dúvida razoável. Isto não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso da corrida perigosa para modelos de caixa negra cada vez maiores e imprevisíveis com capacidades emergentes”, complementa.

Necessidade de autoridades reguladoras

Ainda é solicitado que o desenvolvimento de sistemas robustos de administração de I devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e acompanhamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e de marca de água para ajudar a distinguir o real do sintético e a acompanhar fugas de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para investigação técnica de segurança da IA; e instituições com bons recursos para lidar com as dramáticas perturbações económicas e políticas (especialmente para a democracia) que a IA irá causar.

“A humanidade pode desfrutar de um futuro próspero com a gripe aviária. Tendo conseguido criar sistemas poderosos de IA, podemos agora desfrutar de um ‘Verão de IA’ em que colhemos as recompensas, criamos estes sistemas para o claro benefício de todos, e damos à sociedade uma oportunidade de se adaptar. A sociedade fez uma pausa sobre outras tecnologias com efeitos potencialmente catastróficos na sociedade. Vamos desfrutar de um longo Verão AI, não nos apressemos a cair sem estarmos preparados”, finaliza.