A carta defende que sistemas poderosos de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que seus riscos serão administráveisCrédito: Reprodução
tecnologia & inovação
Musk e especialistas pedem pausa em testes com IA e alertam para riscos à humanidade
Carta aberta diz que é preciso, primeiro, estabelecer protocolos de segurança nos sistemas
O empresário Elon Musk e mais de mil pessoas, entre especialistas e executivos da Tecnologia, assinaram ontem (29) uma carta aberta pedindo para que empresas do ramo pausem por seis meses os experimentos com inteligência artificial (IA), alegando “grandes riscos para a humanidade”.
O documento foi publicado no site futureoflife.org e explica que a pausa é necessária até que sejam estabelecidos e inseridos protocolos de segurança nos sistemas, com técnicas que auxiliem a distinguir entre o real e o artificial, além de órgãos que sejam capazes de enfrentar “dramáticas perturbações econômicas e políticas, especialmente para a democracia, que a IA irá causar”.
Além das fake news, os novos modelos de IA podem causar desemprego em massa em todo o planeta.
Os assinantes pedem para que as empresas pausem os treinamentos de sistemas de IA “mais poderosos que o GPT-4”, uma espécie de nova versão do ChatGPT lançado pela OpenAI neste mês.
Inclusive, Sam Altman, CEO da OpenAI, disse ter “um pouco de medo” de que sua criação possa ser usada para gerar ataques cibernéticos e desinformação em larga escala, afirmando que a companhia precisa de tempo para se adaptar.
Além de Elon Musk, que é ainda CEO da Tesla, da SpaceX e do Twitter, assinaram a petição Steve Wozniak, cofundador da Apple; Jaan Tallinn, cofundador do Skype; Evan Sharp, cofundador do Pinterest; e Yuval Noah Harari, famoso historiador que já escreveu livros citando os possíveis impactos da IA na sociedade.
A carta afirma ainda que os produtos de inteligência artificial não estão sendo planejados e gerenciados com cuidados suficientes.
“Nos últimos meses laboratórios de IA estão travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém, nem mesmo seus criadores, podem entender, prever ou controlar de forma confiável”, alerta a petição.
A carta também questiona se “devemos arriscar perder o controle de nossa civilização”, e defende que “sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”.
O documento ressalta que esse alerta não significa uma pausa no desenvolvimento da IA em geral, “apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes”.
O texto ainda define uma série de parâmetros para manter as inteligências artificiais seguras e pede que governos intervenham para que se tornem obrigatórios.
“A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais”, ressalta.