Os perigos do desenvolvimento desenfreado da inteligência artificial

Elon Musk, Steve Wozniak (co-fundador da Apple) e um grupo de especialistas em inteligência artificial, pediram uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o ChatGPT* da OpenAI, citando riscos potenciais para a sociedade.​

*Para aqueles não familiarizados com o tema, os modelos de inteligência artificial aprendem e fazem previsões usando os milhares de dados existentes na internet e o ChatGPT é um aplicativo que pode responder a perguntas, gerar códigos e até escrever ensaios e poesias.

O apelo foi feito através de open letter (carta aberta) divulgada no dia 29 de março no endereço:

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Segue tradução livre dos principais trechos:

“Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA.”

A Inteligência artificial avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo…”.

“Os sistemas de IA estão se tornando competitivos em tarefas gerais e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.”

A declaração recente da OpenAI sobre inteligência artificial afirma que “Em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros… “. Nós concordamos. Esse ponto é agora.”

“Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável e incluir todos os principais atores. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória.”

Apesar da enorme repercussão negativa, as duas empresas mais envolvidas com o desenvolvimento de IA, Microsoft e Alphabet (Google) se recusaram a comentar a carta e não responderam às ligações e e-mails enviados pela equipe da Reuters.

Tag Cloud