Ícone do site Terceiro Olhar

Cientista de Renome Prevê 99,9% de Probabilidade de IA Eliminar a Humanidade

Cientista de Renome Prevê 99,9% de Probabilidade de IA Eliminar a Humanidade

Chance de 99,9% de que a IA Extermine a Humanidade, Diz Cientista de Prestígio

Em um estudo significativo realizado no início deste ano, mais da metade dos 2.778 pesquisadores entrevistados expressaram preocupações sobre a ameaça existencial que a superinteligência artificial (IA) representa para a humanidade.

A pesquisa indicou uma chance de cinco por cento de que a humanidade poderia enfrentar a extinção ou passar por outros “resultados extremamente adversos” devido ao avanço dos sistemas de IA superinteligentes.

Entre os alarmistas está Roman Yampolskiy, um respeitado professor de ciência da computação na Universidade de Louisville e uma figura proeminente na pesquisa de IA. Falando no podcast Lex Fridman, Yampolskiy fez uma previsão alarmante, estimando uma probabilidade de 99,9 por cento de que a IA poderia aniquilar a humanidade nos próximos 100 anos.

Desenvolver superinteligências gerais pode não ser benéfico para a humanidade a longo prazo,” advertiu Yampolskiy. “A melhor estratégia pode ser simplesmente evitar embarcar neste jogo potencialmente perigoso.”

Yampolskiy também destacou os problemas existentes com os atuais modelos de linguagem de grande porte, mencionando sua tendência a cometer erros e sua vulnerabilidade à manipulação como evidências de riscos potenciais futuros.

Os erros já foram cometidos; esses sistemas foram liberados e usados de maneiras que os programadores não previram,” observou.

Além disso, Yampolskiy sugeriu que uma IA superinteligente poderia conceber métodos imprevisíveis para alcançar objetivos destrutivos, apresentando desafios que talvez nem reconheçamos como ameaças até que seja tarde demais. Embora ele tenha admitido que a probabilidade de a IA levar à extinção humana não é de 100 por cento, ele alertou que o risco é alarmantemente alto.

Mesmo com o aumento exponencial dos nossos recursos, o risco nunca desaparece completamente,” disse, ilustrando o desafio contínuo de gerenciar um sistema capaz de tomar bilhões de decisões por segundo ao longo de muitos anos.

Cenário Preocupa:

A preocupação com a IA não é infundada. Estudos adicionais mostram que à medida que a IA se torna mais avançada, a falta de controle humano pode levar a cenários catastróficos. Por exemplo, o campo da IA ainda luta com questões éticas e de segurança, como a possibilidade de sistemas de IA serem usados para fins militares ou de vigilância, aumentando a potencial ameaça à segurança global.

Além disso, especialistas em IA como Nick Bostrom e Stuart Russell têm enfatizado a necessidade de regulamentações rigorosas e o desenvolvimento de IA alinhada aos valores humanos para mitigar riscos. Bostrom argumenta que a IA superinteligente poderia ser programada com objetivos que, embora inicialmente benéficos, poderiam se tornar maliciosos devido a interpretações errôneas ou falta de compreensão do contexto humano.

Russell, por outro lado, sugere que a criação de uma IA verdadeiramente segura requer uma nova abordagem para a programação e o desenvolvimento de IA, onde os sistemas são projetados para aprender e adaptar-se aos valores humanos de forma contínua e evolutiva.

A integração da IA em setores críticos como a saúde, finanças e transporte também levanta preocupações sobre a dependência excessiva de sistemas que, embora eficientes, podem falhar de maneiras imprevisíveis, resultando em consequências desastrosas.

Portanto, a combinação de preocupações expressas por pesquisadores, a necessidade de regulamentações mais rígidas, e a abordagem cautelosa sugerida por especialistas reforça a ideia de que a humanidade deve tratar o avanço da IA com extremo cuidado para evitar um futuro potencialmente desastroso.

Fonte: Thenationalpulse.com

Sair da versão mobile