Para físico teórico, criar sistemas que rivalizam com inteligência humana - ou a superam - pode ser desastroso
Muito antes de Elon Musk e o cofundador da Apple, Steve Wozniak, assinarem uma carta aberta alertando que IA (inteligência artificial) representa “riscos profundos” para humanidade, o físico teórico britânico Stephen Hawking já havia soado o alarme sobre a tecnologia e sua rápida evolução.
O desenvolvimento da inteligência artificial completa pode significar o fim da raça humana. Stephen Hawking, físico teórico, numa entrevista à BBC em 2014
Hawking, que sofria de ALS (Esclerose Lateral Amiotrófica) há mais de 55 anos, morreu em 2018, aos 76 anos. Embora tivesse comentários críticos sobre IA, ele usou uma forma bem básica da tecnologia para se comunicar. Sua doença enfraquecia seus músculos, por isso físico usava cadeira de rodas.
O físico ficou incapaz de falar em 1985 e contou com várias maneiras de se comunicar, incluindo um dispositivo gerador de fala da Intel. Este lhe permitiu usar movimentos faciais para selecionar palavras ou letras, que foram sintetizadas em fala.
Stephen Hawking e IA
“Humanos, que são limitados pela lenta evolução biológica, não poderiam competir [com IA] e seriam substituídos”, disse Stephen Hawking (Imagem: Getty Images) |
O comentário de Hawking à BBC foi em resposta a uma pergunta sobre a possibilidade de renovar a tecnologia de voz na qual ele confiava. Ele disse que formas muito básicas de IA já se mostraram poderosas, mas criar sistemas que rivalizam com inteligência humana ou a superam pode ser desastroso para a raça humana.
Ela decolaria por conta própria e se redesenharia num ritmo cada vez maior. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir e seriam substituídos. - Stephen Hawking, físico teórico, numa entrevista à BBC
Meses após sua morte, o último livro de Hawking chegou ao mercado. Intitulado “Breves Respostas às Grandes Perguntas”, seu livro fornecia aos leitores respostas às perguntas que ele fazia com frequência. O livro expôs o argumento de Hawking contra a existência de Deus, como os humanos provavelmente viverão no espaço um dia e seus medos sobre engenharia genética e aquecimento global.
A inteligência artificial também ocupou o primeiro lugar em sua lista de “grandes questões”, argumentando que os computadores “provavelmente ultrapassarão os humanos em inteligência” dentro de 100 anos. “Podemos enfrentar uma explosão de inteligência que, em última análise, resultará em máquinas cuja inteligência excede a nossa em mais do que a nossa excede a dos caracóis”, escreveu ele.
Orientações e preocupações
Considerar que máquinas altamente inteligentes são mera ficção científica seria um erro, segundo o físico (Imagem: NicoElNino/Shutterstock)
O físico argumentou que computadores precisam ser treinados para se alinharem aos objetivos humanos, acrescentando que não levar a sério riscos associados à IA pode ser “nosso pior erro de todos os tempos”. “É tentador considerar máquinas altamente inteligentes como mera ficção científica, mas isso seria um erro”, escreveu.
Essas observações de Hawking ecoam preocupações manifestadas em 2023 por Elon Musk (apesar deste estar desenvolvendo sua própria IA, aparentemente) e do cofundador da Apple, Steve Wozniak, numa carta aberta divulgada em março. Os dois executivos da área de tecnologia, juntamente a milhares de especialistas, assinaram uma carta que pedia uma pausa de pelo menos seis meses na construção de sistemas de IA mais poderosos do que o chatbot GPT-4 da OpenAI.
Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA. - Trecho da carta aberta, publicada pela organização sem fins lucrativos Future of Life
O ChatGPT da OpenAI tornou-se a base de usuários com crescimento mais rápido. Ele teinha cerca de 100 milhões de usuários ativos mensais em janeiro, quando pessoas em todo o mundo correram para usar o chatbot. Ferramenta simula conversas semelhantes às humanas com base nas solicitações fornecidas. E, em março, laboratório lançou a última iteração da plataforma, GPT-4, em março.
Repercussão
GPT-4 é mais semelhante do que diferente do ChatGPT no quesito recursos (Imagem: NurPhoto/Getty Images)
Apesar dos apelos, lançamento do sistema serviu como um divisor de águas que reverberou em toda a indústria de tecnologia e catapultou várias empresas para competir na construção de seus próprios sistemas de IA.
O Google está trabalhando para reformular seu mecanismo de busca e até criar um novo que dependa de IA. A Microsoft lançou o “novo Bing”, mecanismo de busca descrito como “co-piloto com IA para a web” dos usuários. E Musk disse que lançará um sistema de IA rival que ele descreveu como “busca máxima da verdade”.
Hawking aconselhou, no ano anterior à sua morte, que o mundo precisava “aprender como se preparar e evitar os riscos potenciais” associados à IA, argumentando que sistemas “poderiam ser o pior evento da história de nossa civilização”. Ele observou, no entanto, que o futuro ainda é desconhecido e a IA pode ser benéfica para a humanidade. Isso, claro, se for treinada corretamente.
O sucesso na criação de IA eficaz pode ser o maior evento da história de nossa civilização.
Ou o pior. Nós simplesmente não sabemos. Portanto, não podemos saber se seremos infinitamente ajudados pela IA, ou ignorados por ela e marginalizados, ou possivelmente destruídos por ela. - Stephen Hawking, durante discurso na conferência de tecnologia Web Summit, em Portugal, no ano de 2017.
Fonte: Olhar Digital, com informações de NY Post