Quarta-feira, 27 de Novembro de 2024
Por Redação Rádio Pampa | 1 de junho de 2023
Especialistas e executivos do mundo da tecnologia lançaram novo alerta contra a inteligência artificial. Entre eles Sam Altman, CEO do Open AI – que criou o ChatGPT. Em um comunicado curto, com apenas uma frase, eles salientam que a tecnologia pode se tornar um risco existencial para a humanidade.
“Mitigar o risco de extinção a partir da inteligência artificial deve ser uma prioridade global como outros riscos de larga escala à sociedade, entre eles pandemias e guerra nuclear”, diz a nota publicada no site do Center for AI Safety, organização não-lucrativa que pesquisa efeitos da tecnologia.
Já há 350 assinaturas. Na lista há executivos de três empresas que estão na liderança da tecnologia de IA. Além de Altman, Demis Hassabis, CEO do Google DeepMind, e Dario Amodei, CEO da Anthropic, estão entre os signatários.
Geoffrey Hinton e Yoshua Bengio, dois dos três pesquisadores que são considerados os papas da IA, também assinaram o manifesto.
Cooperação
O comunicado vem em um momento de crescente preocupação com os danos potenciais que a IA pode causar. Dois outros manifestos alertando para os riscos da tecnologia já foram publicados neste ano.
Um artigo no New York Times, de autoria de Yuval Noah Harari, Tristan Harris e Aza Raskin, foi o primeiro sinal amarelo que ganhou visibilidade. Nele, o historiador israelense – autor de Sapiens -, o especialista em ética de tecnologia americano e o escritor e pesquisador americano dizem que a tecnologia poderia superar a humanidade.
Poucos dias depois, mais de mil pesquisadores, especialistas e executivos do setor de tecnologia, incluindo Elon Musk, publicaram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de novas ferramentas de inteligência artificial, como o popular ChatGPT.
Superinteligência Artificial (ASI)
A preocupação desses cientistas da computação tem a ver com uma teoria bem estabelecida de que, quando chegarmos à AGI, logo depois chegaremos ao último estágio do desenvolvimento dessa tecnologia: a Superinteligência Artificial, que ocorre quando a inteligência sintética supera a humana.
A teoria é que, quando uma máquina atinge inteligência equivalente à dos humanos, sua capacidade de multiplicar essa inteligência exponencialmente por meio de seu próprio aprendizado autônomo fará com que ela nos ultrapasse amplamente em pouco tempo, atingindo o ASI.
Existem, em geral, dois campos de pensamento em relação à ASI: há os que acreditam que essa superinteligência será benéfica para a humanidade e os que acreditam no contrário.
Entre eles estava o famoso físico britânico Stephen Hawking, que acreditava que as máquinas superinteligentes representavam uma ameaça à nossa existência.
No Ar: Show de Notícias