Segunda-feira, 25 de Novembro de 2024
Por Redação Rádio Pampa | 18 de outubro de 2023
O futurista e banqueiro de investimentos Kartik Gada previu a ascensão da inteligência artificial muito antes de o assunto virar “hype” na esteira do lançamento do ChatGPT, em novembro do ano passado. Ele estuda o impacto da IA na economia desde 2006 e tem investido em startups nessa área há quase uma década e meia. O fundo de hedge 3D Strategies Management, do qual é fundador e CEO, desenvolveu algoritmos e usa inteligência artificial para identificar oportunidades de investimento. Nos últimos tempos, porém, um assunto tem chamado a atenção do executivo americano: o uso da IA no cibercrime.
Gada sentiu o problema na pele depois que sua conta bancária foi invadida, há um ano, com o desvio de uma quantia substancial. “Virei alvo [dos hackers] porque me tornei conhecido no campo da IA. Só agora estou começando a reaver alguma coisa, mas isso me custou centenas de horas”, conta.
A IA generativa – capaz de criar textos, fotos e vídeos – colocou nas mãos de pessoas comuns recursos que antes requeriam o trabalho de profissionais treinados, como cientistas de dados e especialistas em aprendizagem de máquina. Seu uso representa um ganho de eficiência em tarefas legítimas, mas pode facilitar ações criminosas como invadir contas bancárias ou roubar dados.
“Isso vai acontecer cada vez mais e, muito rapidamente, porque se os hackers não tiverem experiência em software, a IA pode ajudá-los a criar códigos maliciosos”, diz Gada. “É algo que chamo de terrorismo.”
Golpes que costumavam despertar suspeitas estão ficando mais difíceis de detectar à medida que IA generativa se aperfeiçoa, observam autoridades e forças policiais de vários países.
É o caso do “phishing” – a tentativa de obter informações como senhas e números de cartão de crédito por meio de e-mails fraudulentos. Textos cheios de erros ortográficos ou gramaticais, comuns nesse tipo de golpe, agora podem ser aperfeiçoados pela IA, com mensagens mais verossímeis e capazes de enganar as vítimas.
No campo militar, a IA traz alguns desafios. Agências internacionais divulgaram recentemente que os EUA podem passar a pressionar as Nações Unidas em torno de uma regulamentação para o uso da tecnologia em armamentos. O risco de que hackers possam invadir o sistema militar de alguma potência e controlar parte de seu arsenal relembra as preocupações dos tempos da Guerra Fria, diz Gada, quando se temia o acesso de invasores a armas nucleares. “A ONU pode regular [o uso militar da IA por seus Estados-membros], mas e quanto aos terroristas?”, questiona.
Até agora, o terrorismo nunca teve acesso ao arsenal nuclear e espera-se que o mesmo aconteça com armas controladas por inteligência artificial, mas as organizações terroristas podem recorrer à tecnologia para obter fundos, entre outras finalidades.
A IA não vai ganhar consciência e suprimir a humanidade, como se vê nos filmes de ficção científica, afirma Gada. A tecnologia não compete com os seres humanos por recursos naturais como água ou alimentos, o que não justificaria esse tipo de hostilidade. O que vai ocorrer, segundo o especialista, é uma fusão cada vez maior da inteligência artificial com as habilidades humanas. No futuro, diz ele, vai parecer que as pessoas ganharam superpoderes, mais ou menos como um habitante de 200 anos atrás pensaria ao ver pessoas se comunicando hoje por videoconferência.
No Ar: Pampa News