Carregando...

As 5 maiores ameaças de IA do guru da segurança cibernética Mikko Hyppönen para 2024

Mikko Hyppönen passou décadas na linha de frente da luta contra malware. O homem de 54 anos derrotou alguns dos worms de computador mais destrutivos do mundo, www.youtube.com/watch?v=lnedOWfPKT0″ data-mce-href=” span=””>an style=”peso da fonte: 400;” data-mce-style=”font-weight: 400;”>localizou”font-weight: 400;”> os criadores do primeiro vírus para PC e vendeu seu próprio software desde que era um adolescente em Helsinque.p>

tyle=”peso da fonte: 400;” data-mce-style=”font-weight: 400;”>Nos anos seguintes, ele ganhou n>air.com/news/2004/01/virus-hunters-200401″ data-mce-href=”400;” data-mce-style=”font-weight: 400;”>Perfis da Vanity Fair=”peso da fonte: 400;” data-mce-style=”font-weight: 400;”>, posições nos 100 maiores pensadores globais da política externa e a função de diretor de pesquisa em yle=”font-weight: 400;” data-mce-style=”peso da fonte: 400;”>WithSecuren> style=”peso da fonte: 400;” data-mce-style=”font-weight: 400;”> — o maior

O finlandês de rabo de cavalo também é curador do online -mce-href=” Museu. No entanto, toda a história em seus arquivos pode ser ofuscada pela nova era da tecnologia: a era da “https://thenextweb.com/topic/artificial-intelligence”>xtanotação desambiguada com coisa” itemid =” inteligência.

“A IA muda tudo”, disse Hyppönen à TNW em uma videochamada. “A revolução da IA ​​será maior do que a revolução da Internet.”

ata-mce-style=”font-weight: 400;”>Como um otimista que se autodenomina, o caçador de hackers espera que a revolução deixe um impacto positivo. Mas ele também está preocupado com as ameaças cibernéticas que isso irá desencadear. No início de 2024, Hyppönen revelou as suas cinco preocupações mais urgentes para o ano que se inicia. Eles não vêm em nenhuma ordem específica – embora haja um que causa mais noites sem dormir.

Os pesquisadores há muito descrevem os deepfakes como os mais pesquisadores-crime-avisam” data-mce-href=”https://thenextweb.com/news/deepfakes-are-the-most-worrying-ai-crime-researchers-warn”>uso alarmante de IA para crimes, mas a mídia sintética ainda não cumpriu suas previsões. Ainda não, de qualquer maneira.

Nos últimos meses, porém, os seus receios começaram a materializar-se. enextweb.com/topic/deepfake”>pesquisa da Onfidoum unicórnio de verificação de identidade baseado em Londres.

No mundo da guerra de informação, os vídeos fabricados também estão avançando. Os deepfakes brutos de Presidente ucraniano Volodymyr Zelenskyy desde os primeiros dias da invasão em grande escala da Rússia foram recentemente substituídos por sofisticados manipulações da mídia.

Deepfakes também estão surgindo agora em contras simples. O exemplo mais notável foi descoberto em outubro, quando apareceu um vídeo no TikTok que afirmava mostrar MrBeast oferecendo novos iPhones por apenas US$ 2.

Ainda assim, os golpes financeiros que utilizam deepfakes convincentes permanecem raros. Hyppönen viu apenas três até agora – mas espera que este número prolifere rapidamente. À medida que os deepfakes se tornam mais refinados, acessíveis e acessíveis, a sua escala poderá expandir-se rapidamente.

“Isso ainda não está acontecendo em grande escala, mas será um problema em muito pouco tempo”, diz Hyppönen.

Para reduzir o risco, ele sugere uma defesa antiquada: palavras seguras.

Imagine uma videochamada com colegas ou familiares. Se alguém exigir informações confidenciais, como transferência de dinheiro ou documento confidencial, você deverá solicitar a palavra de segurança antes de atender à solicitação.

“Neste momento, parece um pouco ridículo, mas deveríamos fazê-lo mesmo assim”, aconselha Hyppönen. “Estabelecer uma palavra de segurança agora é um seguro muito barato contra quando isso começar a acontecer em grande escala. Isso é o que deveríamos retirar agora para 2024.”

Apesar de se parecerem com deepfakes no nome, os golpes profundos não envolvem necessariamente mídia manipulada. No caso deles, “profundo” refere-se à enorme escala do golpe. Isto é alcançado através da automação, que pode expandir os alvos de poucos para infinitos.

As técnicas podem turbinar todos os tipos de golpes. Golpes de investimento, golpes de phishing, golpes imobiliários, golpes de ingressos, golpes românticos… onde quer que haja trabalho manual, há espaço para automação.

Lembre o Vigarista do Tinder? O vigarista roubou cerca de US$ 10 milhões de mulheres que conheceu online. Imagine se ele tivesse sido equipado com grandes modelos de linguagem (LLMs) para disseminar as suas mentiras, geradores de imagens para adicionar provas fotográficas aparentes e conversores de linguagem para traduzir as suas mensagens. O conjunto de vítimas potenciais seria enorme.

“Você poderia estar enganando 10 mil vítimas ao mesmo tempo, em vez de três ou quatro”, diz Hyppönen.

Os golpistas do Airbnb também poderiam colher os benefícios. Atualmente, eles normalmente usam imagens roubadas de anúncios reais para convencer os turistas a fazerem uma reserva. É um processo trabalhoso que pode ser frustrado com uma pesquisa reversa de imagens. Com a GenAI, essas barreiras não existem mais.

“Com Stable Diffusion, DALL-E e Midjourney você pode gerar quantidades ilimitadas de Airbnbs completamente plausíveis que ninguém será capaz de encontrar.”

A IA já está escrevendo malware. A equipe de Hyppönen descobriu três worms que lançam LLMs para reescrever o código sempre que o malware se replica. Nenhum foi encontrado em redes reais ainda, mas foi publicado no GitHub – e funciona.

Usando uma API OpenAI, os worms aproveitam o GPT para gerar códigos diferentes para cada alvo que infectam. Isso os torna difíceis de detectar. A OpenAI pode, no entanto, colocar o comportamento do malware na lista negra.

“Isso é possível com os sistemas de IA generativos de escrita de código mais poderosos porque eles são de código fechado”, diz Hyppönen.

“Se você pudesse baixar todo o modelo de linguagem grande, você poderia executá-lo localmente ou em seu próprio servidor. Eles não podiam mais colocar você na lista negra. Este é o benefício dos sistemas de IA generativos de código fechado.”

O benefício também se aplica aos algoritmos geradores de imagens. Ofereça acesso aberto ao código e observe suas restrições à violência, pornografia e engano serem desmanteladas.

Com isso em mente, não surpreende que o OpenAI seja mais fechado do que o nome sugere. Bem, isso e toda a renda que perderiam para desenvolvedores imitadores, é claro.

Outra preocupação emergente envolve explorações de dia zero, que são descobertas pelos invasores antes que os desenvolvedores criem uma solução para o problema. A IA pode detectar essas ameaças – mas também pode criá-las.

“É ótimo quando você pode usar um assistente de IA para encontrar dias zero em seu código e corrigi-los”, diz Hyppönen. “E é horrível quando alguém está usando IA para encontrar dias zero em seu código para que possa explorar você. Ainda não chegamos exatamente lá, mas acredito que isso será uma realidade – e provavelmente uma realidade no curto prazo.”

Um estudante que trabalha na F-Secure já demonstrou a ameaça. Em um trabalho de tese, eles receberam direitos de usuário regulares para acessar a linha de comando em um computador com Windows 11. O aluno então automatizou totalmente o processo de verificação de vulnerabilidades para se tornar o administrador local. A F-Secure decidiu classificar a tese.

“Nós não fomos responsáveis ​​por publicar a pesquisa”, diz Hyppönen. “Foi bom demais.”

A F-Secure incorporou a automação em suas defesas por décadas. Isso dá à empresa uma vantagem sobre os invasores, que ainda dependem em grande parte de operações manuais. Para os criminosos, existe uma maneira clara de preencher a lacuna: campanhas de malware totalmente automatizadas.

“Isso transformaria o jogo em uma IA boa versus uma IA ruim”, diz Hyppönen.

Esse jogo está programado para começar em breve. Quando isso acontecer, os resultados poderão ser alarmantes. Tão alarmante que Hyppönen classifica o malware totalmente automatizado como a ameaça de segurança número um em 2024. No entanto, à espreita ao virar da esquina está uma ameaça ainda maior.

Hyppönen tem uma hipótese notável sobre a segurança da IoT. Conhecida como Lei de Hyppönen, a teoria afirma que sempre que um aparelho é descrito como “inteligente”, ele é vulnerável. Se essa lei se aplicar a máquinas superinteligentes, poderemos ter sérios problemas.

Hyppönen espera testemunhar o impacto.

“Acho que nos tornaremos o segundo ser mais inteligente do planeta durante a minha vida”, diz ele. “Não creio que isso vá acontecer em 2024. Mas acho que vai acontecer durante a minha vida.”

Isso aumentaria a urgência dos receios sobre inteligência artificial geral. Para manter o controle humano da AGI, Hyppönen defende uma forte alinhamento com nossos objetivos e necessidades.

“As coisas que estamos a construir devem ter uma compreensão da humanidade e partilhar os seus interesses a longo prazo com os humanos… A vantagem é enorme – maior do que qualquer coisa alguma vez – mas a desvantagem também é maior do que qualquer coisa alguma vez.”