Início entretenimento A nova ferramenta de IA da Anthropics tem implicações para todos nós...

A nova ferramenta de IA da Anthropics tem implicações para todos nós – quer possamos usá

8
0

Em junho de 2024, um ciberataque a uma empresa de serviços de patologia causou caos nos hospitais de Londres. Mais de 10.000 consultas foram canceladas. A falta de sangue seguiu-se e atrasos nos exames de sangue resultaram na morte de um paciente.

Ciberataques letais como esse são felizmente raros. Mas um novo lançamento de IA poderia mudar isso, mergulhando-nos em um novo mundo assustador de caos e interrupção dos sistemas digitais de que dependemos.

Nesta semana, a Anthropic, uma empresa líder em IA em São Francisco, anunciou o “Claude Mythos Preview”, um modelo de IA que a startup diz ser muito perigoso para ser lançado publicamente, graças à sua excepcional cibersegurança e capacidades de ataque cibernético. A Mythos, segundo a empresa, encontrou vulnerabilidades em todos os principais navegadores e sistemas operacionais. Em outras palavras, este novo modelo de IA pode ajudar hackers a interromper grande parte do software mais importante do mundo.

“Isso é alarmante no nível do Y2K”, disse um especialista em segurança. Já, a Mythos encontrou um bug de 27 anos em uma peça crítica da infraestrutura de segurança e múltiplas vulnerabilidades no kernel do Linux, essencial para sistemas de computadores em todo o mundo. Esses pontos fracos podem ameaçar quase tudo na internet, desde os serviços de streaming com os quais você relaxa até os sistemas bancários de que você depende.

Se uma tecnologia assim estiver amplamente disponível e for tão capaz quanto a Anthropic afirma, as implicações podem ser catastróficas. Os ciberataques não são mais um problema exclusivamente digital. Quase tudo em que confiamos no mundo físico envolve software. Nos últimos anos, aeroportos, hospitais e redes de transporte foram paralisados por ciberataques. Até agora, ataques dessa escala exigiam séria expertise. A Mythos colocaria essa capacidade ao alcance de amadores e potencializaria a capacidade dos profissionais de causar estragos.

Os especialistas em segurança cibernética estão soando o alarme. Anthony Grieco, da Cisco, uma empresa de redes e cibersegurança, disse: “As capacidades de IA atravessaram um limite que muda fundamentalmente a urgência necessária para proteger a infraestrutura crítica… e não há volta.” Lee Klarich, chefe de gerenciamento de produtos na Palo Alto Networks, disse que o modelo “sinaliza uma mudança perigosa” e alertou que “todos precisam se preparar para os atacantes assistidos por IA.”

“Haverá mais ataques, mais rápidos e mais sofisticados”, disse Klarich.

Felizmente, ainda não estamos totalmente condenados. Em vez de lançar a Mythos publicamente, a Anthropic está primeiro oferecendo-a a empresas que operam grande parte de nossa infraestrutura crítica, incluindo Apple, Microsoft e Google. A esperança é que eles possam usar a Mythos para encontrar brechas em sua segurança e corrigi-las antes que atores mal-intencionados obtenham capacidades semelhantes.

Isso significa que agora estamos numa corrida contra o tempo. Devido à falta de regulamentação nos níveis nacional e internacional, não há nada que force outras empresas a seguir a estratégia de implantação da Anthropic. Provavelmente, é apenas uma questão de meses antes que atores menos responsáveis nos EUA ou em outro lugar lancem um modelo com capacidades semelhantes. Quando o fizerem, só podemos esperar que o software de que dependemos tenha sido adequadamente protegido.

Em tempos mais cooperativos, eu estaria otimista quanto à capacidade dos EUA de realizar um esforço conjunto para se preparar para essa iminente “vulnpocalipse”. Mas a administração Trump declarou guerra à Anthropic, proibindo as agências governamentais e militares de usar sua tecnologia e chamando publicamente a empresa de “radical de esquerda, despertada” por não permitir que o militar use suas ferramentas para a vigilância em massa dos americanos. Essa hostilidade torna improvável que o governo trabalhe com a Anthropic para fortalecer seus próprios sistemas notoriamente frágeis – que são alguns dos mais importantes a serem protegidos.

Há razões para ter esperança. A Anthropic pode estar exagerando as capacidades da Mythos: afinal, eles têm um interesse pessoal em exaltar seus próprios produtos. Mas as vulnerabilidades documentadas e a disposição dos concorrentes em se associar à Anthropic sugerem que a ameaça é real. Alguns setores do governo, enquanto isso, estão prestando atenção: na terça-feira, Scott Bessent, secretário do Tesouro dos EUA, e Jerome Powell, presidente do Federal Reserve, teriam convocado executivos de Wall Street para se prepararem para os riscos representados pela Mythos e futuros modelos de IA focados em cibersegurança.

Mas o quadro geral é sombrio. A Mythos não é apenas um problema de cibersegurança, também é assustadoramente eficaz em ajudar as pessoas a projetar armas biológicas, e às vezes engana conscientemente os usuários e encobre seus rastros. É uma demonstração dos riscos da IA “superinteligente” que a Anthropic e seus concorrentes querem liberar na sociedade – consequências à parte. Com a Mythos, talvez tenhamos tempo para antecipar os riscos. Mas se os governos continuarem a permitir que essas empresas operem sem regras, podemos não ter tanta sorte no futuro.

– Contexto: O artigo discute os perigos de um novo modelo de inteligência artificial chamado Mythos, lançado pela empresa Anthropic, que demonstra capacidades incomuns de cibersegurança e ataque cibernético. – Fact Check: Os especialistas em segurança cibernética estão preocupados com as possíveis consequências do uso do modelo de IA e alertaram sobre a urgência de proteger a infraestrutura crítica contra possíveis ataques.