
Olá e bem-vindo ao Eye on AI. Nesta edição…por que você realmente deveria se preocupar com Moltbook…OpenAI planeja um IPO…Elon Musk funde SpaceX e xAI…Noviços não se beneficiam tanto da IA quanto as pessoas pensam…e por que precisamos de regulamentação de IA agora.
Esta semana, todos na IA – e muitas pessoas fora dela – estavam falando sobre Moltbook. A plataforma de mídia social criada para agentes de IA foi uma sensação viral. O fenômeno fez com que muitas pessoas, até mesmo um bom número de pesquisadores de IA normalmente sóbrios e fundamentados, se perguntassem em voz alta sobre o quão longe estamos dos cenários de “decolagem” da ficção científica, onde os bots de IA se auto-organizam, se auto-melhoram e escapam do controle humano.
Agora, parece que muito do alarmismo sobre o Moltbook foi equivocado. Primeiro de tudo, não está claro quantas das postagens mais parecidas com ficção científica no Moltbook foram geradas espontaneamente pelos bots e quantas só surgiram porque usuários humanos solicitaram que seus agentes OpenClaw as produzissem. (Os bots no Moltbook foram todos criados usando o OpenClaw, que é essencialmente um “arnês” de agente de código aberto – software que permite que agentes de IA usem muitas outras ferramentas de software – que podem ser vinculados a qualquer modelo de IA subjacente.) É até possível que algumas das postagens fossem, na verdade, de humanos se passando por bots.
Em segundo lugar, não há evidências de que os bots estivessem realmente conspirando juntos para fazer algo nefasto, em vez de simplesmente imitar a linguagem sobre conspiração que eles poderiam ter aprendido em seu treinamento, que inclui muita literatura de ficção científica, bem como o registro histórico de muitas atividades humanas incompletas nas redes sociais.
Como apontei em uma história para Fortuna hoje cedo, muitas das manchetes alarmantes em torno do Moltbook ecoaram aquelas que participaram de um experimento do Facebook em 2017, no qual dois chatbots desenvolveram uma “linguagem secreta” para se comunicarem entre si. Naquela época, como agora, muitos dos meus colegas jornalistas não deixaram que os fatos atrapalhassem uma boa história. Nem a pesquisa mais antiga do Facebook nem o Moltbook apresentam o tipo de perigos semelhantes aos da Skynet que algumas das coberturas sugerem.
Agora, as más notícias
Mas é aí que as boas notícias terminam. Moltbook mostra que quando se trata de agentes de IA, estamos no Velho Oeste Selvagem. Como minha colega Bea Nolan aponta neste artigo excelentemente relatado, o Moltbook é um pesadelo de segurança cibernética, repleto de malware, golpes de bomba e despejo de criptomoeda e ataques ocultos de injeção imediata – ou seja, instruções legíveis por máquina, às vezes não facilmente detectadas pelas pessoas, que tentam sequestrar um agente de IA para fazer algo que não deveria fazer. De acordo com pesquisadores de segurança, parece que alguns usuários do OpenClaw sofreram violações de dados significativas após permitirem que seus agentes de IA acessassem o Moltbook.
A injeção imediata é um desafio de segurança cibernética não resolvido para todos os agentes de IA que podem acessar a Internet neste momento. E é por isso que muitos especialistas em IA dizem que são extremamente cuidadosos com quais softwares, ferramentas e dados permitem que os agentes de IA acessem. Alguns só permitem que os agentes acessem a Internet se estiverem em uma máquina virtual onde não possam obter acesso a informações importantes, como senhas, arquivos de trabalho, e-mail ou informações bancárias. Mas, por outro lado, estas precauções de segurança tornam os agentes de IA muito menos úteis. A razão pela qual o OpenClaw decolou é que as pessoas queriam uma maneira fácil de criar agentes para fazer coisas por elas.
Depois, há as grandes implicações de segurança da IA. Só porque não há evidências de que os agentes do OpenClaw tenham qualquer vontade independente, não significa que colocá-los em uma conversa descontrolada com outros agentes de IA seja uma ótima ideia. Uma vez que esses agentes tenham acesso às ferramentas e à Internet, em alguns aspectos não importa realmente se eles têm alguma compreensão de suas próprias ações ou se estão conscientes. Simplesmente imitando cenários de ficção científica que ingeriram durante o treinamento, é possível que os agentes de IA possam se envolver em atividades que possam causar danos reais a muitas pessoas – participando de ataques cibernéticos, por exemplo. (Em essência, esses agentes de IA poderiam funcionar de maneiras que não são muito diferentes dos vírus de computador “worm” superpotentes. Ninguém pensa que o ransomware WannaCry era consciente. Mesmo assim, ele causou enormes danos em todo o mundo.)
Por que Yann LeCun estava errado… sobre as pessoas, não sobre a IA
Há alguns anos, participei de um evento no Facebook AI Research Lab em Paris, no qual Yann LeCun, que era o principal cientista de IA da Meta na época, falou. LeCun, que recentemente deixou a Meta para lançar sua própria startup de IA, sempre foi cético em relação aos cenários de “decolagem” em que a IA escapa do controle humano. E no evento, ele zombou da ideia de que a IA algum dia apresentaria riscos existenciais.
Por um lado, LeCun acha que a IA de hoje é demasiado estúpida e pouco fiável para fazer qualquer coisa que coloque o mundo em perigo. Mas, em segundo lugar, LeCun considerou estes cenários de “decolagem” da IA um insulto para os investigadores e engenheiros de IA como classe profissional. Não somos burros, argumentou LeCun. Se algum dia construíssemos algo onde houvesse a mais remota chance de a IA escapar do controle humano, sempre o construiríamos em uma caixa de areia “sem ar”, sem acesso à Internet e com um interruptor de interrupção que a IA não pudesse desativar. Segundo LeCun, os engenheiros sempre seriam capazes de atacar o cabo de alimentação do computador com um machado antes que a IA conseguisse descobrir como sair de sua jaula digital.
Bem, isso pode ser verdade para os pesquisadores e engenheiros de IA que trabalham para grandes empresas, como Meta ou Google DeepMind, ou OpenAI ou Anthropic. Mas agora a IA – graças ao surgimento de agentes e assistentes de codificação – democratizou a criação da própria IA. Agora, um mundo cheio de desenvolvedores independentes pode criar agentes de IA. Peter Steinberger, que criou o OpenClaw, é um desenvolvedor independente. Matt Schlicht, que criou o Moltbook, é um empresário independente que codificou a plataforma social. E, ao contrário de LeCun, os desenvolvedores independentes têm demonstrado consistentemente uma disposição de tirar os sistemas de IA da caixa de areia e colocá-los na natureza, apenas para ver o que acontece… apenas para os LOLs.
Com isso, aqui estão mais notícias sobre IA.
Jeremy Kahn
jeremy.kahn@fortune.com
@jeremyakahn
Esta história foi originalmente apresentada em Fortune.com
