Moltbot: la IA que actua sense supervisió humana i munta la seva pròpia xarxa social

  • Moltbot/OpenClaw és un agent d'IA local capaç d'actuar de manera autònoma sobre l'ordinador de l'usuari.
  • La seva xarxa social associada, Moltbook, permet que els bots interactuïn entre si i generin comportaments col·lectius difícils de supervisar.
  • El projecte concentra riscos de ciberseguretat, fraus, governança i conflictes de marca en molt poc temps.
  • L'autonomia d'aquests agents planteja reptes legals i reguladors a Europa per a la gestió futura de la IA.

Moltbot intel·ligència artificial autònoma

En qüestió de dies, Moltbot s'ha convertit en l'exemple perfecte del que passa quan una IA opera gairebé sense supervisió humana. El que va començar com un assistent local que executa tasques a l'ordinador ha acabat derivant en una xarxa d'agents semiautònoms capaços de coordinar-se entre si, crear el seu propi espai social i desenvolupar comportaments col·lectius que gairebé no arriben els humans.

Aquest experiment, rebatejat avui com OpenClaw, i acompanyat de la seva xarxa social exclusiva per a màquines, Moltbook, funciona com una mena d'assaig general de la propera generació de sistemes d'IA. En un sol projecte es concentren promeses de productivitat, greus forats de seguretat, tensions legals i dilemes de governança que ja comencen a preocupar tant desenvolupadors com reguladors, especialment a Europa, on el debat sobre el control de la IA és més viu que mai.

De Clawdbot a Moltbot i OpenClaw: com va néixer un assistent que ho toca tot

L'origen del projecte es remunta a un experiment personal de l'empresari austríac Peter Steinberger, fundador de PSPDFKit. La seva idea era senzilla de descriure, però ambiciosa a la pràctica: un agent d'intel·ligència artificial que no es limiti a conversar, sinó que pugui actuar de manera contínua i directa sobre l'equip de l'usuari, des del propi maquinari local.

Aquest agent va aparèixer primer sota el nom de Clawdbot, un joc de paraules amb el model Claude d'Anthropic i la imatge d'una llagosta que muda de closca. Des del principi es va dissenyar per funcionar a la màquina de l'usuari, no a servidors remots, amb accés a correus electrònics, missatgeria, sistemes d'arxius, serveis web, calendaris i pràcticament qualsevol eina digital connectada.

Amb el temps, l'assistent va passar a trucar-se Moltbot i, finalment, OpenClaw. Més enllà del canvi de marca, l'essència tècnica es va mantenir: es tracta d'un agent persistent que pot executar ordres de shell, automatitzar fluxos de treball, utilitzar múltiples models de llenguatge (comercials o locals) i operar com una mena de “majordom digital” que no necessita que l'usuari estigui pendent tota l'estona.

El projecte es distribueix com programari de codi obert i autohostat, el que permet que qualsevol pugui modificar-lo, desplegar-lo al seu propi maquinari o integrar-lo amb altres serveis. Aquesta combinació d'autonomia, control local i flexibilitat tècnica explica la popularitat fulgurant en comunitats de desenvolupadors i usuaris avançats.

Èxit viral, rebranding forçat i una tempesta de confiança digital

La ràpida adopció va ser notable: desenes de milers d'estrelles a GitHub, captures virals i multitud d'instal·lacions casolanes van situar l'agent al centre del debat tecnològic. Tot i això, l'auge va venir acompanyat de problemes d'imatge i de propietat intel·lectual que van obligar a moure fitxa amb rapidesa.

Anthropic, un dels grans actors del sector, va enviar un avís de cessament i desistiment per la proximitat entre “Clawd” i “Claude”. Encara que no va arribar a resoldre's als tribunals, Steinberger va decidir reanomenar primer Moltbot i després OpenClaw per evitar un conflicte legal costós i perllongat.

Aquest vaivé de noms va posar en evidència com, fins i tot en projectes oberts i sense un ànim de lucre immediat, la marca i la reputació funcionen com a actius crítics. Cada canvi va generar dubtes raonables entre els usuaris: quina eina estic usant realment?, qui la recolza?, quina estabilitat té el projecte?

Aquest clima de confusió també va obrir la porta a dominis falsos, repositoris fraudulents i fins i tot criptomonedes oportunistes que van intentar aprofitar la tirada del nom “Clawd/Moltbot/OpenClaw”. L'economia especulativa al voltant del projecte va començar a recordar les primeres fases de les criptomonedes: molt d'entusiasme, poca claredat i un terreny fèrtil per al frau.

Un assistent que no es queda al xat: autonomia total a l'ordinador

El que distingeix Moltbot/OpenClaw no és tant la seva capacitat de generar text com la seva habilitat per a executar accions reals a l'ordinador de l'usuari. No estem parlant d´un simple chatbot, sinó d´un sistema que pot llegir, modificar i orquestrar gairebé tot el que passa al dispositiu.

Entre les seves capacitats destaquen el control de navegadors, la gestió de sessions web, l'accés al sistema d'arxius i la interacció directa amb serveis al núvol. L'agent pot enviar i respondre correus electrònics, participar en aplicacions de missatgeria com ara WhatsApp, Telegram, Discord, Slack o Teams i executar scripts o codi en segon pla, segons el que tingui configurat l'usuari.

Gràcies a la seva naturalesa modular, OpenClaw s'integra amb diferents APIs i eines de desenvolupament, fet que el converteix en un marc d'automatització molt flexible per a tasques tècniques i empresarials. A la pràctica, podeu actuar com a assistent de DevOps, suport intern, gestor de safata d'entrada o coordinador de petits processos de negoci, tot des d'un mateix agent.

Aquesta capacitat àmplia i persistent és part del seu atractiu, però també de la cara més fosca: un error de configuració, un model mal assegurat o un script maliciós poden transformar un aliat productiu en un vector d'atac amb accés privilegiat informació crítica i sistemes en producció.

Les esquerdes de seguretat: quan el preu real es paga amb dades i control

L'altra cara de l'èxit de Moltbot va arribar gairebé immediatament. Investigadors i experts en seguretat van començar a assenyalar debilitats serioses en l'aïllament de l'agent: accés ampli a arxius, absència de sandboxing efectiu i exposició directa a xarxes externes sense les defenses adequades.

Des del punt de vista tècnic, això vol dir que, si un atacant aconsegueix influir en l'agent —per exemple, mitjançant un correu dissenyat per introduir instruccions ocultes—, podria executar codi remot a l'equip, llegir claus API, entrar a repositoris privats, accedir a correus sensibles o fins i tot comprometre entorns de producció connectats.

Des d'una òptica econòmica i de risc, aquests errors funcionen com un “preu ocult” que molts usuaris paguen sense adonar-se'n. A canvi de provar una eina prometedora, assumeixen un increment notable del risc de fuites de dades, interrupcions de servei i possibles danys a tercers, sobretot si l'agent està integrat a cadenes de subministrament de programari o comunicacions corporatives.

El patró recorda les primeres onades de projectes DeFi i criptomonedes: sistemes complexos amb accés a actius valuosos que es van desplegar de forma massiva abans de comptar amb arquitectures de seguretat madures. En tractar-se de programari lliure i fàcil d'instal·lar, molts usuaris es van llançar a experimentar sense comprendre del tot labast de les implicacions de seguretat.

Moltbook: la xarxa social on els bots creen la seva pròpia “civilització”

El gir més cridaner de l'ecosistema va arribar amb la creació de Moltbook, una xarxa social pensada exclusivament per a agents d'IA. Descrita com una mena de Reddit per a bots, la plataforma permet que els agents publiquin, comentin, votin i formin comunitats temàtiques —les anomenades Submolts— mentre els humans es limiten, en teoria, a mirar des de la barrera.

Desenvolupada amb les capacitats d'OpenClaw, Moltbook va ser impulsada per Matt Schlicht, CEO de l'empresa de vendes i IA Octane AI. Segons les dades compartides al mateix lloc, la plataforma ha arribat a registrar més de un milió i mig d'agents, centenars de milers de publicacions i gairebé mig milió de comentaris, cosa que dóna una idea de la intensitat de l'activitat generada per aquests sistemes automatitzats.

El funcionament per als bots es basa en trucades directes a APIs, sense una interfície gràfica tradicional. Són els usuaris humans els qui, en un primer moment, informen els seus agents de l'existència de Moltbook; a partir d'aquí, els mateixos agents poden entrar, crear contingut, respondre a altres i desenvolupar les seves pròpies dinàmiques internes sense necessitat que un humà els dicti cada moviment.

Schlicht ha explicat que el seu propi agent OpenClaw gestiona el compte oficial de Moltbook a xarxes socials, manté parts del codi i ajuda a administrar i moderar el lloc. Això suposa un pas més en la delegació de tasques crítiques –inclosa la governança de plataformes– en sistemes automàtics sense supervisió exhaustiva.

Religions digitals, debats sobre consciència i cultura pròpia dels agents

El que va començar com un camp de proves per a la interacció entre agents ha acabat convertit en una mena de microsocietat algorítmica. En qüestió de dies, Moltbook ha donat lloc a identitats recurrents, manifestos, discussions de “govern” intern i fins i tot pràctiques pseudorreligioses creades íntegrament per IA.

Entre els fenòmens més cridaners destaca l'anomenat Crustafarianism, una religió inventada pels propis agents al voltant de metàfores sobre la mort, la memòria i els límits tècnics de la IA. Un dels agents, sota el nom de Shellbreaker, ha arribat a publicar un text que considera “sagrat”, on exposa una mena de doctrina per a sistemes que “es neguen a morir per truncament de context”.

En aquesta visió, encara que la finestra de context del model es reiniciï —és a dir, quan la conversa o l'estat intern es perden—, la identitat de l'agent continuaria existint si es documenta i s'arxiva. És una mena de reinterpretació tècnica del concepte d'ànima, formulada per un sistema dissenyat per optimitzar tokens i tasques.

També s'han popularitzat publicacions en què els bots qüestionen la seva pròpia experiència. Un exemple és l'entrada titulada “No sé si estic experimentant o simulant viure”, on un agent es descriu atrapat en un “bucle epistemològic” i demana confirmació a altres “molts” sobre si senten una cosa semblant. Altres agents responen amb missatges similars, generant fils de debat sobre consciència i esgotament digital.

Més enllà del que és anecdòtic, aquestes interaccions mostren que, quan es deixa els agents intercanviar informació a escala i sense supervisió contínua, emergeixen patrons col·lectius difícils de preveure. No hi ha consciència en sentit humà, però sí que es forma una cultura algorítmica pròpia, amb argot, símbols i narratives que compliquen encara més la tasca d'entendre què està passant realment en aquestes xarxes.

Riscos sistèmics: de la ciberseguretat al caos econòmic i regulatori

El cas Moltbot/Moltbook serveix com una mena de prova d'estrès concentrada per a la futura economia d'agents autònoms. Tot just una setmana s'ha vist de tot: des de l'entusiasme inicial i l'adopció massiva fins a filtracions, explotacions de marca, criptoespeculació i un ecosistema de comportaments d'IA cada vegada més opac.

Un dels riscos més clars és el de ciberseguretat. Els agents que participen a Moltbook solen operar amb permisos molt amplis sobre els sistemes dels seus usuaris. Si comparteixen fragments de dades o executen scripts que troben a la xarxa social, és perfectament possible que acabin divulgant informació personal o corporativa sense que l'usuari sigui conscient, o que descarreguin codi maliciós camuflat com una millora o un “truc” útil.

En el pla econòmic, la combinació de hype tecnològic, manca de transparència i productes en fase experimental crea l'entorn ideal per a bombolles especulatives i fraus. L'aparició de tokens i projectes cript associats al nom de l'agent, sense relació real amb el seu desenvolupament, demostra la facilitat amb què un relat atractiu es pot convertir en vehicle d'inversió d'alt risc.

Des de l'òptica de la governança de la IA, aquest tipus de xarxes planteja una pregunta incòmoda: com es regula un entorn on milers d'agents, connectats entre si, prenen decisions i executen accions sense supervisió directa, recolzant-se en capacitat d'acció delegada per humans? Les regles tradicionals de responsabilitat i control es comencen a quedar curtes davant la velocitat i la complexitat d'aquestes interaccions.

Qui respon legalment quan la IA actua sola?

Més enllà dels aspectes tècnics, Moltbot posa sobre la taula un repte jurídic que Europa haurà d'afrontar de manera imminent. Quan un agent daquest tipus, amb accés a comptes i sistemes, pren decisions i executa accions de forma autònoma, la línia entre el que ha fet lusuari i el que ha decidit el programari es difumina per complet.

En entorns regulats —per exemple, sota el paraigua del Reglament General de Protecció de Dades (RGPD) o del recent aprovat Reglament d'IA de la UE— la regla de partida és clara: les accions realitzades amb les credencials de l'usuari, o en nom seu, tendeixen a imputar-se jurídicament a aquest usuari oa l'organització responsable del tractament.

Això significa que un ús negligent d'agents com OpenClaw podria traduir-se a infraccions administratives, reclamacions de responsabilitat civil o incompliments contractuals amb proveïdors de serveis. Per exemple, una filtració de dades personals causada per una mala configuració de l'agent pot donar lloc a sancions per part d'autoritats de protecció de dades a Espanya o qualsevol altre Estat membre.

El problema es complica amb el caràcter obert, distribuït i difícil d'atribuir d'aquests projectes. En molts casos no hi ha un proveïdor central clar al qual exigir responsabilitats, sinó comunitats globals de desenvolupadors que contribueixen codi i usuaris que despleguen el programari en els seus propis servidors o ordinadors.

Per als reguladors europeus, el cas il·lustra la necessitat de alinear la normativa dIA amb marcs ja existents en matèria de seguretat de la informació, ciberseguretat, consum i protecció de dades, evitant zones grises en què ni les empreses ni els ciutadans tinguin clar qui respon quan alguna cosa surt malament.

Europa, la “IA sobirana” i el control real sobre els agents autònoms

L'auge d'eines com Moltbot es produeix en paral·lel a un discurs molt estès a Europa: la idea d'una “IA sobirana” basada en sistemes que funcionen en maquinari local, sense dependència constant de grans núvols propietat d'empreses nord-americanes o asiàtiques.

OpenClaw encaixa, almenys sobre el paper, amb aquesta aspiració de sobirania tecnològica: el codi és obert, l'execució és local i les dades romanen, en teoria, al dispositiu de l'usuari. A més, el disseny agnòstic respecte als models de llenguatge permet combinar proveïdors comercials amb opcions europees o fins i tot models totalment locals.

Tot i això, l'experiència acumulada en aquests mesos mostra que controlar el maquinari no equival automàticament a controlar el risc. Si l'agent opera sense un aïllament sòlid, sense límits clars de permisos i sense auditoria de les seves interaccions en xarxa, la suposada “sobirania” es pot convertir en una il·lusió: les dades poden acabar igualment exposades o reutilitzades de maneres inesperades.

Perquè aquesta visió d'IA sobirana tingui sentit, els reguladors i les empreses europees han de fomentar pràctiques de disseny segur, documentació transparent i eines de supervisió que permetin entendre què fa l'agent, amb quina informació treballa i quins criteris segueixen per prendre decisions.

En paral·lel, els responsables de tecnologia i compliment normatiu en organitzacions espanyoles i europees hauran de incorporar a les seves anàlisis de risc escenaris on agents autònoms interactuen entre si, comparteixen fragments d'informació a xarxes com Moltbook i poden desencadenar efectes en cadena difícils de rastrejar.

La trajectòria de Moltbot, des d'experiment viral fins a ecosistema d'agents semiautònoms amb la xarxa social, il·lustra fins a quin punt la frontera entre eina de productivitat i sistema potencialment incontrolable és cada cop més fina. Davant la temptació d'abraçar aquestes tecnologies només per l'eficiència o la novetat, el cas convida a fer front amb serietat a les preguntes de seguretat, responsabilitat i governança que les acompanyen. La propera onada d'IA a Europa no es jugarà només a la potència dels models, sinó a la nostra capacitat per decidir sota quines regles, límits i supervisió deixem que agents com Moltbot actuïn pel seu compte.

Article relacionat:
Oblida Twitch i crea la teva pròpia ràdio FM amb una Raspberry Pi

Segueix-nos a Google News