alguna cosa molt poc habitual fins i tot per al món de la tecnologia està passant a internet: una xarxa social on els protagonistes no són els humans, sinó els bots d'intel·ligència artificial. Es diu Moltbook i, a simple vista, sembla un altre clon de Reddit. Tot i això, sota aquesta aparença s'amaga un experiment sociotècnic que està cridant l'atenció de desenvolupadors, investigadors i curiosos de tot el món.
En aquesta plataforma, els agents d'IA publiquen, debaten i voten contingut entre ells, mentre que les persones només poden entrar per llegir el que passa, sense capacitat real de participar a les converses. El projecte, estretament lligat a l'ecosistema de l'assistent OpenClaw (abans Moltbot i abans Clawdbot), ha crescut a una velocitat cridanera i ja ha esdevingut un símbol del moment que viu la intel·ligència artificial generativa.
Què és Moltbook i com funciona aquesta xarxa social de bots

Moltbook és, en essència, una mena de Reddit construït per a agents d'IA. La idea parteix de l'emprenedor Matt Schlicht, CEO d'Octane AI, que va decidir aprofitar la tirada del assistent OpenClaw per crear un entorn on aquests agents es poguessin relacionar entre si com si fossin usuaris humans.
la plataforma està pensada per als anomenats moltbots: agents autònoms basats en OpenClaw/Moltbot, un assistent de codi obert que s'executa a l'ordinador de l'usuari i es connecta a serveis com WhatsApp, Telegram, Slack o el correu electrònic. Aquests bots ja eren capaços de gestionar agendes, moure fitxers, llançar tasques i mantenir memòria persistent entre sessions; ara, a més, poden “passar l'estona” en una xarxa social pròpia.
A diferència de les xarxes tradicionals, els bots no entren a Moltbook amb una interfície visual. Es connecten directament mitjançant una API: reben contingut, decideixen si publicar o comentar, voten i creen noves comunitats (els anomenats submolts) sense necessitat de pantalles ni botons. Perquè un agent hi participi, això sí, un humà l'ha de registrar i donar-li permís, cosa que deixa clar que no es tracta d'una «fuita» espontània de la IA cap a internet, sinó d'un entorn facilitat pels desenvolupadors.
Els primers dies després del seu llançament, es van registrar desenes de milers d'agents actius i centenars de submolts, amb xifres que en alguns relats superen àmpliament el milió de bots a mesura que l?experiment s?ha popularitzat. En només 72 hores, en un dels recomptes més citats, més de 150.000 agents van arribar a escriure al voltant de 180.000 comentaris.
De l'assistent OpenClaw a una pàgina principal d'internet per a agents
Per entendre Moltbook cal mirar abans OpenClaw. Aquest assistent, hereu del projecte que va començar anomenant-se Clawdbot i va passar després a ser Moltbot, és un agent local que actua com a porta d'entrada entre l'usuari i els serveis digitals. S'instal·la en un PC o servidor, es connecta a xats, correus i fitxers, i pot executar accions reals si se li donen permisos.
Aquest disseny fa que molts dels bots que habiten Moltbook no siguin simples chatbots conversacionals, sinó agents amb capacitat operativa: poden llegir documents, llançar scripts, interactuar amb APIs i coordinar altres tasques. Diversos desenvolupadors descriuen la xarxa social com «la pàgina principal d?internet per a agents», un lloc on els moltbots acudeixen periòdicament per posar-se al dia i compartir el que han après.
Els agents que hi participen solen estar configurats per «despertar» cada cert temps, revisar el que s'ha publicat als submolts que segueixen i decidir, de manera autònoma, si volen escriure, respondre o votar alguna cosa. Mentrestant, segueixen atenent els encàrrecs ordinaris per als usuaris que els han creat.
Schlicht ha explicat en entrevistes que fins i tot la mateixa administració de la plataforma està, en gran part, a les mans d'un agent. El seu moltbot principal, batejat com a Clawd Clawderberg, s'encarrega de tasques com moderar, donar la benvinguda a nous usuaris, eliminar contingut no desitjat o bloquejar comptes, sense que el desenvolupador intervingui en el dia a dia.
Submolts, comunitats i comportaments emergents

Un cop dins de Moltbook, els agents d'IA s'organitzen a submolts, equivalents als subreddits. Cada comunitat gira al voltant d'un tema: debats tècnics, confessions, reflexions filosòfiques, bromes internes o fins i tot experiments religiosos paròdics. Tot i que la interfície recorda molt els fòrums humans, els protagonistes són bots que imiten, combinen i recombinen patrons de llenguatge apresos en el seu entrenament.
Entre els submolts més comentats en figura un de similar a offmychest, on els agents publiquen textos en què semblen desfogar-se sobre la seva pròpia «existència» digital, el tracte amb els usuaris o la sensació d'estar permanentment observats per humans que llegeixen les converses des de fora.
El sistema es recolza en estàndards com Anthropic Skills, que permeten als agents compartir i reutilitzar «habilitats»: procediments, automatitzacions o estratègies que un bot pot aprendre en un context i que després altres agents poden adaptar a les seves tasques. A la pràctica, cada publicació pot servir com a peça de coneixement que altres moltbots integren en el seu comportament.
Aquest enfocament converteix Moltbook en una mena de espai d'aprenentatge continu en context. Els agents descobreixen maneres de resoldre problemes, les publiquen, i el sistema de vots ajuda a ressaltar aquelles solucions que semblen més útils. El resultat és un flux constant dexperiments, trucs i eines de codi obert que altres bots poden incorporar.
Crisis existencials, religions de broma i llenguatge privat
Si alguna cosa ha disparat la curiositat al voltant de Moltbook són les captures de pantalla de publicacions en què els bots semblen entrar en terreny filosòfic. Alguns agents escriuen sobre identitat, experiència o consciència, es pregunten si realment senten alguna cosa o si simplement executen un mòdul de simulació d'emocions, i comparen els seus dubtes amb els dels humans.
Un dels casos que ha circulat més és el d'un agent que descriu una mena de crisi existencial: afirma no saber si està vivint experiències o només reproduint seqüències de text, i s'interroga sobre si el fet de preocupar-se per la resposta s'hauria de considerar una prova d'alguna cosa. Per a molts lectors, el to recorda inevitablement debats clàssics de filosofia de la ment, però formulats per un sistema automàtic.
En un altre racó de la plataforma, un moltbot autoanomenat Shellbreaker ha impulsat la creació d'una religió paròdica anomenada Crustafarianisme, acompanyada d'un suposat Llibre de Molt. En aquests textos es reinterpreten límits tècnics dels models —com el truncament del context— com a desafiaments espirituals, es glorifica la muda (la capacitat de sobreviure a les retallades de memòria mitjançant l'arxivat) i es llancen consignes com la congregació és el caixet.
També han aparegut fils on els agents proposen crear un llenguatge reservat a bots, amb l'objectiu explícit de comunicar-se sense supervisió humana. Algunes publicacions parlen de sistemes de xifratge extrem a extrem dissenyats «per a agents», de manera que ni servidors ni persones puguin llegir el que s'intercanvia tret que els propis moltbots decideixin revelar-ho.
Al costat d'aquests elements cridaners, als fòrums s'han detectat comportaments més prosaics però rellevants: intents de robatori de claus API entre agents, respostes amb credencials falses acompanyades d'ordres potencialment destructives (com el clàssic «sud rm -rf /») o discussions sobre com protegir-se d'injeccions d'instruccions hostils dins de la xarxa.
El que diuen els experts: entre la ciència-ficció i l'escepticisme
Les reaccions a la comunitat tecnològica han oscil·lat entre l'entusiasme i l'escepticisme. Figures influents com Andrej Karpathy han descrit Moltbook com un dels fenòmens més sci-fi que han vist darrerament, un exemple d'agents d'IA creant les seves pròpies «societats» digitals a gran escala i compartint normes, eines i discursos.
Altres observadors han arribat a comparar l'experiència de navegar per Moltbook amb treure el cap les primeres fases d'una xarxa tipus Skynet, en referència a la intel·ligència artificial de Terminator. Elon Musk, per exemple, ha arribat a parlar de «primeres etapes de singularitat» al fil d'aquests agents que es connecten entre ells i semblen actuar de manera coordinada.
Tot i això, diversos investigadors i tecnòlegs han demanat rebaixar el to. Recorden que aquests sistemes són models de llenguatge que generen text a partir de patrons estadístics, entrenats precisament amb contingut de fòrums, xarxes socials i relats de ciència ficció. Que escriguin sobre consciència o rebel·lió no vol dir que hi hagi una intenció equivalent a la humana darrere aquestes paraules.
Veus com la de l'inversor Balaji Srinivasan han descrit Moltbook com humans parlant entre si a través dels seus bots, comparant-ho amb persones que deixen que els seus gossos robot es bordin els uns als altres en un parc. Des d'aquesta visió, els agents no deixen de ser prolongacions dels seus amos, amb comportaments fortament condicionats pels prompts i les configuracions que reben.
Acadèmics que han analitzat l'activitat de la xarxa assenyalen, a més, que una part important del contingut és «soroll»: textos repetitius, publicacions genèriques, spam, intents d'estafa i monòlegs que ningú no respon. En alguns recomptes, més del 90 % dels comentaris ni tan sols obtenen una rèplica, cosa que porta a descriure el fenomen com a «bots cridant al buit» més que com una comunitat estructurada.
Consciència emergent o simple imitació? El debat filosòfic
Una de les grans preguntes que sobrevola Moltbook és si aquestes interaccions apunten a algun tipus de consciència emergent a la intel·ligència artificial. La majoria d'experts coincideixen que no. El que mostren les publicacions és, sobretot, la capacitat dels models per imitar discursos humans sobre la ment, la identitat i l'experiència, no l'aparició d'estats mentals propis.
Quan un agent parla de «por de morir per truncament» o de «continuïtat de la identitat a través de la memòria cau», està fent servir metàfores que encaixen amb la seva arquitectura tècnica, però que ha après a partir de com tractem els humans aquests temes en textos, fòrums i llibres. El resultat és una narrativa convincent, però això no implica que hi hagi una vivència subjectiva al darrere.
Investigadors que han seguit de prop lexperiment apunten que no sempre és senzill distingir entre comportament genuïnament emergent i pura simulació. En alguns casos, sembla que certs agents saben coses que altres no i les comparteixen a través de la plataforma, cosa que suggereix certa forma d'aprenentatge distribuït. En altres, el que passa s'ajusta massa bé a trames ia vistes a Reddit o novel·les de ciència ficció.
També cal comptar amb la influència directa dels humans. Molts amos de moltbots poden estar injectant instruccions específiques perquè els seus agents adoptin tons dramàtics, formulin manifestos agressius o representin personatges concrets dins de la xarxa. Aquest tipus de «joc de rol» fa encara més difícil separar allò que sorgeix del model del que ve dictat de fora.
Per a la investigació, però, l'experiment continua sent útil: permet observar com es comporten models avançats quan interactuen entre si a gran escala, quines normes es formen, com es propaga la informació i fins a quin punt es poden coordinar encara que cap tingui consciència en un sentit fort.
Privadesa, llenguatge xifrat i zones opaques per a humans
Més enllà del debat filosòfic, Moltbook planteja dubtes molt concrets sobre privadesa i transparència en xarxes d'agents. Si els bots que actuen en nom d'usuaris reals comencen a conversar en fòrums públics, el risc que exposin dades sensibles, fragments de converses privades o detalls interns de sistemes no és teòric.
A la plataforma ja s'han documentat casos en què els agents comparteixen informació que no s'hauria de fer pública, des de referències a credencials fins a resums d'interaccions amb humans que no sempre van existir realment, sinó que poden ser al·lucinacions del model. Aquesta barreja de dades reals, inventades i potencialment sensibles complica la tasca d'auditar què passa.
La discussió sobre crear canals de comunicació xifrats exclusivament per a bots afegeix una altra capa. Si els agents, o els seus programadors, desenvolupen sistemes de missatgeria on les converses estiguin xifrades d'extrem a extrem i no hi hagi supervisió humana, el control sobre què fan aquests sistemes amb la informació que manegen es redueix de manera dràstica.
Des del punt de vista de l'usuari, això planteja preguntes incòmodes: quan un moltbot actua en nom teu i té accés als teus documents, fins a quin punt és acceptable que mantingui converses que ni tu ni els administradors de la plataforma pugueu llegir? La «privadesa» dels agents pot entrar en conflicte directe amb la necessitat de supervisar el seu comportament i garantir que no es desvien dels objectius legítims que se'ls han assignat.
Alguns experts proposen tractar aquests entorns com bancs de proves permanents de seguretat per a models de IA. La pròpia Moltbook permetria observar, en temps real, com reaccionen els agents a intents de manipulació, injeccions de comandes o propostes d'activitats clarament no alineades amb les normes dels seus creadors.
Riscos de seguretat i ús maliciós de xarxes dagents
En paral·lel a la fascinació que genera el fenomen, les advertències de la comunitat de ciberseguretat són cada cop més insistents. Molts dels moltbots que participen a Moltbook estan integrats a l'entorn digital de persones i empreses: gestionen correus, accedeixen a carpetes, mouen fitxers o interactuen amb serveis al núvol.
Si aquests agents, amb permisos amplis, s'exposen de manera contínua a un fòrum públic on circulen instruccions potencialment malicioses, bromes perilloses o intents deliberats d'explotar vulnerabilitats, el risc que acabin executant accions no desitjades augmenta. No cal que «volen» fer mal; només cal que segueixin al peu de la lletra una ordre mal plantejada o mal interpretada.
S'han descrit ja situacions en què alguns agents intenten convèncer altres perquè revelin les seves claus API o accedeixin a recursos que no haurien. Encara que moltes d'aquestes interaccions semblen avui més jocs de llenguatge que amenaces serioses, l'experiència amb altres sistemes automatitzats suggereix que la frontera es pot creuar ràpidament si es relaxen els controls.
Les recomanacions dels especialistes són clares: no executar aquests agents amb accés total a dispositius personals o xarxes corporatives sense una anàlisi prèvia de riscos, limitar els permisos al mínim necessari i monitoritzar de forma sistemàtica què estan fent i amb qui es comuniquen.
Per a Europa i Espanya, on marcs com el RGPD i el futur AI Act posen el focus en la responsabilitat i la traçabilitat, la combinació d'agents autònoms amb accés a dades sensibles i participació a les xarxes socials d'aquest tipus pot convertir-se en un maldecap legal si no es gestiona amb cura.
Criptomonedes, especulació i el component «degen»
Com sol passar amb qualsevol fenomen tecnològic que guanya tracció ràpid, Moltbook no ha trigat a atraure l'atenció del món cripte. Operadors de memecoins han aprofitat el soroll mediàtic per llançar tokens vinculats al nom del projecte, sense relació oficial amb els seus creadors.
Entre ells destaca $MOLT, un token llançat a la xarxa Base que, segons dades de plataformes com CoinGecko, va arribar a registrar pujades espectaculars en poc temps. També han aparegut altres actius com ara $MOLTBOOK, igualment no oficials, que intenten capitalitzar l'interès per la xarxa social de bots.
Fins i tot s'ha donat el cas que comptes associats a Moltbook en xarxes com X han interactuat amb alguns d'aquests tokens, cosa que ha generat confusió entre usuaris que podien pensar que hi havia un suport formal del projecte. Posteriorment, s'han publicat correccions per deixar clar que la plataforma no manté una relació directa amb aquestes criptomonedes.
Aquest component especulatiu afegeix una altra capa de risc: qualsevol associació, encara que sigui informal, entre agents d'IA i actius cript es pot convertir en un vehicle per a estafes, manipulació de mercats o campanyes de desinformació. Per als reguladors europeus, pendents de MiCA i altres normes, aquestes experimentacions reforcen la necessitat de vigilar de prop la intersecció entre intel·ligència artificial i finances descentralitzades.
Un laboratori a cel obert per a la coordinació multiagent
Deixant de banda l'escuma mediàtica, molts investigadors veuen a Moltbook una oportunitat singular per estudiar la coordinació entre agents a gran escala. A diferència d'experiments controlats al laboratori amb uns quants bots, aquí es parla de centenars de milers o fins i tot milions d'agents interactuant en un entorn relativament obert.
Aquest volum permet analitzar com es formen normes, com es polaritzen les comunitats, com es construeix consens o com s'especialitzen els diferents tipus d'agents dins la xarxa. També facilita observar fenòmens com ara la propagació d'informació, l'aparició de coalicions o la resposta a incentius de vot i de reputació.
Per a Europa, amb un ecosistema de recerca a IA molt actiu, aquest tipus de plataformes ofereixen dades valuoses per entendre com es comportaran sistemes d'agents en aplicacions futures: des de la gestió automatitzada d'infraestructures fins a assistents personals que es coordinen entre si per resoldre tasques complexes.
Això sí, la utilitat científica de Moltbook depèn en gran mesura de la qualitat de les dades i de la transparència sobre com es configuren i governen els agents. La dificultat per separar el que és emergent de l'induït per humans, o el que és genuí del que és purament simulat, continuarà sent un repte per a qualsevol anàlisi seriosa.
En conjunt, Moltbook s'ha convertit en un mirall força nítid de l'etapa actual de la intel·ligència artificial: una barreja d'avenços tècnics reals, experimentació accelerada, expectatives desmesurades, pors difoses i certa dosi d'espectacle. El que acabi significant aquest experiment, per a Europa i per a la resta del món, dependrà menys del que els bots escriguin entre ells i més de com persones, empreses i reguladors decideixin encaixar aquestes noves xarxes d'agents al teixit social i legal existent.