L'arribada de la Raspberry Pi AI HAT+ 2 marca un pas important per als que volen treballar amb intel·ligència artificial directament en una Gerd Pi 5 sense dependre del núvol. Aquesta nova placa dexpansió combina un accelerador neuronal específic i memòria pròpia per descarregar gran part del treball de IA del processador principal i permetre usos més exigents en el terreny de la IA generativa a la vora.
Amb un preu de referència al voltant de 130 dòlars -que a Espanya i altres països europeus s'està traduint en xifres properes als 140‑150 euros segons distribuïdor-, l'AI HAT+ 2 se situa com una opció relativament assequible per experimentar amb models de llenguatge lleugers i visió artificial en dispositius de baix consum. No pretén competir amb grans estacions de treball o serveis cloud, però sí oferir una eina pràctica per a projectes de IoT, automatització, prototipat i formació.
Què és la Raspberry Pi AI HAT+ 2 i en què es diferencia de l'anterior

La Raspberry Pi AI HAT+ 2 és una placa d'ampliació oficial per a Raspberry Pi 5 que es munta seguint el concepte HAT clàssic: es cargola sobre la placa base i es connecta tant al connector GPIO com a la interfície PCI Express integrada a la pròpia Raspberry. L'objectiu és ampliar la capacitat de còmput d'IA del sistema sense canviar el format ni la filosofia de les SBC.
Aquest model arriba com a successor directe de la primera Raspberry Pi AI HAT+, presentada el 2024 i centrada gairebé per complet en tasques de visió intel·ligent gràcies als acceleradors Hailo-8 (26 TOPS) i Hailo-8L (13 TOPS). Aquella placa estava molt orientada a detecció d'objectes, estimació de posis o reconeixement d'escenes amb càmera, però es quedava curta per models de llenguatge una mica més ambiciosos.
Amb l'AI HAT+ 2, Raspberry Pi fa el salt a la IA multimodal local recolzant-se al nou accelerador de xarxes neuronals Hailo‑10H i afegint a la pròpia targeta 8 GB de memòria LPDDR4X dedicada. Aquesta combinació permet anar més enllà de la visió per ordinador i abastar també models de llenguatge grans de mida reduïda i models multimodals directament al dispositiu.
En disposar de DRAM integrada al HAT, el sistema pot separar millor els recursos: la Raspberry Pi 5 manté el CPU, GPU i RAM principal per a la lògica de l'aplicació, la interfície d'usuari o els serveis de xarxa, mentre que el coprocessador Hailo‑10H s'encarrega de la major part de la inferència d'IA. A la pràctica, això redueix l'impacte de la IA sobre el rendiment general del sistema.
Maquinari i rendiment: Hailo‑10H, 40 TOPS i consum contingut

El cor de l'AI HAT+ 2 és el Hailo‑10H, un accelerador de xarxes neuronals dissenyat per a desplegaments de IA a la vora i comparable a algunes plataformes amb IA integrada. Segons les dades facilitades per Raspberry Pi i Hailo, aquest xip ofereix fins i tot 40 TOPS de rendiment d'inferència, treballant amb quantitzacions com INT4 i INT8 habituals en entorns encastats. Aquest salt suposa una millora clara davant dels 13/26 TOPS de la primera generació basada en Hailo-8 i Hailo-8L.
Un dels punts clau és que el Hailo‑10H està limitat a una potència al voltant de 3 W. Aquesta restricció manté el consum sota control i en facilita l'ús en caixes compactes, projectes alimentats per bateria o sistemes on la dissipació tèrmica és un maldecap. La contrapartida és que, en determinades càrregues molt optimitzades per a la CPU i la GPU de la Raspberry Pi 5, la avantatge en rendiment brut de la NPU no sempre serà espectacular.
La placa incorpora 8 GB de memòria LPDDR4X dedicats exclusivament a l'accelerador d'IA. Aquesta novetat és significativa: mentre la primera AI HAT+ depenia gairebé del tot de la memòria del propi SBC, ara el HAT pot carregar models i dades a la seva pròpia RAM, reduint encara més l'impacte a la memòria de la Raspberry Pi 5.
Raspberry Pi assenyala que, en tasques de visió, el rendiment del Hailo‑10H és pràcticament equivalent al de la variant de 26 TOPS de l'AI HAT+ original, malgrat el canvi d'arquitectura. La millora real s'aprecia sobretot en la capacitat per manejar càrregues de treball de IA generativa i en la flexibilitat que aporta la memòria dedicada a bord.
En el paquet s'inclou un dissipador específic per a la NPU que, encara que no sempre és imprescindible per consum, es recomana instal·lar si es llançaran inferències intensives durant llargs períodes. La idea és mantenir el xip en un rang tèrmic estable i evitar possibles reduccions de freqüència per temperatura.
Models de llenguatge compatibles i el que es pot fer al local

Un dels principals reclams del nou accessori és la possibilitat d'executar models de llenguatge en local sobre una Raspberry Pi 5 sense haver de recórrer a servidors remots. Durant la presentació, la companyia ha assenyalat una primera fornada de models suportats entre 1.000 i 1.500 milions de paràmetres, una escala manejable per al maquinari disponible.
Entre els models esmentats es troben DeepSeek‑R1‑Distill, Truca 3.2, Qwen2, Qwen2.5‑Instruct i Qwen2.5‑Coder. La majoria ronden els 1.500 milions de paràmetres, excepte Flama 3.2, que es queda al voltant dels 1.000 milions. En conjunt, permeten desplegar funcions com a xat conversacional bàsic, generació i assistència de codi, traducció de textos o resposta a preguntes senzilles, tot això amb les dades processades directament al dispositiu.
Les demostracions inicials inclouen tasques com la traducció de francès a anglès o la resolució de preguntes curtes utilitzant Qwen2. En aquests exemples, la latència es manté baixa i la interacció resulta fluida, cosa que es tradueix en una experiència molt més natural que quan es depèn de connexions inestables o de servidors externs saturats.
Ara bé, cal deixar clar que l'AI HAT+ 2 no està pensada per a models massius com les implementacions completes de ChatGPT, Claude o els LLM més grans de Meta, Anthropic o OpenAI. Aquests sistemes treballen amb xifres de paràmetres que solen moure's entre els centenars de milers de milions i els diversos bilions, molt lluny del que pot gestionar una NPU de baix consum amb 8 GB de RAM dedicada.
Tot i aquestes limitacions, la placa permet crear projectes interessants: assistents personals que funcionin sense connexió, petits bots de xat privats, eines de generació de codi en entorns aïllats o sistemes que combinin reconeixement d'escenes amb una descripció breu en text.
Memòria, límits pràctics i comparació amb una Raspberry Pi 5 de 16 GB
Els 8 GB de LPDDR4X integrats a l'AI HAT+ 2 suposen un avenç clar respecte a la primera generació, però també marquen un sostre evident. Molts LLM quantitzats de mida mitjana i amb contextos amplis poden superar fàcilment els 10 GB de memòria entre pesos, buffers intermedis i context, per la qual cosa aquesta solució està pensada, per ara, per a models relativament compactes o per treballar amb finestres de context més reduïdes.
Si es compara amb una Raspberry Pi 5 de 16 GB, la placa base amb la configuració de memòria més alta segueix oferint més marge per carregar models grans directament a la RAM del sistema, sobretot si es dedica pràcticament tot l'equip a la IA i es minimitza la resta de processos. En aquest escenari, prescindir del HAT i llençar només de CPU/GPU pot continuar sent l'opció més senzilla per a certs usos molt concrets.
En canvi, la combinació d'una Pi 5 -fins i tot amb menys memòria- i l'AI HAT+ 2 té sentit quan es vol distribuir la feina: deixar que la NPU s'encarregui de la inferència i mantenir la placa principal resolent altres tasques simultànies, com ara mostrar una interfície gràfica, gestionar bases de dades locals o servir contingut via web.
La pròpia Raspberry Pi recorda que l'usuari ha de tenir present la necessitat de operar dins un conjunt de dades limitat. Els models inclosos de sèrie no pretenen abastar el coneixement ni les capacitats dels grans LLM al núvol; el seu paper és aportar respostes útils dins un domini acotat.
Per afinar més els resultats, la companyia planteja l'ús de tècniques com LoRA (Low-Rank Adaptation), que permeten ajustar un model base a tasques concretes sense modificar la major part dels paràmetres. D'aquesta manera, es pot entrenar o adaptar un petit LLM a un cas d'ús específic -per exemple, documentació tècnica pròpia d'una empresa- sense desbordar els límits de memòria i còmput del sistema.
Visió per ordinador, multimodalitat i execució simultània

L'AI HAT+ 2 no renuncia als punts forts de la seva predecessora a visió per ordinador. El Hailo‑10H manté unes capacitats molt properes a les del Hailo‑8 en tasques com ara detecció i seguiment d'objectes, estimació de postura humana o segmentació d'escenes, cosa que permet continuar utilitzant models populars de visió amb molt bon rendiment.
Raspberry Pi assenyala que el nou HAT pot executar simultàniament models de visió i de llenguatge, una cosa especialment atractiva per a projectes que combinin càmera i text. Un exemple típic seria una càmera que detecta persones o objectes utilitzant un model tipus YOLO i, alhora, genera descripcions breus o resums mitjançant un LLM lleuger instal·lat al propi dispositiu.
En escenaris pràctics s'esmenten taxes properes als 30 fotogrames per segon per a alguns models de detecció d'objectes a resolucions moderades, sempre amb l'excepció que el rendiment final dependrà del model triat, la resolució d'entrada i la complexitat de l'escena. En qualsevol cas, l'objectiu és que el HAT assumeixi el pes de la visió mentre la Raspberry Pi 5 gestiona tasques com ara l'emmagatzematge, la interfície o l'enviament d'alertes.
La integració amb el ecosistema de càmeres de Raspberry Pi es manté com un dels punts forts. L'AI HAT+ 2 s'integra a la mateixa pila de programari, de manera que projectes existents que ja feien servir les càmeres oficials poden adaptar-se amb menys esforç per aprofitar el nou accelerador.
El suport de programari encara està en evolució. Encara que ja existeixen exemples, llibreries i frameworks tant des de Raspberry Pi com des de Hailo (amb repositoris a GitHub i una Developer Zone amb documentació), l'execució en paral·lel de diversos models -visió, llenguatge i multimodals- encara s'està polint. Cal esperar que, amb el temps, l'experiència sigui més senzilla a mesura que madurin els controladors i les eines.
Casos d'ús a Espanya i Europa: indústria, IoT i educació
La combinació de mida reduïda, baix consum i processament local d'IA encaixa bé amb diverses de les tendències de digitalització que s'estan impulsant a Espanya ia la resta d'Europa. Sectors com la automatització industrial, la gestió d'edificis o l'IoT avançat poden aprofitar una solució d'aquest tipus per reduir la dependència del núvol i millorar la privacitat de les dades.
detecció d'anomalies en temps real en línies de producció, control d'accessos amb reconeixement bàsic o recompte de persones en instal·lacions són alguns exemples d'ús industrial on l'AI HAT+ 2 pot ser útil, combinant la càmera amb models de llenguatge que generin avisos o informes resumits directament a la pròpia instal·lació.
En l'àmbit del IoT domèstic i comercial, la placa obre la porta a assistents locals o un robot de llar amb IA que no hagin d'enviar enregistraments de veu o vídeo a tercers, panells que interpretin dades de sensors, càmeres que descriguin escenes o sistemes que generin resums textuals sense sortir de la xarxa interna. Aquest enfocament encaixa força bé amb les normatives europees creixentment estrictes en matèria de protecció de dades.
detecció d'anomalies en temps real en línies de producció, control d'accessos amb reconeixement bàsic o recompte de persones en instal·lacions són alguns exemples d'ús industrial on l'AI HAT+ 2 pot ser útil, combinant la càmera amb models de llenguatge que generin avisos o informes resumits directament a la pròpia instal·lació.
També és una opció interessant com kit de desenvolupament per a empreses i startups europees que valorin integrar el xip Hailo‑10H en productes finals. Muntar un prototip basat en Raspberry Pi 5 i AI HAT+ 2 permet validar rendiment, consum i estabilitat abans d'invertir en dissenys de maquinari propis més costosos.
Al terreny educatiu, des de centres de formació professional fins a universitats, una combinació de Raspberry Pi 5 i AI HAT+ 2 pot servir com a plataforma per apropar la IA aplicada a l'aula sense necessitat de grans pressupostos. L'alumnat pot experimentar amb models reals de llenguatge i visió, entendre'n els límits i aprendre a desplegar solucions en maquinari de recursos continguts.
Perfil d'usuari i on té més sentit fer-la servir
El públic objectiu de l'AI HAT+2 és variat. D'una banda, hi ha la comunitat maker i d'aficionats avançats que ja utilitzen Raspberry Pi 5 per a projectes de domòtica, robòtica o servidors casolans i ara volen afegir una capa de IA generativa o visió avançada sense muntar una estació de treball específica o pagar subscripcions contínues.
De l'altra, la placa s'adreça clarament a desenvolupadors professionals i startups que necessiten un entorn de proves per a IA embeguda. Enfront de solucions basades en GPUs discretes o NPUs integrades en PC industrials, el format HAT ofereix un equilibri interessant entre cost, consum, mida i simplicitat, encara que lògicament no arriba als nivells de potència de plataformes molt més cares.
Per als que només busquen executar models de llenguatge en local amb el marge de memòria més gran possible, una Raspberry Pi 5 amb 16 GB de RAM sense HAT segueix sent una opció vàlida, sempre que s'accepti que tota la inferència recaurà sobre la CPU i la GPU de l'SBC. En canvi, si es vol combinar IA amb altres funcions en paral·lel, aprofitar la NPU dedicada sol tenir més sentit.
A Espanya, on les Raspberry Pi són habituals tant en projectes casolans com en petites empreses tecnològiques, l'AI HAT+ 2 pot trobar el vostre lloc en prototips de dispositius IoT amb IA local, sistemes de control d'accés, solucions de manteniment predictiu senzill o assistents interns que no hagin de treure dades al núvol.
En cert nivell de comoditat amb Linux, l'ecosistema Raspberry i els conceptes bàsics de desplegament de models és recomanable per treure partit de l'HAT; no està pensat com una “joguina plug and play” per a usuaris completament novells.
Integració de programari, recursos disponibles i suport
A nivell de programari, l'AI HAT+ 2 s'integra amb el entorn habitual de Raspberry Pi 5. La comunicació amb el Hailo‑10H es realitza a través de la interfície PCIe, i els controladors corresponents permeten dirigir les càrregues de treball de IA cap a la NPU, mantenint la CPU lliure per a altres tasques.
Hailo ofereix un repositori en GitHub i una Zona de desenvolupadors amb exemples de codi, models preconfigurats, tutorials i frameworks orientats tant a IA generativa com a visió computaritzada. Això redueix la barrera d'entrada per als que no vulguin muntar tota la pila des de zero, tot i que encara és recomanable tenir certa experiència prèvia amb Python, contenidors o entorns similars.
En el moment del llançament, Raspberry Pi indica que ja n'hi ha models de llenguatge llestos per instal·lar i que s'hi aniran incorporant variants més grans o afinades a casos d'ús específics mitjançant actualitzacions. La idea és anar ampliant gradualment el catàleg a mesura que l'ecosistema maduri i es comprovi quines combinacions de models i quantització funcionen millor a la pràctica.
Com sol passar amb aquest tipus de solucions, el rendiment i l'estabilitat reals dependran en gran mesura de la maduresa del programari. Algunes ressenyes primerenques apunten que encara hi ha marge de millora en eines, documentació i suport per executar diversos models en paral·lel, però la tendència va cap a una integració cada cop més polida dins de l'ecosistema Raspberry Pi.
Ara com ara, l'AI HAT+ 2 es posiciona com una solució intermèdia entre el núvol i els grans servidors d'IA: permet executar models de llenguatge i visió lleugers amb baixa latència, mantenir les dades sota control i contenir els costos, sempre que l'usuari assumeixi les limitacions de potència i memòria pròpies d'un sistema pensat per al baix consum i el format compacte.
