Meta llança els seus propis xips d'IA per reduir la seva dependència de Nvidia i AMD

  • Meta introdueix quatre xips interns MTIA per a tasques de classificació, recomanació i inferència de IA.
  • Els processadors MTIA busquen retallar costos, optimitzar centres de dades i dependre menys de Nvidia i AMD.
  • La companyia accelera el full de ruta de silici propi mentre manté grans compres de GPU externes.
  • L?aposta s?emmarca en una expansió massiva d?infraestructura d?IA als Estats Units i altres mercats.

Xips d'IA de Meta

Meta ha decidit fer un pas endavant i apostar pels seus propis xips d'intel·ligència artificial per alimentar l'enorme infraestructura que sosté Facebook, Instagram, WhatsApp i les noves eines d'IA generativa. El moviment respon a l'augment descomunal de la demanda de còmput i al cost creixent de dependre gairebé en exclusiva de proveïdors com Nvidia i AMD.

Amb aquest llançament, la companyia de Mark Zuckerberg cerca reduir la seva dependència de tercers, abaratir el funcionament dels seus centres de dades i adaptar el maquinari a les càrregues de treball molt específiques que té dins de les plataformes. No es tracta de vendre processadors a altres empreses, sinó de construir un silici a la carta per a ús intern.

Què és MTIA i per què Meta vol els seus propis xips d'IA

Meta Training and Inference Accelerator

El programa s'articula al voltant de la família Accelerador de meta formació i inferència (MTIA), un projecte en què l'empresa treballa des del 2023 i que ara pren forma pública amb diversos models de xip. La idea central és dissenyar processadors més compactes i eficients, pensats per a un conjunt acotat de tasques de IA en comptes dels grans xips de propòsit general que dominen el mercat.

Segons ha explicat la companyia, la arquitectura de MTIA se centra a equilibrar potència de càlcul, ample de banda de memòria i capacitat de memòria per servir models de classificació i recomanació, així com càrregues creixents d'inferència. Dit d'una altra manera: estan optimitzats per decidir què hi veu cada usuari, amb quina rapidesa responen els assistents d'IA i com es processen milions de peticions simultànies.

Meta subratlla que no fabrica per al mercat general, de manera que els seus xips no necessiten incorporar tots els components duna GPU convencional. Aquesta renúncia a funcions innecessàries en el context els permet retallar costos i afinar el disseny per a les necessitats reals dels seus serveis.

Els nous xips es fabricaran a través de Taiwan Semiconductor Manufacturing Co. (TSMC), la fosa més gran de semiconductors del món i soci habitual de gegants com Apple, Nvidia o Qualcomm. El procés, des del disseny fins al lliurament dels primers lots, es mou en un termini aproximat de dos anys.

Quatre generacions de xips MTIA amb funcions diferenciades

Família de xips MTIA de Meta

El full de ruta actual contempla quatre generacions de xips interns: MTIA 300, 400, 450 i 500, amb llançaments escalonats fins al 2027. Tots ells s'estan desenvolupant en paral·lel, cosa que permet a Meta ajustar cada iteració a l'evolució de les seves càrregues de treball d'IA.

El MTIA 300 ja està en producció i s'utilitza per a tasques de classificació i sistemes de recomanació, és a dir, per decidir quins continguts, anuncis i vídeos es mostren a cada usuari a Facebook i Instagram. Aquest primer model ha estat dissenyat per processar grans volums de sol·licituds en temps real amb un consum energètic ajustat.

El seu successor, el MTIA 400 (també conegut internament com a Iris), ha superat les proves de laboratori i està en fase de desplegament als centres de dades de la companyia. Meta assegura que multiplica per quatre el rendiment de determinades operacions respecte al MTIA 300 i millora significativament la velocitat d'accés a memòria, cosa que es tradueix en respostes més ràpides i una capacitat més gran per manejar trànsit simultani.

Els models següents, MTIA 450 i MTIA 500 —amb noms en clau Arke i Astrid— estan orientats a tasques d'inferència avançada a gran escala i s'incorporaran de manera més àmplia a partir del 2027. Astrid, el més potent, n'eleva aproximadament un 80% la capacitat de memòria i un 50% la velocitat d'accés respecte del seu predecessor, cosa que el posiciona per a escenaris d'IA generativa i models de llenguatge de grans dimensions.

Yee Jiun Song, vicepresident d'enginyeria de Meta, ha assenyalat que els quatre productes s'estan construint en paral·lel i es llançaran amb intervals al voltant de sis mesos. Al seu parer, la velocitat a què canvien les càrregues de treball de l'IA obliga a revisar constantment el full de ruta i ajustar el desenvolupament a les necessitats que es van detectant sobre la marxa.

Inversió multimilionària i estratègia de llarg recorregut

El gir cap al propi silici arriba acompanyat d'un pla de despesa sense precedents. Només en inversió de capital per a tota la seva infraestructura tecnològica, Meta preveu destinar entre 115.000 i 135.000 milions de dòlars el 2025, una xifra que es mantindria en nivells molt elevats els anys següents a mesura que es consoliden els nous centres de dades.

Dissenyar i produir xips no és precisament barat: el pas del disseny a la fabricació sol costar milers de milions, i només resulta rendible si lús es fa a gran escala i amb altes taxes dutilització. És aquí on Meta confia a treure avantatge, aprofitant el volum massiu de trànsit i peticions de les seves plataformes.

Per tal de reforçar la seva capacitat interna, la companyia ha dut a terme moviments corporatius significatius. Després d'un intent fallit de fer-se amb la sud-coreana FuriosaAI, Meta va acabar adquirint la signatura de semiconductors Rius, amb seu a Santa Clara, juntament amb diversos centenars dels seus empleats. L'objectiu és accelerar el disseny de silici personalitzat per a IA i poder abordar diversos projectes de xip alhora.

En paral·lel, Meta col·labora amb Broadcom en aspectes concrets del disseny i manté acords de gran volum amb Nvidia i AMD. Al febrer va signar contractes per valor de desenes de milers de milions per assegurar-se un subministrament continu de GPU que seguiran sent clau tant per a entrenament com per a part de la inferència en els propers anys.

Equilibri entre xips propis i GPUs externes

La direcció de l'empresa insisteix que l'aposta per MTIA no implica trencar amb Nvidia ni AMD, sinó complementar els seus productes. Ara com ara, els xips interns de Meta s'utilitzen sobretot en sistemes de recomanació de contingut i inferència, mentre que l'entrenament dels grans models de llenguatge encara depèn del maquinari dels proveïdors externs.

Susan Li, directora financera de la companyia, ha explicat que l'estratègia passa per combinar diferents tipus de processadors en funció de cada tasca. Per a certes càrregues de treball molt especialitzades, els xips de disseny propi poden aportar un plus deficiència i menors costos; per altres, com l'entrenament de models d'última generació, continuen sent imprescindibles les GPU d'alt rendiment de Nvidia o AMD.

La pròpia Li ha reconegut que l'ambició de Meta és desenvolupar en el futur processadors capaços d'entrenar els models d'IA més avançats, encara que admet que assolir el nivell actual dels grans fabricants externs portarà temps. De moment, la prioritat és ampliar lús de MTIA en classificació, recomanacions i inferència generativa.

Paral·lelament al maquinari, Meta està reforçant la seva estructura interna d'IA amb una nova organització d'enginyeria liderada per Maher Saba, que treballarà al costat del Laboratori de Superintel·ligència de la companyia. A més, ha tancat acords d'accés a continguts, com ara el signat amb News Corp, valorat en fins a 50 milions de dòlars anuals, per entrenar els seus models amb material periodístic i arxius.

Competència amb Google, Amazon i Microsoft a la carrera del silici

El moviment de Meta encaixa en una tendència més àmplia del sector tecnològic. Google fa anys que desenvolupa els seus TPUs per entrenar i executar models de IA al seu núvol, mentre que Amazon compta amb processadors propis com Trainium o Inferentia. Microsoft, per part seva, ha començat a desplegar xips dissenyats internament per a certes funcions, combinats amb el maquinari de tercers que alimenta gran part d'Azure.

Amb MTIA, Meta se suma de ple a aquesta carrera pel control directe de les capes més crítiques de la infraestructura. No obstant això, la companyia és conscient que Nvidia conserva una posició dominant, amb més del 90% del mercat de xips d'IA i més d'una dècada d'avantatge tecnològic a GPU especialitzades.

L'enfocament de Meta no és desbancar Nvidia de la nit al dia, sinó construir una capa de maquinari adaptada als seus propis serveis, de manera que pugueu ajustar rendiment, consum i costos al que realment necessiteu la vostra xarxa d'aplicacions socials i d'IA. En un context de demanda disparada de potència de càlcul, qualsevol estalvi unitari es multiplica quan s'aplica a desenes de milers de servidors.

L'escala de la infraestructura de Meta ajuda a entendre aquesta estratègia. L'empresa està ampliant centres de dades a diversos estats dels Estats Units i reforçant la seva capacitat global per donar servei tant a les seves xarxes socials com a nous productes d'IA, com a assistents integrats en les aplicacions o funcions de cerca de productes amb recomanacions basades en imatges i preus.

Tot aquest pla de xips propis situa Meta en una fase clau de la seva evolució tecnològica: si aconsegueix que MTIA redueixi costos i mantingui el rendiment necessari per als seus serveis, la companyia guanyarà marge de maniobra davant dels vaivens del mercat de GPUs i podrà continuar ampliant els seus projectes de IA a gran escala sense dependre tant de tercers. El repte és executar a temps un full de ruta complex i molt costós en un sector en què la tecnologia avança a una velocitat que, com reconeixen des de la pròpia empresa, està sorprenent fins i tot els que van al capdavant.

Meta negocia xips de Google TPU
Article relacionat:
Meta negocia xips de Google TPU per als vostres centres de dades d'IA

Segueix-nos a Google News