A Apple se li començava a notar el retard en intel·ligència artificial davant dels seus rivals, i la companyia ha decidit moure fitxa de la mà de Google. L'aliança entre les dues empreses portarà Gemini al cor de Siri, obrint una nova etapa per a l'assistent de l'iPhone i pel que Apple engloba sota el paraigua d'Apple Intelligence.
En les properes setmanes començarem a veure els primers resultats tangibles: una versió de Siri impulsada per Gemini que debutarà com a prova a iOS 26.4 i que servirà com a aperitiu d'una renovació molt més profunda, prevista per a iOS 27 i la conferència de desenvolupadors WWDC del juny.
Com serà el nou Siri amb Gemini a iOS 26.4

A principis de gener, Apple va confirmar una col·laboració estratègica amb Google Gemini per fer un salt de qualitat en el seu assistent. Segons filtracions coincidents, la companyia planeja publicar aquest mes de febrer un prototip de la nova Siri amb Gemini, amb la intenció de llançar-la al públic al març o abril juntament amb iOS 26.4.
Aquesta primera onada no serà encara la gran revolució, però sí que marcarà un canvi clar en l'ús diari. Entre les funcions en preparació destaca World Knowledge Answers, una característica pensada per oferir respostes basades en informació d'Internet amb referències explícites, en un estil similar als chatbots avançats com ChatGPT.
Un altre punt clau serà la memòria de context i de converses prèvies. Apple ja havia experimentat fa anys amb una cosa semblant, però mai no es va arribar a llançar de forma oficial. Amb Gemini de fons, Siri hauria de ser capaç de seguir el fil del que s'ha anat parlant, entendre referències al que hi ha a la pantalla i adaptar-se millor al que l'usuari necessita a cada moment.
També s'espera una integració més profunda amb les aplicacions del sistema i de tercers. La idea és que Siri pugui realitzar accions complexes dins d'apps només amb la veu: des de buscar una foto concreta a la galeria, obrir una nota per apuntar la llista de la compra o redactar un missatge per a la feina, fins a tasques més específiques segons cada aplicació compatible.
En paral·lel a aquestes novetats per a Siri, iOS 26.4 inclourà petits canvis de tall més clàssic, com un nou paquet d'emojis (amb icones com una orca, una trompeta o un cofre del tresor), millores en el rastreig d'AirPods extraviats mitjançant l'app Buscar, comprovacions addicionals de seguretat abans d'iniciar sessió amb Apple ID o iCloud i suport per autocompletar targetes desades a l'app Contrasenyes dins d'aplicacions de tercers.
El full de ruta: de la beta de febrer al gran salt a iOS 27
La versió de Siri que veurem a iOS 26.4 és, en realitat, un pas intermedi. Filtracions com les del periodista Mark Gurman apunten que Apple presentarà a la WWDC de juny un Siri molt més conversacional, reforçat tant per Gemini com per la pròpia infraestructura al núvol d'Apple.
En aquesta fase següent, l'assistent hauria de ser capaç de cercar a la web, generar text i imatges, ajudar en tasques de programació, resumir documents llargs o analitzar fitxers que l'usuari pugi al dispositiu, tot plegat amb un estil d'interacció molt més proper al que avui s'espera d'un chatbot modern.
En paral·lel, es rumoreja que Apple treballa en un chatbot propi amb nom en clau Camps, destinat a integrar-se a iOS 27, iPadOS 27 i macOS 27. La idea seria que Campos acabi substituint la interfície actual de Siri per a certes tasques, permetent tant escriure com dictar ordres de forma flexible, i convertint-se en un dels plats forts de la WWDC d'aquest any.
Si aquest pla es compleix, el 2026 seria l'any en què Siri passi de ser un assistent de veu relativament limitat a un sistema dassistència integral, amb capacitats d'automatització avançada, comprensió de context i accés millorat a la informació en línia, combinant potència al núvol amb processament local en els dispositius més moderns.
Això sí, com ja va passar amb les primeres funcions d'Apple Intelligence, és probable que les característiques més exigents d'aquesta nova Siri es limitin a models recents d'iPhone, el que pot marcar diferències notables entre usuaris segons el dispositiu que tinguin a la butxaca.
Apple, Google i la lletra petita de l'aliança Gemini

L'acord entre Apple i Google per utilitzar Gemini no s'ha detallat públicament, però diversos analistes apunten que Apple podria pagar uns 1.000 milions de dòlars l'any a canvi d'accés a una versió personalitzada d'aquest model d'IA ia serveis associats al núvol.
Aquesta jugada recorda al pacte pel qual Google ja paga a Apple milers de milions per ser el motor de cerca per defecte a l'ecosistema de la poma. La diferència, en aquest cas, és que Apple vol aprofitar la potència de Gemini sense cedir protagonisme de marca: Gemini no apareixerà com a producte independent a l'iPhone, sinó com a motor que impulsa funcions sota el paraigua de Siri i Apple Intelligence.
Des de Cupertino insisteixen que la companyia mantindrà un control estricte sobre la privadesa i les dades. Encara que es recolzi en models de Google, Apple no té intenció d'obrir la porta a un Gemini «pur» dins iOS i recalca que la integració es farà a la seva manera, amb la seva pròpia capa de seguretat i processant la informació sensible sota els seus estàndards.
En un comunicat intern, Apple hauria arribat a afirmar que «la tecnologia de Google proporciona la base més sòlida per als models fonamentals d'Apple», alhora que es mostra confiada que la col·laboració donarà lloc a noves experiències que encaixin amb la seva filosofia de producte.
No tothom veu amb bons ulls aquest acostament. Figures com Elon Musk han criticat públicament la concentració de poder que suposa per a Google controlar tant Android i Chrome com una bona part de la infraestructura d'IA que utilitzarà Apple. A més, el fet que Apple s'hagi aliat amb OpenAI i ara amb Google deixa altres actors, com el mateix Grok de xAI, clarament fora del focus de les grans plataformes.
Privadesa i execució: al dispositiu i al núvol privat
Un dels punts que més dubtes generava era on s'executaria exactament la nova Siri amb Gemini. Apple havia presentat el seu Private Cloud Compute com la solució per portar funcions d'IA avançades al núvol sense renunciar a la privadesa, però posteriorment es va filtrar que s'estava valorant utilitzar la infraestructura de Google de manera més directa.
A la darrera trucada amb inversors, el CEO d'Apple, Tim Cook, ha volgut tancar l'assumpte explicant que els models s'executaran tant al propi dispositiu com en un núvol privat, dissenyada per mantenir els estàndards de privadesa que la companyia considera diferencials. No ha donat gaires detalls tècnics, però sí que ha recalcat que aquests principis continuaran sent «líders a la indústria».
Cook també ha aclarit que, encara que Apple seguirà desenvolupant de manera independent part dels seus models, la versió personalitzada de Siri que arribarà amb Gemini és fruit directe de la col·laboració amb Google. L'objectiu declarat és poder oferir un assistent més personalitzat, profundament integrat amb les apps i capaç d'entendre el llenguatge natural de manera més rica.
Pel que fa al retorn de la inversió, Apple confia que la incorporació d'IA en productes ja consolidats, com l'iPhone, generi un valor afegit considerable i obriu noves oportunitats de negoci en els seus serveis. De moment, això sí, l'empresa no ha detallat quin percentatge d'usuaris pot accedir avui a Apple Intelligence ni com ho impacta en les vendes de nous dispositius.
El que sí que sembla clar és que el calendari està força definit: primeres funcions millorades de Siri a mitjans de febrer amb iOS 26.4, presentació de la versió completament renovada durant la WWDC del juny i llançament massiu juntament amb iOS 27 més endavant, en un desplegament que s'anirà ajustant segons mercats i dispositius compatibles.
El paper de Siri davant d'altres assistents i l'arribada de Gemini al cotxe
Tot i que la renovació de Siri amb Gemini apunta a un salt important, Apple no renuncia a l'enfocament que ha mantingut fins ara en altres fronts. Al cotxe, per exemple, la companyia treballa perquè assistents d'IA de tercers funcionin dins de CarPlay, el que obriria la porta a parlar amb ChatGPT, Gemini o Claude des de la pròpia interfície del vehicle.
La idea que s'estudia és que aquests assistents puguin gestionar consultes complexes i converses naturals mentre conduïm, amb una interfície adaptada a la pantalla del cotxe i als controls de CarPlay. Preguntes del tipus «quines diferències hi ha entre un híbrid i un elèctric?» o «fes-me un resum de les notícies del dia» es podrien resoldre sense tocar el mòbil i amb respostes directes al tauler de control.
Tot i això, Apple no preveu substituir Siri com capa principal de control a CarPlay. L'assistent de la companyia seguirà sent el responsable de tasques natives: enviar missatges, fer trucades, reproduir música, manejar la navegació amb Apple Maps i fins i tot controlar funcions avançades del vehicle a les versions més completes com CarPlay Ultra.
Segons les filtracions, Apple tampoc no permetrà reemplaçar el botó físic de Siri ni la paraula dactivació per ordres associades a altres assistents. La justificació oficial és la seguretat: l'empresa es vol recolzar en tecnologies que controla de principi a fi per a qualsevol funció que afecti directament la conducció o el maneig de sistemes integrats.
No hi ha data tancada perquè la IA de tercers arribi a CarPlay, però les fonts apunten a una finestra de «propers mesos» per habilitar el suport. A partir d'aquí, seran OpenAI, Google i altres companyies les que hagin d'actualitzar les seves apps per oferir una experiència realment ben integrada al cotxe, almenys en aquells mercats on les regulacions ho permetin.
Un canvi de rumb a l'estratègia d'IA d'Apple
Durant força temps es va tenir la sensació que Apple anava a remolc en intel·ligència artificial, sense un full de ruta clar davant l'empenta d'altres tecnològiques. La combinació de la aliança amb Google, l'aposta per Apple Intelligence i els canvis interns a l'equip d'IA apunten a un gir més decidit.
Ja el 2024, la companyia havia començat a moure's amb la integració de ChatGPT en certes funcions de Siri, permetent accedir a la base de dades del model d'OpenAI per millorar respostes i oferir generació d'imatges, encara que aquestes característiques es van limitar als iPhone més recents i no van arribar a tot el catàleg.
El salt a Gemini 3 i el nou acord amb Google marquen una estratègia més estable, amb Apple reconeixent que necessita recolzar-se en socis molt consolidats mentre desenvolupa els seus models. Això no implica renunciar al control sobre l'experiència d'usuari, però sí que accepta que la carrera de la IA es corre a un ritme que exigeix col·laboracions d'aquest tipus.
Per a usuaris a Espanya i la resta d'Europa, la clau estarà a veure quines funcions arriben realment a cada regió, en quins idiomes i amb quines limitacions imposades per la regulació sobre dades i competència. Històricament, algunes característiques vinculades a assistents de veu han trigat més a aterrar fora dels Estats Units, i caldrà comprovar si amb Siri i Gemini el desplegament és més homogeni.
El que es perfila, en qualsevol cas, és un escenari en què Siri passarà de ser l'assistent una mica rígid que molts usuaris havien deixat de banda convertir-se en la porta d'entrada tota una capa de serveis d'IA integrada al sistema operatiu, amb Google com a motor a l'ombra però amb Apple marcant el ritme, la interfície i, almenys sobre el paper, les regles del joc en matèria de privadesa.

