Instagram avisarà els pares si els seus fills busquen repetidament informació sobre suïcidi

  • Instagram activarà avisos per a pares quan un menor busqui insistentment termes lligats a suïcidi o autolesió.
  • Les notificacions només arribaran a famílies amb supervisió parental activada i s'enviaran per correu electrònic, SMS, WhatsApp i dins de l'app.
  • La funció arrencarà als Estats Units, el Regne Unit, Austràlia i el Canadà i s'estendrà a altres regions, inclosa Europa, al llarg de l'any.
  • Meta llança aquesta mesura en ple escrutini judicial per l'impacte de les seves plataformes a la salut mental i la seguretat dels menors.

Instagram avisarà pares per cerques de suïcidi

Instagram prepara un canvi important en la manera com gestiona les cerques delicades dels adolescents: quan detecti que un menor insisteix diverses vegades en poc temps a buscar termes relacionats amb el suïcidi o les autolesions, avisarà directament els pares o tutors legals, sempre que tinguin activades les eines de supervisió de la plataforma.

Amb aquesta novetat, la xarxa social de Meta passa de limitar-se a bloquejar resultats sensibles i redirigir línies d'ajuda a fer un pas més: implicar de forma proactiva les famílies quan aquest patró de cerca pugui ser un senyal dalarma. La companyia defensa que la intenció no és vigilar per vigilar, sinó oferir als adults informació i recursos per intervenir-hi a temps si l'adolescent necessita suport.

Com funcionaran les noves alertes a pares

Alertes d'Instagram per a pares per cerques sensibles

La funció només s'activarà en comptes on hi hagi un enllaç de supervisió parental configurat. És a dir, només els pares que estiguin inscrits al programa de supervisió d'Instagram rebran aquests avisos; no és un seguiment generalitzat de tots els adolescents, sinó una capa extra per a famílies que ja han optat per aquesta opció.

Segons ha detallat Meta, les alertes es dispararan quan el sistema detecti que un menor cerca de forma repetida i en un període curt de temps termes clarament associats amb el suïcidi o l'autolesió. Entren aquí paraules com “suïcidi”, “autolesió” i frases que suggereixin intenció de fer-se mal, així com consultes que promoguin aquestes conductes.

A la pràctica, el procediment serà el següent: Instagram ja bloqueja que els comptes d'adolescents vegin resultats que promoguin el suïcidi o les autolesions, i al seu lloc mostra recursos d'ajuda i contactes de serveis especialitzats. Quan, malgrat aquests bloquejos i missatges, l'activitat de cerca indiqui insistència, s'activarà la notificació al compte del progenitor o tutor enllaçat.

L'avís arribarà per diversos canals: correu electrònic, SMS o WhatsApp, segons les dades de contacte que el pare o la mare hagin facilitat, i també mitjançant una notificació dins del vostre compte d'Instagram. En tocar-la, s'obrirà un missatge a pantalla completa que explicarà que l'adolescent ha intentat buscar repetidament termes vinculats al suïcidi o autolesions en poc temps.

A més de descriure el que ha passat de manera general, aquest missatge inclourà enllaços a materials i recursos desenvolupats per experts en salut mental i prevenció del suïcidi, pensats per ajudar els adults a abordar una conversa tan delicada sense agreujar la situació del menor. Meta insisteix que també ha intentat calibrar el sistema per evitar notificacions innecessàries que puguin restar eficàcia als avisos realment importants.

Desplegament internacional i possible impacte a Europa

Implementació global d'alertes d'Instagram

Meta ha confirmat que el llançament serà gradual. En una primera fase, la funció s'activarà als Estats Units, Regne Unit, Austràlia i Canadà, on començarà a funcionar “la setmana que ve”, segons la companyia. En aquests països, tant els adolescents com els pares que ja utilitzen la supervisió rebran un avís previ informant que aquest nou tipus de notificacions es posarà en marxa.

L'empresa tecnològica preveu ampliar la mesura a altres regions, inclosa Europa, a finals d'aquest mateix any, encara que no ha detallat encara dates concretes per a Espanya. Donat el marc regulador europeu –amb el Reglament de Serveis Digitals (DSA) i una pressió creixent per reforçar la protecció de menors en xarxes socials– i debats com la prohibició australiana de xarxes socials per a menors, l'arribada d'aquest sistema d'alertes a la Unió Europea estarà previsiblement condicionada pels requisits que marquin els reguladors comunitaris i les autoritats de protecció de dades.

A països com Espanya, on els debats sobre edat mínima d'ús de xarxes, verificació d'identitat i salut mental adolescent són molt presents, aquesta funció podria convertir-se en una eina addicional per a famílies i centres educatius. Tot i això, encara queda per veure com integrarà Meta aquestes alertes amb les exigències de transparència algorítmica i privadesa que imposa la normativa europea.

Ara com ara, la companyia es limita a assegurar que el desplegament internacional serà progressiu i que anirà afinant el funcionament de les alertes a partir de l'experiència als primers mercats i del diàleg amb organitzacions de prevenció del suïcidi, pediatres i col·lectius de pares.

Relació amb la supervisió parental i les polítiques de contingut

Supervisió parental a Instagram

Aquestes alertes s'integren dins del conjunt de eines de supervisió parental que Instagram ofereix des de fa temps, amb opcions com a límits de temps dús, control de qui pot enviar missatges al menor o visualització dels contactes que segueix i que el segueixen. Perquè els avisos s'activin, és imprescindible que la família hagi configurat prèviament aquesta supervisió i que l'adolescent hagi acceptat el vincle tal com estableix el sistema actual de la plataforma.

Meta subratlla que manté polítiques estrictes contra el contingut que promou o glorifica el suïcidi o l'autolesió. Aquests tipus de publicacions s'eliminen o es restringeixen, i en el cas de menors s'apliquen filtres addicionals. No obstant això, la companyia permet que els usuaris parlin de les seves pròpies dificultats amb la salut mental o d'experiències personals relacionades amb l'autolesió o el suïcidi, sempre que no s'animi altres a imitar aquestes conductes.

En el cas dels comptes d'adolescents, el contingut sobre experiències personals amb aquests temes que es pugui considerar sensible oculta els menors fins i tot encara que segueixin la persona que el publica. La idea és que els que passen per una situació complicada puguin expressar-se i cercar suport, però reduint l'exposició d'altres joves a materials que puguin actuar com a disparador.

Amb la introducció d'aquestes alertes, Instagram intenta tancar el cercle: quan un menor persistent en aquest tipus de cerques no només ensopega amb contingut sensible, sinó que mostra un patró que podria indicar risc, la plataforma avisa els adults responsables perquè tinguin l'oportunitat d'intervenir offline. Els missatges de l'empresa insisteixen que no s'informarà del detall exacte de cada cerca ni es mostrarà l'historial complet sinó un avís general acompanyat de materials orientatius.

Meta també reconeix que es tracta d'una qüestió delicada, en què cal equilibrar la intimitat de l'adolescent amb el dret i la responsabilitat dels pares de protegir-lo. Per això diu haver consultat especialistes en prevenció del suïcidi i el seu grup assessor específic sobre suïcidi i autolesions per definir quantes cerques, i en quin interval de temps, justifiquen una alerta.

Alertes també per a converses amb la intel·ligència artificial

Al costat de les cerques internes, la companyia vol cobrir un altre front: les interaccions dels adolescents amb els seus chatbots d'intel·ligència artificial, com Meta AI, integrats ja en diferents aplicacions del grup. Meta admet que molts joves recorren a eines de IA per demanar consells emocionals o parlar de temes que potser no gosen comentar amb adults del seu entorn.

Segons l'anunci oficial, l'empresa està treballant a notificacions parentals similars per a “certes experiències amb IA” relacionades amb el suïcidi o l'autolesió, que es llençaran a finals d'any. Quan un adolescent intenti iniciar o mantenir converses amb la IA sobre fer-se mal o treure's la vida, el sistema podria generar un avís als pares, de manera semblant al que passarà amb el cercador intern.

Meta assegura que els seus xat de xat ja estan entrenats per respondre de manera segura a preguntes delicades, evitant recomanacions perilloses, oferint missatges de suport i redirigint a recursos professionals quan escau. La novetat serà que, a més a més d'aquesta resposta immediata dins de la conversa, els pares amb supervisió activada també podran ser informats si es detecten senyals preocupants.

La companyia insisteix que aquest desenvolupament encara està en marxa i que compartirà més detalls en els propers mesos, incloent com es definirà exactament quin tipus de conversa genera una alerta, quina informació veuran els adults i com s'integrarà tot això amb les normes de privadesa de menors a cada país.

Aquest moviment reflecteix un canvi d'enfocament més ampli a la indústria tecnològica: les empreses no només han de moderar el que es publica, sinó també vigilar patrons d'ús que puguin avançar problemes de salut mental, especialment entre usuaris adolescents que utilitzen la IA com a interlocutor de confiança.

Context legal i pressió sobre Meta per la salut mental dels menors

L'anunci d'Instagram arriba en un moment especialment delicat per a Meta, que afronta múltiples demandes i processos judicials pel suposat impacte de les seves plataformes en la salut mental i la seguretat dels menors. Als Estats Units hi ha causes obertes en diferents estats que acusen l'empresa de dissenyar productes addictius i de no protegir adequadament els joves davant de contingut nociu.

A Los Angeles, un judici en curs qüestiona si xarxes com Instagram i Facebook fomenten l'addicció i perjudiquen els menors mitjançant algorismes de recomanació i sistemes de notificacions que incentiven lús compulsiu. En paral·lel, a Nou Mèxic un altre procediment judicial busca determinar si Meta va fallar a l'hora de protegir els nens davant de l'explotació sexual en línia dins de les plataformes.

A aquestes demandes se sumen milers de famílies, districtes escolars i organismes governamentals que han presentat demandes conjuntes contra Meta i altres grans xarxes socials, al·legant que els seus serveis han contribuït a un augment de la depressió, els trastorns alimentaris i les conductes suïcides entre adolescents.

Els directius de Meta, amb Mark Zuckerberg al capdavant, han rebutjat fins ara que hi hagi una relació causal provada entre l'ús de les seves plataformes i els problemes de salut mental. El CEO ha reiterat en seu judicial que, segons la seva opinió, l'evidència científica disponible no demostra de manera concloent que les xarxes socials com Instagram provoquin danys psicològics, i que els efectes poden variar molt en funció del tipus d'ús. Altres casos impliquen proveïdors d'IA; OpenAI va negar responsabilitat en un cas que també va suscitar debat públic.

En les seves compareixences, Zuckerberg també ha defensat que la responsabilitat primària de la verificació d'edat i control d'accés dels menors hauria de recaure en els sistemes operatius i les botigues d'aplicacions, és a dir, en actors com Apple i Google, i no només als desenvolupadors d'apps. Alhora, organismes com la Comissió Federal de Comerç dels EUA han començat a flexibilitzar certes restriccions perquè tercers puguin desenvolupar tecnologies de verificació d'edat sense exposar-se automàticament a sancions sota la normativa de privadesa infantil.

A Europa, tot i que el focus de les demandes és diferent, el debat és similar: institucions comunitàries, defensors del menor i organitzacions sanitàries reclamen plataformes com Instagram més mesures proactives per reduir riscos entre adolescents. La nova funció d'alertes sobre cerques de suïcidi s'inscriu en aquesta línia i podria servir Meta per mostrar que està reforçant la seva resposta, en un context en què les autoritats valoren imposar obligacions més estrictes.

En conjunt, aquestes novetats apunten a un canvi de to per part d'Instagram: la xarxa social segueix defensant que no hi ha una prova definitiva que els seus serveis causin mal, però alhora admet que ha d'oferir més eines per detectar senyals d'alarma i facilitar que les famílies puguin intervenir abans que una situació de risc vagi a més.

Amb aquest sistema d'avisos lligats a cerques sobre suïcidi i autolesions, i amb el proper salt a les converses amb intel·ligència artificial, Meta intenta reforçar la seva imatge de plataforma responsable sense renunciar als seus productes estrella. L'èxit o el fracàs de la mesura dependrà de si aconsegueix aquest equilibri complicat entre protegir els menors, respectar la seva intimitat i no saturar els pares amb alertes, en un moment en què la seguretat juvenil a les xarxes socials està més vigilada que mai.

ChatGPT suïcidi
Article relacionat:
ChatGPT i un cas de suïcidi: la demanda que reobre el debat sobre la IA i la salut mental

Segueix-nos a Google News