TikTok: tenemos un problema social y humano con vuestros algoritmos

No solo los algoritmos de TikTok están causando daños. También los de las otras plataformas sociales que funcionan igual, lo hacen. Pero los algoritmos del sistema de recomendación de YouTube, y el de la red social TikTok son los más adictivos de todo el internet social.

El Juez Paul Matey, del tri­bu­nal fede­ral del ter­cer cir­cui­to (tri­bu­nal inter­me­dio en EE.UU. entre los tri­bu­na­les fede­ra­les y el Supre­mo), ha toma­do una deci­sión his­tó­ri­ca con­tra­di­cien­do con su sen­ten­cia al tri­bu­nal ante­rior de pri­me­ra ins­tan­cia, decla­ran­do res­pon­sa­bles a la empre­sa Tik­Tok Inc. y a su matriz chi­na Byte­Dan­ce, empre­sas due­ñas de la pla­ta­for­ma Tik­Tok, de la muer­te de Nylah Ander­son una niña de diez años que par­ti­ci­pó en la red social en el «reto del apa­gón», un horro­ro­so e irra­cio­nal reto, que le aca­bó cos­tan­do la vida a la niña. Lue­go vere­mos deta­lles.

La infor­ma­ción cita­da me lle­gó por Matt Sto­ller direc­tor de Inves­ti­ga­ción del Ame­ri­can Eco­no­mic Liber­ties Pro­ject y autor del libro Goliat que tra­ta de la gue­rra de los 100 años entre el poder mono­po­lís­ti­co y la demo­cra­cia. Fue Matt quien me seña­ló pri­me­ro la impor­tan­cia his­tó­ri­ca de esta sen­ten­cia y del juez que ha dic­ta­mi­na­do que Tik­Tok debe ser juz­ga­da por mani­pu­lar a niños para que se hagan daño, sal­tán­do­se los ante­rio­res cri­te­rios de apli­ca­ción de la ley duran­te años cono­ci­da como la Sec­ción 230 de la Ley de Decen­cia en las Comu­ni­ca­cio­nes de EE.UU. Ley que con­ce­dió de fac­to una lar­ga impu­ni­dad a las empre­sas de pla­ta­for­mas de redes socia­les sobre los daños que cau­sen, siem­pre y cuan­do pudie­ran decir que «el algo­rit­mo fue quien lo hizo». Una sen­ten­cia valien­te la de este juez, que hace retro­ce­der la ley 230 y pone fin al escu­do sobre la res­pon­sa­bi­li­dad que las gran­des empre­sas tec­no­ló­gi­cas uti­li­zan para come­ter malas accio­nes sin con­se­cuen­cias y con casi total impu­ni­dad.

Las reac­cio­nes no se han hecho espe­rar. Por ejem­plo, la pro­fe­so­ra y juris­ta Zephyr Tea­chout de la Escue­la de Leyes de la Fordham Uni­ver­sity de Nue­va York, ha mani­fes­ta­do que «La sen­ten­cia es una deci­sión real­men­te sus­tan­cial e impor­tan­te, que por fin inter­pre­ta la Direc­ti­va 230 tal y como esta­ba con­ce­bi­da, y no amplía la inmu­ni­dad a los con­te­ni­dos pro­mo­vi­dos algo­rít­mi­ca­men­te». En el mis­mo sen­ti­do su cole­ga Mike Sacks seña­la que «el tri­bu­nal CA3 afir­ma en la sen­ten­cia que la Sec. 230 no pro­te­ge a Tik­Tok y Byte­Dan­ce por crear un algo­rit­mo que ali­men­tó el ‘desa­fío blac­kout ‑apa­­gón-’ y tuvo como víc­ti­ma direc­ta a una niña de 10 años que inten­tó seguir este irra­cio­nal reto has­ta las últi­mas con­se­cuen­cias y se ahor­có acci­den­tal­men­te».

La Sec­ción 230 de la Ley de Decen­cia en las Comu­ni­ca­cio­nes ha sido un pun­tal en los mode­los de nego­cio de las actua­les gran­des tec­no­ló­gi­cas y pla­ta­for­mas de redes socia­les, dotán­do­les de impu­ni­dad legal des­de hace mucho tiem­po, a pesar de que ya es un cla­mor el enor­me daño en salud men­tal que cau­san sus pla­ta­for­mas. y que ha hecho que el mis­mí­si­mo Ayun­ta­mien­to de Nue­va York haya decla­ra­do que las redes socia­les son un «peli­gro para la salud públi­ca» y una toxi­na medioam­bien­tal».

No solo los algo­rit­mos de Tik­Tok están cau­san­do daños. Tam­bién los de las otras pla­ta­for­mas socia­les que fun­cio­nan igual, lo hacen. Una inves­ti­ga­ción de 2022 de Finan­cial Times lo seña­la­ba en deta­lle. Los grá­fi­cos a con­ti­nua­ción, hablan por sí mis­mos.

Grá­fi­co del infor­me de FT sobre el nivel de adic­ción de los ado­le­cen­tes a redes socia­les a mayo de 2022.

Y los daños no solo son de adic­ción, sino tam­bién de diver­sos tipos de pro­ble­mas de salud men­tal que, en el caso de algu­nas eda­des ado­les­cen­tes, se ha con­ver­ti­do en un autén­ti­co pro­ble­ma social. En el mis­mo infor­me de FT se pue­de ver el grá­fi­co de la evo­lu­ción esta­dís­ti­ca de sui­ci­dios infan­ti­les y ado­les­cen­tes tan­to en chi­cos como en chi­cas en los últi­mos 30 años en EE.UU. y Rei­no Uni­do, tie­nen un pun­to de infle­xión al alza, jus­to el año 2008, –año del naci­mien­to a la popu­la­ri­dad de este tipo de pla­ta­for­mas de red social y de la explo­sión de Face­book–. En este año, cam­bió la ten­den­cia y se ace­le­ró en el núme­ro de casos:

Grá­fi­co del infor­me de FT sobre la evo­lu­ción de las tasas de sui­ci­dio ado­les­cen­te 1990 y 2023 en EE.UU. Y Rei­no Uni­do.

Nor­mal­men­te estas dispu­tas lega­les aca­ban, –y se aca­llan–, median­te un acuer­do eco­nó­mi­co de indem­ni­za­ción. Pero, yo creo que este pro­ble­ma, ya va mucho más allá de indem­ni­za­cio­nes con­cre­tas y dine­ro. Es ya un pro­ble­ma humano y social en cre­ci­mien­to. Y ya se ha demos­tra­do que las deman­das no han ser­vi­do para que estas enor­mes empre­sas tec­no­ló­gi­cas cam­bien su con­duc­ta sobre el con­trol y las prác­ti­cas de sus usua­rios. Y las mul­tas que se les impo­nen son como pin­char a un ele­fan­te como un alfi­ler. En el mis­mo infor­me apa­re­ce otro muy preo­cu­pan­te grá­fi­co (ver a con­ti­nua­ción) que da una idea de dicho cre­ci­mien­to y de que en salud men­tal en los jóve­nes vamos casi hacia una epi­de­mia social. Y los usos de la tec­no­lo­gía digi­tal que impo­nen las pla­ta­for­mas socia­les tie­nen que ver con ello.

Grá­fi­co del infor­me de FT sobre la evo­lu­ción recien­te en salud men­tal de los estu­dian­tes de secun­da­ria de EE.UU. y UK.

Muchos padres y legis­la­do­res cul­pan, y con razón, a las empre­sas de redes socia­les que, según ellos, desa­rro­llan pro­duc­tos alta­men­te adic­ti­vos que expo­nen a los jóve­nes a mate­rial noci­vo con, a veces, fata­les con­se­cuen­cias en sus vidas en el mun­do real. Resul­ta iró­ni­co que las pla­ta­for­mas se defien­dan ale­gan­do que su tec­no­lo­gía per­mi­te a las per­so­nas esta­ble­cer rela­cio­nes bene­fi­cio­sas para la salud men­tal. Lo cual, no siem­pre es cier­to. A veces suce­de lo con­tra­rio.

Jonathan Haidt, psi­có­lo­go social y pro­fe­sor de la Escue­la de Nego­cios Stern de la Uni­ver­si­dad de Nue­va York decla­ró a FT que «Cuan­do apa­re­cie­ron las redes socia­les o Inter­net de alta velo­ci­dad, dis­tin­tas inves­ti­ga­cio­nes se encon­tra­ron, casi todas, con la mis­ma his­to­ria. La de que la salud men­tal está cayen­do en pica­do, espe­cial­men­te en el caso de las chi­cas». Sin embar­go, algu­nos aca­dé­mi­cos seña­lan que cada vez hay más estu­dios que son difí­ci­les de igno­rar. La pro­li­fe­ra­ción de telé­fo­nos inte­li­gen­tes com­bi­na­dos con Inter­net de alta velo­ci­dad y apli­ca­cio­nes de redes socia­les, están recon­fi­gu­ran­do el cere­bro de los niños y pro­vo­can­do un aumen­to de los tras­tor­nos ali­men­ta­rios, depre­sión y ansie­dad. El infor­me de FT seña­la­ba casos per­so­na­les con la cola­bo­ra­ción y per­mi­so de las fami­lias para con­cien­ciar a la socie­dad.

Dos casos de sui­ci­dio ado­les­cen­te docu­men­ta­dos en el Infor­me de Finan­cial Times.

Le empre­sa Meta, due­ña de Face­book e Ins­ta­gram, insis­te en que sus pla­ta­for­mas tam­bién eli­mi­nan con­te­ni­dos rela­cio­na­dos con el sui­ci­dio, las auto­le­sio­nes y los tras­tor­nos ali­men­ta­rios. Estas polí­ti­cas se apli­ca­ron con más vigor tras la muer­te de la cole­gia­la bri­tá­ni­ca de 14 años Molly Rus­sell, que se qui­tó la vida en 2017 des­pués de ver miles de publi­ca­cio­nes sobre el sui­ci­dio. Los casos simi­la­res aumen­tan.

En octu­bre de 2023, 41 de esta­dos fe EE.UU. deman­da­ron a Meta, empre­sa matriz de Ins­ta­gram, por supues­tas fun­cio­nes adic­ti­vas y daños a la salud men­tal de los jóve­nes. Se han pre­sen­ta­do deman­das lega­les en 41 esta­dos, inclui­da una con­jun­ta de 33 fis­ca­les gene­ra­les, en las que se acu­sa al pro­pie­ta­rio de Ins­ta­gram y Face­book de «sacar pro­ve­cho eco­nó­mi­co del dolor de los niños». En cier­to modo es un nue­vo sis­te­ma digi­tal de explo­ta­ción infan­til. Las deman­das debe­rían ser un paso ade­lan­te en exi­gir res­pon­sa­bi­li­da­des a las, has­ta aho­ra, into­ca­bles pla­ta­for­mas de redes socia­les gra­cias a la Ley 230. Pero los hechos indi­can que la socie­dad y sus auto­ri­da­des no reac­cio­nan, insis­to, por­que no hay nin­gu­na sen­sa­ción de peli­gro en la gen­te ante unos ins­tru­men­tos y usos tec­no­ló­gi­cos que acti­van a todos cons­tan­te­men­te, sin des­can­so y per­so­na­li­za­da­men­te, el cir­cui­to cere­bral de recom­pen­sa.

La pers­pec­ti­va sobre todo ello te cam­bia, doy fe, cuan­do cono­ces un caso cer­cano y per­so­nal, o cuan­do te cuen­tan cómo es el reci­bir en tu día a día en el hos­pi­tal, tan fre­cuen­te­men­te, y cada vez más, casos de fami­lias con un niño o niña que se aca­ba de inten­tar sui­ci­dar, como le ocu­rre a Fran­cis­co Villar, psi­có­lo­go infan­til y juve­nil, exper­to en psi­co­lo­gía clí­ni­ca y con­duc­ta sui­ci­da en la ado­les­cen­cia, y autor del libro Cómo las pan­ta­llas devo­ran a nues­tro hijos, que pre­sen­ta­mos jun­tos. Lo nor­mal es que nos digan que esta­mos exa­ge­ran­do, pero créa­me el lec­tor. No exa­ge­ra­mos en abso­lu­to. Pero resul­ta difí­cil decir­le a toda esa gen­te que son­ríe a su móvil por la calle pre­sos de una acti­tud nihi­lis­ta, usan­do una App que pue­de ser mor­tí­fe­ra, no para todo el mun­do, pero sí para per­so­nas vul­ne­ra­bles, ya que no tie­nen el menor nivel de aler­ta sobre ello.

Para enten­der cómo es posi­ble que Nylah Ander­son una niña de diez años que se metie­ra de for­ma extre­ma en el oscu­ro pozo, del «Reto del apa­gón» (así se lla­ma), que aca­bó con la vida de esta la niña, hemos devol­ver al caso de Tik­Tok y ver en deta­lle, cómo actúan sus algo­rit­mos en casos como este y otros. La muer­te pre­ma­tu­ra de Nylah y otras como la de ella, todas evi­ta­bles, ya jus­ti­fi­can, por sí solas esta dia­tri­ba que estás leyen­do, lec­tor.

Tik­Tok, no es lo mis­mo den­tro que fue­ra de Chi­na

Como expli­ca Móni­ca Torres en la revis­ta del Ins­ti­tu­to Poli­téc­ni­co de Mon­te­rrey, los algo­rit­mos de Tik­Tok, son los más adic­ti­vos de los cono­ci­dos has­ta la fecha. Lo hacen glo­bal­men­te, y ade­más guia­dos por datos que le pro­por­cio­na ino­cen­te­men­te el pro­pio usuario/a, que en muchos casos aca­ba, por sí mis­mo, den­tro de una sofis­ti­ca­da tram­pa de adic­ción, hoy por hoy casi infa­li­ble, y que, ade­más, lle­va siem­pre con­si­go. Sin impor­tar tu ciu­dad o lugar de resi­den­cia, a qué te dedi­ques, o cómo sea tu tiem­po de ocio o tra­ba­jo, Tik­Tok es una red social que pro­me­te engan­char a sus usua­rios en solo unas horas, envian­do, para que no te dis­trai­gas en otra cosa, de mane­ra indi­vi­dua­li­za­da, cons­tan­tes noti­fi­ca­cio­nes sono­ras y grá­fi­cas que se super­po­nen cons­tan­te­men­te a cual­quier cosa que esté en ese momen­to en la pan­ta­lla. Esas con­ti­nuas inte­rrup­cio­nes des­tru­yen, por ejem­plo, los pro­ce­sos de apren­di­za­je en las aulas, si no se les pone coto de algu­na mane­ra.

Algo que pare­ce ser el obje­ti­vo del algo­rit­mo de dicha App en el móvil, ‑median­te un com­ple­jo sis­te­ma dise­ña­do para enviar a sus usua­rios todo tipo de con­te­ni­dos–, son aque­llos que más los harán reac­cio­nar emo­cio­nal­men­te, seña­la­dos en los picos de su esta­dís­ti­ca pre­dic­ti­va emo­cio­nal regis­tra­da cons­tan­te­men­te por el móvil en el algo­rit­mo per­so­na­li­za­do de la App de Tik­Tok. Tam­bién ocu­rre en las demás.

Hay que hacer la sal­ve­dad de que esto ocu­rre en el Tik­Tok inter­na­cio­nal de la empre­sa chi­na Tik­Tok inc. que tie­ne su sede fis­cal en las Islas Salo­món, un paraí­so fis­cal. Pero no, –y esto es impor­tan­te–, en Dou­yin, la ver­sión de Tik­Tok de la mis­ma empre­sa, que solo está dis­po­ni­ble para usua­rios del inte­rior de Chi­na y que usa un algo­rit­mo dife­ren­te, aun­que ambas per­te­ne­cen al gigan­te empre­sa­rial Byte­Dan­ce, con sede en Chi­na y en cuyo con­se­jo se sien­ta un miem­bro del Comi­té Cen­tral del Par­ti­do Comu­nis­ta de Chi­na. La empre­sa Byte­dan­ce fun­cio­na bajo la super­vi­sión y regu­la­ción del Gobierno de Chi­na, al que entre­ga datos de ado­les­cen­tes de todo el mun­do ante cual­quier peti­ción de su gobierno «si fue­ra nece­sa­rio”. Aun­que Tik­Tok y Dou­yin com­par­ten esté­ti­ca, ofre­cen con­te­ni­dos con méto­dos dis­tin­tos. La ver­sión para el inte­rior de Chi­na de esta red social sí tie­ne sal­va­guar­dias y limi­ta­do­res de tiem­po para evi­tar el exce­so de uso sobre todo en los niños. Has­ta las auto­ri­da­des chi­nas cono­cen el daño que un mal uso de las pla­ta­for­mas pue­den hacer. De ahí que impon­gan seve­ras res­tric­cio­nes. Cual­quier padre cuyos hijos infrin­jan estas limi­ta­cio­nes pue­de aca­bar en la cár­cel ipso fac­to por ello.

Por lo vis­to, a los ges­to­res del Tik­Tok inter­na­cio­nal, –el que cono­ce­mos por ejem­plo en Espa­ña–, en cam­bio los niños y ado­les­cen­tes occi­den­ta­les no les pare­cen dig­nos de pro­tec­ción. Al con­ta­rio, para el uso por niños y niñas chi­nos impo­nen todo tipo de sal­va­guar­dias y res­tric­cio­nes. Por ejem­plo: para evi­tar la sobre­ex­po­si­ción, Dou­yin esta­ble­ce por defec­to un tiem­po máxi­mo de 40 minu­tos en la App para los usua­rios chi­nos meno­res de 14 años. Tam­bién para el inte­rior de Chi­na, el tiem­po de uso para ado­les­cen­tes entre los 15 y los 17 años se redu­ce a una hora. Ya los niños, niñas y ado­les­cen­tes en Chi­na se les impi­de y no pue­den usar Dou­yin de 22:00 a 06:00 horas. Ade­más, las temá­ti­cas de Dou­yin están muy limi­ta­das y deben cum­plir con las polí­ti­cas ema­na­das del Par­ti­do Comu­nis­ta Chino. Lo cual no digo que sea tran­qui­li­za­dor. Ade­más. en esta red en Chi­na se pro­mue­ven, como era obvio, con­te­ni­dos que impul­san valo­res nacio­na­les y men­sa­jes ofi­cia­les del esta­do. ¿Impor­ta todo esto a los usua­rios del mun­do y de Espa­ña, y a los perio­dis­tas que hablan y usan Tik­Tok? Pare­ce que no, en abso­lu­to. Es una moda digi­tal y eso pare­ce ser lo úni­co impor­tan­te para los nihi­lis­tas social media vic­tims.

La afi­la­da herra­mien­ta del scroll infi­ni­to de Tik­Tok

Hay otro deta­lle. El algo­rit­mo de Tik­Tok es alta­men­te per­so­na­li­za­ble y ali­men­ta el feed (una ban­da ver­ti­cal de con­te­ni­do con­ti­nuo y sin fin) que apa­re­ce la inter­faz de la App Tik­tok en pan­ta­lla del móvil al ele­gir For You Page (para tu pági­na). Téc­ni­ca­men­te esto se lla­ma scroll infi­ni­to y fue crea­do para ofre­cer a los usua­rios un flu­jo inter­mi­na­ble de con­te­ni­do, prio­ri­za­do a par­tir de lo que se ha regis­tra­do median­te la Apti­graphy y la Typ­po­graphy ‑como ya expli­qué en estas pági­nas– por los sen­so­res de su Smartpho­ne. Nada que apa­re­ce en la pan­ta­lla de al App es casual ni alea­to­rio como sue­le creer el usua­rio. El obje­ti­vo es aso­ciar lo que apa­re­ce en pan­ta­lla coin­ci­dien­do con picos de emo­ción en la esta­dís­ti­ca de uso de ese usua­rio en par­ti­cu­lar. Y ese tipo de con­te­ni­do es el que prio­ri­za el algo­rit­mo para enviar­lo cons­tan­te­men­te, con el fin de que no ten­gas tiem­po de tomar nin­gu­na deci­sión, ni haya tiem­pos muer­tos e inter­ac­túes al ins­tan­te, com­pul­si­va­men­te, sin pen­sar. Esto hace que la apli­ca­ción sea no sola­men­te entre­te­ni­da, sino que sea par­ti­cu­lar­men­te adic­ti­va. Es una sofis­ti­ca­da herra­mien­ta ante la que los usua­rios están inde­fen­sos, que les bom­bar­dea sin tiem­po para deci­dir, des­de que, engan­cha­dos, le siguen el jue­go al algo­rit­mo.

Car­los Sola­res, res­pon­sa­ble de Mar­ke­ting Digi­tal del Tech. Ins­ti­tu­te de Mon­te­rrey seña­la «El algo­rit­mo de Tik­Tok es mucho más agre­si­vo que el de otras pla­ta­for­mas. Ves un vídeo y lue­go, de inme­dia­to, ya caes en una cate­go­ría». Por su par­te, David Gue­rra, res­pon­sa­ble nacio­nal de Salud Emo­cio­nal de la Uni­ver­si­dad Tech. Mile­nio expli­ca: «Nos encie­rran en una bur­bu­ja y sólo nos mues­tran lo que supues­ta­men­te ‘que­re­mos ver’, esto ses­ga nues­tras opi­nio­nes des­de un ini­cio y nos aís­la del mun­do real». Algo espe­cial­men­te gra­ve en las per­so­nas de cor­ta edad ya que sus efec­tos sobre las men­tes infan­ti­les son tre­men­dos, como la ha pasa­do a la niña cita­da Nylah Ander­son que con diez años ya esta­ba en Tik­Tok de for­ma ile­gal. Pero la red social, igual que sus cole­gas, no hace cum­plir sus pro­pias nor­mas, ni se moles­ta en com­pro­bar la edad de los usua­rios. Me reite­ro, va en direc­ción con­tra­ria a lo que per­si­gue su mode­lo de nego­cio.

Ade­más, dicho algo­rit­mo bus­ca que no haya dos usua­rios que vean exac­ta­men­te los mis­mos vídeos en su pági­na cen­tral debi­do a que cuen­ta con una fun­ción de apren­di­za­je ite­ra­ti­vo. Gra­cias a ella, los vídeos que ves pue­den cam­biar con el tiem­po en fun­ción de tus pre­fe­ren­cias de visua­li­za­ción e inclu­so ape­lan­do al supues­to esta­do de áni­mo en el momen­to que te lo está midien­do los sen­so­res de su Smarpho­ne. Según Gue­rra «Este tipo de algo­rit­mos pue­den ser muy agre­si­vos según el uso que les demos, y el usua­rio debe­ría ser muy cons­cien­te de los datos con que él mis­mo lo ali­men­ta», cosa casi impo­si­ble en el uso com­pul­si­vo típi­co que sue­len hacer los ado­les­cen­tes y sin el tiem­po para pen­sar por si mis­mos, ya que les ha sido roba­do por inun­da­ción de infor­ma­ción.

Cómo fun­cio­na el algo­rit­mo de Tik­Tok y por qué es tan adic­ti­vo

El pres­ti­gio­so The Wall Street Jour­nal (WSJ) inves­ti­gó  ya en 2021 más de 100 cuen­tas para enten­der cómo fun­cio­na el algo­rit­mo de esta red, que ya se está con­si­de­ran­do como un ejem­plo pun­te­ro cuyas capa­ci­da­des de engag­ge­ment (engan­che) son un ejem­plo para las dis­tin­tas Apps con las que inter­ac­túan sobre todo los ado­les­cen­tes.

En tér­mi­nos inte­li­gi­bles para los no ini­cia­dos, el algo­rit­mo de Tik­Tok es un pode­ro­so sis­te­ma de reco­men­da­ción que deter­mi­na los vídeos que apa­re­ce­rán en la pági­na prin­ci­pal o For You Page del usua­rio, en cuan­to este abre la App de Tik­Tok en su móvil.

Grá­fi­co sobre cómo fun­cio­na el algo­rit­mo de Tik­Tok y sus cua­tro pasos. Fuen­te: Mon­te­rrey Tech.

La pla­ta­for­ma gene­ra un nivel de adic­ción y de dopa­mi­na que ni Face­book, ni Twit­ter ni Ins­ta­gram ni WhatsApp con­si­guie­ron en su momen­to. Para lle­gar a su pun­to álgi­do, ini­cial­men­te el algo­rit­mo libe­ra una bate­ría de vídeos popu­la­res basán­do­se en los datos de regis­tro, y su tipo demo­grá­fi­co. Al ir aumen­tan­do la inter­ac­ción y las emo­cio­nes, cuyos picos mide la esta­dís­ti­ca pre­dic­ti­va de la App­ti­gra­fía y Tap­pi­gra­fía en la pan­ta­lla tác­til, del Smarpho­ne, esto se tra­du­ce en que la pla­ta­for­ma a par­tir de los sha­res (con­te­ni­dos com­par­ti­dos, re-envia­­dos, etc.); datos sobre el tiem­po en que se ve cada vídeo; qué  patro­nes de pau­sas y pul­sa­cio­nes se hacen sobre la pan­ta­lla (tip­po­graphy) y los likes (me gus­ta), el algo­rit­mo hará una con­fi­gu­ra­ción para poner en pan­ta­lla aque­llo que haga reac­cio­nar más inten­sa­men­te al usua­rio. El algo­rit­mo se adap­ta como un guan­te per­so­na­li­za­do a la res­pues­ta emo­cio­nal del usua­rio. Esto es tre­men­do por­que no deja de actuar nun­ca. Estos algo­rit­mos no duer­men ni des­can­san. La adic­ción está ser­vi­da.

En muy poco tiem­po, inclu­so en menos de una hora en cier­tos casos, la App habrá crea­do y cla­si­fi­ca­do un per­fil per­so­nal y según él y, retro­ali­men­ta­do sin que él lo sepa, por las pro­pias accio­nes del usua­rio. Irá envian­do suce­si­va­men­te y/o reco­men­dan­do una enor­me can­ti­dad de deter­mi­na­dos vídeos (has­ta el 90% en oca­sio­nes) rela­cio­na­dos y aso­cia­dos a los intere­ses que detec­tó en el pro­pio usua­rio. No olvi­de­mos que esta­mos hablan­do (aun­que no solo) de una gran can­ti­dad de usua­rios niños y/o ado­les­cen­tes.

Todo ello tie­ne obje­ti­vo de faci­li­tar el enga­ge­ment de los usua­rios con la App, con­su­mien­do el con­te­ni­do que fue selec­cio­na­do «sólo para ti» y hacien­do más pro­ba­ble que cai­gas en un hoyo de infor­ma­ción o rab­bit hole (es una refe­ren­cia a la gua­ri­da del cone­jo de Ali­cia en el País de las Mara­vi­llas), que es lo que le pasó a la niña Nylah Ander­son con 10 años, quien se aca­bó auto-estra­n­­gu­­la­n­­do a sí mis­ma.

«La con­se­cuen­cia es que el usua­rio lle­ga a un pun­to en el que el algo­rit­mo sólo le mues­tra con­te­ni­do de per­so­nas que están opi­nan­do exac­ta­men­te lo mis­mo que él, algo que es bas­tan­te peli­gro­so para la segu­ri­dad de niños y ado­les­cen­tes que aún están solo empe­zan­do a desa­rro­llan­do cri­te­rios racio­na­les pro­pios», opi­na David Gue­rra.

Esto impli­ca ries­gos muy serios. Los indu­cen estos algo­rit­mos de Tik­Tok por­que la con­duc­ta de los jóve­nes es re-con­­du­­ci­­da drás­ti­ca­men­te sin que ellos sean cons­cien­tes de que dejan de pen­sar y tomar gran par­te de las deci­sio­nes sobre su pro­pia con­duc­ta en el pro­ce­so. Su tiem­po para refle­xio­nar o deci­dir por sí mis­mos les ha sido, sutil­men­te, roba­do. Y ade­más todo ello pue­de refor­zar el con­su­mo hacia lo nega­ti­vo en muchas per­so­nas. La empre­sa ha infor­ma­do, (solo ponen paños calien­tes), que se encuen­tra tra­ba­jan­do por mejo­rar esto, pero yo creo que va a ser algo difí­cil que lo hagan, ya que su algo­rit­mo no dis­cri­mi­na o fil­tra los tipos de con­te­ni­do. Y otra con­se­cuen­cia muy nega­ti­va es que, dado que los jóve­nes toda­vía se encuen­tran en un gra­do de desa­rro­llo cere­bral inci­pien­te, su cen­tro de gra­ti­fi­ca­ción cere­bral se pue­de acos­tum­brar a estar cons­tan­te­men­te sobre­es­ti­mu­la­do. Y, por tan­to, la adic­ción emo­cio­nal está solo a un paso. Como seña­la el espe­cia­lis­ta Solano, del Mon­te­rrey Tech, ade­más, apa­re­ce una para­do­ja: «las varia­bles esti­mu­lan­tes de con­su­mo que esta­ble­ce Tik­Tok son apa­ren­te­men­te de bajo invo­lu­cra­mien­to, pero ello ayu­da a que el sis­te­ma de gra­ti­fi­ca­ción del usua­rio, –habla­mos de cere­bros de ado­les­cen­tes, sobre todo, con esca­so auto­con­trol– se ali­men­te vía digi­tal, cons­tan­te­men­te, con una sobre­car­ga de endor­fi­nas y dopa­mi­na de un nivel nun­ca vis­to antes».

Por todo ello, y el con­tex­to (la cone­xión siem­pre se hace en soli­ta­rio), resul­ta que los tiem­pos muer­tos sin usar la pla­ta­for­ma Tik­Tok gene­ran un esta­do emo­cio­nal simi­lar a un sín­dro­me de abs­ti­nen­cia. Por su par­te, Gue­rra, advier­te que, en esa situa­ción, exis­ten altas posi­bi­li­da­des de que se gene­ren con­duc­tas auto-dañi­­nas como tras­tor­nos ali­men­ti­cios o pen­sa­mien­tos sui­ci­das que serán refor­za­dos, al pun­to de gene­rar una adic­ción a los mis­mos. Lo cual es abe­rran­te y muy peli­gro­so. Pero las esta­dís­ti­cas que seña­lan los grá­fi­cos de arri­ba no dejan lugar a dudas de que esto suce­de a muchos jóve­nes.

«El mayor ries­go es que el algo­rit­mo afec­ta nues­tro cir­cui­to cere­bral de gra­ti­fi­ca­ción y empe­za­mos a sus­ti­tuir con él otras acti­vi­da­des de nues­tra vida dia­ria, por­que nues­tro cere­bro reci­be incan­sa­ble­men­te más y más estí­mu­los de la App, sin tener que rea­li­zar ape­nas esfuer­zo», acla­ra. Pero hay más. Inde­pen­dien­te­men­te de la edad, el algo­rit­mo pue­de lograr que cual­quie­ra de sus usua­rios incre­men­te de mane­ra expo­nen­cial su tiem­po en la App Tik­Tok, cuan­do cae en un rab­bit hole de infor­ma­ción, sobre todo cuan­do se tra­ta de uno nega­ti­vo. Esto se sabe. Los due­ños de las pla­ta­for­mas saben el dolor que están cau­san­do a muchas per­so­nas. Inclu­so lo que los usua­rios debe­rían hacer. Lo seña­lan has­ta las nor­mas para el Dou­yin del inte­rior de Chi­na: limi­tar drás­ti­ca­men­te el tiem­po en que se está en la App. O sea, sim­ple­men­te des­co­nec­tar­se. Pero eso va radi­cal­men­te con­tra sus mode­los de nego­cio y de lo que sus algo­rit­mos pro­mue­ven incan­sa­ble­men­te. Ir a con­tra­co­rrien­te en eso, es muy muy difí­cil en el mun­do actual infec­ta­do de modas digi­ta­les vira­li­za­das.

Dicho lo ante­rior, esto no afec­ta solo a los ado­les­cen­tes. Todos esta­mos invo­lu­cra­dos; todos usa­mos Smartpho­ne, pero la vul­ne­ra­bi­li­dad es dis­tin­ta en cada uno. Cuan­do digo en el súper que no quie­ro la App me miran raro. En Espa­ña, muchos medios abren sec­cio­nes con cosas de Tik­Tok pen­san­do que todo el mun­do esta ahí y que tam­bién están ahí muchas cla­ves de lo que pasa. Pen­san­do que refi­rién­do­se a ello gana­rán audien­cia, o pare­ce­rán infor­ma­dos. Es una ilu­sión. El fun­cio­na­mien­to del nue­vo algo­rit­mo que ha impues­to Elon Musk en X des­mien­te eso. Cuan­to más te infor­mes y per­ma­nez­cas en las redes socia­les más des­in­for­ma­do esta­rás. Aho­ra mis­mo, X no es en abso­lu­to como Twit­ter; se ha con­ver­ti­do en un motor de infor­ma­ción fal­sa y extre­ma median­te una deci­sión cons­cien­te, sim­ple­men­te por­que hoy sus algo­rit­mos modi­fi­ca­dos pro­mue­ven, difun­den y ace­le­ran expo­nen­cial­men­te la infor­ma­ción men­ti­ro­sa ya que es mucho más nego­cio que la ver­da­de­ra, y pro­du­ce mucho más enga­ge­ment. En reali­dad, es muy sim­ple: solo bus­can maxi­mi­zar el tiem­po de per­ma­nen­cia en cada cone­xión a X, y el núme­ro de acce­sos a X por uni­dad de tiem­po en cada usua­rio. Siem­pre. Y los algo­rit­mos no hacen ni saben hacer excep­cio­nes. Pero modas, popu­la­ri­dad y lo viral, man­dan aho­ra. Inclu­so nume­ro­sos pro­fe­sio­na­les de los medios son hoy ver­da­de­ras víc­ti­mas pro­pi­cia­to­rias de su pro­pia depen­den­cia de algo­rit­mos y sis­te­mas de reco­men­da­ción, simi­la­res a los de Tik­Tok.

Vol­vien­do al tema cen­tral, me pre­gun­to si los legis­la­do­res, como están empe­zan­do a hacer los de EE.UU. y Euro­pa, o jue­ces valien­tes como ha hecho Paul Matey serán los que comien­cen a abrir un camino que creo, sal­va­rá muchas vidas jóve­nes y ado­les­cen­tes. ¿Cuan­tas muer­tes han de ocu­rrir como la de Nylah Ander­son de 10 años, Ian Ezque­rra de 16 o Molly Rus­sell de 14, que ya no están entre noso­tros, para que la socie­dad al com­ple­to tome con­cien­cia?

Lo peor es que estoy con­ven­ci­do de que inclu­so estas muer­tes ado­les­cen­tes que he cita­do como ejem­plo, entre muchas más, se podrían haber evi­ta­do. Este lado oscu­ro de unas sofis­ti­ca­das socie­da­des glo­ba­les siem­pre con ale­gría apa­ren­te, fans enlo­que­ci­dos y con­su­mi­do­res com­pul­si­vos sin fin pre­sos de las modas digi­ta­les, por mucho que se le igno­re, sigue ahí. No soy nada ludi­ta y me gus­ta­ría haber habla­do hoy de for­ma más opti­mis­ta sobre estas tec­no­lo­gías y sus mejo­res usos. Las he usa­do duran­te años con mis alum­nos en mi eta­pa del MIT, casi ocho años antes de que nacie­ra Face­book, sin likes, ni algo­rit­mos per­ver­sos, ni Sour­vei­llan­ce, y son una mara­vi­lla. Estas de Tik­Tok, FB, Ins­ta­gram, WhatsApp, o las de Meta, no tie­nen en su uso nada que ver con aque­llo. Pero creo que lo que he con­ta­do hoy debe saber­se. Espe­ro que con la cita­da sen­ten­cia valien­te por enci­ma de la ley 230 y de sus impu­ni­da­des lega­les, se abra un nue­vo camino de mejo­ra hacia una eta­pa más espe­ran­za­do­ra. Fal­ta nos hace.

Compartir es vivir!

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia