Automatizar el estado emocional (I) ¿Vas a delegar en tu móvil el cuidado de tu salud mental?

Las grandes empresas tecnológicas globales están intentando que se vea como normal que tu móvil monitorice tus estados de ánimo y sea tu terapeuta virtual, como parte de las modas digitales.

Auto­ma­ti­zar el esta­do emo­cio­nal.

21 de diciem­bre de 2023

La salud men­tal es hoy un área de una nece­si­dad cre­cien­te en nues­tra socie­dad. Según la Orga­ni­za­ción Mun­dial de la Salud a par­tir de aho­ra, apro­xi­ma­da­men­te, una de cada cua­tro per­so­nas en el mun­do se verá afec­ta­da por tras­tor­nos de salud men­tal en algún momen­to de su vida. Sin embar­go, será difí­cil pre­ci­sar el núme­ro exac­to, ya que muchas per­so­nas pue­den no ser muy cons­cien­tes de ello y no bus­car tra­ta­mien­to, o no tie­nen a mano reci­bir un diag­nós­ti­co o medios para pagar­lo. Los estig­mas socia­les y cul­tu­ra­les por todo ello aún no son una prio­ri­dad a pesar de que pue­de afec­tar a indi­vi­duos de toda edad, géne­ro, ori­gen o geo­gra­fía vital actual.

Que el ori­gen del incre­men­to recien­te de estos tras­tor­nos es con­se­cuen­cia de los cam­bios que impo­nen cier­tos usos de la tec­no­lo­gía en nues­tro mode­lo de vida coti­dia­na está cada vez más cla­ro. Pero lo que no sabía­mos y esta­mos apren­dien­do –cada vez hay más evi­den­cias de ello–, es que dichos cam­bios están bas­tan­te rela­cio­na­dos con nues­tro ‘modo de vida digi­tal’ actual y nues­tra acti­vi­dad onli­ne. Lo terri­ble es que quie­nes están detrás de las cau­sas de gran par­te de estos nume­ro­sos y cre­cien­tes tras­tor­nos sobre­ve­ni­dos de la salud men­tal de la gen­te, sean los mis­mos que están mon­tan­do, sin aten­der aspec­tos éti­cos y socia­les, un gran nego­cio de ello, auto­ma­ti­zan­do median­te tra­ta­mien­tos vir­tua­les el ‘cui­da­do’ (es un decir) de la salud men­tal de las per­so­nas usua­rias de inter­net y del móvil, lo cual nos impli­ca prác­ti­ca­men­te a todos.

Sobre este pano­ra­ma, los que no nos infor­ma­mos sola­men­te por una red social y el móvil, esta­mos com­pro­ban­do que en el hori­zon­te de noti­cias de los medios perio­dís­ti­cos cada día hay más y más noti­cias sobre móvi­les y peque­ñas pan­ta­llas, y los pro­ble­mas que su uso exhaus­ti­vo impli­ca a nivel social. Y, aquí empie­zan las pri­me­ras para­do­jas sobre ello, has­ta el pun­to que lo que para unos está empe­zan­do a ser un pro­ble­ma social, para otros, me reite­ro, pare­ce ser sim­ple­men­te una inmen­sa opor­tu­ni­dad de nue­vos nego­cios. Por cier­to, nue­vos nego­cios digi­ta­les que están basa­dos ins­tru­men­tal­men­te en los más pro­ble­má­ti­cos usos de la ultra­seg­men­ta­ción publi­ci­ta­ria que per­mi­te a las pla­ta­for­mas glo­ba­les el trac­king indi­vi­dua­li­za­do (regis­tro masi­vo, e incan­sa­ble), de datos y meta­da­tos extraí­dos de la acti­vi­dad onli­ne de los usua­rios, inclui­dos sus regis­tros bio­mé­tri­cos ocul­tos como ya avan­cé en estas pági­nas.

Es decir, apro­ve­chan­do el cita­do regis­tro múl­ti­ple indi­vi­dua­li­za­do de la acti­vi­dad onli­ne de los usua­rios, y median­te el pro­ce­sa­do con machi­ne lear­ning y esta­dís­ti­ca pre­dic­ti­va de la inte­li­gen­cia arti­fi­cial gene­ra­ti­va, pro­po­nen solu­cio­nes a pro­ble­mas emo­cio­na­les y esta­dos de áni­mo alte­ra­dos en for­ma de una Inte­li­gen­cia Arti­fi­cial Tera­peu­ta (IA Tera­peu­ta). Pero esta solu­ción no pare­ce que la pro­pon­gan por­que mejo­re el bien­es­tar de la gen­te, como dice su mar­ke­ting, sino por­que abre un nue­vo nego­cio en base a la ingen­te infor­ma­ción que toman de la acti­vi­dad de los usua­rios conec­ta­dos cuya inti­mi­dad men­tal o físi­ca y sus lími­tes no res­pe­tan en abso­lu­to.

Grandes negocios aprovechando los nuevos problemas de salud mental

Así que nos encon­tra­mos ante una enor­me para­do­ja a la que se refe­ría indi­rec­ta­men­te Jaron Lanier cuan­do le pre­gun­ta­ron por los peli­gros que nos pue­de traer la IA y una super­in­te­li­gen­cia arti­fi­cial. Su con­tes­ta­ción, como él acos­tum­bra, no fue de irse por las ramas. Con­tes­tó: “el peli­gro, la ver­da­de­ra ame­na­za que trae la IA no es que nos des­tru­ya, sino que nos ena­je­ne, o nos vuel­va locos”.

Richard Stall­man ya nos advir­tió “cual­quier tec­no­lo­gía que no se apli­que con el auxi­lio de la éti­ca, pro­ba­ble­men­te, cau­sa­rá daño”. La para­do­ja con­cep­tual cita­da es esa pero, ade­más, aquí está liga­da al equi­va­len­te para­dó­ji­co eco­nó­mi­co, empre­sa­rial, –y éti­co–, por el que cier­tas gran­des empre­sas están cau­san­do en la socie­dad, con los usos que pro­mue­ven e impo­nen de la tec­no­lo­gía, una epi­de­mia social de dolen­cias de salud men­tal. Epi­de­mia usa­da como base sobre la que se está cons­tru­yen­do un nue­vo sec­tor de gran­des nego­cios glo­ba­les, enfo­ca­dos a diver­sos pro­ble­mas de salud con­cre­tos, que ellos mis­mos están ori­gi­nan­do.

Para que esto sea posi­ble hace fal­ta tam­bién esa con­ver­gen­cia que cita­ba al ini­cio, entre tec­no­lo­gía y salud men­tal. Y esto pasa por pre­sen­tar y evan­ge­li­zar a la gen­te sobre que, a nue­vos pro­ble­mas de salud men­tal, nue­vos reme­dios, en este caso vir­tua­les y algo­rít­mi­cos. Den­tro de ellos, el reme­dio estre­lla será, según esta evan­ge­li­za­ción tec­no­ló­gi­ca, la auto­ma­ti­za­ción del tra­ta­mien­to de des­ór­de­nes de los esta­dos men­ta­les de huma­nos de toda edad, que están cre­cien­do expo­nen­cial­men­te a nues­tro alre­de­dor, aho­ra mis­mo. Quie­ren que no se vea a cier­tos usos con­cre­tos (hay otros menos noci­vos) de las tec­no­lo­gías IA que pro­mue­ven, no como par­te del pro­ble­ma, sino de la solu­ción.

Para cuan­do legis­la­do­res y auto­ri­da­des actúen sobre este nue­va cri­sis social, es muy pro­ba­ble que el nue­vo sec­tor de nego­cio vir­tual de la salud men­tal ya vaya vien­to en popa, y sus solu­cio­nes de IA sean ya una impe­ra­ti­va moda glo­bal que con­ta­rá por supues­to con sus pro­pias inter­net fashion vic­tims (víc­ti­mas de las modas de inter­net), que habrán ser­vi­do de cone­ji­llos de indias, para pro­bar el efec­to de las tera­pias vir­tua­les no huma­nas basa­das en IA sobre el dete­rio­ro de sus emo­cio­nes y esta­dos de áni­mo, aca­ban­do como par­ti­ci­pan­tes pato­ló­gi­cos del pro­ce­so, pro­ba­ble­men­te sin ser ver­da­de­ra­men­te cons­cien­tes de ello, por­que se sen­ti­rán pro­ban­do ‘lo últi­mo’, como en tan­tas oca­sio­nes ante­rio­res.

Estas víc­ti­mas son, por cier­to, un colec­ti­vo social en el que, en este momen­to, hay seña­la­da una ver­da­de­ra epi­de­mia de tras­tor­nos de salud, que van des­de los rela­cio­na­dos con el aspec­to físi­co (ano­re­xia, buli­mia, con­duc­ta ali­men­ta­ria, etc.) a otros liga­dos a la salud men­tal (ansie­dad gene­ra­li­za­da; epi­so­dios de páni­co; tras­torno por défi­cit de aten­ción con hiper­ac­ti­vi­dad (TDAH); evi­ta­ción y fobia social, depre­sión que pue­de lle­gar has­ta el sui­ci­dio del menor), y a otros híbri­dos de todo ello. Hay prue­bas obje­ti­vas de que muchos de estos tras­tor­nos están rela­cio­na­dos con la adic­ción pre-pro­­gra­­ma­­da hacia la que están orien­ta­das el dise­ño de las inter­fa­ces de las pla­ta­for­mas glo­ba­les, las Apps, y las de los dis­po­si­ti­vos móvi­les que dan acce­so a ellas. Las tec­no­lo­gías de trac­king (segui­mien­to) y regis­tro que per­mi­ten la reco­lec­ción cons­tan­te de datos y meta­da­tos median­te todo tipo de dis­po­si­ti­vos móvi­les como los Smartpho­nes, relo­jes inte­li­gen­tes, etc., son las que impul­san y ener­gi­zan todo ello.

Usos bastardos de los avances en neurociencia por ciertas corporaciones

La neu­ro­tec­no­lo­gía actual aún no pue­de, –no sabe­mos has­ta cuan­do–, por aho­ra, des­co­di­fi­car con pre­ci­sión pen­sa­mien­tos ni emo­cio­nes. Pero con una IA y algo­rít­mi­ca pre­dic­ti­va del ran­go ade­cua­do, eso tal vez no sea nece­sa­rio. Poten­tes sis­te­mas de apren­di­za­je auto­má­ti­co podrían infe­rir corre­la­cio­nes entre la acti­vi­dad cere­bral y las cir­cuns­tan­cias exter­nas e inter­nas.

El pres­ti­gio­so neu­ro­cien­tí­fi­co espa­ñol Rafael Yus­te, jun­to con el neu­ro­fi­sió­lo­go de Har­vard Álva­ro Pas­­cual-Leo­­ne y el inves­ti­ga­dor de inter­faz cere­­bro-máqui­­na y robó­ti­ca de la Univ. de Ber­ke­ley José M. Car­me­na, están ya pro­mo­vien­do que los nue­vos neu­ro­de­re­chos entren en la lis­ta uni­ver­sal de los dere­chos huma­nos, y hace tiem­po que se mues­tran preo­cu­pa­dos por estos usos de las tec­no­lo­gías en rela­ción con el cere­bro humano y la men­te. “El pro­ble­ma es para qué se pue­den uti­li­zar estas herra­mien­tas”, decla­ró Yus­te en una entre­vis­ta en la revis­ta esta­dou­ni­den­se Poli­ti­co. Él, que cono­ce lo que se está hacien­do en la fron­te­ra, seña­la que ya hay algu­nos ejem­plos ate­rra­do­res. Algu­nos inves­ti­ga­do­res han uti­li­za­do escá­ne­res cere­bra­les para pre­de­cir la pro­ba­bi­li­dad de rein­ci­den­cia de los delin­cuen­tes, y ya hay empre­sa­rios chi­nos poco escru­pu­lo­sos que han moni­to­ri­za­do las ondas cere­bra­les de los emplea­dos para leer sus emo­cio­nes. Los cien­tí­fi­cos tam­bién han con­se­gui­do regis­trar subli­mi­nal­men­te infor­ma­ción y los esta­dos de áni­mo per­so­na­les uti­li­zan­do dis­po­si­ti­vos de con­su­mo masi­vo. Y los sen­so­res de nues­tros smartpho­nes ya regis­tran bio­mé­tri­ca­men­te nues­tro com­por­ta­mien­to físi­co, y mucho más.

Tra­di­cio­nal­men­te, los cien­tí­fi­cos del cere­bro inves­ti­gan para inten­tar apli­car las nue­vas neu­ro­tec­no­lo­gías de fron­te­ra para com­ba­tir enfer­me­da­des del cere­bro y de la salud men­tal. Pero uno de los pro­ble­mas ocul­tos hoy es que hay gran­des empre­sas que están usan­do para sus nego­cios estos des­cu­bri­mien­tos de for­ma bas­tar­da y por la ‘puer­ta de atrás’ y apli­can­do esas tec­no­lo­gías capa­ces de alte­rar intere­sa­da­men­te el cur­so de las emo­cio­nes y los esta­dos men­ta­les, y de usar esto para hacer pin­gües nego­cios con ello, en una eco­no­mía aún por regu­lar (La Ley de la UE sobre la IA toda­vía no ha entra­do en ello).

Hay un ante­ce­den­te de estos usos bas­tar­dos en la tec­no­lo­gía que es ya muy cono­ci­do. Se tra­ta del caso de Fran­ces Hau­gen inge­nie­ra y cien­tí­fi­ca de datos, que lle­gó a geren­te de pro­duc­to de Face­book (que aho­ra se lla­ma Meta) y que, en sep­tiem­bre de 2021, dimi­tió  y se fue de la empre­sa tras leer docu­men­tos inter­nos en los que los pro­pios cien­tí­fi­cos de la com­pa­ñía infor­ma­ban a la cúpu­la de la empre­sa sobre los pro­ble­mas que esta­ban cau­san­do en cen­te­na­res de miles, si no en millo­nes, de usua­rios los usos masi­vos noci­vos de las pla­ta­for­mas de la com­pa­ñía, (Face­book, Ins­ta­gram y WhatsApp) sobre todo, pero no solo, en los usua­rios y usua­rias más jóve­nes.

Hau­gen, enton­ces madre de ado­les­cen­tes, no solo dimi­tió sino que deci­dió fil­trar dece­nas de miles de docu­men­tos inter­nos de Face­book a la Comi­sión de Bol­sa y Valo­res de EE.UU. y al Wall Street Jour­nal (que el dia­rio lla­mó Face­book Files ), y ade­más decla­ró en una audien­cia públi­ca del Sena­do de Esta­dos Uni­dos denun­cian­do la mane­ra en que Face­book mane­ja­ba enton­ces la des­in­for­ma­ción polí­ti­ca, el dis­cur­so de odio, y espe­cial­men­te los temas de la salud men­tal de los ado­les­cen­tes que empeo­ró con el impac­to de la red social en los jóve­nes, debi­do con­cre­ta­men­te a los cam­bios en sus algo­rit­mos que hizo la empre­sa en 2018. Un empeo­ra­mien­to que se hizo visi­ble con cier­tos usos que las ado­les­cen­tes hacen de Ins­ta­gram, como ya con­té en estas pági­nas que pro­vo­ca­ron y pro­vo­can, en con­cre­to, masi­vos dete­rio­ros de esta­dos de áni­mo, ansie­dad y depre­sión en una gran can­ti­dad de niñas y ado­les­cen­tes.

Ade­más, Hau­gen decla­ró en su com­pa­re­cen­cia: «Lo que vi en Face­book una y otra vez fue que había con­flic­tos de intere­ses entre lo que era bueno para el públi­co y lo que era bueno para Face­book. Y Face­book, una y otra vez, optó por opti­mi­zar para sus pro­pios intere­ses, como ganar más dine­ro». Al hacer­se públi­ca la infor­ma­ción fil­tra­da por Hau­gen, la capi­ta­li­za­ción de mer­ca­do de Face­book se redu­jo en seis mil millo­nes de dóla­res en las 24 horas pos­te­rio­res a la entre­vis­ta a Hau­gen emi­ti­da por TV, en el 60 Minu­tes  de la CBS News, el 3 de octu­bre de 2021. Des­pués, la empre­sa cam­bió su nom­bre por Meta por cues­tio­nes yo creo que más que todo repu­tacio­na­les, pero los pro­ble­mas de esas prác­ti­cas noci­vas siguen su cur­so, y este epi­so­dio ya pare­ce algo muy del pasa­do para ins­tan­ta­nei­dad de las modas del inter­net social.

Ya esta­mos en una nue­va eta­pa y al pare­cer casi nadie se acuer­da de este recien­te y extra­or­di­na­rio epi­so­dio. Aho­ra mis­mo, esta­mos en los albo­res de un gran nego­cio glo­bal con las solu­cio­nes vir­tua­les que usan la cita­da algo­rít­mi­ca para tra­tar los nue­vos pro­ble­mas de salud men­tal, basa­da en algo­rit­mos simi­la­res a los de la tec­no­lo­gía cuyos efec­tos denun­ció Hau­gen, en 2021. Todo den­tro de nue­vas prác­ti­cas tec­no­ló­gi­cas indu­ci­das. Estas nue­vas solu­cio­nes en for­ma de App se van a con­ver­tir y si no, al tiem­po, en una nue­va moda digi­tal: la de usar la inte­li­gen­cia arti­fi­cial como solu­ción vir­tual en lugar del tra­ta­mien­to de espe­cia­lis­tas huma­nos. Dado el enor­me cre­ci­mien­to de pro­ble­mas de salud men­tal que inclu­yen sui­ci­dios de meno­res, como denun­cia en su libro Fran­cis­co Villar y a los que, por su dimen­sión, los sis­te­mas públi­cos de salud no son capa­ces de dar cum­pli­da res­pues­ta, es muy pro­ba­ble que los ado­les­cen­tes, por sus urgen­cias, se lan­cen a pro­bar los nue­vos reme­dios que pro­me­te la moda digi­tal de la IA, un ámbi­to aho­ra mis­mo en ple­na explo­sión, qui­zá sin aten­der a sus posi­bles con­se­cuen­cias nega­ti­vas.

Automatizar la psicología y la psiquiatría. La IA como terapeuta y sus peligros

Hay solu­cio­nis­tas tec­no­ló­gi­cos, que han vis­tos un logro en el “paso audaz” de soli­ci­tar la paten­te para una apli­ca­ción de tera­pia impul­sa­da por inte­li­gen­cia arti­fi­cial (IA), en lo mis­mo que otros vemos como una “acción espe­luz­nan­te” (spooky action), –por usar la expre­sión con que Eins­tein se refe­ría a cier­tas pro­pues­tas de algún físi­co cuán­ti­co–.

Auto­ma­ti­zar el tra­ta­mien­to y/o cui­da­do de la salud men­tal se ha con­ver­ti­do en una com­pe­ti­ción entre las big tech (gran­des empre­sas tec­no­ló­gi­cas glo­ba­les) como par­te del nue­vo nego­cio, por una par­te, de la apli­ca­ción tem­pra­na de la IA Gene­ra­ti­va, y, por otra, de seguir explo­tan­do el gigan­tes­co y casi obs­ceno nego­cio basa­do en datos y meta­da­tos que, sin la menor resis­ten­cia, los usua­rios les rega­la­mos por­que aún no los con­si­de­ra­mos toda­vía par­te de nues­tra inti­mi­dad, por pura igno­ran­cia sobre su valor; y sin con­si­de­rar tam­po­co el hecho de que pue­den usar­los con­tra noso­tros para apo­de­rar­se de nues­tra aten­ción y de un tiem­po nues­tro que nun­ca podre­mos recu­pe­rar. Aten­ción y tiem­po que estas empre­sas ‘mone­ti­zan’ amplia­men­te, como se dice en la jer­ga empren­de­do­ra.

Esto ocu­rre por­que han con­se­gui­do que ello nos parez­ca nor­mal e inevi­ta­ble, en gran par­te, por­que con sus dise­ños de inter­faz acti­van nues­tra como­di­dad nihi­lis­ta, que es aque­lla por la que si algo nos resul­ta cómo­do lo hace­mos, sin pen­sar en abso­lu­to si vamos a sufrir per­ni­cio­sas con­se­cuen­cias por ello.

Aun­que hay muchas más, esta es una de las pri­me­ras que van hacia ese des­plie­gue de los nue­vos mode­los de nego­cio basa­dos en la IA Tera­peu­ta. El cita­do paso audaz lo aca­ba de dar en este caso Micro­soft, con su paten­te US 11.810.337 B2 regis­tra­da 7 de noviem­bre de 2023, cuyo pro­pó­si­to es “Pro­por­cio­nar aten­ción emo­cio­nal en una sesión” vir­tual, y a tra­vés de un chat­bot y su smartpho­ne. He leí­do la paten­te bus­can­do expli­ca­cio­nes, des­crip­cio­nes y argu­men­tos, pero sus redac­to­res han evi­ta­do cui­da­do­sa­men­te dar­las para no meter­se en nin­gún ‘jar­dín’ legal que pue­da poner­les en aprie­tos. Es una paten­te clá­si­ca de dis­po­si­ti­vo que solo des­cri­be accio­nes. De la expli­ca­ción, se dedu­ce el cómo, pero no el por­qué. Solo rela­ta el uso de un soft­wa­re de chat­bot con­ver­sa­cio­nal (un chat robo­ti­za­do), con el que se rela­cio­na el usua­rio gené­ri­ca­men­te a tra­vés de su smartpho­ne.

Ten­ga­mos en cuen­ta que Micro­soft es la mis­ma empre­sa que nos pro­por­cio­nó, y lo sigue hacien­do, cono­ci­dos pro­gra­mas infor­má­ti­cos como el tra­ta­mien­to de tex­tos Word, la hoja de cálcu­lo Excel o el pro­gra­ma de pre­sen­ta­cio­nes Power­Point, – entre muchos otros–. Pero aho­ra, como otras gran­des empre­sas tec­no­ló­gi­cas ha detec­ta­do un súbi­to aumen­to de deman­da en temas de salud (la de solu­cio­nes infor­má­ti­cas para salud es la más gran­de de esta enor­me empre­sa), en espe­cial de salud men­tal y en el ámbi­to, sobre todo, de jóve­nes ado­les­cen­tes conectados/as que usan exhaus­ti­va­men­te el telé­fono móvil y que son los más vul­ne­ra­bles a la mani­pu­la­ción a tra­vés de sus emo­cio­nes. Por ello, ha deci­di­do regis­trar esa paten­te que con­sis­te en un Tera­peu­ta IA (Tera­peu­ta o espe­cia­lis­ta vir­tual en salud men­tal, basa­do en inte­li­gen­cia arti­fi­cial).  Micro­soft tam­bién quie­re ser un actor des­ta­ca­do de ese nue­vo y enor­me mer­ca­do digi­tal de la salud men­tal, al que ha diri­gi­do su ‘solu­ción’ paten­ta­da’.

Auto­ma­ti­zar el esta­do aní­mi­co.

En la ima­gen de arri­ba están algu­nos grá­fi­cos tra­du­ci­dos de la paten­te US 11.810.337 B2 que ha regis­tra­do Micro­soft para des­ple­gar la App de su tec­no­lo­gía de la IA Tera­peu­ta, tra­du­ci­dos al espa­ñol. A la izquier­da, esque­ma de la inter­faz del Chat­bot de IA con un ejem­plo de con­ver­sa­ción entre la IA y el usua­rio; en el cen­tro pan­ta­lla con el resul­ta­do del diag­nós­ti­co y eva­lua­ción con pun­tua­cio­nes con­cre­tas de los esta­dos men­ta­les y emo­cio­na­les, que la ‘IA Tera­peu­ta’ ha hecho al usua­rio basa­das en su regis­tro cons­tan­te de sus datos e inter­ac­ción; y, a la dere­cha, la esca­la de esta­dos emo­cio­na­les que regis­tra y sobre los que pun­túa al usua­rio.

Según la paten­te, para la empre­sa, esta IA Tera­peu­ta de Micro­soft, va a ser capaz de pro­por­cio­nar ‘aten­ción emo­cio­nal’ a tra­vés de con­ver­sa­cio­nes simu­la­das entre el usua­rio y la App con un chat­bot usan­do tex­to, e imá­ge­nes, con con­te­ni­do apor­ta­do por el usua­rio (al que en nin­gún momen­to se le lla­ma pacien­te, como haría cual­quier tera­peu­ta (psi­có­lo­go o psi­quia­tra) humano. Qui­zá pien­sen los crea­do­res que todos los conec­ta­dos somos usua­rios poten­cia­les, por­que esta App será capaz de encon­trar, a cual­quie­ra, algu­na defi­cien­cia men­tal en algún momen­to.

El usua­rio, por cier­to, tam­bién apor­ta sin saber­lo toda su inter­ac­ción, que se con­vier­te en patro­nes de Acti­gra­fía y Tap­pi­gra­fía ya que le regis­tran cons­tan­te­men­te, tan­to sus movi­mien­tos bru­tos del cuer­po y sus par­tes, su inten­si­dad y su geo­po­si­cio­na­mien­to  con gran pre­ci­sión, a lo lar­go el tiem­po; como sus patro­nes de teclea­do, inter­ac­ción –inclu­yen­do los pará­me­tros para­lin­guís­ti­cos del habla como velo­ci­dad, inten­si­dad y sus con­tex­tos sono­ros–. Y, por supues­to, los géne­ros de con­te­ni­dos y cone­xión a los que dedi­ca su aten­ción cada usua­rio en con­cre­to. Median­te esta apli­ca­ción móvil o App, el usua­rio, –la paten­te seña­la que está pen­sa­da para dis­tin­tas eda­des–, podrá inter­ac­tuar con esta Apli­ca­ción móvil basa­da en IA para obte­ner apo­yo tera­péu­ti­co en un pro­ce­so per­so­na­li­za­do (impul­sa­da por sus pro­pios datos e his­to­rial y, por tan­to, sen­si­ble a sus pro­pias nece­si­da­des indi­vi­dua­li­za­das). Obvia­men­te, los ejem­plos de las con­ver­sa­cio­nes en la des­crip­ción de la paten­te son más infan­ti­les que ado­les­cen­tes, –los niños cre­cen muy rápi­do–, así que el ‘tar­jet’ o tipo de per­so­nas obje­ti­vo en mayor núme­ro que más nece­si­dad tie­nen del pro­duc­to, –cosa que habrán detec­ta­do–, está cla­ro.

La inter­faz de la App es del tipo de la que ha hecho famo­sa el Chat GPT o sea, una ven­ta­na con­ver­sa­cio­nal. Tam­bién se pue­de leer, en el entre­lí­neas de la paten­te, que este ‘Tera­peu­ta (vir­tual) basa­do en IA’, rea­li­za­rá eva­lua­cio­nes al usua­rio e inclu­so del con­tex­to y su fami­lia, que se lle­va­rá a cabo de for­ma auto­má­ti­ca y a dis­tan­cia, en cual­quier momen­to y lugar, median­te un algo­rit­mo de pun­tua­ción desa­rro­lla­do por los pro­gra­ma­do­res del soft­wa­re de la IA cuyos nive­les han sido pre-defi­­ni­­dos para situa­cio­nes hipo­té­ti­cas, –se supo­ne–, por psi­có­lo­gos y exper­tos en domi­nios psi­co­ló­gi­cos, salud men­tal y com­por­ta­mien­to humano.

Al ver en deta­lle la des­crip­ción de este sis­te­ma que mues­tra la paten­te, da esca­lo­fríos su gran pare­ci­do con el sis­te­ma de pun­tua­ción con el del sis­te­ma de “cré­di­to social” de Chi­na que valo­ra algo­rít­mi­ca­men­te la con­duc­ta ciu­da­da­na de quie­nes viven en el país. Es una téc­ni­ca de algo­rít­mi­ca masi­va basa­da en datos y ras­treo, cuyo uso el gobierno chino ha hecho obli­ga­to­rio impo­nién­do­lo masi­va­men­te con su orwe­lliano sis­te­ma de ‘cré­di­to social’, que des­cri­bí en 2019 en mi artícu­lo sobre la ‘Gami­fi­ca­ción’ de la con­duc­ta ciu­da­da­na en Chi­na, y que ya afec­ta direc­ta­men­te a la vida más de mil millo­nes de sus habi­tan­tes. En muchos casos, no para bien. Sir­ve tam­bién para cas­ti­gar la con­duc­ta onli­ne que sea ‘inapro­pia­da’, según el cri­te­rio del gobierno chino.

Medir a distancia estados mentales en tiempo real y proporcionar atención emocional virtual.

Ese pro­pó­si­to enun­cia­do en la paten­te de pro­por­cio­nar ‘aten­ción emo­cio­nal’ en una sesión, se arti­cu­la cons­tru­yen­do per­fi­les de usua­rio infi­rien­do esta­dos emo­cio­na­les a par­tir de las imá­ge­nes y datos pro­por­cio­na­dos, casi sin aper­ci­bir­se, por el pro­pio usua­rio, para crear un regis­tro de memo­ria basa­do en estas imá­ge­nes y per­fi­les y otor­gan­do algo­rít­mi­ca­men­te unas pun­tua­cio­nes en test de los esta­dos men­ta­les y emo­cio­na­les, a peti­ción del usua­rio o a suge­ren­cia de la App.

Ese chat­bot ‘tera­peu­ta’ está dise­ña­do para recor­dar con­ver­sa­cio­nes pasa­das y uti­li­zar esta infor­ma­ción y las res­pues­tas emo­cio­na­les del usua­rio en futu­ros chats con el pro­pio usua­rio, y quién sabe con quién más, ya que ese con­te­ni­do que­da en poder de la empre­sa en su ‘nube’. La paten­te dice lite­ral­men­te: “la aten­ción emo­cio­nal pue­de refe­rir­se a comu­ni­ca­cio­nes emo­cio­na­les o asis­ten­cias pro­por­cio­na­das a un usua­rio en varios enfo­ques, tales como, char­las emo­cio­na­les, ofre­cer cono­ci­mien­tos rela­cio­na­dos con enfer­me­da­des, ali­men­tos y medi­ca­men­tos; o el segui­mien­to de una con­di­ción psi­co­ló­gi­ca o cog­ni­ti­va del usua­rio a tra­vés de la rea­li­za­ción de prue­bas psi­co­ló­gi­cas o cog­ni­ti­vas. Y por supues­to, crear y alma­ce­nar regis­tros de memo­ria para el usua­rio”. Ello se refie­re a que pue­de ofre­cer con­se­jos nutri­cio­na­les, die­té­ti­cos y de medi­ca­ción per­so­na­li­za­dos. La paten­te habla de rea­li­zar prue­bas psi­co­ló­gi­cas a los usua­rios hacién­do­les pre­gun­tas y ana­li­zan­do esta­dís­ti­ca­men­te sus res­pues­tas.

Las ‘solu­cio­nes’ las ofre­ce si las métri­cas y regis­tros de la App Tera­peu­ta sobre el usua­rio supe­ran cier­tos valo­res, que el soft­wa­re aso­cia con pro­ble­mas emo­cio­na­les, de estrés o men­ta­les a par­tir de las pre­gun­tas, res­pues­tas, y por supues­to, de regis­tros de com­por­ta­mien­tos infe­ri­dos en base tam­bién a la cita­das Acti­gra­fía y Tap­pi­gra­fia del pro­pio usua­rio. Es decir, en base a regis­tros bio­mé­tri­cos y del tipo de movi­mien­tos y su inten­si­dad a lo lar­go del tiem­po, y de las ubi­ca­cio­nes reco­rri­das por el usua­rio, que cons­tan­te­men­te regis­tran los múl­ti­ples sen­so­res de los telé­fo­nos y dis­po­si­ti­vos móvi­les que lle­van las per­so­nas siem­pre con­si­go, casi sin excep­ción. Así que esta Tera­peu­ta basa­da en IA de la Paten­te de Micro­soft va a dar un ser­vi­cio vir­tual de aten­ción emo­cio­nal sie­te días por sema­na y vein­ti­cua­tro horas al día, siem­pre que estés conec­ta­do y con tu App Tera­peu­ta de Micro­soft ins­ta­la­da en tu móvil. E, –ima­gino–, con la con­di­ción de que hayas paga­do reli­gio­sa­men­te tu men­sua­li­dad. Algo que, como en el caso de otras muchas otras App, suce­de­rá en cuan­to la empre­sa des­plie­gue la ver­sión pre­mium de esta Tera­peu­ta IA, (de pago, of cour­se), con todas las pres­ta­cio­nes pro­me­ti­das por el mar­ke­ting. Aun­que de esto no habla la paten­te, a pesar de que las paten­tes se regis­tran, obvia­men­te, para mon­tar un nego­cio con ellas.

Pro­ba­ble­men­te, la cita­da ver­sión Pre­mium a la que dará lugar la paten­te como es típi­co, será la que emi­ti­rá noti­fi­ca­cio­nes sono­ras y pan­ta­lla de aler­ta, que emer­ge­rán y sona­rán cuan­do los datos bio­mé­tri­cos del usua­rio, que son regis­tra­dos por la Acti­gra­fía del móvil o del reloj conec­ta­do en tiem­po real, lle­guen nive­les de aler­ta con­si­de­ra­dos ‘preo­cu­pan­tes’ por el soft­wa­re de la IA Tera­peu­ta. Aler­tas que des­en­ca­de­na­rán la pues­ta en mar­cha y el ofre­ci­mien­to de ‘solu­cio­nes’ y que depen­de­rá de en qué momen­to y a qué nivel sitúan, tras medir­lo, el esta­do men­tal emo­cio­nal del usua­rio. Esta App como todas las demás, exi­gi­rá tiem­po y aten­ción del usua­rio en cual­quier momen­to y lugar. Nun­ca están ocio­sas. Doy fe.

Para ello, como mar­co, se han pre­de­fi­ni­do una serie de nive­les de esta­do aní­mi­co, infi­rien­do esta­dos emo­cio­na­les del usua­rio en una esca­la (que figu­ra en la paten­te; ver en la dere­cha del grá­fi­co ante­rior de este artícu­lo) entre posi­bles esta­dos de áni­mo que van de peor a mejor entre: ira, asco, tris­te­za, des­dén, mie­do, sor­pre­sa, neu­tra­li­dad y feli­ci­dad. Así que el algo­rit­mo apli­ca sus ‘solu­cio­nes’ para cada momen­to y caso, que van des­de con­se­jos die­té­ti­cos y de medi­ca­ción per­so­na­li­za­dos, a rea­li­zar test psi­co­ló­gi­cos al usua­rio hacién­do­le pre­gun­tas y ana­li­zan­do sus res­pues­tas. Por aho­ra, en la pri­me­ra ver­sión o 1.0 de esta Tera­peu­ta IA no hay más. Pero están cre­cien­do en la red a un rit­mo de miles al día. El nue­vo nego­cio no para de cre­cer.

Las con­tra­in­di­ca­cio­nes que se dedu­cen de leer la paten­te, pon­drán el pelo de pun­ta a cual­quier tera­peu­ta o psi­quia­tra humano pro­fe­sio­nal. Les ha sali­do un intru­sis­mo pro­fe­sio­nal digi­tal ines­pe­ra­do de una dimen­sión que yo creo que aún no ima­gi­nan.

Compartir es vivir!

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia