Celebridad

Automatizar el estado emocional (I) ¿Vas a delegar en tu móvil el cuidado de tu salud mental?


Las grandes empresas tecnológicas globales están intentando que se vea como normal que tu móvil monitorice tus estados de ánimo y sea tu terapeuta virtual, como parte de las modas digitales.

Automatizar el estado emocional.

La salud mental es hoy un área de una necesidad creciente en nuestra sociedad. Según la Organización Mundial de la Salud a partir de ahora, aproximadamente, una de cada cuatro personas en el mundo se verá afectada por trastornos de salud mental en algún momento de su vida. Sin embargo, será difícil precisar el número exacto, ya que muchas personas pueden no ser muy conscientes de ello y no buscar tratamiento, o no tienen a mano recibir un diagnóstico o medios para pagarlo. Los estigmas sociales y culturales por todo ello aún no son una prioridad a pesar de que puede afectar a individuos de toda edad, género, origen o geografía vital actual.

Que el origen del incremento reciente de estos trastornos es consecuencia de los cambios que imponen ciertos usos de la tecnología en nuestro modelo de vida cotidiana está cada vez más claro. Pero lo que no sabíamos y estamos aprendiendo –cada vez hay más evidencias de ello–, es que dichos cambios están bastante relacionados con nuestro ‘modo de vida digital’ actual y nuestra actividad online. Lo terrible es que quienes están detrás de las causas de gran parte de estos numerosos y crecientes trastornos sobrevenidos de la salud mental de la gente, sean los mismos que están montando, sin atender aspectos éticos y sociales, un gran negocio de ello, automatizando mediante tratamientos virtuales el ‘cuidado’ (es un decir) de la salud mental de las personas usuarias de internet y del móvil, lo cual nos implica prácticamente a todos.

Sobre este panorama, los que no nos informamos solamente por una red social y el móvil, estamos comprobando que en el horizonte de noticias de los medios periodísticos cada día hay más y más noticias sobre móviles y pequeñas pantallas, y los problemas que su uso exhaustivo implica a nivel social. Y, aquí empiezan las primeras paradojas sobre ello, hasta el punto que lo que para unos está empezando a ser un problema social, para otros, me reitero, parece ser simplemente una inmensa oportunidad de nuevos negocios. Por cierto, nuevos negocios digitales que están basados instrumentalmente en los más problemáticos usos de la ultrasegmentación publicitaria que permite a las plataformas globales el tracking individualizado (registro masivo, e incansable), de datos y metadatos extraídos de la actividad online de los usuarios, incluidos sus registros biométricos ocultos como ya avancé en estas páginas.

Es decir, aprovechando el citado registro múltiple individualizado de la actividad online de los usuarios, y mediante el procesado con machine learning y estadística predictiva de la inteligencia artificial generativa, proponen soluciones a problemas emocionales y estados de ánimo alterados en forma de una Inteligencia Artificial Terapeuta (IA Terapeuta). Pero esta solución no parece que la propongan porque mejore el bienestar de la gente, como dice su marketing, sino porque abre un nuevo negocio en base a la ingente información que toman de la actividad de los usuarios conectados cuya intimidad mental o física y sus límites no respetan en absoluto.

Grandes negocios aprovechando los nuevos problemas de salud mental

Así que nos encontramos ante una enorme paradoja a la que se refería indirectamente Jaron Lanier cuando le preguntaron por los peligros que nos puede traer la IA y una superinteligencia artificial. Su contestación, como él acostumbra, no fue de irse por las ramas. Contestó: «el peligro, la verdadera amenaza que trae la IA no es que nos destruya, sino que nos enajene, o nos vuelva locos».

Richard Stallman ya nos advirtió «cualquier tecnología que no se aplique con el auxilio de la ética, probablemente, causará daño». La paradoja conceptual citada es esa pero, además, aquí está ligada al equivalente paradójico económico, empresarial, –y ético–, por el que ciertas grandes empresas están causando en la sociedad, con los usos que promueven e imponen de la tecnología, una epidemia social de dolencias de salud mental. Epidemia usada como base sobre la que se está construyendo un nuevo sector de grandes negocios globales, enfocados a diversos problemas de salud concretos, que ellos mismos están originando.

Para que esto sea posible hace falta también esa convergencia que citaba al inicio, entre tecnología y salud mental. Y esto pasa por presentar y evangelizar a la gente sobre que, a nuevos problemas de salud mental, nuevos remedios, en este caso virtuales y algorítmicos. Dentro de ellos, el remedio estrella será, según esta evangelización tecnológica, la automatización del tratamiento de desórdenes de los estados mentales de humanos de toda edad, que están creciendo exponencialmente a nuestro alrededor, ahora mismo. Quieren que no se vea a ciertos usos concretos (hay otros menos nocivos) de las tecnologías IA que promueven, no como parte del problema, sino de la solución.

Para cuando legisladores y autoridades actúen sobre este nueva crisis social, es muy probable que el nuevo sector de negocio virtual de la salud mental ya vaya viento en popa, y sus soluciones de IA sean ya una imperativa moda global que contará por supuesto con sus propias internet fashion victims (víctimas de las modas de internet), que habrán servido de conejillos de indias, para probar el efecto de las terapias virtuales no humanas basadas en IA sobre el deterioro de sus emociones y estados de ánimo, acabando como participantes patológicos del proceso, probablemente sin ser verdaderamente conscientes de ello, porque se sentirán probando ‘lo último’, como en tantas ocasiones anteriores.

Estas víctimas son, por cierto, un colectivo social en el que, en este momento, hay señalada una verdadera epidemia de trastornos de salud, que van desde los relacionados con el aspecto físico (anorexia, bulimia, conducta alimentaria, etc.) a otros ligados a la salud mental (ansiedad generalizada; episodios de pánico; trastorno por déficit de atención con hiperactividad (TDAH); evitación y fobia social, depresión que puede llegar hasta el suicidio del menor), y a otros híbridos de todo ello. Hay pruebas objetivas de que muchos de estos trastornos están relacionados con la adicción pre-programada hacia la que están orientadas el diseño de las interfaces de las plataformas globales, las Apps, y las de los dispositivos móviles que dan acceso a ellas. Las tecnologías de tracking (seguimiento) y registro que permiten la recolección constante de datos y metadatos mediante todo tipo de dispositivos móviles como los Smartphones, relojes inteligentes, etc., son las que impulsan y energizan todo ello.

Usos bastardos de los avances en neurociencia por ciertas corporaciones

La neurotecnología actual aún no puede, –no sabemos hasta cuando–, por ahora, descodificar con precisión pensamientos ni emociones. Pero con una IA y algorítmica predictiva del rango adecuado, eso tal vez no sea necesario. Potentes sistemas de aprendizaje automático podrían inferir correlaciones entre la actividad cerebral y las circunstancias externas e internas.

El prestigioso neurocientífico español Rafael Yuste, junto con el neurofisiólogo de Harvard Álvaro Pascual-Leone y el investigador de interfaz cerebro-máquina y robótica de la Univ. de Berkeley José M. Carmena, están ya promoviendo que los nuevos neuroderechos entren en la lista universal de los derechos humanos, y hace tiempo que se muestran preocupados por estos usos de las tecnologías en relación con el cerebro humano y la mente. «El problema es para qué se pueden utilizar estas herramientas», declaró Yuste en una entrevista en la revista estadounidense Politico. Él, que conoce lo que se está haciendo en la frontera, señala que ya hay algunos ejemplos aterradores. Algunos investigadores han utilizado escáneres cerebrales para predecir la probabilidad de reincidencia de los delincuentes, y ya hay empresarios chinos poco escrupulosos que han monitorizado las ondas cerebrales de los empleados para leer sus emociones. Los científicos también han conseguido registrar subliminalmente información y los estados de ánimo personales utilizando dispositivos de consumo masivo. Y los sensores de nuestros smartphones ya registran biométricamente nuestro comportamiento físico, y mucho más.

Tradicionalmente, los científicos del cerebro investigan para intentar aplicar las nuevas neurotecnologías de frontera para combatir enfermedades del cerebro y de la salud mental. Pero uno de los problemas ocultos hoy es que hay grandes empresas que están usando para sus negocios estos descubrimientos de forma bastarda y por la ‘puerta de atrás’ y aplicando esas tecnologías capaces de alterar interesadamente el curso de las emociones y los estados mentales, y de usar esto para hacer pingües negocios con ello, en una economía aún por regular (La Ley de la UE sobre la IA todavía no ha entrado en ello).

Hay un antecedente de estos usos bastardos en la tecnología que es ya muy conocido. Se trata del caso de Frances Haugen ingeniera y científica de datos, que llegó a gerente de producto de Facebook (que ahora se llama Meta) y que, en septiembre de 2021, dimitió  y se fue de la empresa tras leer documentos internos en los que los propios científicos de la compañía informaban a la cúpula de la empresa sobre los problemas que estaban causando en centenares de miles, si no en millones, de usuarios los usos masivos nocivos de las plataformas de la compañía, (Facebook, Instagram y WhatsApp) sobre todo, pero no solo, en los usuarios y usuarias más jóvenes.

Haugen, entonces madre de adolescentes, no solo dimitió sino que decidió filtrar decenas de miles de documentos internos de Facebook a la Comisión de Bolsa y Valores de EE.UU. y al Wall Street Journal (que el diario llamó Facebook Files ), y además declaró en una audiencia pública del Senado de Estados Unidos denunciando la manera en que Facebook manejaba entonces la desinformación política, el discurso de odio, y especialmente los temas de la salud mental de los adolescentes que empeoró con el impacto de la red social en los jóvenes, debido concretamente a los cambios en sus algoritmos que hizo la empresa en 2018. Un empeoramiento que se hizo visible con ciertos usos que las adolescentes hacen de Instagram, como ya conté en estas páginas que provocaron y provocan, en concreto, masivos deterioros de estados de ánimo, ansiedad y depresión en una gran cantidad de niñas y adolescentes.

Además, Haugen declaró en su comparecencia: «Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook. Y Facebook, una y otra vez, optó por optimizar para sus propios intereses, como ganar más dinero». Al hacerse pública la información filtrada por Haugen, la capitalización de mercado de Facebook se redujo en seis mil millones de dólares en las 24 horas posteriores a la entrevista a Haugen emitida por TV, en el 60 Minutes  de la CBS News, el 3 de octubre de 2021. Después, la empresa cambió su nombre por Meta por cuestiones yo creo que más que todo reputacionales, pero los problemas de esas prácticas nocivas siguen su curso, y este episodio ya parece algo muy del pasado para instantaneidad de las modas del internet social.

Ya estamos en una nueva etapa y al parecer casi nadie se acuerda de este reciente y extraordinario episodio. Ahora mismo, estamos en los albores de un gran negocio global con las soluciones virtuales que usan la citada algorítmica para tratar los nuevos problemas de salud mental, basada en algoritmos similares a los de la tecnología cuyos efectos denunció Haugen, en 2021. Todo dentro de nuevas prácticas tecnológicas inducidas. Estas nuevas soluciones en forma de App se van a convertir y si no, al tiempo, en una nueva moda digital: la de usar la inteligencia artificial como solución virtual en lugar del tratamiento de especialistas humanos. Dado el enorme crecimiento de problemas de salud mental que incluyen suicidios de menores, como denuncia en su libro Francisco Villar y a los que, por su dimensión, los sistemas públicos de salud no son capaces de dar cumplida respuesta, es muy probable que los adolescentes, por sus urgencias, se lancen a probar los nuevos remedios que promete la moda digital de la IA, un ámbito ahora mismo en plena explosión, quizá sin atender a sus posibles consecuencias negativas.

Automatizar la psicología y la psiquiatría. La IA como terapeuta y sus peligros

Hay solucionistas tecnológicos, que han vistos un logro en el «paso audaz» de solicitar la patente para una aplicación de terapia impulsada por inteligencia artificial (IA), en lo mismo que otros vemos como una «acción espeluznante» (spooky action), –por usar la expresión con que Einstein se refería a ciertas propuestas de algún físico cuántico–.

Automatizar el tratamiento y/o cuidado de la salud mental se ha convertido en una competición entre las big tech (grandes empresas tecnológicas globales) como parte del nuevo negocio, por una parte, de la aplicación temprana de la IA Generativa, y, por otra, de seguir explotando el gigantesco y casi obsceno negocio basado en datos y metadatos que, sin la menor resistencia, los usuarios les regalamos porque aún no los consideramos todavía parte de nuestra intimidad, por pura ignorancia sobre su valor; y sin considerar tampoco el hecho de que pueden usarlos contra nosotros para apoderarse de nuestra atención y de un tiempo nuestro que nunca podremos recuperar. Atención y tiempo que estas empresas ‘monetizan’ ampliamente, como se dice en la jerga emprendedora.

Esto ocurre porque han conseguido que ello nos parezca normal e inevitable, en gran parte, porque con sus diseños de interfaz activan nuestra comodidad nihilista, que es aquella por la que si algo nos resulta cómodo lo hacemos, sin pensar en absoluto si vamos a sufrir perniciosas consecuencias por ello.

Aunque hay muchas más, esta es una de las primeras que van hacia ese despliegue de los nuevos modelos de negocio basados en la IA Terapeuta. El citado paso audaz lo acaba de dar en este caso Microsoft, con su patente US 11.810.337 B2 registrada 7 de noviembre de 2023, cuyo propósito es «Proporcionar atención emocional en una sesión» virtual, y a través de un chatbot y su smartphone. He leído la patente buscando explicaciones, descripciones y argumentos, pero sus redactores han evitado cuidadosamente darlas para no meterse en ningún ‘jardín’ legal que pueda ponerles en aprietos. Es una patente clásica de dispositivo que solo describe acciones. De la explicación, se deduce el cómo, pero no el porqué. Solo relata el uso de un software de chatbot conversacional (un chat robotizado), con el que se relaciona el usuario genéricamente a través de su smartphone.

Automatizar el estado anímico.

Gráficos traducidos de la patente US 11.810.337 B2 que ha registrado Microsoft para desplegar la App de su tecnología de la IA Terapeuta, traducidos al español. A la izquierda, esquema de la interfaz del Chatbot de IA con un ejemplo de conversación entre la IA y el usuario; en el centro pantalla con el resultado del diagnóstico y evaluación con puntuaciones concretas de los estados mentales y emocionales, que la ‘IA Terapeuta’ ha hecho al usuario basadas en su registro constante de sus datos e interacción; y, a la derecha, la escala de estados emocionales que registra y sobre los que puntúa al usuario.

Según la patente, para la empresa, esta IA Terapeuta de Microsoft, va a ser capaz de proporcionar ‘atención emocional’ a través de conversaciones simuladas entre el usuario y la App con un chatbot usando texto, e imágenes, con contenido aportado por el usuario (al que en ningún momento se le llama paciente, como haría cualquier terapeuta (psicólogo o psiquiatra) humano. Quizá piensen los creadores que todos los conectados somos usuarios potenciales, porque esta App será capaz de encontrar, a cualquiera, alguna deficiencia mental en algún momento.

El usuario, por cierto, también aporta sin saberlo toda su interacción, que se convierte en patrones de Actigrafía y Tappigrafía ya que le registran constantemente, tanto sus movimientos brutos del cuerpo y sus partes, su intensidad y su geoposicionamiento  con gran precisión, a lo largo el tiempo; como sus patrones de tecleado, interacción –incluyendo los parámetros paralinguísticos del habla como velocidad, intensidad y sus contextos sonoros–. Y, por supuesto, los géneros de contenidos y conexión a los que dedica su atención cada usuario en concreto. Mediante esta aplicación móvil o App, el usuario, –la patente señala que está pensada para distintas edades–, podrá interactuar con esta Aplicación móvil basada en IA para obtener apoyo terapéutico en un proceso personalizado (impulsada por sus propios datos e historial y, por tanto, sensible a sus propias necesidades individualizadas). Obviamente, los ejemplos de las conversaciones en la descripción de la patente son más infantiles que adolescentes, –los niños crecen muy rápido–, así que el ‘tarjet’ o tipo de personas objetivo en mayor número que más necesidad tienen del producto, –cosa que habrán detectado–, está claro.

La interfaz de la App es del tipo de la que ha hecho famosa el Chat GPT o sea, una ventana conversacional. También se puede leer, en el entrelíneas de la patente, que este ‘Terapeuta (virtual) basado en IA’, realizará evaluaciones al usuario e incluso del contexto y su familia, que se llevará a cabo de forma automática y a distancia, en cualquier momento y lugar, mediante un algoritmo de puntuación desarrollado por los programadores del software de la IA cuyos niveles han sido pre-definidos para situaciones hipotéticas, –se supone–, por psicólogos y expertos en dominios psicológicos, salud mental y comportamiento humano.

Al ver en detalle la descripción de este sistema que muestra la patente, da escalofríos su gran parecido con el sistema de puntuación con el del sistema de «crédito social» de China que valora algorítmicamente la conducta ciudadana de quienes viven en el país. Es una técnica de algorítmica masiva basada en datos y rastreo, cuyo uso el gobierno chino ha hecho obligatorio imponiéndolo masivamente con su orwelliano sistema de ‘crédito social’, que describí en 2019 en mi artículo sobre la ‘Gamificación’ de la conducta ciudadana en China, y que ya afecta directamente a la vida más de mil millones de sus habitantes. En muchos casos, no para bien. Sirve también para castigar la conducta online que sea ‘inapropiada’, según el criterio del gobierno chino.

Medir a distancia estados mentales en tiempo real y proporcionar atención emocional virtual.

Ese propósito enunciado en la patente de proporcionar ‘atención emocional’ en una sesión, se articula construyendo perfiles de usuario infiriendo estados emocionales a partir de las imágenes y datos proporcionados, casi sin apercibirse, por el propio usuario, para crear un registro de memoria basado en estas imágenes y perfiles y otorgando algorítmicamente unas puntuaciones en test de los estados mentales y emocionales, a petición del usuario o a sugerencia de la App.

Ese chatbot ‘terapeuta’ está diseñado para recordar conversaciones pasadas y utilizar esta información y las respuestas emocionales del usuario en futuros chats con el propio usuario, y quién sabe con quién más, ya que ese contenido queda en poder de la empresa en su ‘nube’. La patente dice literalmente: «la atención emocional puede referirse a comunicaciones emocionales o asistencias proporcionadas a un usuario en varios enfoques, tales como, charlas emocionales, ofrecer conocimientos relacionados con enfermedades, alimentos y medicamentos; o el seguimiento de una condición psicológica o cognitiva del usuario a través de la realización de pruebas psicológicas o cognitivas. Y por supuesto, crear y almacenar registros de memoria para el usuario». Ello se refiere a que puede ofrecer consejos nutricionales, dietéticos y de medicación personalizados. La patente habla de realizar pruebas psicológicas a los usuarios haciéndoles preguntas y analizando estadísticamente sus respuestas.

Las ‘soluciones’ las ofrece si las métricas y registros de la App Terapeuta sobre el usuario superan ciertos valores, que el software asocia con problemas emocionales, de estrés o mentales a partir de las preguntas, respuestas, y por supuesto, de registros de comportamientos inferidos en base también a la citadas Actigrafía y Tappigrafia del propio usuario. Es decir, en base a registros biométricos y del tipo de movimientos y su intensidad a lo largo del tiempo, y de las ubicaciones recorridas por el usuario, que constantemente registran los múltiples sensores de los teléfonos y dispositivos móviles que llevan las personas siempre consigo, casi sin excepción. Así que esta Terapeuta basada en IA de la Patente de Microsoft va a dar un servicio virtual de atención emocional siete días por semana y veinticuatro horas al día, siempre que estés conectado y con tu App Terapeuta de Microsoft instalada en tu móvil. E, –imagino–, con la condición de que hayas pagado religiosamente tu mensualidad. Algo que, como en el caso de otras muchas otras App, sucederá en cuanto la empresa despliegue la versión premium de esta Terapeuta IA, (de pago, of course), con todas las prestaciones prometidas por el marketing. Aunque de esto no habla la patente, a pesar de que las patentes se registran, obviamente, para montar un negocio con ellas.

Probablemente, la citada versión Premium a la que dará lugar la patente como es típico, será la que emitirá notificaciones sonoras y pantalla de alerta, que emergerán y sonarán cuando los datos biométricos del usuario, que son registrados por la Actigrafía del móvil o del reloj conectado en tiempo real, lleguen niveles de alerta considerados ‘preocupantes’ por el software de la IA Terapeuta. Alertas que desencadenarán la puesta en marcha y el ofrecimiento de ‘soluciones’ y que dependerá de en qué momento y a qué nivel sitúan, tras medirlo, el estado mental emocional del usuario. Esta App como todas las demás, exigirá tiempo y atención del usuario en cualquier momento y lugar. Nunca están ociosas. Doy fe.

Para ello, como marco, se han predefinido una serie de niveles de estado anímico, infiriendo estados emocionales del usuario en una escala (que figura en la patente; ver en la derecha del gráfico anterior de este artículo) entre posibles estados de ánimo que van de peor a mejor entre: ira, asco, tristeza, desdén, miedo, sorpresa, neutralidad y felicidad. Así que el algoritmo aplica sus ‘soluciones’ para cada momento y caso, que van desde consejos dietéticos y de medicación personalizados, a realizar test psicológicos al usuario haciéndole preguntas y analizando sus respuestas. Por ahora, en la primera versión o 1.0 de esta Terapeuta IA no hay más. Pero están creciendo en la red a un ritmo de miles al día. El nuevo negocio no para de crecer.

Las contraindicaciones que se deducen de leer la patente, pondrán el pelo de punta a cualquier terapeuta o psiquiatra humano profesional. Les ha salido un intrusismo profesional digital inesperado de una dimensión que yo creo que aún no imaginan.



Source link

Antea Morbioli

Hola soy Antea Morbioli Periodista con 2 años de experiencia en diferentes medios. Ha cubierto noticias de entretenimiento, películas, programas de televisión, celebridades, deportes, así como todo tipo de eventos culturales para MarcaHora.xyz desde 2023.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button