El algoritmo de TikTok sigue empujando al suicidio a niños vulnerables

La popular aplicación puede generar ansiedad y desesperación entre los adolescentes. La compañía dice que está haciendo mejoras, pero ahora se enfrenta a una avalancha de demandas tras múltiples muertes.

Sociedad 23/04/2023 Editor Editor
tiktok
Chase no sufría acoso, tenía un gran grupo de amigos y destacaba académica y deportivamente. No se drogaba ni bebía ¿cuál fue la variable que lo empujó al suicidio? Su padre cree que fue el bombardeo constante de videos de TikTok.

El algoritmo de TikTok no sabe que Chase Nasca ha muerto.

Más de un año después de que Nasca se suicidara a los 16 años, su cuenta sigue activa. Desplázate por su feed “For You” (Para tí) y verás un flujo interminable de clips sobre el amor no correspondido, la desesperanza, el dolor y lo que muchos mensajes glorifican como el último escape: el suicidio.

 
“Aleja el dolor. La muerte es un regalo”, dice un video subido a la cuenta en febrero, días antes del primer aniversario de la muerte de Nasca. En otro, una voz masculina dice: “Voy a ponerme una escopeta en la boca y volarme los sesos por la nuca”, y una voz femenina responde: “Muy bueno”.

En los días anteriores a la muerte de Nasca, el canal tenía un aspecto muy parecido. El 13 de febrero de 2022, apareció un video de un tren que se aproximaba con la leyenda “fui a dar un paseo rápido para despejarme”. Cinco días después, Nasca se detuvo en las vías del Long Island Rail Road que atraviesan la aldea de Bayport, Nueva York, a unos 800 metros de su casa. Apoyó su bicicleta contra una valla y se subió a la vía, en una curva ciega sobre la que sus padres le habían advertido desde que tenía edad suficiente para andar. Envió un mensaje a un amigo: “Lo siento. No puedo más”. Un tren dobló la curva y él desapareció.

Es imposible saber por qué Nasca puso fin a su vida. A menudo hay múltiples factores que conducen al suicidio, y no dejó ninguna nota. Pero dos semanas después de su muerte, su madre, Michelle, empezó a buscar en sus redes sociales, desesperada por encontrar respuestas. Cuando abrió la aplicación TikTok en su iPad, encontró una biblioteca de más de 3.000 vídeos que su hijo había marcado, gustado, guardado o etiquetado como favoritos. Pudo ver los términos que había buscado: Batman, baloncesto, halterofilia, discursos motivacionales. Y pudo ver lo que el algoritmo le había traído: muchos vídeos sobre la depresión, la desesperanza y la muerte.

Desde que TikTok irrumpió en la cultura popular en 2018, la gente ha estado tratando de entender la plataforma de video de formato corto y su impacto en los niños. Propiedad de la empresa china de Internet ByteDance Ltd., la aplicación alcanzó los mil millones de descargas más rápido que cualquier otro producto anterior de las redes sociales. Su éxito se debe a su adherencia. El algoritmo subyacente a su motor de recomendación ofrece un carrusel de fascinantes contenidos creados por los usuarios para mantenerlos pegados a sus pantallas. TikTok se ha hecho tan popular -lo usan 150 millones de estadounidenses, según la empresa- que sus rivales de Silicon Valley intentan imitarlo. Y los políticos temen que el gobierno chino pueda utilizarlo como herramienta de desinformación. En marzo, la administración Biden amenazó con prohibir la aplicación -algo que también amenazó con hacer la administración Trump- si ByteDance no vendía su participación.

Mientras prosigue el debate político, investigadores y psicólogos infantiles observan con creciente alarma. Las encuestas realizadas entre adolescentes han revelado una correlación entre las redes sociales y la depresión, las autolesiones y el suicidio. Los datos de los Centros para el Control y la Prevención de Enfermedades muestran que casi uno de cada cuatro adolescentes afirmó haber pensado seriamente en suicidarse en 2021, casi el doble que una década antes. La Asociación Americana de Psicología y otras autoridades culpan en parte a las redes sociales.

En una comparecencia ante el Congreso en marzo, un representante sacó a colación la muerte de Nasca, mostrando al director ejecutivo de TikTok, Shou Chew, algunos de los videos que la aplicación había enviado al chico y preguntándole si Chew dejaría que sus propios hijos vieran esos contenidos. Ese mismo mes, los padres de Nasca presentaron una demanda por homicidio culposo ante un tribunal del estado de Nueva York contra TikTok, ByteDance y el ferrocarril.

TikTok dice que no puede hacer comentarios sobre litigios pendientes, pero una portavoz, Jamie Favazza, dice que la compañía está comprometida con la seguridad y el bienestar de sus usuarios, especialmente los adolescentes. “Nuestros corazones se rompen por cualquier familia que experimenta una pérdida trágica”, dice. “Nos esforzamos por ofrecer una experiencia positiva y enriquecedora y continuaremos con nuestra importante inversión para salvaguardar nuestra plataforma”.

El algoritmo de recomendación original de TikTok fue diseñado por un equipo de ingenieros en China, trabajando para ByteDance. Pero aunque la aplicación se creó en China, se utiliza en casi todo el mundo excepto en China. Ni siquiera puede descargarse en su país de origen. TikTok afirma que el mantenimiento de su algoritmo corre a cargo de ingenieros de todo el mundo, con equipos en Norteamérica, Europa y Asia. Pero más de una docena de antiguos empleados del equipo de confianza y seguridad de la empresa entrevistados por Bloomberg Businessweek afirman que los ejecutivos e ingenieros de Pekín siguen teniendo las llaves.

Confianza y seguridad diseña funciones y políticas para mantener a salvo a los usuarios de TikTok. El equipo, con sede en EE.UU., Irlanda y Singapur, modera los miles de millones de vídeos que se suben cada día a la plataforma y es responsable de cuestiones de seguridad como los contenidos que sexualizan a menores y los retos virales que animan a los niños a participar en desafíos peligrosos. Los miembros del equipo eliminan las publicaciones que infringen las normas y crean herramientas para ayudar a los usuarios a filtrar el material nocivo. Pero los ex empleados, que hablaron bajo condición de anonimato porque firmaron acuerdos de confidencialidad, dicen que tenían poca influencia sobre el algoritmo que dirige el feed de For You y que sus peticiones de información sobre su funcionamiento fueron a menudo ignoradas. Insisten en que se les tendió una trampa: se les pidió que mejoraran la seguridad de una aplicación cuyos fundamentos no podían comprender.

TikTok dijo en 2021 que estaba probando formas de evitar que su algoritmo enviara múltiples vídeos sobre temas como dietas extremas o tristeza. Al año siguiente, la compañía mencionó en una entrada de blog que “hemos mejorado la experiencia de visualización para que los espectadores ahora vean menos videos sobre estos temas a la vez”, señalando que estaba “todavía iterando sobre esto.” Después de que Businessweek hiciera averiguaciones y antes de que Chew fuera interrogado por el Congreso. El 16 de marzo, la empresa informó en un comunicado de prensa de que había realizado 15 actualizaciones del sistema en el último año, incluida la eliminación de temas repetitivos dentro de un conjunto de vídeos recomendados.

Las grabaciones de pantalla de la cuenta de Nasca de abril muestran que, al menos en algunos casos, estos esfuerzos se han quedado cortos. “No entiendo por qué le siguen enviando estas cosas”, dice Michelle. Cada vez que abre la cuenta, encuentra un flujo constante de videos sobre depresión, rupturas, muerte y suicidio.

Aún recuerda exactamente lo que decía el primer video que vio tras acceder a la cuenta de su hijo: “Estoy atrapada en una vida en la que no pedí estar”. Estuvo más de una hora viendo el feed de Chase en “For You” y no entendía por qué no había videos alegres o divertidos, que era de lo que ella pensaba que iba TikTok. Le preguntó a uno de los dos hermanos mayores de Chase por qué había oscurecido tanto su cuenta.

“Chase no hizo eso, mamá”, respondió su hijo. “Eso viene del algoritmo”.

En un mundo de información infinita, los algoritmos son reglas escritas en software que ayudan a clasificar lo que puede ser significativo para un usuario y lo que no. El algoritmo de TikTok está entrenado para rastrear cada swipe, like, comentario, rewatch y follow y utilizar esa información para seleccionar contenidos que mantengan a la gente interesada. Una mayor participación, a su vez, aumenta los ingresos por publicidad. La empresa ha perfeccionado tanto su sistema de recomendaciones que a veces los usuarios especulan con que la aplicación les lee la mente.

Otras redes sociales emplean motores de recomendación similares. El de TikTok se distingue por su alcance, según Guillaume Chaslot, científico de datos francés que trabajó en el algoritmo de YouTube y ahora asesora al gobierno de su país en sus esfuerzos por regular las plataformas en línea. Su experiencia en este campo le sugiere que el algoritmo de TikTok controla una mayor proporción de los contenidos que llegan al feed de un usuario que la mayoría de las demás plataformas de medios sociales. Y “cuando el contenido depresivo es bueno para la participación, el algoritmo lo promueve activamente”, afirma.

Las preocupaciones sobre el motor de recomendación de TikTok se han planteado internamente desde al menos 2020. Fue entonces cuando Charles Bahr, un ex gerente de ventas de publicidad en la oficina de TikTok en Alemania, dice que advirtió a sus superiores que el algoritmo estaba enviando a los usuarios de la Generación Z flujos interminables de videos deprimentes y que glorificaban el suicidio. Bahr pasó un año y medio en la empresa, a la que se incorporó en julio de 2020, con 18 años. Había fundado dos startups tecnológicas cuando era adolescente y asesoraba a políticos y empresas sobre cómo dominar TikTok cuando fue contratado.

Cuando empezó a usar la aplicación, dice, su feed “For You” era divertido y ameno. Le encantaba el producto y estaba orgulloso de llevar su camiseta de TikTok. Sin embargo, cuando empezó a publicar videos en los que se identificaba como empleado, muchos de sus seguidores empezaron a enviarle videos inquietantes que infringían las normas de TikTok, instándole a que los eliminara. Uno de los primeros videos aterradores que recuerda que le enviaron era el de un hombre disparándose en la cabeza. A medida que Bahr veía vídeos de este tipo, y a veces los pasaba al equipo de confianza y seguridad para que le ayudaran, su feed empezó a deformarse. “Cada vez aparecían más contenidos sobre depresión, suicidio y autolesiones”, dice. Algunos días lo hizo llorar.

El contenido de Bahr dificultaba la venta de anuncios. Organizaba regularmente talleres con posibles clientes, y muchos le pedían ver cómo funcionaba la aplicación. No podía mostrarles su propia página “Para ti”, dice, porque temía que se asustaran. “Cada vez que participaba en un taller, cambiaba de mi cuenta triste y oscura a una segunda cuenta de demostración que tenía un feed bastante normal”, dice. “Tardé mucho en darme cuenta de que quizá no sólo yo tengo un feed tan extremo”.

Cuando Bahr fue invitado a hablar en una reunión anual del equipo de comunicación europeo de TikTok en noviembre de 2020, lo vio como una oportunidad para plantear la cuestión. En una presentación de PowerPoint revisada por Businessweek, dijo al grupo que TikTok debería tener como misión escuchar a sus usuarios, especialmente a aquellos que luchan con problemas de salud mental. “Aunque inspiramos a los jóvenes para que sean lo más creativos posible en TikTok, hay una comunidad interminable de jóvenes que no saben adónde ir”, decía una de sus diapositivas. A continuación mostró tres mensajes de usuarios jóvenes que luchaban contra la depresión. Bahr dice que recomendó a la aplicación que no censurara esos contenidos, sino que potenciara clips más positivos para los usuarios más jóvenes.

Siete meses más tarde, el Wall Street Journal publicó una investigación en la que había supervisado más de 100 cuentas automatizadas para averiguar cómo funciona el algoritmo de TikTok. En 36 minutos, informó el periódico, un bot programado para ver videos sobre la depresión recibió un flujo de contenido que contenía un 93% de temas tristes. TikTok dijo entonces que los bots del Journal no eran representativos del comportamiento humano.

El experimento del Journal llevó a Bahr a realizar uno por su cuenta. Abrió una nueva cuenta en TikTok y se grabó a sí mismo mientras leía contenido triste para ver cuánto tardaba su feed en volverse negativo. Tardó 17 minutos.

Bahr dice que planteó sus preocupaciones en un sistema de mensajería interna con el equipo de estrategia de algoritmos en Europa, pero no obtuvo respuesta. Unos meses más tarde fue despedido por presunto fraude en su cuenta de gastos y uso indebido de las herramientas de la empresa. Bahr, que mantiene su inocencia, demandó a la empresa por despido improcedente. TikTok no siguió adelante con sus reclamaciones contra Bahr y llegó a un acuerdo extrajudicial. La empresa no respondió a las solicitudes de comentarios sobre la presentación de Bahr en 2020 y dijo que no podía responder a sus críticas generales o a las preocupaciones que planteó internamente, que dijo que “no puede validar.”

La pandemia intensificó el debate sobre el impacto del diseño algorítmico en los niños, ya que los padres se preocupaban por el aislamiento y la ansiedad provocados por los cierres escolares y el aumento del uso de las redes sociales. En diciembre de 2021, el Cirujano General de EE.UU., Vivek Murthy, publicó un aviso de seguridad sobre una inminente crisis de salud mental juvenil, afirmando que las crecientes tasas de desesperanza y pensamientos suicidas entre los adolescentes podrían estar relacionadas tanto con el encierro de Covid-19 como con las redes sociales. Demasiados jóvenes, dijo, estaban siendo informados en estas plataformas de que no eran “lo suficientemente guapos, populares, inteligentes o ricos”. Hizo un llamamiento a las empresas de redes sociales para que diseñen sus algoritmos de forma que refuercen la salud mental de los jóvenes, en lugar de debilitarla.

Los psicólogos dicen que es más difícil para los adolescentes resistir las propiedades adictivas de los algoritmos, porque sus cortezas prefrontales, responsables de la toma de decisiones, el juicio y el control de los impulsos, no están completamente desarrolladas. Dos tercios de los adolescentes estadounidenses utilizan TikTok todos los días, según una encuesta del Pew Research Center de 2022, y el 16% afirma estar en la plataforma casi constantemente. Una mayoría significativa de los encuestados dijo que tenía una experiencia positiva en las redes sociales en general y que les daba un sentido de pertenencia. Sin embargo, casi la mitad afirma sentirse abrumado por el drama que encuentran en ellas, y más de una cuarta parte afirma que las redes sociales les hacen sentirse peor con sus vidas.

Las redes sociales son un sector ferozmente competitivo, que depende de un público joven e inconstante. Las empresas confían en los algoritmos para mantener sus plataformas frescas a los ojos de los usuarios adolescentes, y protegen ferozmente esta propiedad intelectual. La falta de transparencia ha limitado la investigación académica y ha dado lugar a afirmaciones contradictorias. Por un lado, las plataformas ofrecen oportunidades cruciales para la conexión entre adolescentes. Por otro, los animan a compararse con los demás, a volverse adictos a la tecnología y a descubrir contenidos que ensalzan comportamientos nocivos.

Antiguos miembros del equipo de confianza y seguridad de TikTok dicen que temían que su plataforma tuviera un impacto negativo en los adolescentes y no entendían por qué la empresa no contrataba psicólogos infantiles para trabajar en el diseño de algoritmos. Muchos leyeron los documentos filtrados en 2021 por Frances Haugen, entonces científica de datos en Facebook, que mostraban que la empresa era consciente de que sus productos perjudicaban a los niños. Los exempleados de TikTok dicen que creían que los daños de su aplicación podían ser peores que los de Facebook, pero no tenían poder para abordar el problema, ni siquiera para estudiarlo.

Aunque prácticamente todas las empresas tecnológicas guardan secretos sobre sus datos, estos informadores, que también han trabajado para Google, Meta Platforms y Twitter, consideran que TikTok es Fort Knox en comparación. El secretismo era especialmente pronunciado cuando se trataba del algoritmo. Antiguos miembros de confianza y seguridad dicen que nunca tuvieron acceso a información sobre cómo funcionaba, cómo se ponderaba y cómo podía cambiarse, y que los jefes de equipo no podían obtener respuestas de los ingenieros que lo diseñaron. Más de una docena de personas, algunas de las cuales todavía trabajaban en TikTok el año pasado, afirman que se les pusieron trabas cuando intentaron acceder a información básica sobre el algoritmo. Un responsable de seguridad en Europa dice que pidió al jefe de ingeniería de Pekín que organizara una reunión con el equipo de confianza y seguridad para que pudieran hacer preguntas y entender mejor el motor de recomendación. El responsable afirma que se hizo caso omiso de su petición.

Varios trabajadores de confianza y seguridad afirman que algunos documentos estaban redactados en mandarín y que las traducciones a menudo no incluían apéndices ni enlaces a los conjuntos de datos originales, lo que dificultaba la contextualización y el análisis eficaz de la información. Cinco antiguos miembros del equipo afirman que renunciaron porque el secretismo les impedía hacer su trabajo.

TikTok afirma que se toma en serio las preocupaciones expresadas por los empleados, que los miembros del equipo de confianza y seguridad trabajan directamente con ingeniería y que cualquiera que dejara la empresa antes de 2021 no estaría familiarizado con los cambios realizados desde entonces. También afirma que todos los documentos importantes sobre los cambios de algoritmo y los comentarios más importantes que acompañan a su código están escritos en inglés, pero que algunas notas del código pueden contener otros idiomas utilizados por sus ingenieros en Asia y otros lugares.

Todas las plataformas de redes sociales han sido criticadas por ofrecer contenidos adictivos a los adolescentes, por dañar su salud mental y por recopilar subrepticiamente datos sobre ellos. Pero cuando una empresa de propiedad china hace estas cosas, los legisladores estadounidenses tienden a pintarlas de forma especialmente siniestra. El temor a que el gobierno chino pueda exigir a TikTok que entregue los datos de sus usuarios o que el motor de recomendaciones de la aplicación favorezca los intereses chinos ha llevado a la UE, Estados Unidos, Canadá y otros países a prohibir la aplicación en los dispositivos gubernamentales. Algunos campus universitarios estadounidenses la han bloqueado en sus redes Wi-Fi y, en abril, la legislatura de Montana fue la primera en aprobar un proyecto de ley que bloquea la aplicación en todos los dispositivos personales.

En la comparecencia de marzo ante el Congreso, Chew, el director general, fue acribillado a preguntas sobre la conexión de TikTok con Pekín y su relación con el Partido Comunista Chino. Sus intentos de rebatir los golpes - “Se trata de datos estadounidenses en suelo estadounidense por una empresa estadounidense supervisada por personal estadounidense”- fueron recibidos con escepticismo.

En un momento dado, el republicano de Florida Gus Bilirakis presentó a los padres de Chase Nasca, que se encontraban entre el público. “Chew, su empresa destruyó sus vidas”, dijo Bilirakis. “¿Podría compartir este contenido con sus dos hijos?”. A continuación, reprodujo una grabación de pantalla de 30 segundos de la cuenta de TikTok de Nasca, tras lo cual preguntó a Chew si asumía la responsabilidad del algoritmo de la app, sí o no. Chew empezó a responder, pero Bilirakis le cortó. “¿Sí o no?”, le preguntó.

“Sí proporcionamos recursos a cualquiera que teclee algo parecido a un suicidio”, dijo Chew antes de que Bilirakis le interrumpiera de nuevo, declarando: “Veo que no está dispuesto a responder a la pregunta ni a asumir ninguna responsabilidad por su empresa matriz, la tecnología y el daño que crea.”

Uno de los temas planteados en la audiencia fue también de interés para la confianza y la seguridad: por qué TikTok no podía cambiar su algoritmo para parecerse más al de su plataforma hermana, Douyin, que opera sólo en China y comparte parte del mismo código fuente. El algoritmo de Douyin es conocido por enviar a los adolescentes contenidos positivos, como posts educativos sobre experimentos científicos y exposiciones en museos. También tiene un límite de tiempo obligatorio de 40 minutos al día para los menores de 14 años.

TikTok no respondió a las preguntas sobre qué parte del código fuente de su aplicación se solapa con el de Douyin; sí dijo que Douyin es una “aplicación separada que se rige por políticas reguladoras y mercados diferentes”. También dice que ha estado trabajando en los últimos meses para eliminar parte del misterio en torno a TikTok y actualizar la plataforma para hacerla más segura para los niños. En 2020 hizo posible que los padres comprobaran qué hacían sus hijos mientras usaban TikTok. Al año siguiente reforzó las medidas de privacidad en las cuentas de menores de 16 años, configurándolas como privadas por defecto. En febrero anunció que permitiría a los investigadores estadounidenses acceder a algunos datos sobre cuentas y contenidos, aunque les exige que envíen sus conclusiones a TikTok antes de publicarlas. En marzo, la empresa añadió una función que avisa a los usuarios menores de 18 años cuando llevan más de una hora en la plataforma y les obliga a introducir una contraseña para seguir conectados. También empezó a permitir a los usuarios restablecer sus recomendaciones “Para ti” como si acabaran de registrarse con una nueva cuenta si consideraban que el contenido que veían era demasiado oscuro.

Ryn Linthicum, responsable de la política de salud mental de TikTok, afirma que la empresa prohíbe las publicaciones que glorifican temas como el suicidio y las autolesiones, y que entrena a sus sistemas de inteligencia artificial y a 40.000 moderadores humanos para eliminarlas. En el último trimestre de 2022, según datos de la empresa, TikTok filtró más del 97% de estos contenidos antes de que otros usuarios los vieran, entre los más de 85 millones de vídeos que retiró en total.

La moderación es un reto continuo, dice Linthicum, que utiliza el pronombre “ellos” y lleva un año en su puesto. Es difícil entrenar a un algoritmo para que distinga entre el llanto de tristeza y el llanto de alegría, o entre un video que sensibiliza sobre la depresión o la anorexia y otro que fomenta esas afecciones. “Es un espacio increíblemente complejo”, afirma Linthicum. “Lo que puede ser dañino o hiriente para una persona no necesariamente lo va a ser para otra”.

En su opinión, algunos contenidos no deberían censurarse, porque pueden ayudar a los adolescentes vulnerables a sentirse menos estigmatizados. “La gente pasa por altibajos”, dice Linthicum. “Tienen experiencias vitales tristes”.

A finales de 2021, los videos de gente diciendo que no quería vivir se colaron en el feed “For You” de Nasca, según uno de sus amigos, Brandon Maffei. Maffei, que ahora cursa el último año de secundaria en Bayport-Blue Point, conoció a Nasca en tercer curso. Era el chico nuevo de la escuela y se sintió atraído por Nasca, que era simpático, de espíritu libre y divertido. Cuando la pandemia cerró su instituto, ellos, como muchos adolescentes estadounidenses, empezaron a pasar más tiempo en TikTok, enviándose videos tontos hasta altas horas de la noche. Hacia finales de 2021, Maffei se dio cuenta de que los que compartía Nasca eran cada vez más oscuros. Uno que Nasca envió unas semanas antes de morir trataba sobre el suicidio. “Lo abrí y pensé: ‘Maldita sea. No sé por qué me envía esto”, dice Maffei. Recuerda el video con claridad, porque le hizo llorar. La música era deprimente y en la pantalla se leía: “Ya no merece la pena”.

Maffei empezó a decirle a la gente, incluido Nasca, que la aplicación mostraba demasiados contenidos angustiosos y que quería borrarla. “Es muy mala para la salud mental, porque te empuja a esos sentimientos tristes y deprimentes, aunque tú no los sientas”, afirma.

En febrero, Businessweek envió una grabación de nueve minutos del feed “For You” de Nasca a Jennifer Harriger, profesora de psicología de la Universidad Pepperdine de California. Harriger ha pasado los últimos cinco años estudiando el impacto que las redes sociales pueden tener en los adolescentes, especialmente en lo que se refiere a la satisfacción con la imagen corporal. Sus experimentos con cientos de estudiantes universitarios han demostrado que la exposición a tipos de cuerpo idealizados en las redes sociales puede llevar a una menor satisfacción con la propia apariencia. Más recientemente, se ha centrado en el algoritmo de TikTok, pero dice que su investigación se ha visto limitada por la falta de transparencia de la empresa. “No hay una forma eficaz de estudiarlo, porque no sabemos cómo funciona”, afirma.

Tras unos minutos de observación en su teléfono, Harriger detiene la grabación. “Es una avalancha de contenidos tristes, deprimentes y desesperanzadores”, dice. Incluso para ella, “fue muy desencadenante emocionalmente, y soy capaz de procesar de forma más lógica lo que vi”. Cuando un adolescente con un cerebro vulnerable ve estos contenidos, su respuesta es más fuerte. Y eso da mucho miedo”. Dice que el feed de Nasca “ciertamente no es apropiado para un adolescente”.

En un trabajo de investigación de 2022, The Dangers of the Rabbit Hole (Los peligros de la madriguera del conejo), Harriger y tres colegas escribieron que “en última instancia, es responsabilidad de las empresas de las redes sociales que crean e implementan los algoritmos proteger a sus usuarios de cualquier daño”. Algunos legisladores estadounidenses están intentando enviar precisamente ese mensaje. Se han propuesto proyectos de ley a nivel estatal y federal para obligar a las empresas tecnológicas a anteponer la seguridad de los niños a los intereses lucrativos. También se espera que el Tribunal Supremo de EE.UU. se pronuncie esta legislatura sobre un caso que cuestiona la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las empresas de medios sociales de ser demandadas por los contenidos publicados en sus sitios.

Desde principios de 2022 se han presentado más de 200 demandas contra plataformas de redes sociales, muchas de ellas argumentando que, aunque las empresas no puedan ser consideradas responsables de los contenidos publicados en sus plataformas, deben responder de los daños incorporados a sus productos. Las demandas incluyen al menos dos docenas presentadas por distritos escolares contra alguna combinación de Instagram, Snapchat, TikTok, YouTube y sus empresas matrices, alegando que son responsables de la crisis de salud mental juvenil del país.

Muchas de las otras han sido presentadas por el Social Media Victims Law Center, el bufete con sede en Seattle que representa a la familia Nasca. En más de 65 casos, el centro alega que los productos de las redes sociales han causado privación del sueño, trastornos alimentarios, drogadicción, depresión y suicidio. Laura Marquez-Garrett, una de las abogadas del centro, dice que las demandas contra TikTok argumentan que su algoritmo está diseñado para atacar vulnerabilidades. “Hay un lado realmente oscuro de TikTok que la mayoría de los adultos no ven”, dice. “Podrías tener a un niño y a un padre en la misma habitación, juntos viendo TikTok en sus teléfonos, y estarían viendo un producto completamente diferente”.

Entre los casos del centro hay unos presentados en nombre de dos adolescentes que se recuperan de trastornos alimentarios: Nuala Mullen, de 18 años y del estado de Nueva York, y Katie, de 14 años y de Virginia, que pidió que no se utilizara su apellido para que sus problemas de anorexia no la persiguieran de por vida. Ambas dicen que les gustaba ver videos de bailes tontos y clips divertidos en TikTok, pero en 2021 se dieron cuenta de que en sus feeds de “For You” empezaron a aparecer videos no solicitados sobre cómo conseguir unas piernas más delgadas y consumir menos calorías al día. “No recuerdo haber buscado nada de eso en absoluto, y entonces estaba ahí”, dice Katie.

Dicen que se obsesionaron con la aplicación y, con el tiempo, se fueron aislando de sus amigos y familiares. “Me sentía muy sola y TikTok estaba ahí”, dice Katie. En enero de 2022, un día después de cumplir 13 años, tuvo que ser hospitalizada, su frecuencia cardíaca en reposo era tan baja que su vida corría peligro. Mullen fue hospitalizada el mismo mes, con los mismos síntomas. “Ese algoritmo está diseñado para que los niños se hagan daño a sí mismos de formas que ni siquiera saben cómo”, afirma Mullen, cuya demanda también nombra a Meta y Facebook. Ambos casos están en curso.

“Nuestros hijos se están muriendo”, afirma Márquez-Garrett. “Están desarrollando dependencias perjudiciales de estos productos, y están experimentando tasas sin precedentes de depresión, ansiedad y suicidio. ¿Cuántos jóvenes de 16 años que se suicidan hacen falta para que la gente se dé cuenta de que esto no está bien?”.

“¡Mi vida es una puta miseria!”, grita un hombre en un video de TikTok. “Odio mi jodida vida, la odio”, grita.

En febrero, Michelle Nasca está sentada en la mesa de la cocina de la casa de tejas azules de su familia en Long Island, viendo videos del feed de TikTok de Chase en un iPad. “Esto es lo que veo cada vez que abro su cuenta”, dice, con las mejillas húmedas por las lágrimas. El hombre en pantalla continúa su diatriba. Las manos de Michelle empiezan a temblar. Su marido, Dean, la observa por encima del hombro con una mueca de dolor. “Es enfermizo, eso es lo que es”, dice. “¿Dónde están los videos felices? Aquí no hay nada feliz”.

Antes de la muerte de Chase, la familia Nasca tenía una vida suburbana corriente. Michelle, azafata de vuelo, y Dean, contable, vivían en su casa de cinco dormitorios con sus tres hijos. Los niños pasaban los veranos montando en bicicleta por la ciudad o yendo en barco a Fire Island. Chase era un superdotado. A los 4 años, rellenaba las respuestas de los deberes de matemáticas de su hermano mayor. De adolescente, estudió con matrícula de honor, compitió en el equipo de natación del instituto y jugó en un equipo olímpico de fútbol. “Nunca dio muestras de estar deprimido”, dice su entrenador de fútbol, Kurt Kelley. “Era un buen compañero de equipo, un buen capitán, un buen amigo”.

Le gustaba Harry Potter, los asadores y las redes sociales. Se sentaba en el coche de camino al entrenamiento de fútbol, con los auriculares puestos y pegado a la pantalla. Sus padres no le daban importancia ni le pedían que inspeccionara su teléfono. Estaba al tanto de sus notas y su programa de entrenamiento, y no querían interferir en la poca libertad que tenía.

Sin embargo, utilizaban el teléfono para localizarlo. Así fue como su madre supo que algo iba mal aquella tarde de febrero de 2022. Justo antes de las siete de la tarde, comprobó la ubicación de Chase para ver cuándo llegaría a casa. El pequeño punto azul indicaba que había salido del gimnasio, pero no se movía. Actualizó la pantalla, hizo zoom y vio que estaba en el cruce de ferrocarril. Llamó a su teléfono y le saltó el buzón de voz.

Michelle cogió el coche y se dirigió hacia las vías. Al acercarse, vio un tren parado, con las luces parpadeando. El revisor estaba fuera y le dijo que no se acercara. Empezó a correr por las vías, a mirar bajo las ruedas y a gritar el nombre de Chase.

Los primeros días tras su muerte fueron un torbellino de incredulidad, dolor e insomnio. Cuando la policía le devolvió la bicicleta y el iPhone, Michelle encendió el teléfono y comprobó que seguía funcionando a pesar de tener la pantalla destrozada por el impacto del tren. Pero no tenía el código de seis dígitos de Chase y había un millón de combinaciones posibles. De todos modos, siguió intentando desbloquear el teléfono: le daba un propósito y le servía de distracción.

Llevó el dispositivo a una tienda Apple, pero el encargado le dijo que no podía desbloquearlo por motivos de privacidad. Un informático local tampoco pudo entrar. La policía no quiso ayudar, ya que Chase había muerto por suicidio, no por homicidio. Finalmente, Michelle se dio cuenta de que podía restablecer las contraseñas de TikTok y Snapchat de Chase seleccionando “contraseña olvidada” y haciendo que le enviaran un enlace a su dirección de correo electrónico de seguridad, que en realidad era la suya. Ella no sabe realmente lo que estaba buscando. Pero cuando abrió la cuenta de TikTok, dice, lo encontró. La aplicación “glorificaba y normalizaba el suicidio”, dice.

La familia Nasca decidió demandar a TikTok tras hablar con el Social Media Victims Law Center. La empresa ha presentado una notificación de traslado para trasladar el caso a un tribunal federal y tiene hasta finales de abril para justificar su petición ante el juez.

“La gente debe conocer los peligros de las redes sociales”, afirma Dean. “Chase no sufría acoso. Tenía un gran grupo de amigos y destacaba académica y deportivamente. No se drogaba ni bebía, así que ¿cuál fue la variable que se introdujo que le puso al límite? Solo puedo concluir que es este bombardeo constante de videos de TikTok”.

Sea cual sea el papel que el feed “For You” de Nasca pudo haber jugado en su muerte, extractos de un intercambio que tuvo con alguien en TikTok ofrecen una idea de su estado de ánimo el día de su muerte.

A las 9:09 de la mañana, mientras estaba en clase, Nasca envió un mensaje privado a un usuario al que seguía y que publicaba mucho contenido relacionado con la depresión. No conocía al usuario y no sabía su nombre real. Sin embargo, ese día buscó consuelo en ese desconocido. Su conversación (extraída aquí) duró toda la jornada escolar.

“Puede que no pase de hoy, estoy cansado de hacerme el fuerte”, escribió Nasca en un momento dado.

“Sé cómo te sientes al 100%”, respondió el otro usuario. “Espero de verdad que sigas vivo. No merece la pena dejarlo”.

“Llevo mucho tiempo diciéndome eso. Ya no encuentro disfrute en nada. Cualquier entrenamiento de fútbol al que voy estoy ansioso por cagarla, incluso ir al gimnasio o jugar a videojuegos es aburrido ahora.”

“Es defícil encontrar la alegría y la felicidad en la vida y personalmente, todavía estoy buscando. Entiendo que estés al límite, pero no rendirte es lo que te hace fuerte. Nadie tiene por qué saber la mierda por la que pasas”.

“Me parece bien que nadie lo sepa. Creo que me gusta más así. Cuando pienso en mi futuro, no puedo imaginarme siendo feliz, no puedo imaginarme teniendo una novia/mujer/familia. He perdido la pasión por estar deprimido todo el tiempo”.

La conversación terminó al finalizar la jornada escolar. Entonces, a las 18.29, unos 10 minutos antes de su muerte, Nasca envió un último mensaje.

“Oye hermano, si mañana no estoy aquí, te pido que me recuerdes y me perdones”.

Lo más visto
carola laner

Trabajo en conjunto para mejorar la educación en Concordia

Editor
Educación 18/07/2024

La Diputada provincial Carola Laner mantuvo una reunión con el subsecretario de Educación de la Municipalidad de Concordia, profesor Carlos Gatto. Durante el encuentro, dialogaron sobre las acciones que se están realizando desde comienzos de la gestión y sobre la articulación entre el municipio, el poder legislativo y el gobierno de Entre Ríos para trabajar juntos en mejorar la calidad educativa.