La suspensión voluntaria de TikTokLite y su informe de evaluación de riesgos

1.-  TikTok Lite activada en prueba y rápidamente suspendida.  II.- La evaluación de riesgos en el Reglamento Europeo. III.- TikTok y otras plataformas sociales bajo la mirada de la Comisión Europea

1.-    Tik Tok Lite activada en prueba y rápidamente suspendida

A principios del mes de abril, se anunciaba el lanzamiento de una nueva app de TikTok, que ha sido lanzada en Francia, España, Corea del Sur y Japón, y la cual brinda incentivos económicos a cambio de ver videos; según ByteDance, la empresa matriz de TikTok, cada usuario puede ganar en torno a un euro al día sólo por ver videos y atraer otras personas para registrarse a la red social.

El incentivo, según reportaje publicado por El Confidencial (1), no aparecerá como dinero real en la app, sino como puntos acumulables, que posteriormente podrán canjearse por determinadas recompensas. Por lo pronto, esa recompensa económica sólo está disponible para usuarios en Japón y Corea del Sur.

Aún cuando la app TikTokLite esté disponible sólo para usuarios mayores de 18 años de edad, la Comisión Europea ha expresado a través del comisario de Mercado Interior, Thierry Breton que sospechan “que la función TikTok Lite es tóxica y adictiva, en particular para los niños”, además, la Comisión ha abierto una averiguación a TikTok por no haber presentado el informe de riesgos sobre esa nueva app.

“A menos que TikTok proporcione pruebas convincentes de seguridad (lo que no ha hecho hasta ahora), estamos dispuestos a activar medidas provisionales de la Ley de Servicios Digitales, incluida la suspensión del ‘programa de recompensas’ TikTok Lite”, destacó Breton. (2)

La Comisión Europea registra que ByteDance presentó el informe de evaluación de riesgo en septiembre 2023, pero en su contenido no se incluye a TikTokLite; en consecuencia, el 14 de abril le solicitaron presentar el mencionado informe y además, todas aquellas medidas que se hayan adoptado para mitigar el potencial riesgo sistémico para el 18 de abril y la fecha transcurrió sin la presentación de la información requerida.

Las fechas fueron extendidas y así se fijó el 23 de abril para que se presentará el informe de evaluación de riesgos de TiTokLite y el 3 de mayo para la entrega de toda la información complementaria que le habían solicitado.

Precisamente por no haber aportado la mencionada evaluación el 18 de abril,  la Comisión Europea insiste en solicitar la información reafirmando su preocupación por el “efecto adictivo de las plataformas” y el efecto en los niños “dada la supuesta ausencia de mecanismos eficaces de verificación de la edad en TikTok”.

Si TikTok no presenta la información, podría llevar a la Comisión Europea a imponer multas de hasta el 1% de los ingresos anuales totales o del volumen de negocios mundial del proveedor, además de sanciones periódicas hasta el 5% de ingresos diarios medios del proveedor o del volumen de negocios anual mundial.(3)

Por cierto, ésta es la segunda investigación que se abre a TikTok, la primera fue en febrero 2024 (4) con la intención de evaluar si TikTok ha infringido la Ley de Servicios Digitales en ámbitos relacionados con la protección de menores, transparencia publicitaria, acceso a los datos para investigadores, así como la gestión de riesgos del diseño adictivo y los contenidos nocivos, ello sobre la base del informe de evaluación de riesgo que ya la empresa presentó en septiembre 2023 y otras solicitudes formales de información que le ha solicitado la Comisión.

En la información sobre la segunda investigación, la Comisión Europea, ratifica que se está evaluando la falta de mecanismos eficaces de verificación de la edad y el presunto diseño adictivo de las plataformas; y en particular con la investigación sobre el TikTokLite, destaca que ésta se centrará en los siguientes criterios:

a)  Cumplimiento por parte de TikTok de la obligación de la Ley de Servicios Digitales de llevar a cabo y presentar un informe de evaluación de riesgos antes de desplegar funcionalidades, en este caso el programa denominado "Task and Reward Lite", que probablemente tengan un impacto crítico en los riesgos sistémicos. En particular, los efectos negativos en la salud mental, incluida la salud mental de los menores, especialmente como resultado de la nueva característica que estimula el comportamiento adictivo.

b)  Las medidas adoptadas por TikTok para mitigar estos riesgos.


II.-    La evaluación de riesgos en el Reglamento Europeo

La evaluación de riesgo, está desarrollada en la Sección 5 titulada como: Obligaciones adicionales de gestión de riesgos sistémicos para prestadores de plataformas en línea de muy gran tamaño y de motores de búsqueda en línea de muy gran tamaño, que a su vez, es parte del contenido del Capítulo III identificado como: Obligaciones de diligencia debida para crear un entrono de línea transparente y seguro.

En ese contenido, específicamente en su artículo 34 nos presenta la evaluación de riesgo y destaca expresamente que su aplicación será exigible a las plataformas en línea y los motores de búsqueda en línea de muy gran tamaño que tengan un promedio mensual de destinatarios del servicio activos en la Unión igual o superior a cuarenta y cinco millones y a las que se designe como plataformas en línea de muy gran tamaño o motores de búsqueda en línea de muy gran tamaño según sean declaradas o designadas como tal por la Comisión Europea previo procedimiento establecido en el mencionado reglamento.

La evaluación de riesgos, señala el Reglamento de Servicio Digital,  debe realizarse con atención a los distintos riesgos:

a) La difusión de contenido ilícito a través de sus servicios;

b) Cualquier efecto negativo real o previsible para el ejercicio de los derechos fundamentales previstos en la Carta europea de Derechos Humanos, en particular los relativos a la dignidad humana amparada por el artículo 1, respeto de la vida privada y familiar amparada por el artículo 7, protección de los datos de carácter personal amparada por el artículo 8, a la libertad de expresión e información, incluida la libertad, el pluralismo de los medios de comunicación, amparada por el artículo 11, a la no discriminación amparada por el artículo 21, a los derechos del niño amparados por el artículo 24 y a un nivel elevado de protección de los consumidores, amparado por el artículo 38.

c) Cualquier efecto negativo real o previsible sobre el discurso cívico y los procesos electorales, así como sobre la seguridad pública.

d) Cualquier efecto negativo real o previsible en relación con la violencia de género, la protección de la salud pública y los menores y las consecuencias negativas graves para el bienestar físico y mental de la persona.

Además, la evaluación de riesgo, debe valorar si los siguientes factores influyen, y de qué manera, en cualquiera de los riesgos sistémicos mencionados previamente:

a) El diseño de sus sistemas de recomendación y de cualquier otro sistema algorítmico pertinente.

b) Sus sistemas de moderación de contenidos.

c) Las condiciones generales aplicables y su ejecución.

d) Los sistemas de selección y presentación de anuncios.

e) Las prácticas del prestador relacionadas con los datos.

El Reglamento exige que se evalúe si los riesgos se ven influidos, y de qué manera, por la manipulación intencionada de su servicio, en particular por medio del uso no auténtico o la explotación automatizada del servicio, así como la amplificación y la difusión potencialmente rápida y amplia de contenido ilícito y de información incompatible con sus condiciones generales.

La evaluación tendrá en cuenta los aspectos regionales o lingüísticos específicos, incluso cuando sean específicos de un Estado miembro.

Sobre las medidas para reducir los riesgos, el Reglamento de Servicio Digital, exige que las mismas sean razonables, proporcionadas y efectivas, adaptadas a los riesgos sistémicos específicos detectados, teniendo especialmente en cuenta las consecuencias de dichas medidas sobre los derechos fundamentales e identifica 11 medidas que podrían ser adoptadas cuando procedan, de las cuales destaco sólo las 4 primeras:

a) La adaptación del diseño, las características o el funcionamiento de sus servicios, incluidas sus interfaces en línea;

b)  La adaptación de sus condiciones generales y su ejecución;

c) La adaptación de los procesos de moderación de contenidos, incluida la velocidad y la calidad del tratamiento de las notificaciones relacionadas con tipos específicos de contenidos ilícitos y, en su caso, la rápida retirada de los contenidos notificados, o el bloqueo del acceso a ellos, en particular en el caso de la incitación ilegal al odio o la ciberviolencia, así como la adaptación de los procesos de toma de decisiones pertinentes y los recursos específicos para la moderación de contenidos;

d) La realización de pruebas y la adaptación de sus sistemas algorítmicos, incluidos sus sistemas de recomendación.

III.-   TikTok y otras plataformas sociales bajo la mirada de la Comisión Europea 

Por lo pronto, TikTok anunció que voluntariamente suspendía la App por 60 días y no descarta que se alargue mientras siguen las conversaciones con la Comisión Europea para “abordar las preocupaciones que ha planteado” su nuevo servicio. 

¿Esas conversaciones impedirán que se aplique la multa en el supuesto que no se haya presentado el informe para el 24 de abril, tal y como se fijó luego de no cumplirse con la primera fecha establecida?

Pero así como se investiga a TikTok, la Comisión Europea también ha solicitado información sobre las medidas adoptadas por plataformas como Instagram, Facebook, Snapchat, Youtube, X y a motores de búsqueda en línea como Bing y Google Search, para reducir los riesgos vinculados con la IA generativa, como las denominadas “alucinaciones” en las que la IA proporciona información falsa, la difusión viral de deepfakes, así como la manipulación automatizada de servicios que pueden inducir a error a los votantes en procesos electorales.

Sobre la IA generativa, la Comisión Europea destaca que es uno de los riesgos que han identificado y abordado en su proyecto de directrices sobre la integridad de los procesos electorales, un tema clave considerando que están próximas las elecciones europeas.

Por cierto, las fechas fijadas para la presentación de esos informes se cumplieron ya, en el caso de la información sobre protección de las elecciones, se esperaba que la información fuera recibida por la Comisión para el 5 de abril y en los otros temas se había establecido el 26 de abril (5), pero no hay información alguna que haya podido ubicar sobre el cumplimiento o no de estos informes.

La Comisión Europea en su página oficial, recuerda que según el apartado 2 del artículo 4 de la Ley de Servicio Digital, la Comisión podría imponer multas por información incorrecta, incompleta o engañosa y de no responder a la solicitud de información, podrían imponerse multas coercitivas.

Estas acciones impulsadas por la Comisión Europea, están orientadas a lograr un entorno en línea más seguro y responsable, pero la iniciativa será insuficiente si no se complementan con las normas que cada Estado adopte en esta materia, que como bien lo destaca el Reglamento, deben imponer requisitos de diligencia a los prestadores de servicios intermediarios, es decir, sobre el modo en que se debe hacer frente a los contenido ilícitos, la desinformación y otros riesgos.

Así como la Comisión Europea y los Estados europeos están llamados a impulsar acciones para que el entorno en línea sea más seguro y responsable, es importante que como destinatarios de los servicios, es decir, como usuarios de un servicio intermediario, para buscar información o para hacerla accesible, podamos identificar cómo contribuir en esa tarea, en tal sentido, ¿será el derecho a presentar reclamaciones contra los prestadores de servicios intermediarios, prevista en el Reglamento de Servicios Digitales una de las formas para contribuir?

Carlos Romero Mendoza
@carome31

__________________________________________________________

Referencias digitales

1El Confidencial. ¿Qué es Lite la nueva “app” de TikTok en España que te paga por ver videos: así funciona. 10 de abril 2024. https://www.elconfidencial.com/tecnologia/2024-04-10/que-es-tiktok-lite-pago-ver-videos_3863803/

2PEREZ JORDI, Colomé. TikTok suspende su app que paga por ver videos. En: El Pais. 25 de abril 2024. Online en: https://elpais.com/tecnologia/2024-04-25/tiktok-suspende-su-app-que-paga-por-ver-videos.html#

3European Comission. Commission opens proceedings against TikTok under the DSA regarding the launch of TikTok Lite in France and Spain, and communicates its intention to suspend the reward programme in the EU. 22 de abril 2024. Online en: https://ec.europa.eu/commission/presscorner/detail/en/IP_24_2227

4Idem. Commission opens formal proceedings against TikTok under the Digital Service Act. 19 de febrero 2024. Online en: https://ec.europa.eu/commission/presscorner/detail/en/IP_24_926

5Comisión Europea. La Comisión envía solicitudes de información sobre los riesgos generativos de IA a seis plataformas en línea muy grandes y dos motores de búsqueda en línea muy grandes en virtud de la Ley de servicios digitales. 14 de marzo 2024. Online en: https://digital-strategy.ec.europa.eu/es/news/commission-sends-requests-information-generative-ai-risks-6-very-large-online-platforms-and-2-very

Entradas populares de este blog

El Estado Docente en el marco de la nueva Ley Orgánica de Educación.

Las sanciones previstas en la nueva LOE.

La importancia de la participación ciudadana y su reconocimiento en Iberoamerica.