El miércoles, la Unión Europea solicitó más información a Snapchat, TikTok y YouTube sobre sus respectivos algoritmos de recomendación de contenido según el reglamento de gobernanza en línea del bloque, la Ley de Servicios Digitales (DSA).
en un presione soltar La Comisión dijo que envió solicitudes de información (RFI) a las tres plataformas de redes sociales pidiéndoles más detalles sobre el diseño y funcionamiento de sus algoritmos. El trío tiene hasta el 15 de noviembre para proporcionar la información solicitada.
La UE dijo que sus respuestas informarán los próximos pasos, como, potencialmente, la apertura de investigaciones formales.
El marco de gobernanza en línea del bloque, que contiene sanciones severas por violaciones (de hasta el 6% de la facturación anual international), aplica una capa adicional de reglas de mitigación de riesgos sistémicos a las tres plataformas, debido a sus designaciones como VLOP (también conocidas como plataformas en línea muy grandes). ).
Estas reglas requieren que plataformas más grandes identifiquen y mitiguen los riesgos que podrían resultar del uso de la IA como herramienta de recomendación de contenido, y la ley estipula que deben tomar medidas para prevenir impactos negativos en una variedad de áreas, incluida la salud psychological y el discurso cívico de los usuarios. La UE también ha advertido específicamente que la difusión de contenido dañino podría resultar del uso de algoritmos con un diseño basado en la participación, que parece ser donde se centran sus últimas RFI.
La Comisión dijo que está pidiendo a Snapchat y YouTube que proporcionen “información detallada” sobre los parámetros algorítmicos que utilizan para recomendar contenido a sus usuarios. También quiere más datos sobre el papel de estas IA en “amplificar ciertos riesgos sistémicos”, incluidos los riesgos relacionados con el proceso electoral y el discurso cívico; el bienestar psychological de los usuarios (por ejemplo, comportamiento adictivo y contenidos de “madrigueras de conejos”); y la protección de los menores.
“Las preguntas también se refieren a las medidas de las plataformas para mitigar la influencia potencial de sus sistemas de recomendación en la difusión de contenidos ilegales, como la promoción de drogas ilegales y el discurso de odio”, añadió la UE.
Para TikTok, la Comisión está buscando más detalles sobre las medidas antimanipulación implementadas para tratar de evitar que actores maliciosos jueguen en la plataforma para difundir contenido dañino. La UE también está pidiendo a TikTok más información sobre cómo mitiga los riesgos relacionados con las elecciones, el pluralismo de los medios y el discurso cívico, riesgos sistémicos que, según dijo, pueden verse amplificados por los sistemas de recomendación.
Estas últimas solicitudes de información no son las primeras que la Comisión envía a las tres plataformas. Las preguntas anteriores de la DSA han incluido preguntas para el trío (y varios otros VLOP) sobre los riesgos electorales antes de las elecciones de la UE a principios de este año. También ha interrogado previamente a los tres sobre cuestiones de protección infantil. Además, la Comisión envió una solicitud de información a TikTok el año pasado preguntando cómo estaba respondiendo a los riesgos de contenido relacionados con la guerra entre Israel y Hamas.
Sin embargo, la plataforma de ByteDance es la única de los tres productos de redes sociales que está bajo investigación formal de la DSA hasta el momento. En febrero, el bloque abrió una investigación sobre el cumplimiento de la DSA de TikTok, diciendo que le preocupa una serie de cuestiones que incluyen el enfoque de la plataforma hacia la protección de menores y la gestión de riesgos de diseño adictivo y contenido dañino. Esa investigación está en curso.
El portavoz de TikTok, Paolo Ganino, envió un comunicado por correo electrónico en el que la empresa escribió: “Esta mañana recibimos una solicitud de información de la Comisión Europea, que ahora revisaremos. Cooperaremos con la Comisión durante todo el proceso de RFI”.
También nos comunicamos con Snap y TikTok para obtener respuestas a las últimas RFI de la Comisión.
Si bien las reglas de la DSA para los VLOP han estado en vigor desde finales del verano pasado, el bloque aún no ha concluido ninguna de las diversas investigaciones que ha abierto en plataformas más grandes. Aunque, en julio, la Comisión publicó conclusiones preliminares relacionadas con las investigaciones sobre X, diciendo que sospecha que la crimson social viola las reglas de la DSA sobre diseño de patrones oscuros; proporcionar acceso a datos a investigadores; y transparencia publicitaria.