Durante mucho tiempo se pensó que period un mito y las grandes empresas tecnológicas lo descartaron.
Pero los expertos han revelado cómo escuchar nuestras conversaciones se ha convertido en una industria multimillonaria.
A principios de esta semana, una filtración de una importante empresa de advertising pareció confirmar cómo las empresas utilizan los micrófonos de sus dispositivos inteligentes para espiar antes de vender los datos a los anunciantes.
“Puedes estar hablando con uno de tus amigos sobre irte de vacaciones a Portugal por teléfono y, un día después o ese mismo día, ¿qué ves? Un anuncio de un viaje”, dijo el experto en seguridad de datos Andy LoCascio a DailyMail.com.
La primera diapositiva de la presentación filtrada de CMG describe cómo su software program de escucha activa escucha sus conversaciones y extrae datos de intención en tiempo actual.
El documento continúa desglosando el proceso paso a paso, desde la identificación de un “rastro de datos” dejado por las conversaciones y el comportamiento en línea de los consumidores hasta la creación de anuncios digitales específicos.
La filtración de la semana pasada provino de un pitch deck realizado por CMG, un socio de advertising de Fb, Amazon y Google.
La presentación, que parece haber sido diseñada para clientes potenciales, detalla el software program “Energetic-Listening” de CMG, que recopila datos de las personas escuchando sus conversaciones.
El software program de escucha activa se puede habilitar a través de cualquier aplicación en un Android o iPhone, y otros dispositivos como los asistentes domésticos inteligentes también pueden escuchar, dijo LoCacio.
Es más, estos dispositivos están escuchando prácticamente todo el tiempo, no sólo cuando estás usando intencionalmente el micrófono para hacer una llamada telefónica o hablar con Alexa, por ejemplo.
“En la mayoría de los dispositivos, no hay un estado del dispositivo cuando el micrófono está inactivo. Casi siempre está activo cuando Siri está presente en el dispositivo o cualquier otro asistente activado por voz está presente”, dijo LoCascio.
Las empresas que desean capturar sus datos de voz y venderlos a menudo obtienen acceso a su micrófono a través de aplicaciones.
Por lo normal, a las aplicaciones se les concede permiso para usar el micrófono a través de una cláusula “enterrada entre la gran cantidad de permisos que aceptas al instalar una nueva aplicación”, agregó.
Esto significa que muchos usuarios están consintiendo en ser espiados sin siquiera darse cuenta.
“El problema es que la forma del consentimiento es un pacto fáustico de todo o nada”, dijo la consultora y experta en privacidad de datos Sharon Polsky.
“Muchos sitios net dicen 'recopilamos información de usted y sobre usted. Si utiliza nuestro sitio net, ha dado su consentimiento a todo lo que hacemos'. No tiene forma de rechazarlo”, agregó.
LoCascio explicó que así es como CMG y otras compañías se salen con la suya incluso en estados con leyes de escuchas telefónicas que prohíben grabar a alguien sin su conocimiento, como California.
“Para que quede claro, no hay leyes al respecto. Si le damos permiso a alguien para que use el micrófono de nuestro dispositivo y hacemos clic en todos los demás términos de servicio que ninguno de nosotros ha leído, sin duda podrá usarlo”, afirmó LoCascio.
Esa falta de legislación protectora ha “creado toda una industria de corredores de datos que ahora vale miles de millones”, dijo Polsky.
Google, Amazon y Fb se mencionan explícitamente como clientes de CMG, pero estos gigantes tecnológicos han negado que estén utilizando el software program de escucha activa de CMG.
El rápido crecimiento de esta industria se debe en parte al desarrollo de modelos de lenguaje de gran tamaño altamente sofisticados, como Chat GPT.
Estas herramientas de inteligencia synthetic extremadamente poderosas han hecho que sea más fácil y rápido para los anunciantes u otros terceros extraer información valiosa de nuestros datos de voz, señaló LoCascio.
“Todo lo que tengo que hacer es tomar una de esas transcripciones, colocarla en el cuadro de ChatGPT y luego hacerle una pregunta sencilla. Por ejemplo, 'por favor, dígame qué producto y servicios podría comercializarle a alguien en función de esta conversación'”, explicó.
Una vez que se capturan los datos de voz, se pueden vender a los anunciantes para orientar y orientar sus campañas de advertising dirigidas, pero también se pueden vender a otros clientes, que podrían utilizarlos por motivos completamente diferentes.
“Podrían estar capturando esas conversaciones para cualquier cosa”, dijo LoCascio.
“Una cosa es decir que lo hacen para publicidad, y pueden afirmarlo, pero venden esa información a ciegas a otras personas. Y no la depuran, así que básicamente venden una transcripción de audio”, añadió.
Otros ejemplos de compradores de datos de voz incluyen a las compañías de seguros, con el fin de crear tarifas de seguros personalizadas, y al gobierno federal, dijo Polsky.
“Uno de los compradores de nuestra información, de información sobre nosotros, de todo, de nuestras opiniones, nuestras predilecciones, nuestras asociaciones, nuestras rutas de viaje, es el gobierno”, dijo.
Y hay otras entidades insidiosas que también quieren tener acceso a nuestros datos de voz, como “gente de la purple oscura que quiere sacar provecho de estafarnos”, dijo Polsky.
Eso significa que compartir su número de seguro social u otros datos personales confidenciales podría ponerlo en riesgo de robo de identidad, dijo LoCascio.
CMG es un conglomerado de medios estadounidense con sede en Atlanta, Georgia. La empresa ofrece servicios de medios de difusión, medios digitales, publicidad y advertising, y generó 22.100 millones de dólares en ingresos en 2022.
CMG no respondió a la solicitud de comentarios de DailyMail.com.
El documento filtrado detalla el proceso de seis pasos que utiliza el software program de escucha activa de la compañía para recopilar datos de voz de los consumidores a través de prácticamente cualquier dispositivo equipado con micrófono.
En la presentación en diapositivas no queda claro si el software program de escucha activa escucha constantemente o solo en momentos específicos cuando se activa el micrófono del teléfono, como durante una llamada.
En cuanto a si los legisladores tomarán medidas para proteger al público de este tipo de vigilancia, LoCascio dijo que es muy poco possible y que de todos modos probablemente no haría una diferencia significativa.
“Pueden redactar todas las leyes que quieran, pero el resultado ultimate es que todos los indemnizamos en el momento en que hacemos clic y decimos: 'Sí, apruebo sus términos de servicio, cualesquiera que sean'”, continuó.
Por eso es importante que los usuarios de dispositivos comprendan los riesgos de privacidad que implica leer rápidamente los Términos y Condiciones de una aplicación y aceptarlos ciegamente.
Para evitar que tus datos de voz sean capturados y vendidos, LoCasio recomienda revisar todas tus aplicaciones y eliminar todo aquello que no makes use of habitualmente.
Una vez que hayas reducido tus aplicaciones, revisa las que quedan y piensa críticamente en cuáles confías para tener acceso a tu micrófono y en cuáles no.
Para los que no lo hacen, cambia la configuración para evitar que accedan a tu micrófono. Eso debería evitar que puedan espiar tus conversaciones.
Y si descargaste una aplicación para un propósito específico y ya no la necesitas, elimínala, dijo LoCascio.
Si le otorgaste acceso al micrófono cuando lo descargaste, dejarlo sin usar en tu teléfono le da tiempo suficiente para comenzar a escuchar tus conversaciones en cualquier momento.
Polsky agregó que es mejor mantener el teléfono y otros dispositivos apagados cuando no los esté usando.
Y al ultimate del día, lo más importante es informarse sobre los riesgos de privacidad asociados con sus dispositivos, afirmó.
«Hoy en día no se puede confiar en nadie», afirmó LoCascio.