"

Google admite escuchar el 0,2% de las conversaciones con su asistente virtual.

Foto de ABC.es


Google admitiĆ³ este jueves que "expertos del lenguaje" contratados por la firma escuchan aproximadamente el 0,2 % de las conversaciones que los usuarios mantienen con su asistente virtual, lo que implica que una parte de esas interacciones no son completamente privadas.

La asunciĆ³n habitual, y lo que a menudo reiteran las empresas que gestionan asistentes virtuales como Amazon, Samsung y Apple, ademĆ”s de Google, es que las conversaciones entre un usuario y su asistente son del todo privadas y que la interacciĆ³n se produce exclusivamente mediante inteligencia artificial, es decir, que los Ćŗnicos que "escuchan" al usuario son robots.

Sin embargo, la admisiĆ³n este jueves por parte de Google de que el 0,2 % de estas conversaciones son escuchadas por seres humanos para, aseguran, mejorar la calidad del servicio arroja luz sobre una prĆ”ctica que las empresas por lo general evitan publicitar, aunque es conocido dentro de la industria que en menor o mayor medida, es algo habitual.

La revelaciĆ³n llegĆ³ de la mano del responsable de producto de bĆŗsquedas de la compaƱƭa californiana David Monsees, quien publicĆ³ una entrada en el blog oficial de Google como respuesta a una informaciĆ³n aparecida ayer en la televisiĆ³n belga VRT NWS, que pudo acceder a alrededor de un millar de grabaciones de individuos anĆ³nimos.

Las grabaciones fueron facilitadas a la televisiĆ³n belga en lengua neerlandesa por uno de los "expertos" que Google habĆ­a contratado en ese paĆ­s para escuchar segmentos de las conversaciones y "comprender asĆ­ las particularidades y acentos de cada idioma en especĆ­fico".

La firma, que ya ha anunciado que "tomarĆ” acciones" por la filtraciĆ³n al considerarla una "violaciĆ³n" de sus polĆ­ticas de seguridad de datos, admitiĆ³ contar con "expertos en todo el mundo" cuya funciĆ³n es escuchar y transcribir "una pequeƱa parte de los diĆ”logos para ayudarnos a comprender mejor esos idiomas".

En concreto, la firma de Mountain View (California, EE.UU.) cifrĆ³ el porcentaje de interacciones analizadas por humanos en el 0,2 % y garantizĆ³ que estos fragmentos no van asociados a las cuentas de los usuarios y que a los expertos se les dice que no transcriban sonidos o conversaciones de fondo que no vayan dirigidas a Google.

Sin embargo, la televisiĆ³n belga fue capaz de identificar "direcciones postales y otra informaciĆ³n delicada", en las grabaciones, lo que les permitiĆ³ ponerse en contacto con las personas cuya voz habĆ­a sido grabada y confirmar que efectivamente se trataba de ellos.

"Una pareja de Waasmunster (BĆ©lgica) reconociĆ³ inmediatamente la voz de su hijo y de su nieto", pusieron como ejemplo desde VRT NWS.

Google indicĆ³ que el asistente virtual sĆ³lo les envĆ­a las grabaciones de audio una vez este ha detectado que el usuario estĆ” interactuando con Ć©l tras haber dicho, por ejemplo, "Hey, Google" y que dispone de varias herramientas para evitar las "activaciones falsas", es decir, que el software interprete un sonido errĆ³neamente como la palabra clave para activarse.

Pese a ello, VRT NWS publicĆ³ que del alrededor de millar de fragmentos de voz a los que tuvo acceso (todos ellos en lengua neerlandesa), 153 eran conversaciones en las que nadie dio la orden de activaciĆ³n al asistente virtual, sino que este interpretĆ³ errĆ³neamente un sonido.

Entre otras, el medio belga asegurĆ³ haber escuchado conversaciones en la cama, entre padres y sus hijos, llamadas profesionales, discusiones y escenas tanto de sexo como de violencia.

No hay comentarios