Una mujer fue fotografiada en el inodoro por su robot aspirador Roomba

Un robot aspirador Roomba grabó imágenes de una mujer en el baño y terminaron colgadas en Facebook. ¿De quién es la culpa?

Una foto de una mujer joven en camiseta, sentada en la taza del váter y con los pantalones cortos hasta la mitad del muslo… Esta toma, de mala calidad, con mucho grano, forma parte de un lote de otras quince que el MIT Technology Review (MIT) pudo consultar sobre grupos cerrados de redes sociales. Todas estas tomas tienen en común que fueron captadas a ras de suelo. Y por una buena razón, no fue una persona quien se los llevó, sino un robot aspirador Roomba J7 de iRobot, el mayor proveedor de este tipo de dispositivos.

Entonces, ¿cómo terminaron estas fotos tomadas por aspiradoras en las redes sociales, tan privadas como son? Y primero, ¿por qué estas aspiradoras toman fotografías? Como ocurre con la gran mayoría de los llamados accesorios inteligentes, el fabricante recopila una gran cantidad de datos. Se utilizan para alimentar el algoritmo de aprendizaje automático de la Inteligencia Artificial. Es ella quien viene a mejorar los servicios y capacidades del dispositivo. En el caso de un robot aspirador, los sensores son numerosos e incluso hay cámaras inteligentes a bordo del Roomba J7. El robot puede enviar imágenes, voces, caras, geolocalizaciones, planos de casas y una gran cantidad de información personal.

Esto tiene un solo objetivo: entrenar los algoritmos. Generalmente, esta recopilación se especifica en la política de privacidad que nadie se toma el tiempo de leer. En este caso concreto, estas fotos no provienen de los robots comercializados, sino de modelos de desarrollo utilizados por empleados y probadores pagados por la marca.

Seres humanos para etiquetar los datos recopilados

Se dice que el caso data de 2020 y estas personas habían firmado acuerdos por escrito reconociendo que estaban enviando fuentes de datos, incluido video, a la empresa. En otras palabras, esta colección en particular no concierne a los clientes de la marca. Este es el comienzo de una explicación, pero no justifica el hecho de que estas fotos terminaron posteriormente en las redes sociales. Estos datos confidenciales salían de las redes domésticas de los hogares de América del Norte, Europa y Asia para ser almacenados en los servidores de iRobot en Massachusetts (EE. UU.).

“Esta es la única forma de enseñar a la IA a reconocer su entorno e identificar un cable suelto o un calcetín, por ejemplo”

Pero, según el MIT, algunos de esos datos se enviaron a un contratista de San Francisco llamado Scale AI. Su misión es hacer que los humanos analicen los datos para darles etiquetas descriptivas. Esta es la única forma de enseñar a la IA a reconocer su entorno e identificar un cable suelto o un calcetín, por ejemplo. Sin embargo, ante las montañas de datos, resulta que Scale AI utiliza subcontratistas en todo el mundo. Entre ellos, trabajadores venezolanos, bajo contrato, publicaron estas fotos de grupos privados en redes sociales como Facebook o Discord. Por lo tanto, la filtración no proviene en absoluto de una brecha de seguridad, sino de un eslabón débil en la cadena de subcontratación de la marca.

El problema es que iRobot le dijo al MIT que compartió más de dos millones de instantáneas tomadas por Roomba con sus contratistas. Si esta historia sucedió con los datos de los dispositivos de desarrollo, también podría ser el caso de la aspiradora de cualquier cliente. Hay que decir que es inconcebible para los usuarios que un humano pueda observarlos a través de su aspiradora. Tras esta investigación del MIT, iRobot explicó que la marca había puesto fin a su colaboración con la empresa cuyos empleados habían filtrado las imágenes. Aún así, la intervención de humanos es la única posibilidad de poder mejorar la IA.

Deja un comentario