Le Roomba d’iRobot viole la vie privée des utilisateurs, des photos circulent sur le web

Le Roomba d'iRobot viole la vie privée des utilisateurs, des photos circulent sur le web

Les robots aspirateurs de la société iRobot sont aujourd’hui très populaires, en particulier la série Roomba. Petits, cylindriques et compacts, ces fidèles aides ménagères hantent les maisons de nombre d’entre nous depuis un certain temps déjà. De plus, leur technologie a évolué au fil des ans pour offrir le meilleur service possible, digne d’un humain.

iRobot, le plus grand vendeur d’aspirateurs robots, récemment racheté par Amazon, a confirmé la nouvelle. Ses aspirateurs robots roomba ont pris des images piratées de certains utilisateurs même dans des circonstances intimes. Le site web MIT Technology Review a réussi à obtenir 15 de ces photos, qui ont également été publiées sur des groupes fermés de médias sociaux. Dans l’article suivant, nous approfondirons l’histoire, en essayant d’expliquer comment cela s’est produit, en donnant un aperçu d’un monde apparemment souterrain.

Les « victimes » du Roomba et la réponse d’iRobot

Le robot Roomba en question a pris des photos de personnes du monde entier. L’une d’entre elles, dont nous pensons qu’elle deviendra tristement célèbre, représente une femme dans la salle de bains. D’autres montrent un jeune garçon qui semble avoir jusqu’à huit ans, le visage dégagé, allongé sur le sol. Tous les écrans, cependant, montrent des maisons en général, certaines occupées par des humains, l’une par un chien. La chose la plus distinctive est le fait que tous les objets sont étiquetés par des boîtes rectangulaires comme le ferait un Terminator. Les meubles, les décorations et même les objets accrochés au mur sont étiquetés « TV », « plante_ou_fleur », « plafonnier », pour ne citer que quelques exemples.

Et si le iRobot Roomba nous espionnait vraiment dans le futur ?

Pour sa part, iRobot affirme n’avoir livré le Roomba incriminé qu’à des employés et à des collectionneurs. Ces derniers auraient également signé un accord reconnaissant qu’ils envoyaient des flux de données, y compris des vidéos, à l’entreprise. Selon l’entreprise, il leur appartenait d'empêcher le Roomba d’enregistrer des informations confidentielles. Enfin, le fabricant a souligné qu’il s’agissait de robots ayant subi des modifications matérielles et logicielles qui n’étaient pas présentes sur les Roomba commercialisés. De toute évidence, pas même ceux qui ont été vendus précédemment.

Qui est vraiment à l’origine de la diffusion des images ?

Les appareils iRobot Roomba, à ce jour, sont dotés de puissants capteurs et, en général, d’un matériel très performant. Qu’il s’agisse de caméras très perfectionnées ou d’autres outils, tout contribue à la collecte de données destinées à être traitées par l’intelligence artificielle. Toutefois, pour donner un sens à ces données, les êtres humains doivent d’abord voir, classer, étiqueter et donner un contexte à chaque élément d’information.

irobot roomba

Il y a toujours un groupe de personnes quelque part qui effectue un travail de catégorisation des données pour l’intelligence artificielle. Ce sont les « gig workers » qui réalisent ce processus d’annotation des données. L’entreprise iRobot a fait savoir qu’elle sous-traitait ce travail à la plateforme Scale AI. Elle se défend toutefois en affirmant que cette fuite d’images représente quelque chose de plus grand que les actions d’une seule entreprise.

Il est extraordinaire de voir jusqu’où vont les données pour « former » les algorithmes d’intelligence artificielle. Dans le cas présent, les données proviennent de foyers d’Amérique du Nord, d’Europe et d’Asie et aboutissent aux serveurs d’iRobot basés dans le Massachusetts. De là à ceux de Scale AI à San Francisco et enfin aux travailleurs du monde entier. Y compris, dans ce cas, les travailleurs indépendants du Venezuela qui ont diffusé les images sur des groupes sociaux privés.

Projet IO sur le Roomba d’iRobot et comment nos données se retrouvent dans le monde entier

De toutes les entreprises apparues au cours de la dernière décennie, Scale AI est devenue un leader dans son domaine. Fondée en 2016, elle a construit toute une activité de télétravail dans les pays les moins riches avec sa plateforme Remotasks. En 2020, elle s’est vu confier une nouvelle tâche : le projet IO. Il s’agissait d’images prises avec une inclinaison d’environ 45 degrés vers le haut, montrant des murs, des plafonds, des sols, des maisons. Y compris, bien sûr, des personnes, dont les visages étaient clairement visibles.

Les travailleurs ont ensuite discuté de la tâche sur Facebook, Discord et d’autres groupes créés pour échanger toutes sortes de conseils. Qu’il s’agisse de gérer les retards de paiement, d’attribuer les meilleurs paiements ou de demander de l’aide pour l’étiquetage. Les groupes sociaux accueillaient tout cela. En fin de compte, si iRobot exprimait la violation des accords par Scale AI, Scale AI blâmait les travailleurs.

irobot roomba

Le problème fondamental est que notre visage est comme un mot de passe qui ne peut être modifié. Une fois que quelqu’un a enregistré la « signature » de notre visage, il peut l’utiliser à tout jamais pour nous retrouver sur des photos ou des vidéos. Pire encore, ces actions de diffusion illégale sont presque impossibles à réguler sur les plateformes de partage. Les travailleurs sont difficiles à contrôler un par un, en somme.

Une fois de plus donc, l’affaire iRobot Roomba met en évidence que la technologie est porteuse d’un énorme potentiel (éventuellement nuisible), c’est vrai. Mais c’est toujours en fonction des usages que nous en faisons qu’elle peut se retourner contre nous, ou dans ce cas, profiter à d’autres.