iRobot Roomba schendt de privacy van gebruikers, foto’s circuleren op internet

Le Roomba d'iRobot viole la vie privée des utilisateurs, des photos circulent sur le web

Robotstofzuigers van het bedrijf iRobot zijn tegenwoordig erg populair, vooral de Roomba-serie. Klein, cilindervormig en compact: deze trouwe huishoudhulpen spookten al een tijdje door de huizen van velen van ons. Bovendien is hun technologie in de loop der jaren geëvolueerd om de best mogelijke service te bieden, een mens waardig.

iRobot, de grootste verkoper van robotstofzuigers, onlangs overgenomen door Amazon, bevestigde het nieuws. De Roomba-robotstofzuigers hebben zelfs in intieme omstandigheden gehackte beelden van sommige gebruikers gemaakt. De website van MIT Technology Review wist vijftien van deze foto’s te bemachtigen, die ook op besloten sociale mediagroepen werden geplaatst. In het volgende artikel zullen we dieper ingaan op het verhaal, proberen uit te leggen hoe dit gebeurde, en inzicht geven in een schijnbaar ondergrondse wereld.

De Roomba-slachtoffers en de reactie van iRobot

De betreffende Roomba-robot heeft foto's gemaakt van mensen over de hele wereld. Eén, waarvan we denken dat deze berucht zal worden, toont een vrouw in de badkamer. Anderen tonen een jonge jongen die acht jaar oud lijkt te zijn, met bloot gezicht, liggend op de grond. Alle schermen tonen echter huizen in het algemeen, sommige bewoond door mensen, één door een hond. Het meest onderscheidende is het feit dat alle objecten worden gelabeld door rechthoekige dozen, zoals een Terminator dat zou doen. Meubels, decoraties en zelfs voorwerpen die aan de muur worden gehangen, krijgen het label ‘TV', ‘plant_of_bloem', ‘plafondlamp', om maar een paar voorbeelden te noemen.

Wat als de iRobot Roomba ons in de toekomst echt zou bespioneren?

iRobot van zijn kant beweert de beschuldigde Roomba alleen aan werknemers en verzamelaars te hebben geleverd. Deze laatste zouden ook een overeenkomst hebben ondertekend waarin ze erkenden dat ze datastromen, inclusief video's, naar het bedrijf stuurden. Volgens het bedrijf was het aan hen om te voorkomen dat Roomba vertrouwelijke informatie zou opnemen. Ten slotte benadrukte de fabrikant dat het om robots ging die hardware- en softwareaanpassingen hadden ondergaan die niet aanwezig waren op de gecommercialiseerde Roomba. Uiteraard niet eens degenen die eerder zijn verkocht.

Wie zit er werkelijk achter de verspreiding van de beelden?

iRobot Roomba-apparaten zijn tot nu toe voorzien van krachtige sensoren en, over het algemeen, zeer capabele hardware. Of het nu gaat om zeer geavanceerde camera's of andere hulpmiddelen, alles draagt ​​bij aan het verzamelen van gegevens voor verwerking door kunstmatige intelligentie. Om deze gegevens echter te begrijpen, moeten mensen eerst elk stukje informatie zien, classificeren, labelen en context geven.

irobot roomba

Er is altijd wel ergens een groep mensen die gegevenscategorisatiewerk doen voor kunstmatige intelligentie. Het zijn de ‘gigworkers’ die dit gegevensannotatieproces uitvoeren. Het bedrijf iRobot heeft aangekondigd dit werk uit te besteden aan het Scale AI-platform. Ze verdedigt zichzelf echter door te zeggen dat dit lek aan beelden iets vertegenwoordigt dat groter is dan de acties van één enkel bedrijf.

Het is buitengewoon om te zien hoe ver data gaan om algoritmen voor kunstmatige intelligentie te ‘trainen’. In dit geval zijn de gegevens afkomstig van huizen in Noord-Amerika, Europa en Azië en komen terecht op de servers van iRobot in Massachusetts. Van daar naar degenen bij Scale AI in San Francisco en uiteindelijk naar werknemers over de hele wereld. Inclusief, in dit geval, de onafhankelijke arbeiders uit Venezuela die de beelden verspreidden onder particuliere sociale groepen.

IO-project over Roomba van iRobot en hoe onze gegevens over de hele wereld terechtkomen

Van alle bedrijven die de afgelopen tien jaar zijn ontstaan, is Scale AI een leider in zijn vakgebied geworden. Het werd opgericht in 2016 en heeft met zijn Remotasks-platform een ​​compleet telewerkbedrijf opgebouwd in minder rijke landen. In 2020 kreeg ze een nieuwe taak: het IO-project. Dit waren beelden gemaakt met een opwaartse kanteling van ongeveer 45 graden, waarop muren, plafonds, vloeren en huizen te zien waren. Inclusief natuurlijk mensen wier gezichten duidelijk zichtbaar waren.

De arbeiders bespraken de taak vervolgens op Facebook, Discord en andere groepen die waren opgericht om allerlei soorten advies uit te wisselen. Of het nu gaat om het beheren van late betalingen, het toewijzen van de beste betalingen of het vragen van hulp bij het labelen. Sociale groepen verwelkomden dit allemaal. Als iRobot uiteindelijk uiting gaf aan de schending van afspraken door Scale AI, gaf Scale AI de arbeiders de schuld.

irobot roomba

Het fundamentele probleem is dat ons gezicht als een wachtwoord is dat niet kan worden gewijzigd. Zodra iemand onze gezichtshandtekening heeft vastgelegd, kan hij deze voor altijd gebruiken om ons op foto's of video's terug te vinden. Erger nog, deze illegale distributieacties zijn vrijwel onmogelijk te reguleren op deelplatforms. Kortom, werknemers zijn moeilijk één voor één te controleren.

Nogmaals, de iRobot Roomba-affaire benadrukt dat technologie een enorm (mogelijk schadelijk) potentieel met zich meebrengt, dat is waar. Maar het is altijd afhankelijk van het gebruik dat we ervan maken of het zich tegen ons kan keren, of in dit geval anderen ten goede kan komen.