Pour que son système d’assistance à la conduite Autopilot fonctionne, Tesla installe des caméras à chaque coin de rue de ses véhicules électriques pour surveiller leurs environnements et évaluer la route à venir. Alors que le Les ordinateurs internes de la voiture prennent des décisions à la volée sur la façon de réagir à des éléments tels que les panneaux de signalisation et les voitures garées, Tesla TSLA+7.98% dispose de toute une équipe de Les chercheurs programment le pilote automatique pour répondre aux différentes situations qui peuvent survenir sur la route.
Cependant, alors que l’on pourrait s’attendre à ce que ces travailleurs entraînent le pilote automatique à suivre les règles de la route, un rapport de Business Insider
ils ont découvert qu’ils apprenaient aux voitures à ignorer certaines réglementations :
Les employés peuvent être confrontés à des données provenant de n’importe quel nombre de pays dans un seul flux de travail, ce qui signifie qu’ils doivent constamment être conscients des différentes règles de circulation de chaque région. Parfois, Tesla semblait adopter une position plus détendue sur ces règles, ont déclaré sept anciens et actuels employés. Par exemple, certains employés ont déclaré qu’on leur avait demandé d’ignorer les panneaux « Interdiction de tourner au feu rouge » ou « Interdiction de faire demi-tour », ce qui signifie qu’ils n’apprenaient pas au système à respecter ces panneaux.
« C’est une mentalité qui donne la priorité au conducteur », a déclaré un ancien employé. « Je pense que l’idée est que nous voulons entraîner le véhicule à conduire comme un humain, et non comme un robot qui se contente de suivre les règles. »
Parfois, le rôle des travailleurs consiste à étiqueter des vidéos d’accidents et de quasi-accidents. Sept travailleurs se souviennent d’avoir étiqueté des vidéos qui comprenaient des accidents Tesla ou des accidents impliquant des véhicules à proximité. À un moment donné, un travailleur a même distribué une vidéo entre employés d’un incident impliquant un jeune garçon à vélo heurté par une Tesla, ont déclaré quatre travailleurs. C’était l’une des nombreuses vidéos et mèmes que les travailleurs avaient l’habitude d’échanger, ont-ils déclaré.
Comme si programmer des voitures pour enfreindre la loi ce n’était pas suffisant, les travailleurs sur le site le font dans des conditions assez difficiles. Les travailleurs de trois usines Tesla à travers les États-Unis chargés de visionner les images voient leurs progrès être surveillés de près par Tesla :
Les employés sont également surveillés de très près à l’aide de deux systèmes logiciels différents.
Un système, appelé HuMans, évalue le temps qu’ils devraient consacrer à chaque clip, ont déclaré quatre travailleurs. Les annotateurs qui prennent systématiquement plus de temps que le temps alloué sont susceptibles de recevoir de mauvaises évaluations de performance ou d’être soumis à un plan d’amélioration des performances, ou PIP, ont-ils déclaré. Le logiciel a été conçu à l’origine pour aider les pilotes de l’US Air Force et a également la capacité de suivre les mouvements des yeux des employés et de prendre des enregistrements audio, selon son site Web. Mais on ne sait pas si Tesla utilise le logiciel pour suivre les mouvements des yeux du personnel.
L’entreprise utilise également une mesure appelée « Flide Time » pour suivre le temps d’activité des annotateurs sur le logiciel d’étiquetage, ont déclaré 17 employés. Elle peut suivre les frappes au clavier et le temps que les employés passent avec le logiciel d’étiquetage ouvert, mais elle ne suit pas le temps que les employés passent à utiliser d’autres outils sur leur ordinateur, ont-ils déclaré. Selon leur niveau, les employés peuvent être amenés à enregistrer entre cinq et sept heures et demie de Flide Time, ce qui signifie qu’ils doivent être actifs sur le logiciel pendant au moins cette durée.
Un travail comme celui-ci est conçu pour apprendre aux voitures Tesla fonctionnant avec le pilote automatique ou la conduite entièrement autonome comment se comporter correctement sur les routes. Cependant, le logiciel a jusqu’à présent été lié à des dizaines d’accidents sur les autoroutes américaines, y compris les accrochages avec des policiers stationnés voitures et les passages à niveau.
Une version de cet article est parue dans The Morning Shift de Jalopnik.
Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.