Quand l'IA échoue et les voitures robotiques qui s'écrasent
Les voitures autonomes de Google sont impliquées dans 2x plus d'accidents que les conducteurs humains
Voitures robotiques : plus ou moins d’accidents ?
Les voitures autonomes de Google sont apparemment impliquées dans 2x plus d’accidents que les conducteurs humains - Si vous pensez qu’il ne s’agit que d’une nouvelle technologie boguée, bien trop complexe dès le départ - eh bien, vous avez partiellement raison. Un détail important que je dois partager : en décembre 2015, pratiquement tous les accidents n’étaient pas de la faute des robots.
Les accidents sont causés par des conducteurs humains peu familiers avec les conducteurs robotiques. De plus, Google a programmé les voitures pour obéir à la loi en termes absolus - ne jamais dépasser la vitesse limite, difficulté à s’insérer dans un trafic d’autoroute dense ou rapide.
Cela soulève tout un tas de questions légales et éthiques (c’est ce qu’on appelle le problème du tramway) -
- Est-ce jamais acceptable :
- d’éviter une collision par l’arrière si cela signifie traverser un passage piéton à un feu rouge en supposant que le chemin est dégagé ?
- de rouler sur le trottoir pour éviter un vélo qui coupe à travers les voies ? - est-ce acceptable pour une IA d’accepter cette infraction aux « règles de la route »
Je comprends l’approche de Google, surtout lorsqu’il s’agit de minimiser la responsabilité : toujours suivre les règles - logiquement, il s’ensuit que vous ne pouvez pas vraiment être en tort si vous respectez toujours la loi.
Il y aurait une responsabilité massive si un accident survenait à cause d’une « flexibilité » intentionnellement conçue autour des lois.
Ne laissons pas le futur nous échapper
Le futur arrivera quand même, même si les robots conduisent comme des octogénaires.
Peut-être qu’une solution simple pour l’instant serait d’utiliser des LED rouges clignotantes vives (comme les bus scolaires) pour avertir les conducteurs humains qu’ils sont sur le point de percuter l’arrière d’un robot innocent.
Je serais plus à l’aise avec une voiture qui aurait des niveaux d’observance et d’adhérence aux règles. À mon avis, cela se rapprocherait beaucoup plus de la façon dont les humains conduisent.
Imaginez 3 niveaux de perception du système comme suit : (couches de décision et autres omises par souci de simplicité)
- base : suit les lois avec une précision agaçante
- local : ajustements flexibles basés sur le trafic actuel - pour permettre une insertion sur l’autoroute si, disons, 10MPH+ sont nécessaires. Inversement, si le trafic roule simplement trop vite, la voiture devrait être assez intelligente pour se ranger afin d’éviter d’être une nuisance pour les autres conducteurs.
- 360 : calculer TOUT risque potentiel de collision extrême / mesures d’évitement - rouler sur une bande d’arrêt d’urgence ou
Cela nécessiterait probablement un savant équilibre - disons que le niveau 1 détecte un accident imminent qui ne peut être évité en suivant les lois, il transférerait alors toute la puissance de traitement au niveau 3 - trouvant espérons-le un moyen créatif d’éviter le danger.
Les voitures robotiques sont sur le point d’être techniquement plus intelligentes et plus rapides que tout conducteur humain. Acceptez-le. Accueillez-le.