Les Google Car ne mettront pas en danger les cyclistes
Une voiture autonome, c'est le projet fou de Google dont un prototype a été réalisé il y a quelques mois. Mais beaucoup critiquent le concept en expliquant que l'ordinateur en charge du conducteur ne peut pas comprendre le comportement des autres conducteurs. Et principalement pour les cyclistes. Montés sur des véhicules peu volumineux, souvent non-équipés de dispositifs lumineux pour indiquer les virages (même si un tel projet est en développement), les cyclistes sont particulièrement difficiles à distinguer pour des humains alors pour un ordinateur... Mais apparemment, Google aurait la solution. Même si on est jamais à l'abri d'un accident impromptu !
Un essai concluant...
En juillet, les tests des Google Car ont été déplacés à Austin, aux USA. Un journaliste du Washington Post, Matt MacFarland, a eu la chance de participer aux tests... En tant que cycliste ! Pourquoi un cycliste ? Eh bien c'est très simple : le nombre de cyclistes à Austin est l'un des plus élevés des États-Unis. Racontée dans son article, l'expérience de MacFarland est édifiante. Arrivé à un énorme carrefour (artificiel, bien sûr), il s'est arrêté pour laisser la priorité à la Google Car. Après quelques secondes d'attente (le temps de traiter toutes les informations reçues par ses capteurs, entre autres de GoPros), la voiture a commencé à s'engager sur le carrefour. Mais MacFarland a avancé son vélo de quelques centimètres sur la route et la voiture a immédiatement stoppé. Recommençant plusieurs fois l'opération, la voiture n'a jamais franchi le carrefour. Il n'y a donc pas eu de scènes de ce genre :
... Enfin presque !
Si le cycliste, contrevenant au code de la route, n'a pas été renversé, ce n'est pas pour autant un succès absolu. Si vous rajoutez d'autres véhicules dans le trafic, cet arrêt brutal provoquerait de grands chamboulements potentiellement mortels pour plusieurs personnes. Mais pendant ce test, deux développeurs apportaient des correctifs au programme de l'ordinateur de bord afin de lui apprendre la bonne conduite à adopter. Un travail long, lent et laborieux mais qui permettrait une plus grande sécurité sur la route et enlèverait l'aspect "fardeau" de la conduite sur de longs trajets. Il serait sans doute plus simple de développer une I.A. qu'un programme, mais quelque chose semble retenir Google...
Sinon on va devoir de nouveau fabriquer le Creuset.
La voiture voulait passer, le cycliste bouge, elle s'arrête, etc...
Il n'y a donc pas eu d'arrêt brutal ni de dysfonctionnement, il faut juste que le système soit moins sensible pour ne pas être bloquée...
Sinon les cyclistes sont favorables aux voitures autonomes, le danger ne pourra pas être plus grand qu'avec des conducteurs humains, surtout qu'il est pratiquement toujours provoqué par des comportements volontaires d'abrutis.
"les cyclistes sont particulièrement difficiles à distinguer pour des humains" : avec 3 grammes ou 20 de QI, difficiles à distinguer effectivement. Si un conducteur à du mal à distinguer un cycliste, il vaut mieux qu'il ne conduise plus.
En gros le programme qui gère la google car apprend différents scénarios / événements ect... et est entrainé à réagir en fonction de l'événement repéré (principe du Machine learning et notamment des réseaux de neuronnes)
Tout du moins c'est ce que je suppose.
Finalement, le programme est entrainé par des tests et est capable de réagir par lui même. Ne serait-ce pas une intelligence programmée (et donc artificelle) ? Je ne suis pas expert en IA mais je pense qu'Il faudrait vraiment définir clairement au grand publique à partir de quand on parle d'intelligence artificielle (car non une IA n'est pas necessairement aussi performante que Cortana (dans Halo hein, pas, le machin de microsoft) ou Skynet).