Limitation à 80 km/h, quand l’Etat s’emmêle
Depuis que le sujet a été évoqué, d’abord sous forme de rumeur en décembre, puis officialisé en janvier, l’abaissement des limitations de vitesse à 80 km/h pour les routes secondaires à double sens sans séparateur cristallise les débats.
Bon, on va commencer par une lapalissade. L’argument avancé selon lequel le réseau secondaire est celui où il y a le plus de morts est tout à fait juste. Ce fait est valable dans tous les pays sur lesquels je me suis penché (à savoir, Allemagne, Royaume-Uni, Belgique, Irlande, et Etats-Unis, histoire de sortir du carcan Européen, mais je l’avoue je ne me suis penché que sur des pays dont je comprends la langue un minimum). En soi, cette information n’est pas surprenante, avec presque 380 000 km, le réseau départemental est le réseau le plus long hors agglomération, reléguant les routes nationales (moins de 10 000 km) et les autoroutes (un peu plus de 11 000 km) au rang « d’anecdote » statistique, ces dernières représentant à peine 2% du million de kilomètres de bitume traversant l’hexagone. Ainsi, si on prend en compte la vitesse différente, et surtout non maintenue, en ville, nul besoin d’être statisticien de haute volée pour comprendre pourquoi il y a moins de morts en ville malgré un réseau routier presque deux fois plus long. Toutefois en terme d’accidents corporels, la balance est inversée, et ce sont les zones urbaines qu’il faut pointer du doigt.
Cependant, de là à en tirer une équation mathématique directe entre vitesse et mortalité… il y a plus qu’un pas. Pourtant, en 1981, le mathématicien Nilsson (dont la formule a été affinée par Elvik au début des années 1990, en se basant sur pas moins de 460 échantillons) semble avoir trouvé une équation simple liant directement ces deux éléments, en se basant sur l’impact des changements de limitation de vitesse en Suède entre 1967 et 1972. Enfin simple, c’est très vite dit, dans la mesure où loin d’offrir une équation unique, celle-ci se voit affublée de facteurs de puissance qui changent suivant le type de route, prouvant par là même que la solution n’est pas si évidente ! Pis encore, cette équation ne prend absolument pas en compte les évolutions techniques, notamment en terme de sécurité active et passive (sa formule se base sur des statistiques contemporaines de l’apparition de la ceinture de sécurité, par exemple, qui a drastiquement fait baisser le nombre de décès) des automobiles, alors qu’elles ont pourtant un impact majeur dans l’évolution des chiffres. De la même façon, l’état de la route (revêtement, équipements de sécurité, signalisation) n’est absolument pas pris en compte. Certes, je conçois la démarche de simplification nécessaire à une bonne appréhension d’un sujet, mais, au vu des puissances (mathématiques, hein, pas mécaniques) en jeu, et de fait, l’impact majeur du moindre changement de vitesse moyenne, intégrer ces facteurs sous forme de constante ou de variable à faible impact mathématique serait faire preuve de rigueur. D’autant plus que ce modèle est constamment réajusté, preuve s’il en est que le résumé « 1% de vitesse moyenne en moins = 4% de morts en moins » est au final assez peu précis, voire obsolète. Et, par essence, il l’est, car il signifierait donc que l’on pourrait réduire de 100% le nombre de morts en réduisant la vitesse de 25%. Et si l’on souhaite pousser le sophisme jusqu’au bout, on pourrait créer des vies en abaissant encore plus la vitesse ! Et vous savez comme moi qu’il n’en est strictement rien. Plus prosaïquement, cela signifierait que l’abaissement de 90 à 80 km/h, soit la bagatelle de 12%, pourrait engendrer 48% de morts en moins, excusez-moi de sincèrement en douter, même si je l’admets, cette réflexion ne se base sur aucun fondement scientifique.
Pourtant c’est cette équation qui a été mise en avant pour justifier la mise en place de la limitation à 80 km/h sur une grande partie du réseau secondaire hexagonal, afin de couper court à l’augmentation du nombre de tués sur les routes en 2014, 2015, 2016… mais pas 2017, où les chiffres sont repartis à la baisse. En soi, l’intention est louable, mais c’est déjà partir d’un très mauvais pied. De plus, quelque chose me chiffonne grandement sur ce sujet, justement. En me penchant sur les chiffres de la mortalité routière dans les autres pays d’Europe (disponibles à n’importe quelle personne capable d’utiliser un moteur de recherche), je suis tombé sur un rapport de l’OCDE (Organisation de Coopération et Développement Economique) intitulé Why Does Road Safety Improve When Economic Times Are Hard? (Pourquoi la sécurité routière s’améliore quand les temps sont durs ? pour les anglophobes), datant de 2015, qui aborde le sujet. « Mais que vient donc faire une organisation d’études économiques dans la sécurité routière ? » me direz-vous. Eh bien, c’est qu’il apparaît une corrélation entre PIB et mortalité routière. Plus intéressant encore, l’un des pilotes de la modélisation mathématique de cette corrélation n’est autre… qu’Elvik. Mais il n’est pas le seul, au global, ce sont presque 70 études qui ont été compulsées, couvrant de 1945 à 2011, à travers une douzaine de pays. Mais je m’égare, revenons-en à cette étude. Le rapport final offre une information pour le moins intrigante, confirmée par la sécurité routière britannique (Reported Road casualties in Great Britain: 2016 annual Report). En cas de relance économique d’un pays, on constate une période de deux à quatre ans pendant laquelle le nombre de morts sur les routes augmente, avant de repartir à la baisse… ce qui vient exactement de se produire en France.
Les explications apportées par ce rapport sont pour le moins convaincantes, et si on prend le temps d’y réfléchir, plutôt logiques. Lorsque le pouvoir d’achat baisse, les gens tendent à moins rouler, dans le but de faire des économies, voire à espacer un peu plus les opérations d’entretien, toujours dans le même but. Cependant, lorsque les finances le permettent enfin à nouveau, c’est cette même voiture, un peu moins bien entretenue, qui part couvrir beaucoup plus de kilomètres, d’un coup. Pas besoin d’être un éminent mathématicien pour voir que ce sont là les germes d’un potentiel pic d’accidents, tout à fait transitoire. Le lissage des chiffres, passé le pic, est du à différents facteurs simples : les automobilistes sont à nouveau plus habitués à conduire sur de longues distances, les véhicules sont mieux entretenus, et surtout, le parc automobile rajeunit, intégrant les dernières normes ou équipements de sécurité, diminuant par là même la sinistralité.
A partir de ces données, la décision du gouvernement d’abaisser la vitesse sur le réseau secondaire à 80 km/h semble un colosse au pieds d’argile. Pire, les éléments que nous vous fournissons dans les paragraphes précédents ne sont ni récents (une équation vieille de presque quarante ans, dont la dernière remise à niveau a eu lieu en 2005, ou encore un etude publiée il y a trois ans) ni difficiles à trouver, si tant est que l’on daigne creuser le sujet. Il semble donc assez surprenant que ces données ne soit pas connues du Ministère des Transports, car même si le gouvernement est récent, le personnel lui, est resté. De là à en déduire que la décision tient plus de l’effet de manche, cherchant à marquer les esprits sur un serpent de mer que chaque législature essaie de marquer de son empreinte, il n’y a qu’un pas… que nous nous abstiendrons de faire !
Mais trêve de galéjades, nous ne sommes pas ici pour tirer sur le gouvernement à boulets rouges, ce n’est pas le propos de ce site, et ce ne le sera jamais. En soi, l’idée de lisser la vitesse entre voitures et poids lourds n’est pas forcément bête. Pour le vivre au quotidien Outre-Manche, il faut bien reconnaître un certain confort à avoir tout le monde roulant à la même vitesse. Mais du coup, la question qui se pose est, faut-il ralentir la majorité des véhicules roulant, ou faire accélérer la minorité ? La question mérite d’être posée, et surtout, ouverte aux différents intervenants, car il faut quand même reconnaître que la limitation à 80 km/h des véhicules lourds sur le réseau secondaire ne se justifie plus du point de vue technique, tant les véhicules modernes offrent une efficacité de freinage qui ferait pâlir certaines voitures, de nos jours, et surtout, le code de la route prévoit déjà des signalisations spécifiques permettant d’adapter la vitesse des différents véhicules, en fonction de la topographie de la route.
Puisqu’on parle de topographie routière, vous êtes-vous jamais posé dans quelles circonstances les accidents avaient lieu ? Au risque de vous surprendre, tant en termes d’accidents corporels que d’accidents mortels, la majorité des accidents arrivent sobre, de jour… et en ligne droite ! (et la statistique est la même pour tous les pays européens, la France ne fait pas exception) A partir de là, la vitesse est-elle le facteur premier, plutôt que le défaut d’attention ? Là aussi, le débat reste entier, et je me garderai bien d’apporter une réponse ferme et définitive.
Se pose maintenant une autre question. Avec l’augmentation du prix de l’essence; il y a fort à parier qu’une frange de la population va moins rouler (cf plus haut). De ce fait, les données relatives à l’abaissement à 80 km/h, s’il a lieu, ne se verraient-elles pas faussées par l’effet d’éléments concomitants ? Ajoutons à cela le déploiement des radars embarqués et la réforme du contrôle technique (qui aura un impact dans une certaine mesure sur l’age moyen du parc automobile) et l’affaire semble déjà pliée, avant même que ce changement n’entre en place. A faire feu de tout bois, il y aura bien une décision qui sera décisive, cependant, dur de démêler l’action efficace du placebo, tant le calendrier est dense et laisse peu de recul pour décanter les informations.
Vouloir améliorer la sécurité des automobilistes est en soi un effort on ne peut plus louable, et je défie quiconque de me dire le contraire. Cependant, la multiplication des annonces et réformes de sécurité routière de ces dernière années me laisse dubitatif, non sur le fond, mais sur la forme ! En effet, les changements s’accumulent, sans pour autant prendre le recul nécessaire afin de valider l’efficacité de telle ou telle réforme, et l’échantillon-test sensé servir d’appui à l’abaissement à 80 km/h est on ne peut plus discutable en termes de validité statistique, vu sa courte durée, et la taille des tronçons concernés. Au final, et j’en suis persuadé, le problème n’est pas de réformer le code de la route, l’abaissement de 60 à 50 km/h en ville s’est fait quasi sans heurts, mais, surtout, de le faire intelligemment, et en mettant les usagers à contribution, tant en terme de communication, que de consultation.
Crédit Photo : Sandrine Darré
Nous sommes de plus en plus sur la route facteur suplementaire accidentogene!!!!
Certes, mais cela reste relatif, puisque certains pays au trafic deux fois plus dense affichent pourtant des chiffres de mortalite/accidentologie bien inferieurs a l’Hexagone.
C’est surtout la façon dont on apprend à conduire qu’il faut réformer, moins de théorie (connaître le prix des amendes ne sert à rien) par contre apprendre à freiner et à aborder un virage correctement me semble essentiel. De plus apprendre à charger, équilibrer et arrimer correctement son chargement (coffre de toit, porte vélos, remorque) n’est abordé qu’en théorie, déneiger complètement son véhicule avant de partir est pourtant obligatoire et passible d’amende, pourquoi ce n’est pas mis en pratique ?
Il y a assurement un defaut de formation, mais elle a elle aussi bon dos. Car les points que vous abordez, forts int2ressants, sont aussi des elements qui ne demandent majoritairement que du bon sens, plus qu’a proprement parler de formation. Malheureusement, si les gens en faisaient preuve, bien des accidents n’arriveraient pas.
Très belle analyse..
Et l’abaissement de la vitesse à 80km/h n’est il pas aussi un facteur clé pour augmenter l’autonomie des véhicules électriques?
Je vais me permettre une réponse de normand en ce qui concerne l’autonomie des véhicules électriques : oui et non. Effectivement, en théorie, c’est potentiellement 25% d’autonomie en plus (sans chauffage, ni radio…bref sans périphérique qui consomme plus). Dans la pratique, les VE couvrant de courts trajets, et majoritairement urbains, l’impact de l’abaissement reste, pour le moment, un argument négligeable. D’autant plus que le réseau bilatéral est plutôt le réseau « perdu au milieu de nulle part », et donc celui qui, pour l’instant, souffre d’une couverture plus que maigre en terme de bornes de recharge, ce qui par essence (désolé du jeu de mot) en fait un réseau peu concerné par les VE, si les acheteurs sont pragmatiques.
Ping : Limitation à 80 km/h : un changement à deux vitesses ? - Les Flous du Volant
Ping : La voiture autonome, un non-sens ? - Les Flous du Volant