Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Defens'Aero

Defens'Aero

Menu
Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

© PECCHI Anthony - Un Tigre HAD de l'Aviation légère de l'armée de Terre (ALAT).

© PECCHI Anthony - Un Tigre HAD de l'Aviation légère de l'armée de Terre (ALAT).

Le 07 juillet 2018, le député François Cornut-Gentille publiait les chiffres de la disponibilité du parc des hélicoptères de l'Aviation Légère de l'armée de Terre, de l'armée de l'Air et de la Marine nationale. Ces chiffres prenaient en compte le taux de disponibilité au 31 décembre 2016 et au 31 décembre 2017, le coût de cette MCO et l'âge moyen du parc de tous les différents hélicoptères.

Quelques jours plus tard, le sénateur Dominique de Legge publiait à son tour un nouveau rapport de 80 pages dans lequel il analysait la mise en condition opérationnelle du parc hélicoptères des forces armées françaises. Ce rapport déterminait alors quatorze recommandations réparties en trois axes. Le premier concerne l'amélioration du pilotage financier, le second demande de renforcer l'efficacité du soutien opérationnel et le troisième axe se focalise sur l'évolution des relations entre les armées et les industriels. 

Des extraits de ce rapport seront repris à de nombreuses reprises dans les médias généralistes et spécialisés, notamment les chiffres alarmants et les conséquences de la mauvaise disponibilité du parc.

Par exemple, on apprend par ce rapport que l'armée de l'Air doit faire face à des ruptures temporaires de capacité pour les missions CSAR (Recherche et sauvetage au combat) en raison de la faible disponibilité et du nombre insuffisant de H225M Caracal. De fait, dans la bande sahélo-saharienne, il n'y a qu'un seul plot de deux H225M alors que le contrat opérationnel prévoyait deux plots de trois aéronefs chacun.

Par ailleurs, il existe aussi des ruptures temporaires d'alerte pour les missions SAR (Recherche et sauvetage) qui sont en Corse et à Djibouti, avec la faible disponibilité des Puma. Le rapport explique qu'il s'agit ici « d’incapacités de courte durée à tenir l’alerte ». 23 cas ont été dénombrés 2017, et 13 pour ce début d'année 2018, tous allant d'un peu plus d'une heure à plusieurs jours.

La mauvaise disponibilité a aussi un impact important sur la préparation opérationnelle, comme nous l'avons déjà et à plusieurs reprises exprimé ici sur Defens'Aero. La bonne disponibilité en opération extérieure se répercute sur les hélicoptères restés en métropole et donc sur l'entraînement des jeunes équipages. De fait, les jeunes équipages ont beaucoup moins d'heures de vol que les plus anciens, ces derniers réalisent une grande partie de leurs heures de vol en OPEX et ne volent que très peu en métropole, étant donné l'expérience acquise ils sont les plus aptes pour partir sur les théâtres (fatigue, éloignement, ...), des capacités sont moins entraînées, etc...

A cela s'ajoute aussi la problématique du nombre minimal d'heures de vol à effectuer :

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

Mais derrière les chiffres chocs et les phrases percutantes, le rapport, et notamment la façon dont les recherches sont produites, est critiquable. L'analyse est effectuée par Julien Maire, que vous pouvez retrouver sur son blog ici « European Military Aircraft ».

ANALYSE

Un « énième rapport alarmant » ?

Ce rapport semble, par endroits, plus « surfer sur la vague du moment », en s’appuyant en grande partie sur le rapport « Chabbert » ; au point parfois de donner l’impression d’être une reformulation de ce dernier.

Surtout, et nous allons le voir juste après, le rapport donne l’impression d’être parti des conclusions pour construire les analyses servant ces conclusions. Malheureusement, cette approche biaisée n’est pas rare et, malheureusement encore, elle est ici tout à fait plausible étant donné qu’il s’appuie sur des conclusions (celles du rapport Chabbert).

Rappelons en préambule que :

  • Toute mesure de performance est relative à un objectif donné et sous conditions ou considérant un ensemble d’hypothèses données.
  • Pour conclure sur un facteur d’influence, il faut que tous les autres facteurs soient invariables (ou négligeables), ou que leurs effets puissent être mesurés et isolés.
  • Il convient pour ces deux raisons de toujours recontextualiser les données, les remettre en perspective

Rappel fait, abordons ces erreurs d’analyses et autres raccourcis :

1 sur 3 :

« Seul un hélicoptère des armées sur trois est aujourd’hui en mesure de décoller »

Un raccourci rhétorique dont le but est d’attirer le chaland (d’ailleurs ce sera largement repris dans la presse pour les mêmes raisons). Sauf votre respect, monsieur le sénateur, toute (non-)performance est relative à un objectif.

Quel est cet objectif ? Car il n’est pas de 3 sur 3… Les cibles se situent entre 1 sur 2 (50%) et 2 sur 3 (67%). A lire cette phrase d’introduction, on pourrait être amené à penser que la performance n’est que de 1/3, soit 33%. Il n’en est rien. Elle se situe quelque part entre [ (1/3) / (1/2) ] et [ (1/3) / (2/3) ], soit entre 67% et 50%. Des résultats, néanmoins, bien sûr, insuffisants.

Un budget décontextualisé :

Deux paragraphes plus loin, le rapporteur souligne l’absence d’amélioration globale de la disponibilité malgré une hausse conséquente des crédits de +56% en 8 ans… Propos complètement inutiles car hors contexte. En effet, la hausse en question n’est pas liée à un plan d’amélioration du MCO mais à un effet conjoncturel, ou plus exactement deux :

  1. * un niveau d’emploi plus conséquent : Succession d’OPEX de Harmattan, Serval, Sangaris, Barkhane, avec un emploi d’hélicoptères plus important qu’il ne le fut en Afghanistan (pourtant un théâtre plus que majeur)
  2. * investir dans la modernisation des flottes (Cougar, Caracal, Tigre, …) et/ou dans la phase de « grande visite ». Et là nous avons un paradigme : moderniser les appareils coûte cher en budget, mais aussi en immobilisation de flotte. Cela crée donc un « effet ciseaux », où vos coûts augmentent tandis que votre disponibilité chute.

On peut déplorer alors le fait que le rapporteur s’appuie sur un effet de bord (la conjonction des OPEX et des chantiers de modernisation) pour justifier son « travail sur la question [des disponibilités] ».

Concrètement, les propos ici du rapporteur sont du même ordre que prendre pour exemple qu’il neige en hiver pour soutenir le fait qu’il n’y a pas de réchauffement climatique. Mais passons sur ces effets de rhétorique passagers.

En revanche, s’ensuit une série d’exploitation de données indigne d’un rapport :

Picoti, picota…

… Ou comment piocher et ne retenir que quelques données parmi d’autres.

« A l’exception du parc Gazelle, les flottes dont les taux de disponibilité sont les plus élevés sont également celles dont les effectifs sont les plus restreints (Dauphin SP et Super Puma) »

Prenant pour exemple les Dauphin et les Super-Puma, et niant les Gazelle (disponibilité élevée pour le plus grand parc) et les EC225 (disponibilité faible pour le plus petit parc), le rapporteur met en avant que les meilleurs taux de disponibilité concernent les flottes les plus restreintes… Peut-être… On peut aussi supposer, sur cette même base, que ces taux concernent les versions civiles.

Surtout, on peut se poser la question de la pertinence d’une conclusion basée sur deux flottes et excluant dans l’hypothèse deux flottes donnant tort à ladite conclusion. En prenant comme hypothèse de ne retenir que les résultats « vrais » et d’exclure les résultats « faux », il est sûr que l’on obtient « vrai ».

Biais bien connu de la statistique : il ne faut pas ajuster les hypothèses de manière à vouloir absolument démontrer un modèle là où il n’y en a pas. D’ailleurs, à ce titre, une analyse ne doit théoriquement pas chercher à démontrer qu’une hypothèse est vraie, mais que les autres hypothèses sont fausses.

Voici une autre proposition de mise en regard des disponibilités :

J’ai rapidement tiré un graphique des disponibilités de flottes par tonnage en pondérant par 3 les versions militaires afin d’illustrer la complexité (mais il serait plus juste d’évaluer la complexité par un critère factuel tel que le nombre de km de harnais).

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

On voit se dessiner un schéma… Est-il pertinent ? Pas suffisamment : le facteur « 3 » est arbitraire et surtout subjectif. En revanche, il l’est plus qu’une conclusion s’appuyant sur deux flottes isolées des autres.

Voilà d’ailleurs le graphique des disponibilités par taille de flottes :

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

… Nous vous laissons juger de la pertinence de la conclusion.

EC225, SP, Dauphin, sont des appareils civils. La Gazelle, bien que militaire, a une architecture assez simple… Le Fennec et l’Alouette III sont des appareils légers et donc avec moins de km de harnais… Loin de moi l’idée de vouloir vous influencer… 

Ainsi, d’autres graphiques cherchant d’éventuels facteurs d’influence pourraient être réalisés : Par pondération du nombre de km de harnais (évalue la complexité), le tonnage et l’âge moyen.

« U, je fais la moue » (Le Bourgeois Gentilhomme, Molière)

Puisque nous en sommes aux graphiques en fonction de l’âge moyen des flottes, passons à la partie que nous qualifierions comme la plus honteuse du rapport, voire même malhonnête :

La fameuse « courbe en U » :

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

Si on remplace les Puma par les Alouette III, les Fennec par les Cougar et les Caracal par les EC225, nul doute que l’on obtienne bien autre chose que cette courbe en U.

Au-delà, là encore, du fait que le rapporteur semble choisir parmi les éléments ceux qui servent son discours (au mépris de l’exploitation factuelle des données), le problème est simple :

Il mélange des flottes étant différentes par bien des aspects, qui constituent autant de facteurs d’influence possibles. En particulier, il présente un appareil léger et « lisse » (soit avec peu de km de harnais) au milieu de moyens-lourds.

Pour réduire ces effets, il eût été de bon ton de comparer Caracal, Cougar et Puma.

Ou encore comparer les coûts de MCO de plusieurs flottes dans le temps, en les comparant à iso-périmètres de conditions MCO.

Les conclusions affiliées (surcoût de non-maturité … surcoût de vieillissement) sont-elles pour autant fausses ?

Pas nécessairement. On peut naturellement supposer qu’un appareil jeune présente des non-maturités, et/ou que l’organisation de sa maintenance présente des non-maturités, se traduisant par des surcoûts ; et à l’extrême opposé, qu’un appareil vieillissant, tout comme pour une voiture, requière des surcoûts pour son maintien en état.

Cependant, le rapporteur semble plus partir de cette conclusion pour l’illustrer par un graphique qu’aboutir à des conclusions obtenues par la seule analyse des faits.

Par ailleurs, exploiter, au titre de cet aspect MCO, l’ensemble des coûts présente de nombreux risques de mauvaises interprétations :

Au moment de l’analyse, une des flottes retenues peut être en plein programme de Retrofit et donc subir des surcoûts transitoires qu’il convient d’identifier et isoler ou reventiler dans l’amortissement d’exploitation.

Prendre en compte les coûts d’un chantier de Retrofit est comme prendre en compte les coûts d’acquisition d’un appareil. Un Retrofit étant une évolution du standard de l’appareil, comme peut l’être l’achat d’options, visant à reporter l’obsolescence technique et donc retarder l’achat de flottes de remplacement. Plus qu’un coût MCO, le Retrofit est en fait un investissement.

En ne considérant que les coûts globaux, mêlant différents aspects de MCO, le rapporteur s’expose au Paradoxe de Simpson.

Le Paradoxe de Simpson, pour faire simple, c'est quand l'évaluation d'un ensemble de sous-ensembles donne des conclusions contraires à l'ensemble des évaluations des sous-ensembles.

∑(x)² ≠ ∑(x²)

Un célèbre sophisme l’illustre très bien : « Tout ce qui est rare est cher ; un cheval bon marché est rare, donc un cheval bon marché est cher ».

Ce genre de paradoxe se rencontre généralement lorsque l’on exploite des données trop génériques, masquant des facteurs d’influence non négligeables, en particulier donc lorsque ces données mêlent ou appartiennent à des « populations » très hétéroclites.

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

De tels paradoxes pourraient se rencontrer par exemple sur l’évolution de la richesse européenne ou du renouvellement de ses populations, étant donné l’existence de fortes disparités entre les pays qui la composent. Or, comme l’évoque le rapporteur lui-même, les Armées françaises ont des flottes très hétérogènes et le MCO regroupe des activités très hétéroclites.

Le risque alors de conclusions induites en erreur par le fait de paradoxes de Simpson n’est pas négligeables et ses conséquences pas anodines. Des Paradoxes de Simpson, nous en avons d’ailleurs dans sa présentation de l’évolution des coûts de MCO. La période couverte intègre de nombreuses évolutions de périmètres d’exploitation :

  • Montée en puissance des déploiements en Opex d’hélicoptères,
  • Lancement & conduite de programmes de Retrofit (Caracal, Cougar, Tigre),
  • Période de « grandes visites » pour certaines flottes.

Fort de cela, on peut noter d’ailleurs que le MCO n’a nullement vécu une croissance annuelle de 5.8%, mais qu’il y a deux phases distinctes. Avant 2013, avec des coûts à la baisse, année après année… A partir de 2013 (Serval et Sangaris, lancement de divers programmes de Retrofit…), avec une hausse très nette des coûts MCO.

La bonne question à se poser au regard de la physionomie de cette courbe c’est : « Quelles sont les causes de cette cassure et accélération des dépenses MCO à partir de 2013 ? »

Un graphique intéressant qui aurait mérité plus d’analyses

En parlant de « pourquoi », on ne peut que regretter que le rapporteur ne souligne pas la corrélation apparente qui semble se dégager entre les taux de disponibilité en OPEX et ceux en métropole.

Rapport de la mise en condition opérationnelle : Analyse derrière les chiffres chocs

La question a le mérite d’autant plus d’être posée que, par la suite, le rapporteur en donne une des causes potentielles à savoir le manque de stocks de rechanges.

Donc, quelles peuvent être ces causes ?

En premier lieu, un problème de périmètre de mesure (et ne pas en tenir compte pourrait relever d’un cas typique de Paradoxe de Simpson [oui, encore et toujours lui, dès que l’on « joue » sur les périmètres]) :

Le fait est que les appareils en OPEX réalisent leurs visites techniques en métropole. Ainsi, cela a pour effet d’autant dégrader la note de métropole que celle de l'OPEX s’en trouve élevée. Afin de travailler des données à iso-hypothèses, il conviendrait de réaffecter le temps de visite d’un appareil d'OPEX à une DT OPEX « end-to-end ». D’autant plus qu’un appareil OPEX a généralement une visite plus longue résultant directement du contexte d’emploi en OPEX.

Il est dommage que le rapporteur, désireux par ailleurs de justement améliorer la vision exhaustive des situations, n’ait pas fait cette recommandation.

Réaffectation faite, si la corrélation se confirme toujours, alors c’est que nous avons à faire à un système MCO capé. C’est-à-dire limité par un aspect plafonné.

Ce plafond peut être sur différents aspects :

  • La Main d’Oeuvre d’entretien opérationnel. Mais il est peu probable que ce soit le cas.
  • Les Stocks de Rechanges. C’est un des points soulevés par le rapport.
  • La Logistique afférente au renouvellement de ces stocks. Là aussi un point soulevé.
  • Le Budget. Il peut être un facteur indirectement aggravant : limitant les stocks ou leur renouvellement.

Concernant les rechanges, il convient de rappeler un point essentiel que rappelle E. M. Goldratt dans l’ouvrage référence « Le But » : « Le coût d’un manquant n’est pas sa valeur mais la valeur d’une vente du produit fini. »

Sans partir dans une tentative de transcription au contexte MCO, il faut comprendre par là qu’un manquant a des conséquences dont les coûts et les manques à gagner sont souvent bien plus importants que le coût d’achat, de logistique et stockage dudit manquant.

Il faut aussi comprendre qu’il est inutile de disposer de stocks important sur certains rechanges si par ailleurs il existe un manquant récurrent, endémique. Ce déséquilibre (que E. M. Goldratt aborde également dans son ouvrage sur la Chaine Critique) se traduirait par de multiples gaspillages :

  • Non-emploi du matériel, cloué au sol, et les coûts du personnel non « travaillant »
  • Immobilisation des autres stocks, qui est de l’immobilisation de valeur (donc de budget) entraînant en sus un coût d’entretien de ces stocks (gaspillage double…).

A ce titre, le niveau « optimal » des stocks est (aisément) mesurable par une méthode analogue au 6-sigma, mais assez d’apartés.

© PECCHI Anthony - Un H225M Caracal de l'armée de l'Air lors d'une mission d'entraînement sur les côtes françaises.

© PECCHI Anthony - Un H225M Caracal de l'armée de l'Air lors d'une mission d'entraînement sur les côtes françaises.

Une présentation incomplète de l’architecture MCO

Pour terminer sur ces regards critiques concernant les analyses du rapport, celui-ci présente l’architecture du MCO, entre autres pour en souligner la complexité. Cette complexité aurait pu être encore plus mise en exergue en complétant cet organigramme des flux directs (d’information ou de matériels). Cela aurait permis de montrer les conflits de rôles & responsabilités, que pointe par ailleurs le rapport.

A propos des 2e et 3e parties :

Dans ces deux autres parties, le rapporteur se passe d’analyses et se contente largement d’affirmations… toutes relatives en l’absence de présentation de données et d’analyse. D’autant plus relatives que le peu de chiffres donnés le sont hors contexte d’hypothèses.

Comme lorsque le rapporteur compare le cycle démontré d’immobilisation due aux visites au cycle contractuel d’une visite : Il omet de préciser que les périmètres ne sont pas les mêmes : l’immobilisation comprenant un ensemble de travaux de remise en état qui ne sont pas dans la base contractuelle.

C’est comme lorsque vous menez votre voiture en révision : Le garagiste vous donne un prix et un délai… Quelques heures après il vous appelle pour vous lister des équipements à changer suite à l’inspection et vous annonce leurs prix et que finalement votre véhicule ne sera pas disponible avant 2 jours…

Il est faux, dans ce contexte, de parler de « dépassement contractuel » pour l’ensemble de ces cycles. Là encore, le rapporteur se contente de poser quelques chiffres obtenus sans en approfondir la question, sans recontextualiser et ainsi quantifier l’ampleur dudit « dépassement contractuel » affirmé.

Si je dis que j’ai mis trois semaines pour faire Marseille-Paris en voiture, il est faux d’aboutir à la conclusion qu’il y avait beaucoup de bouchons : j’ai visiblement fait des étapes de visites et pas passé l’ensemble des 3 semaines à conduire ; peut-être même n’ai-je mis que 8 heures en choisissant de ne rouler que quand le trafic était fluide…

Un rapporteur atteint du Paradoxe de Simpson :

Dans l’exemple ci-dessus, nous comprenons bien le paradoxe de Simpson présent. Mais de la même manière, on peut se poser la question sur la pertinence des autres valeurs décontextualisées, saupoudrées ici et là dans la suite du rapport.

En conclusion :

Du coup, les conclusions ne sont pas valables ?

Les conclusions ne sont pas nécessairement à remettre en cause étant donné que, comme nous l'avons dit en préambule :

  • Le rapport reprend nombre de conclusions du rapport Chabbert
  • Il semble visiblement partir des conclusions pour les illustrer par des chiffres (piochés plus ou moins au hasard) et il n’y a donc pas de relation cause-à-effet entre les analyses et les conclusions.

Par contre, du fait de ce second point, il n’est pas possible de porter un regard critique sur les conclusions de ce rapport sur la seule base des données fournies dans celui-ci (ce qui est contraire aux règles de la recherche et l’analyse statistique.)

Sur le fond, certaines recommandations peuvent être critiquées plus ou moins à la marge, et d’autres recommandations pourraient également être faites… Il s’agit de recommandations, donc ouvertes aux débats.

Dans ce cadre elles ont le mérite d’exister, de présenter une base et d’être assez complètes. Pour ce qui est de leur justesse, nous vous laissons juges. Si le rapport pèche vis-à-vis de ces recommandations, c’est par l’absence de cartographie de celles-ci, avec les interactions, assurant de leurs cohérences ou leurs complémentarités et criticités. Une présentation en « QFD » (Quality Function Deployment) aurait été une parfaite réponse pour synthétiser ces recommandations, leurs effets, interactions, complémentarités et criticités.