Morel 2

Les décisions absurdes (2) : comment les éviter ? – Christian Morel

Dans le premier tome de Les décisions absurdes, Christian Morel identifiait et analysait les mécanismes qui conduisent les individus et organisations à produire avec constance des erreurs « radicales et persistantes ». Dans ce deuxième tome (Folio essais, 2013), il propose des façons d’éviter ces erreurs.

Cet ouvrage, comme le précédent, est extrêmement intelligent et stimulant. Christian Morel y illustre ses propos de très nombreux exemples concrets issus des secteurs professionnels à haut risque (aviation, NASA, marine nucléaire, chirurgie médicale) mais aussi d’autres types d’activités collectives (alpinisme avec risque d’avalanche, création collective de textes). Il nous donne à voir, avec beaucoup de clarté, les effets pervers des dynamiques de groupe qu’il s’agit d’éviter. Et il nous propose ce qu’il appelle des « métarègles » pour développer une contre-culture de la fiabilité.

Si la lecture de cet ouvrage peut faire naître quelques angoisses à l’idée de prendre l’avion ou surtout de subir une opération chirurgicale, il est cependant plein d’optimisme en ce qu’il ne se contente pas de décrire : il propose de très nombreuses pistes concrètes pour améliorer la fiabilité des fonctionnements collectifs.

À noter que les principes sur lesquels s’appuie Christian Morel, à commencer par les biais cognitifs, sont utilisés par les économistes comportementaux pour promouvoir ce qu’on appelle les « nudges », des incitations « douces » qui exploitent ces biais pour influencer (manipuler ?) les comportements et choix des individus. S’il est aujourd’hui prouvé que ce principe simpliste est assez inefficace, il pose cependant un réel problème démocratique, puisqu’il retire aux citoyen-nes leur responsabilité, soi-disant pour leur bien, et sous prétexte d’un « paternalisme libertarien ». Pour en savoir plus, lire notamment ici.

L’approche de Christian Morel me semble très différente, car elle nous permet de nous emparer de ces éléments, pour améliorer collectivement dans nos fonctionnements collectifs, et précisément conjurer les manipulations (conscientes ou inconscientes) qui peuvent nous berner. Au-delà, il nous invite à déconstruire les normes qui régissent le plus souvent nos fonctionnements collectifs, quel que soit leur cadre. Et y compris dans nos associations, nos syndicats, nos organisations politiques.

Comme je l’avais fait pour le 1er tome, je tente ci-dessous de transmettre l’envie de lire ce 2ème tome : Christian Morel, Les décisions absurdes – Tome 2, Folio essais, 2013


Les décisions absurdes – Tome 2 – Comment les éviter ?

Christian Morel part du constat que se tromper est inévitable dès lors qu’il s’agit d’activités humaines : c’est une constante fondamentale de l’action. Malgré toute l’attention que nous pouvons mettre à nos activités, il y aura toujours des erreurs humaines. « Aux États-Unis, quarante fois par semaine, des médecins se trompent d’individu ou de zone corporelle lors d’une intervention chirurgicale. »

Face à cela, Christian Morel défend la nécessité de développer des solution d’ordre sociologique, et non uniquement technique. Il s’agit de développer une culture (une contre-culture) qui permette davantage de fiabilité. Par fiabilité, il entend le fait « que les décisions et actions sont conformes aux buts fixés ».

Dans la conclusion de son ouvrage, Christian Morel synthétise ainsi ce que serait cette contre-culture :

  • Notre culture est caractérisée par la priorité donnée à l’action rapide => La haute fiabilité exige davantage de réflexion à travers le débat contradictoire, les retours d’expérience, la formation aux facteurs humains, la capacité à renoncer.
  • Notre culture est imprégnée de l’idée que les erreurs doivent être sanctionnées et que les règles n’ont pas à être questionnées => La culture juste de la fiabilité préconise la non-punition et le débat sur les règles.
  • Notre culture est centrée sur le rôle du chef et la valorisation du consensus => Les fondamentaux de la fiabilité mettent l’accent sur la collégialité et les dangers des faux consensus.
  • Notre culture favorise une communication formée d’innombrables informations schématiques => La fiabilité implique la mise en relief des messages essentiels.
  • Notre culture est marquée par le principe de précaution, la possibilité du risque zéro, la foi dans l’hyper-rationalité => L’option opposée de solutions astucieuses et imparfaites se révèle souvent plus sûre et performante.

L’exemple du risque d’avalanche : expertise et machisme

Christian Morel développe de très nombreux exemples concrets. Parmi ceux-ci, celui de l’alpinisme. Il nous y apprend que « le plus souvent, les accidents en montagne ne viennent pas d’un manque d’expertise, ni d’un manque d’information, mais d’un défaut des délibérations qui conduisent la décision de franchir la zone dangereuse. »

Il identifie différentes sources d’erreur :

  • Les groupes sans leader ont moins d’accidents que ceux avec un leader formel ou informel, car quand ils doivent effectuer un choix, ils en discutent davantage et se montrent finalement plus avisés.
  • Plus la taille du groupe s’élève, plus le groupe tranche en faveur d’options dangereuses, ce qui s’explique par le fait que la taille du groupe inhibe la parole et que les silences sont interprétés comme une approbation du choix dangereux.
  • Les groupes qui détiennent une véritable expertise en matière d’avalanche prennent des décisions aussi dangereuses, voire plus, que les autres.
  • Il y a davantage d’accidents dans les groupes qui comportent des femmes que dans ceux qui ne sont que masculins. Ce n’est pas que les femmes soient moins prudentes (les groupes que féminins ont moins d’accidents), mais que, « chez les hommes, le désir de ses montrer audacieux et de manifester des signes de courage en présence des femmes fausse les délibérations et conduit à des décisions dangereuses. »
  • Le biais dit de « destinationite » : combien il est difficile de renoncer. Quand bien même tous les signaux seraient convergents pour inviter à faire demi-tour ou changer son itinéraire, c’est une décision très coûteuse à prendre.

LES EFFETS PERVERS DE LA DYNAMIQUE DE GROUPE

Christian Morel détaille neuf enchaînements qui pervertissent les dynamiques de groupes, c’est-à-dire « les mécanismes psychologiques et sociologiques qui se développent entre les participants ». Ces lois agissent à l’insu des acteurs, et dans un sens contraire à l’objectif qu’ils poursuivent pourtant. Le fait que les acteurs n’aient pas conscience de ces mécanismes les rend particulièrement dangereux.

1/ L’effet de polarisation

Facteur psychologique, qui fait que les participants à une réunion, en découvrant des interlocuteurs qui tiennent des positions plus radicales que les leurs, ont tendance à s’en rapprocher afin de ne pas se singulariser et s’isoler ainsi du groupe.
Facteur cognitif mécanique : les membres du groupe entendent plus fréquemment des arguments en faveur de la position majoritaire pour la simple raison que ses défenseurs sont plus nombreux.

2/ Paradigme de Asch

Expérience de Salomon Asch (consistant à comparer la longueur de droites figurant sur des cartes) : montrait que l’individu testé avait tendance à se ranger à l’avis unanime du groupe, en dépit de son caractère clairement inexact.
Les effets de polarisation et de Asch peuvent se montrer nocifs en conduisant à des décisions collectives que personne ne désire : aboutissent assez souvent à des décisions pour le moins étranges.

3/ Biais de confirmation

Tendance des individus à retenir uniquement les informations et les arguments qui confirment leur opinion.

4/ Pensée de groupe : groupthink

Privilégier l’harmonie et la cohésion sur l’expression des désaccords et des conflits internes.
Caractéristiques additionnelles :
Attribution de vertus excessives au groupe, qui est jugé par ses membres plus moral et invincible qu’il ne l’est en réalité.
Pensée en vase clos, conduisant à refuser de considérer les alertes.
Renforcement du conformisme par des mécanismes tels que l’hyperactivité de certains en faveur de la pensée de groupe.

5/ Communication silencieuse

Une part importante des délibérations est muette, chacun cherchant à supputer ce que pensent les autres. Beaucoup de ces supputations se révèlent fausses et créent des malentendus.

6/ Illusion de l’unanimité

Comme les opposants préfèrent taire leur désaccord pour préserver la paix dans le groupe, les autres pensent qu’il y a unanimité.
La force des phénomènes de groupe qui peuvent conduire les participants à noyer leur discernement.
Il peut exister une banalité du mal par la camaraderie, la pression du groupe, l’illusion de l’unanimité : « C’est précisément ce bonheur, précisément cette camaraderie qui peut devenir un des plus terribles instruments de la déshumanisation – et ils se sont devenus entre les mains des nazis. »

7/ L’effet pervers de la pression hiérarchique

Le respect excessif de l’autorité est un des plus vieux dysfonctionnements du monde.
L’expérience de Milgram, dans laquelle des individus ordinaires étaient conduits par l’autorité à infliger des sévices à des inconnus.
Dans les processus de décision, les effets pervers issus non de phénomènes d’autorité, mais du fonctionnement des participants entre eux, ont autant d’importance que le poids du chef.

8/ Les effets de nombre

Effet pervers mécanique : plus le nombre de participants est élevé, plus la délibération devient difficile ; au-delà d’une certaine quantité, elle disparaît tout-à-fait.
Toute délibération se heurte à la rareté du temps et à son corollaire, l’encombrement. Une réunion de 3h ne doit pas comporter plus de 12 participants.

+ Le Théorème dit du jury de Condorcet
Loi mathématique en matière d’agrégation des opinions

9/ Les règles bureaucratiques

Pour être ordinaires, elles n’engendrent pas moins une atténuation des signaux d’alerte.
Principe de la transmission au chef sans redondance : la répétition et l’insistance ne font pas partie des normes bureaucratiques ordinaires.
L’autocensure qui s’applique habituellement aux questions transversales

LES MÉTA-RÈGLES DE LUTTE CONTRE LES DÉCISIONS ABSURDES

Christian Morel détaille ensuite différents moyens visant à limiter les effets pervers précédents de se mettre en place et d’agir.

1/ La compétence plutôt que la hiérarchie

Il s’agit par exemple de limiter ce qui fait que, dans l’aviation, « Un accident a plus de chance de survenir quand celui qui est aux commandes de l’appareil est le commandant de bord plutôt que le copilote. Quand le pilot en fonction est le commandant, s’il se trompe, il est difficile au copilote de le lui dire et de rectifier l’erreur ; dans la situation inverse, corriger le copilote ne pose aucun problème au commandant. »
Notamment quand des décisions importantes et complexes sont à prendre, avec un haut niveau de risque : il s’agit de faire en sorte que les décisions se prennent à des niveaux subalternes de la hiérarchie, par les personnes qui sont au plus près de la situation opérationnelle. Cet effacement de la hiérarchie, au moins temporaire, doit être affirmé et réaffirmé sans ambiguïté : étant contre-intuitif, on ne saurait le considérer comme spontané.

2/ Avocat du diable et débat contradictoire

Il s’agit de susciter de façon volontariste le débat contradictoire (par opposition au modèle habituel de la « conversation »), de formaliser des rôles d’avocats du diables, de donner de l’importance aux opinions minoritaires, de favoriser les attitudes interrogatives (comme une forme ordinaire de façon d’être et d’interagir), de s’assurer de l’hétérogénéité des individus (en termes par exemple de formation initiale, d’expérience ou d’attributions) au sein de l’organisation : tout ceci dans le but d’aboutir à de meilleures décisions.

3/ Décision par consensus : dangers et solutions

« La décision par consensus désigne une décision prise à l’unanimité. Elle revient à donner un droit de veto à chacun, puisque tant qu’il reste un désaccord la décision ne peut être prise. »

Christian Morel développe deux formes de consensus banales, et à éviter absolument :

  • L’unanimité médiocre ou calamiteuse
    Quand l’unanimité est là, mais porte sur une décision qui est loin d’être optimale. Ce qui est causé par un ou plusieurs des effets pervers développés précédemment.
  • L’unanimité apparente
    Quand l’unanimité est arrêtée par un constat d’absence d’opposition : le silence provoque l’illusion de l’unanimité.
    Contre cela, Christian Morel suggère de réaliser un tour de table demandant à chacun-e de se prononcer, plutôt que de poser la question à la cantonade « Reste-t-il des désaccords ou des commentaires sur ce projet de décision ? ».

4/ L’interaction généralisée : briefings et débriefings

Là encore, Christian Morel invite à formaliser les échanges, pour en augmenter la fiabilité et éviter les malentendus (lesquels sont encore augmentés quand les acteurices n’ont pas l’habitude de travailler ensemble). Cette formalisation ne saurait se réaliser de façon spontanée, d’autant qu’elle nous semble généralement à première vue un peu lourde voire ridicule. Il faut donc la décider collectivement et l’instituer.
C’est notamment le fait de faire systématiquement des briefings et des débriefings. Mais aussi ce qu’il appelle la « communication trois voies » : l’émetteur adresse un message, le destinataire le répète, et l’émetteur confirme que ce que lui renvoie le destinataire est correct. Et c’est également le « contrôle croisé » : non pas dans un objectif de délation, mais sous forme par exemple de binôme qui s’entraident et s’assistent mutuellement.

5/ Penser les interstices

Les interstices sont les lieux où des fractions d’une organisation sont en contact : ils se forment partout où des éléments d’une organisation doivent travailler ensemble. Ce sont des points de grande fragilité, du fait notamment de la perte de connaissance et de la divergence des intérêts.
Christian Morel souligne que la doxa contemporaine entraîne une multiplication de ces interstices, via les externalisations, mais aussi via la mutualisation des moyens (qui pousse à centraliser plutôt qu’à répartir) : la pensée dominante pousse à la division du travail, alors que l’intégration est plus efficace de ce point de vue. Ainsi, quand un problème se présente, la réaction systématique est de créer une instance spécialisée…

6/ Les politiques de non-punition des erreurs : savoir plutôt que punir

La non-punition vise à inciter les acteurices à ne pas cacher, par peur des sanctions, une information qu’iels détiennent et qui pourrait se révéler déterminante pour éviter la reproduction de l’erreur. Or, dans nos sociétés nourries à la recherche de coupables, y compris « pour l’exemple » (sur la croyance que la menace de sanction dissuade de reproduire l’erreur), on cherche souvent davantage à sanctionner qu’à comprendre ce qu’il s’est passé. Or c’est précisément la menace de sanction qui dissuade les acteurices de transmettre les erreurs dont l’analyse collective pourrait permettre de corriger le problème. Christian Morel valorise donc le fait de se concentrer sur l’identification des incidents précurseurs, et de favoriser les retours d’expérience. Il propose de remplacer le processus de punition par un processus de publicité des faits : savoir plutôt que punir.

Par ailleurs, le « biais rétrospectif » est un mécanisme par lequel, quand une solution est mise en place suite à un accident, on se dit que celui-ci aurait pu être éviter si cette solution avait été mise en œuvre avant. Alors même que, précisément, le problème a été révélé par l’accident, et n’était pas prévisible avant celui-ci. Paradoxalement, ce « biais rétrospectif » nous pousse à vouloir sanctionner les personnes qui proposent des solutions a posteriori, en les accusant de ne pas les avoir proposée a priori. Ce qui pousse ces personnes à hésiter à proposer des solutions…

Christian Morel nous invite à faire l’effort de sortir de cette culture de la recherche de la faute, du péché et de la culpabilité, et à considérer que, dans nos organisations modernes, les erreurs sont le plus souvent systémiques, et non dues à une personne qu’il faudrait sanctionner : les erreurs sont « inscrites dans un fonctionnement où interviennent une multitude d’acteurs, internes et externes, aux rôles et pouvoirs différents ». Or, ce caractère systémique entraîne d’une part que la responsabilité n’est pas évidente, et d’autre part que le déroulement de l’erreur est complexe à analyser.
Il nous invite également à nous départir de la recherche du risque zéro : l’action humaine comporte une part d’indétermination irréductible.

7/ Notion de « rigueur jurisprudentielle »

Christian Morel souligne « l’impossibilité pour la réglementation de tout prévoir en dépit de sa précision et de son abondance ». Il préconise donc « une réglementation cadre laissant plus de place au professionnalisme », sur le principe que les opérateurs de terrain ne peuvent travailler sans s’écarter régulièrement des règles et les transgresser occasionnellement, pour le bien de la réalisation de leurs missions.
La notion de « rigueur jurisprudentielle » désigne le fait d’organiser de façon rigoureuse des allers-retours sur les écarts aux règles : ceux-ci doivent être rendus transparents (donc non-punis, tant qu’ils sont réalisés dans l’intérêt de la mission), de manière à être discutés et débattus, afin de permettre l’amélioration progressive et permanente de la fiabilité au-delà du cas particulier.
À noter que la faute intentionnelle ne constitue pas un écart acceptable. Pour distinguer la faute intentionnelle de l’écart aux règles acceptable voire nécessaire, le « test de substitution » consiste à se poser la question suivante : une personne ayant le même profil professionnel aurait-elle pu commettre la même erreur dans les mêmes circonstances ? Si la réponse est oui, la punition n’est pas pertinente. Le test de substitution aide ainsi à sortir du biais rétroactif en obligeant à se mettre dans la peau de l’acteur au moment de l’erreur.

8/ Dire : le renforcement linguistique et visuel de l’interaction

Il s’agit de prendre à bras-le-corps les problèmes de langage, les ambiguïtés, contradictions et malentendus qui ponctuent nos échanges, et qui sont notamment causés par les dysfonctionnements de la coordination silencieuse : lorsque chacun-e anticipe et imagine ce que les autres pensent et font. Pour ce faire, il est nécessaire de systématiser des mécanismes qui renforcent l’explicitation et la clarté des messages. Cette explicitation pouvant paraître inutile voire ridicule, il est nécessaire de la formaliser, faute de quoi elle risque de ne pas être mise en œuvre (et encore plus dans les situations tendues). Cela permet aussi qu’un cadre objectif « force » à aborder des sujets qui fâchent, en les départissant d’une grande partie de leur charge émotionnelle, là où les individu-es pourraient avoir des difficultés à les mettre sur le tapis voire être tenté-es de les mettre sous le tapis.

Cela peut prendre des formes diverses :
– Check-list, comme cela est le cas dans l’aviation. Systématiser le fait de vérifier à plusieurs un ensemble d’éléments évite de considérer des choses comme évidentes (ce qu’elles ne sont jamais).
– Compte-rendus écrits des décisions prises, plutôt que de s’en tenir à des accords oraux.
– Mise en place d’expressions conventionnelles, ce qui commence par demander un « oui » clairement prononcé, mais peut aller jusqu’à mettre en place un langage type et explicite (« affirmatif », « négatif », « reçu », etc.).

Cela va en revanche à l’inverse de pratiques telles que :
– La mode managériale du zéro papier et des réunions-minute
– L’utilisation de power-point et de post-it, qui ont pour effet d’écraser la complexité et la hiérarchie entre les idées et les informations

9/ Connaître : le retour d’expérience

Christian Morel souligne l’importance de mettre de réels moyens (notamment en temps et énergie humaine) mis dans les retours d’expérience. Vouloir faire des économies en temps sur cette question, c’est prendre le risque que les retours d’expériences bâclés soient inintéressants, et que le peu de temps alloué soit alors gâché. Mieux vaut bien sélectionner les cas qui seront traités, en fonction de leur valeur pédagogique, et prendre réellement le temps de les traiter de façon multidimensionnelle (sans se limiter aux questions techniques : en considérant également les questions de facteur humain).

10/ Comprendre : la formation aux facteurs humains

Il s’agit d’acquérir les notions psychologiques et sociologiques élémentaires qui gouvernent les raisonnements et les interactions dans les organisations, les décisions et l’action. Cette formation vise à permettre aux personnes et aux groupes de développer une capacité d’analyse et de compréhension des facteurs humains. Elle peut comprendre un enseignement sur le fonctionnement des groupes, la prise de décision, la gestion des conflits interpersonnels, la perception de la réalité, etc. Elle permet de réfléchir aux styles de comportement, aux obstacles à la communication, aux effets pervers de l’autorité, à l’écoute, au retour d’expérience, à l’autosatisfaction, aux erreurs de représentation. Fondamentalement, ce type de formation vise à transformer la culture de l’organisation.

11/ Accepter la complexité : les dynamiques de la rationalité

Il s’agit d’accepter que le monde est indéterminé, que c’est une donnée fondamentale de l’existence, et que la rationalité (c’est à dire la façon de penser) ne saurait résoudre cela.

Christian Morel détaille trois façons de combattre l’indétermination :
Le principe de précaution : si l’on ne sait pas, on renonce systématiquement à agir ou l’on se protège à 100%.
La rationalité substantielle : croire que l’on peut vaincre complètement cette indétermination par la science, autrement dit pas la connaissance analytique et déductive => c’est illusoire + c’est dangereux (on croit maîtriser, donc on réduit les marges de sécurité, alors qu’on ne maîtrise pas).
La rationalité procédurale : admettre l’indétermination et utiliser des règles imparfaites mais simples et rigoureuses pour la dompter. On ne vise plus l’élimination du risque, mais on le réduit à un niveau plus bas que celui résultant de la rationalité substantielle.

Selon Christian Morel, la fiabilité impose d’accepter la complexité, qu’elle soit humaine ou sociale ; la simplification des interprétations, loin d’aider à la résolution des difficultés, crée au contraire de l’erreur potentielle.

Prendre en compte cette complexité peut amener à :

  • Porter une attention forte aux signaux faibles.
    Accepter de crier au loup trop souvent, de lancer de fausses alertes : « Bien des systèmes, du voisinage en matière de maltraitance familiale à des entreprises en matière de qualité des produits, en passant par des instances publiques de surveillance des médicaments, adoptent un niveau bien trop élevé d’incident à partir duquel ils se mobilisent. »
  • Refuser les évidences, et prendre le temps de débattre des façons de raisonner. « Imposer un raisonnement non partagé, aussi intelligent soit-il, ne sert à rien. » La rationalité n’existe pas en-dehors d’un accord entre les individus. Par exemple, la logique de file d’attente n’a rien d’évident, et il existe d’autres règles que celle du premier arrivé, premier servi.
  • Renoncer à croire qu’on peut vaincre une réalité par nature complexe et imprévisible. Développer une vision procédurale de la rationalité, par opposition à une rationalité substantielle.
  • Ne pas se laisser berner par l’illusion du risque zéro (qui revient à nier l’indétermination) ni par le « biais du cygne noir » (on a du mal à croire à la possibilité d’un événement rare)
  • Ne pas se laisser aveugler par la raison : « Le problème n’est pas de se tromper, mais de se tromper de telle façon que l’on se mette dans un état d’esprit qui retarde ou empêche la conscience de l’erreur ».
    Ce qui nécessite de garder constamment en tête :
    – La possibilité d’erreurs de représentation (le fait de réinterpréter la réalité selon l’idée qu’on s’en fait, et d’ignorer plus ou moins consciemment les éléphants au milieu de la pièce)
    – La nécessité de faire la chasse aux a-priori et aux fausses évidences
    – Celle de résister au « biais de la chose saillante » (qui consiste à donner une importance primordiale à ce qu’on voit en premier : la cause perçue d’emblée est considérée comme la principale)
    – De résister aussi à la « destinationite » (qui fait que plus on avance, plus il est difficile de renoncer, même s’il apparaît que poursuivre est une erreur ; ceci à la fois pour des raisons cognitives et psychologiques, mais aussi pour des raisons sociales dans un contexte où la société valorise la capacité à ne pas renoncer, à persévérer)
    – De garder en tête les raisons de notre action, par opposition au « syndrome du Pont de la rivière Kwaï » (processus par lequel l’action devient à elle-même son propre objectif : l’humain est ainsi fait qu’iel prend du plaisir à agir, même sans but ; placé-e devant un problème, iel crée une solution pour atténuer son inquiétude)
    – De ne pas nier les effets de la fatigue et du stress (la conscience réduite du risque provoqué par la fatigue et le stress détourne des comportements qui permettraient d’y répondre : s’appuyer davantage sur les autres, redoubler d’attention, se reposer, militer pour des mesures correctrices, etc.)

12/ L’économie de la fiabilité

Christian Morel termine son ouvrage en abordant le fait que l’effort de fiabilisation exige des ressources (et que, inversement, la restriction excessive de celles-ci met en danger la fiabilité) : des moyens matériels, mais surtout des moyens humains, notamment en termes de temps et de compétences.
La fiabilité invite notamment à favoriser la redondance, c’est-à-dire le fonctionnement au moins en binôme, ce qui va à contre-courant de la pensée classique en matière de gestion qui fait la chasse aux doublons.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.