• Le cerveau: un organe social

    Nous savons aujourd’hui que le cerveau émet deux réponses fondamentales: le renforcement et l’évitement. L’évitement consiste à fuir ce qui peut constituer une menace, réelle ou perçue, alors que le renforcement consiste à maximiser le sentiment de récompense. Cela s’applique non seulement en situation de survie, mais aussi, plus subtilement, lors d’interactions entre les personnes, que ce soit dans les relations de couples, familiales ou de travail.

    Nous réagissons soit en mode défensif (ou fuite), soit en mode ouverture à la collaboration et au rapprochement. Et cela provoque une activité accrue au niveau des circuits neurologiques du cerveau; la capacité émotionnelle et cognitive et même la mémoire en sont affectées. Par exemple, quand quelqu’un se sent exclus (d’un groupe, dune activité) un examen par imagerie de résonance magnétique détecte de l’activité dans la partie dorsale du cortex cingulaire antérieur, une région du cerveau associée à la composante ’souffrante’ de la douleur. Le sentiment d’exclusion produit donc le même type de réaction dans le cerveau que le fait une douleur physique.

    L’hypothèse de Matthew Lieberman, à UCLA, est que les humains ont évolué ce lien entre connectivité sociale et inconfort physique parce que, pour un mammifère, être socialement connecté à des proches qui prennent soin de lui était nécessaire à sa survie. Le cerveau humain est un organe social et ses réactions physiologiques et neurologiques sont directement et profondément conditionnées par les interactions sociales. Quand on fait face à quelque chose d’inattendu (un ombre menaçante perçue du coin de l’œil, ou l’apparition d’un nouveau collègue dans le bureau adjacent) le système limbique (la partie primitive du cerveau) est excitée. Le neuroscientifique Evian Gordon appelle cela la réponse « minimiser danger/ maximiser récompense », le principe organisationnel fondamental du cerveau, selon lui.

    Contrairement à Maslow qui plaçait le besoin de survie au bas de sa pyramide, et celui de socialisation au milieu, les études récentes montrent que le cerveau humain associe survie et socialisation. Avoir faim et être ostracisé activent les mêmes réponses neurologiques.  

    Cinq facteurs en jeu

    Le modèle SCARF élaboré par David Rock, identifie 5 besoins fondamentaux qui seraient les modulateurs de ces deux types de réponses neurologiques. L’importance de ceci pour un leader est que lorsqu’on arrive à combler ces besoins, on assiste à un haut niveau de confiance et de collaboration (on minimise la réponse de fuite et on habilite la réponse de récompense). À l’inverse, lorsqu’on les menace, apparaît alors le mode défensif, celui de survie et d’évitement.

    (S)tatut: quand quelqu’un se rend compte qu’il se compare désavantageusement à quelqu’un d’autre on observe une réaction de menace, avec libération de cortisol et d’autres hormones liées au stress. Un statut élevé a été corrélé à une plus grande longévité et à une meilleure santé. Nous sommes biologiquement programmé pour nous préoccuper de notre statut parce que cela favorise notre survie. À éviter donc les évaluations comparatives et les critiques trop répétées.

    (C)ertitude: Quand un individu fait face à une situation familière son cerveau conserve son énergie en passant en mode pilote automatique: il se fie à des connections neurales implantées de longue date dans son cortex, lesquelles préprogramment sa réponse. Cela lui simplifie la tâche et lui permet même de faire deux choses en même temps. Mais dès que le cerveau enregistre de l’ambiguïté, ou de la confusion, un signal d’erreur se déclenche. Ne pas savoir ce qui s’en vient peut être profondément débilitant parce que cela requiert beaucoup d’énergie neurale additionnelle. À privilégier donc: communication, gestion du changement, décision participative.

     

    (A)utonomie: Les études de Steven Maier à l’Université de Boulder montrent que le degré de contrôle disponible à un animal confronté par une situation stressante détermine si cela sapera ou non son habilité à fonctionner. De la même façon, dans une organisation, aussi longtemps que les gens sentent qu’ils peuvent exécuter leurs propres décisions, sans trop de supervision, le stress demeure à un niveau contrôlable. Parce que le cerveau humain a évolué en réponse au stress pendant des milliers d’années, il est constamment sensible, à un niveau généralement subconscient, aux diverses façons dont des interactions sociales menacent ou supportent sa capacité de choisir. Une perception d’autonomie réduite (par exemple par un patron qui fait de la micro-gestion) peut facilement déclencher une réponse de menace.

    (R)elation: une collaboration fructueuse dépend d’une bonne relation, ce qui requiert confiance et empathie. Or, dans le cerveau, la capacité à ressentir confiance et empathie envers les autres est façonnée par la perception de leur appartenance à un groupe social commun. À chaque nouvelle rencontre le cerveau fait automatiquement une détermination « ami ou ennemi » qui colore l’interaction à venir. Lorsqu’une nouvelle personne est perçue comme différente, l’information circule via des sentiers neuraux associés au sentiment d’inconfort (sentiers différents de ceux déclenchés par ceux qui nous apparaissent semblables à nous).

    Quand une connexion sociale forte est établie avec quelqu’un le cerveau sécrète de l’ocytocine; cette hormone a été reliée à l’affection, au comportement maternel, à l’excitation sexuelle et à la générosité. Elle désarme la réponse de menace et active encore plus les réseaux neuraux qui nous permettent d’identifier quelqu’un comme étant « juste comme nous ». À l’inverse la réponse de menace est élicitée quand quelqu’un se sent coupé d’une interaction sociale. La solitude et l’isolation sont profondément stressants.

    (F)ranc-jeu: La perception d’injustice (unfairness) dans une situation génère une réponse intense dans le système limbique, remuant hostilité et minant la confiance. Tout comme pour le statut, les gens perçoivent l’équité en termes relatifs et se sentent plus satisfaits dans un échange juste, qui offre une récompense minime, que dans un échange injuste dans lequel la récompense est substantielle. Des études conduites par Matthew Lieberman et  Golnaz Tabibnia ont trouvé que les gens répondent plus positivement à recevoir 50ȼ dans le partage de 1$ avec une autre personne, plutôt que de recevoir 8$ dans le partage de 25$. Une autre étude a montré que l’expérience de l’équité produit dans le cerveau une réponse de récompense similaire à celle résultant de la consommation de chocolat.

    Dans les organisations, la perception d’injustice crée un environnement dans lequel la confiance et la collaboration ne peuvent prospérer. Et tout comme pour la certitude, la justice bénéficie de la transparence.

    Le SCARF à l’œuvre

    Si vous êtes un leader chaque action que vous faites et chaque décision que vous prenez soit supporte, soit sape les niveaux perçus de statut, de certitude, d’autonomie, de relation et d’équité dans votre entreprise.

    Commencez par réduit les menaces inhérentes à votre compagnie. Tout comme le cerveau animal est câblé pour répondre d’abord à la menace d’un prédateur, avant de pouvoir se concentrer sur la recherche de nourriture, le cerveau social humain répond d’abord à ce qui menace ses préoccupations clés, avant de passer à d’autres fonctions.

    La menace domine toujours la récompense parce que la réponse à la menace est forte, immédiate et impossible à ignorer. Une fois provoquée, elle est difficile à déplacer - ce qui explique pourquoi une rencontre déplaisante dans le trafic matinal peut distraire votre attention et affecter votre performance toute la journée. L’humain ne peut penser de façon créative, travailler efficacement, ni prendre de décisions éclairées quand son mode réponse aux menaces est en haute alerte.

    Toute personne qui se sent appréciée à sa juste valeur, qui sait ce qu’on attend d’elle, qui est autonome dans son travail, qui évolue dans un environnement sain basé sur le respect, la confiance et l’équité, performera de façon supérieure, tout simplement parce que son cerveau consacrera l’essentiel de ses ressources et de son énergie à créer, à trouver des solutions, à se développer ...en d’autres termes, à tout faire pour activer ses circuits de la récompense.

     Joyeuses Fêtes!

    Partager via Gmail

    votre commentaire
  • On estime que les dirigeants d’entreprises prennent des milliards de décision à tous les ans ...et que la plupart d’entre elles pourraient être meilleures.

    Un enjeu réel

    Les enjeux d’une mauvaise décision ne sont que trop réels car elles sont le plus puissant outil à la disposition des gestionnaires pour leur permettre de réaliser des choses.

    Établir des objectifs (un autre outil du gestionnaire) ne comprend que des aspirations; ce sont les décisions qui conduisent l’action. Et en général les gens font ce qu’ils décident de faire. Heureusement il y a des façons simples de prendre de meilleures décisions, avec consistance, à l’aide des pratiques et technologies de l’économie comportementale.

    Une étude récente démontre que les gestionnaires qui utilisent les meilleures pratiques décisionnelles obtiennent les résultats visés 90% du temps, et 40% les dépassent (par comparaison les meilleures pratiques d’établissement des objectifs n’aident les décideurs à atteindre les résultats voulus que 30% du temps). D’autres études démontrent que des pratiques décisionnelles efficaces augmentent le nombre de bonnes décisions par un facteur de 6 et réduisent les échecs de près de la moitié.

    Bien que le potentiel d’utilisation des meilleures pratiques décisionnelles soit grand, plusieurs organisations ne l’utilise pas. Une étude de 500 exécutifs montre que seulement 2% d’entre eux utilisent les meilleures pratiques en la matière et peu d’entreprises ont en place des systèmes de mesure et d’amélioration des décisions.

    Les causes

    Pour combler cet écart entre pratique et meilleure pratique il faut savoir pourquoi il existe.

    Une cause est historique. Pendant longtemps la prise de décision en affaires a été perçue plus comme un art qu’une science. Cela, en partie, parce les décideurs avaient accès à relativement peu d’information précise. Peu d’outils de décision étaient utilisés; la liste des pour et contre, popularisée par Benjamin Franklin est probablement la plus commune et elle a 250 ans. Et, malheureusement, la science économique du 20e siècle était basée sur la théorie que les gens prennent toujours une décision parfaitement rationnelle lorsque fournis avec de la bonne information, une théorie qui s’est avérée au mieux imparfaite, sinon complètement fausse, telle que l’a démontré la révolution de l’économie comportementale développée par le prix Nobel Daniel Kahneman.

    Ce qui nous amène à la deuxième cause: la psychologie. La réalité est que nous sommes prévisiblement irrationnels. Les économistes comportementaux ont mis à jour une gamme de raccourcis mentaux et de biais cognitifs qui déforment nos perceptions et nous font ignorer de meilleurs choix.

    La plupart des décisions d’affaires se font collaborativement et la rechercher de consensus aggrave nos biais individuels. De plus, la plupart des décisions d’affaires se faisant avec le stress d’une grande incertitude nous avons souvent recours à notre instinct et à nos intuitions pour réduire notre inconfort mental. Décider est un travail demandant; il y a une forte impulsion émotionnelle à juste le faire et passer à autre chose.

    Une dernière cause est la technologie. Les logiciels d’entreprise ont numérisé de nombreuses tâches de gestion au cours des 40 dernières années. Ce virage a posé les fondations d’une meilleure prise de décision, mais le processus n’est pas fini. L’économie comportementale montre que fournir plus d’informations complexes et ambiguës n’aide que très peu les gestionnaires et leurs équipes à relever les principaux défis auxquels ils font face afin de prendre de meilleures décisions. Par conséquent les entreprises ne peuvent drastiquement améliorer leur processus de décisions simplement en implantant de grands logiciels comme SAP, Oracle, Salesforce, etc.

    Alor, que faire? 

    Une approche en sept points

    Au cours de centaines d’expériences conduites auprès de dizaines de milliers de décideurs il a été démontré que la meilleure approche de prise de décision peut se résumer à une simple liste en sept points. Toutefois il est important de se rappeler que de comprendre les items sur cette liste ne suffit pas; il faut l’utiliser ,car nos biais ne disparaitront pas juste parce qu’on sait qu’ils existent. Donc, chaque fois qu’une décision doit être prise, suivez ces étapes afin de contrecarrer vos biais naturels:

    1. Couchez sur papier cinq objectifs ou priorités déjà établis qui seront affectés par la décision. Se concentrer sur ce qui est important aidera à éviter le biais de rationalisation ou d’inventer des raisons pour justifier le choix après coup . 

    2. Écrivez au moins trois, idéalement quatre, ou plus, autres alternatives réalistes. Cela peut demander un peu d’effort et de créativité, mais aucune autre pratique n’a de plus grand potentiel d‘amélioration que d’étendre vos choix possibles. 

    3. Décrivez quelle information la plus importante vous manque. Nous courons le risque d’ignorer ce que nous ne connaissons pas parce que nous sommes distraits par ce que nous savons, en particulier dans le monde riche en information d’aujourd'hui. 

    4. Documentez l’impact que votre décision aura dans un an. Raconter une courte histoire sur le résultat attendu de la décision vous aidera à identifier des scénarios similaires qui pourraient vous fournir une perspective utile. 

    5. Mettez à contribution une équipe d’au moins deux, au plus six, parties prenantes. Obtenir plus de points de vue réduira vos biais et réduira la résistance au changement; mais plus le groupe est grand et plus le rendement décroit. 

    6. Documentez ce qui a été décidé, ainsi que comment et pourquoi le groupe supporte cette décision. Cela cimente l’engagement et établit une base de mesure des résultats. 

    7. Programmez un suivi dans un mois ou deux. On oublie souvent de le faire, surtout quand ça tourne mal et on manque une opportunité de faire des corrections et d’apprendre. 

    Certaines recherches montrent que les décideurs qui suivent régulièrement ces sept règles sauvent des dizaines d’heures de discussion, prennent leurs décisions des dizaines de jours plus tôt et améliorent leurs résultats de 20%.

    Voilà donc une recette simple de performance décisionnelle. Elle est plus réaliste que la théorie classique de la rationalité parfaite et reconnaissante du fait que notre psychologie nous conduit parfois dans le mauvais chemin. Un outil à la fois simple et convivial, aux impacts potentiellement énormes.

    - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -

    BON AUTOMNE...ET PRENEZ DE BONNES

    DÉCISIONS 

     

     

    Partager via Gmail

    votre commentaire
  • Nous  avons commencé la dernière fois un examen d’un débat centenaire entre deux approches probabilistes: le fréquentisme et le bayesianisme. Les deux méthodes ont leurs forces et faiblesses respectives.

    Forces et faiblesses de Bayes

    Quand le nombre de données est faible et que les chances de pouvoir répéter une expérience sont limitées les méthodes bayesiennes excellent à en extraire de l’information. En astrophysique, par exemple. L’explosion d’une supernova dans une galaxie proche (le grand nuage Magellan) en 1987 a fourni une occasion de tester de vieilles théories sur le flux des neutrinos résultant d’un tel événement – mais les détecteurs n’ont capté que 24 de ces élusives particules. En manque de données suffisantes les méthodes fréquentistes échouèrent, mais l’approche bayesienne plus flexible fournit une façon idéale d’évaluer les mérites relatifs de différentes théories concurrentes.

    Cela a aidé que des théories bien établies fournissaient des données a priori pour débuter l’analyse de Bayes. Sans celles-ci une analyse de Bayes peut facilement tourner en un cas de « garbage in, garbage out ». C’est là une des raisons pourquoi les cours de justice sont prudentes quant à l’adoption de ces méthodes, même si à première vue elles constituent une façon idéale de synthétiser des évidences désordonnées provenant de sources multiples. Dans une poursuite de paternité au New Jersey en 1993, qui a eu recourt à des statistiques bayesiennes, la cour a décidé que les jurés devaient utiliser leurs propres estimés a priori de la probabilité que le défendeur ait été le père biologique, même si cela résultait en un estimé final de culpabilité différent pour chaque juré. « Il n’y a pas de bonne ou mauvaise réponse bayesienne » dit L. Wasserman de Carnegie Mellon. « C’est très post-moderne. »

    Trouver de bonnes données a priori peut aussi demander une profondeur impossible de connaissance. Des savants à la recherche d’une cause à l’Alzheimer peuvent vouloir tester, par exemple, 5000 gènes. L’approche bayesienne demande d’identifier 5000 estimés a priori de la contribution de chacun, plus 25 millions d’autres estimés si on veut aussi examiner comment les paires de gènes fonctionnent ensemble. Impossible de construire un ensemble d’estimés a priori d’une telle taille et qui soit, de plus, crédible.

    Forces et faiblesses du fréquentisme

    Pour être juste, sans données préalables, les méthodes fréquentistes standards de tamisage progressif des nombreux effets génétiques minuscules auraient aussi de la difficulté à isoler les gènes, ou combinaison de gènes, véritablement importants. Mais c’est peut-être plus facile que de faire apparaitre 25 millions d’estimés bayesiens cohérents.

    Le fréquentisme fonctionne en général bien quand il y a plein de données objectives. Un cas bien médiatisé est la recherche du boson de Higgs complétée en 2012 au laboratoire CERN de Genève. Les équipes d’analyse avaient d’abord conclu qu’il n’y avait pas de boson; puis est apparu un patron de données si surprenant qu’un cas plus surprenant n’aurait pu se produire qu’une fois en 3.5 millions de répétitions du même essai. Si rare que l’équipe s’est sentie tout à fait confortable de rejeter l’hypothèse d’un univers sans boson de Higgs.

     

    Cette formulation peut vous sembler convoluté et elle met en lumière la principale faiblesse du fréquentisme: la façon dont il se plie en quatre dans son mépris face à toute incertitude de type «je ne connais pas ». Soit que le boson de Higgs existe, ou il n’existe pas, et toute inhabilité à décider d’une façon ou de l’autre est purement due à un manque d’information. Un fréquentiste strict ne peut exprimer un énoncé direct de la probabilité d’existence – comme les chercheurs du CERN ont effectivement éviter de le faire (bien que les médias n’aient pas hésité eux à le faire !).

    Confusion et combinaison

    Des comparaisons directes entre les deux approches soulignent la confusion qui peut en résulter. Dans un essai clinique controversé des années 90, sur deux médicaments pour les crises cardiaques (streptokinase et activateur plasminogène), une première analyse fréquentiste a donné un p de 0.001 semblant démontrer nettement que plus de patients survivaient avec le nouveau et plus dispendieux plasminogène. Ce qui revenait à dire que si, en réalité, les deux médicaments avaient le même taux de mortalité, alors des données aussi extrêmes que celles observées ne se produiraient qu’une fois par 1000 tests.

    Ce qui ne veut pas dire que les chercheurs étaient sûrs à 99.9% que le nouveau médicament était supérieur – bien que ce soit comme cela que ce type de résultats est souvent interprété. Dans une autre recherche, bayesienne cette fois, utilisant des résultats a priori d’études clinique antérieures, les chercheurs ont trouvé une probabilité directe que le nouveau médicament était supérieur de seulement 17%. Avec Bayes on s’adresse directement à la question d’intérêt, en évaluant à quel point il est probable qu’elle soit vraie – qui ne voudrait pas avoir cette réponse !

    Les forces et faiblesses de chacune de ces deux approches ne suggèrent-elles pas qu’on serait mieux de combiner des éléments des deux ? C’est ce que certains cherchent à faire. Un peu comme le langage, on peut parler français et anglais et passer de l’un à l’autre. Parfois les deux peuvent être intégrées dans un protocole de recherche et peut générer de meilleurs résultats. Il est utile de briser les barrières. Est-ce une approche bayesienne, fréquentise ? En statistiques appliquées cela importe peu au final. Ce qui ne veut pas dire que l’argumentation est terminée. « Les statistiques sont un langage abstrait que la science applique à des données pour conter des histoires sur comment la nature fonctionne et il y a plus d’une façon de conter une histoire. Dans deux cents ans il y aura peut-être une percée combinant les deux dans une grande synthèse, mais ma conjecture est qu’il y en aura toujours un versus un autre.» (Kass)

    Les probabilités sont donc qu’en 2216 deux personnes seront toujours assises dans un bar en train argumenter sur leurs chances d’avoir une bière gratuite, après avoir tiré à pile ou face.

     

    Partager via Gmail

    votre commentaire
  • Nous sommes dans un bar et tombons d’accord pour tirer à pile ou face qui paye la prochaine ronde. Quelle est votre probabilité d’avoir une consommation gratuite. La plupart des gens, ceux encore sobres à tout le moins, seront d’accord : 50-50. Je lance une pièce de monnaie en l’air, puis l’attrape et la garde cachée dans ma main. Quelle est votre probabilité maintenant ?

    Il y a deux réponses possibles : (1) elle est toujours de 50-50, à moins que vous ayez des raisons concrètes de penser autrement ; (2) assigner une probabilité à un événement passé, déjà déterminé, ne fait pas de sens.

    Votre choix de réponse déterminera de quel côté vous penchez dans un débat vieux de 250 ans, et parfois acrimonieux, sur la nature des probabilités et des statistiques. C’est une vieille prise de bec entre les fréquentistes et les Bayesiens et plus qu’un problème ésotérique car, selon Larry Wasserman du Carnegie Mellon University à Pittsburgh c’est la seule controverse scientifique qui affecte tout le monde. Une entreprise pharmaceutique peut apparemment tirer des conclusions très différentes des résultats de ses tests sur un nouveau médicament selon laquelle des deux méthodes elle utilise. De même un jury pourrait prendre une décision différente sur la base d’évidences présentées selon l’une ou l’autre de ces méthodes.

    Deux types d’incertitude

    Retournons à notre gageure…et à un slogan de T-shirt : Statistics means never having to say you're certain." Tirer des conclusions à partir d’informations incomplètes c’est le b-a ba des statistiques. Combien de gens supportent la légalisation du pot ? Vous ne pouvez pas tous les interroger une par une. Trois étés consécutifs de plus en plus chauds ? Est-ce une simple variabilité ordinaire de la nature, ou une tendance ? On ne peut voir le futur avec certitude. Les réponses à de telles questions arrivent généralement avec une probabilité attachée. Mais ce nombre simple masque souvent la distinction cruciale qui existe entre deux sortes d’incertitude : ce qu’on ne connait pas et ce qu’on ne peut pas connaitre.

    L ’incertitude du type “ne peut pas connaitre” résulte de processus du monde réel dont le résultat apparait comme aléatoire à tous ceux qui les observent : quel numéro sortira du lancer d’un dé, sur quel case une roulette va s’arrêter, quand exactement un atome radioactif va se décomposer. Ça c’est le monde des fréquentistes, car si vous lancez suffisamment de dés ou observez suffisamment de produits radioactifs vous pouvez faire une évaluation raisonnable de la fréquence relative de chaque résultat possible et donc construire une mesure de sa probabilité.

    Avec l’incertitude de type “ne connait pas” on est en terrain plus glissant. Ici c’est l’ignorance individuelle et non un état aléatoire universel qui est en jeu. Quel sera le sexe du bébé de Pierre et Catherine nouvellement enceinte ? On ne le sait pas encore – bien que ce soit une donnée déjà établie. Qui gagnera la coupe Stanley ? Ce n’est pas encore une donnée établie, la saison est toujours en cours, mais les résultats à date vous donnent au moins un certain sens de qui a une chance de gagner (si ça vous intéresse).

    Comment aborder ces différentes incertitudes est ce qui divise les fréquentistes et les Bayesiens. Un fréquentiste pur n’en a rien à cirer des incertitudes de type “ne connait pas”, ni de toute mesure de probabilité qui n’est pas dérivée d’expériences répétables, de générateurs de nombres aléatoires, d’enquêtes tirées d’échantillons aléatoires, etc. Un Bayesien, au contraire, ne cligne même pas des yeux quand il utilise des connaissances « a priori » - une connaissance des patrons antérieurs de vote par exemple – pour combler son manque de connaissance. Il est à l’aise de mettre des probabilités sur des énoncés à propos de l’état de l’univers…mais pas un fréquentiste.

    Notre gageure exemplifie cette divergence. Avant le lancer les deux écoles sont en accord : 50-50. Après la source d’incertitude change d’intrinsèquement aléatoire à ignorance personnelle. Seul un Bayesien sera à l’aise d’assigner une probabilité après le lancer. Ce sera possiblement toujours 50%, ou peut-être l’ombre d’un bref sourire au coin de mes lèvres le persuadera de baisser ce chiffre à 20%. Dans le monde Bayesien on tente de répondre aux questions avec toutes les informations pertinentes qu’on peut considérer, même quand celles-ci relèvent de jugements subjectifs.

    Bayes

    Le Bayesianisme tire son nom d’un mathématicien et ministre presbytérien anglais Thomas Bayes du milieu du 18e siècle. Il a mis au point une méthode pour s’attaquer à un casse-tête fondamental : comment travailler à reculons à partir d’observations pour en identifier les causes cachées, quand votre information est incomplète. Imaginez une boîte de douze beignes, moitié crème et moitié gelée. C’est assez simple de calculer la probabilité de tirer cinq beignes à la gelée en série. Mais le problème « à reculons », identifier le contenu probable d’une boite inconnue lorsqu’on vient d’en sortir cinq à la gelée de suite, est plus compliqué. L’innovation de Bayes fut de fournir le germe d’une approche mathématique qui permet de partir d’une supposition (peut-être avez-vous déjà acheté une boite dans ce magasin) et de la raffiner avec chaque information ajoutée subséquente.

    À la fin du 18è et au début du 19è siècle des méthodes de style Bayesien ont aidé à résoudre plusieurs problèmes, allant de l’estimation de la masse de Jupiter au calcul du nombre de nouveau-nés masculins dans le monde à chaque année, relativement aux nouveau-nés féminins. Par la suite elles sont graduellement tombées en défaveur, victimes de l’émergence de « big data ». De nouvelles sources (multiplication des données astronomiques, de nouvelles tables de mortalité et de crime) fournissaient plein de données rassurément objectives. Les méthodes de conjectures éduquées de Bayes semblaient alors vieux jeu et peu scientifiques, alors que le fréquentisme avec son brassage impartial de données froidement aléatoires gagnait en vogue. L’arrivée des théories quantiques dans les années 20 (une réexpression de la réalité dans un langage probabiliste) vient accélérer le mouvement. Les Bayesiens en ont développé un complexe de persécution.

    En réalité, les deux méthodes ont leurs forces et faiblesses respectives. Nous examinerons cela dans notre prochaine édition.

     

    Convitec Conseil en Management fête ce mois-ci ses 15 ans d’activités au service des PME et organisations québécoises.

    Merci à nos nombreux et fidèles clients pour leur loyauté et leur confiance

     

     

    Partager via Gmail

    votre commentaire
  • Introduire et faire adopter un changement majeur dans une entreprise, qu’il soit organisationnel, technologique, ou autre, n’est jamais facile. Plusieurs études rapportent des taux d’échec variant entre 50 et 75%. Un projet de changement qui a le moindrement d’envergure affectera probablement, de façon directe ou indirecte, plusieurs personnes et départements dans l’entreprise. Si cette transition est mal préparée, mal gérée elle suscitera un fort degré de résistance au changement. 

    14 raisons de résister 

    Qu’entend-t-on, au fait, par résistance au changement? On peut la définir comme « une force qui ralentit, ou arrête le mouvement, une série d’obstacles dans les processus et la structure organisationnelle qui préviennent, s’opposent au changement ». Cette résistance peut être active (critiques répétées, distorsion des faits, sabotage, rumeurs, etc.), ou passive (se dire d’accord en public, mais échouer à mettre en œuvre, procrastination, rétention d’information ou de support proactif, etc.). Divers auteurs ont recensé 14 raisons différentes pour lesquelles les gens peuvent décider de résister à un changement:  

    1. Aversion de base au changement (une personne qui n’aime pas, ne veut tout simplement pas changer).

    2. Inconfort face à l’incertitude (une personne n’aime pas l’ambiguïté, a peur de l’inconnu de la transition).

    3. Perception de conséquences délétères pour ses intérêts (la personne anticipe un impact négatif sur son statut, ses bénéfices, sa sécurité, son rôle, etc.). 

    4. Attachement à la culture (le changement entre en conflit avec l’identité corporative, les valeurs et normes courantes) .

    5. Violation perçue du contrat psychologique implicite (bris ressenti du sentiment de confiance et de loyauté; on ressent que l’organisation n’honore pas « sa part du marché »).

    6. Absence de conviction quant à la nécessité du changement proposé (différentes personnes ont une perception différente de la nécessité du changement; “si ce n’est pas brisé, pourquoi essayer de l’arranger ? ») .

    7. Manque de clarté sur ce qui est attendu (des perceptions différentes de l’intention du changement, ou de ce qui est exactement attendu des gens en termes de support à ce changement).

    8. Conviction que le changement proposé n’est pas approprié (des perceptions différentes quant à savoir si le changement proposé est le bon, ou même nécessaire).

    9. Conviction que le timing n’est pas bon (les conditions ne sont pas bonnes maintenant; l’organisation est toujours en train de digérer le changement précédent, le moral est bas, les clients ne sont pas prêts, etc.).

    10. Degré de changement excessif (trop de changements en même temps égale fatigue et moral à la baisse ; la convergence de multiples initiatives de changement peut créer des problèmes plus grands que ceux qu’elles tentent de régler).

     

     5 questions à répondre

    La première étape d’un processus de gestion du changement est de créer un bon degré de « préparation au changement », ce qui demande de le communiquer efficacement, en répondant aux cinq questions suivantes :

    » “Ce changement est-il nécessaire ?” La question s’adresse à l’absence de compatibilité entre l’état actuel et celui désiré/visé. Tant que le personnel n’est pas au courant que l’état actuel est insatisfaisant et qu’un autre est recherché, il se sentira peu incité à changer. Rien ne se produira tant que tous n’auront pas reconnu un “danger clair et immédiat”, i.e. un problème tangible et courant que l’entreprise doit confronter pour demeurer viable et compétitive.

    »  « Est-ce le bon changement ? » Cette question s’adresse à la justesse du changement proposé. Une fois le besoin de changer reconnu, les gens se demanderont «ok, mais changer pour…quoi ? » Il faut leur démontrer non seulement la nécessité de changer, mais aussi que l’initiative proposée est la bonne et ce qu’elle permettra de corriger, ou d’améliorer. Cela peut poser un défi si des initiatives passées ont été mal gérées et s’il existe un certain cynisme quant au « dernier programme à la mode ».

    » « Qui supporte ce changement ? » Ici on s’adresse au support organisationnel que le changement reçoit et au message d’engagement projeté par les leaders formels et informels. Le personnel recherchera des signes de sincérité, surtout s’il y a eu manque de suivi lors des initiatives passées. Ils chercheront aussi confirmation auprès de sources autres que la direction.

    » « Est-ce que je peux réussir ce changement ? » On adresse ici la compétence requise pour réaliser le changement.  Si quelqu’un perçoit qu’il n’a pas le pouvoir de produire les effets désirés il n’aura pas d’incitatif à agir, ou à persévérer face aux difficultés de mise en œuvre. La direction a la responsabilité de fournir la formation nécessaire. C’est particulièrement important car plusieurs peuvent douter de leur capacité à s’adapter.

    » « What’s in it for me? » Quelle est la valeur du changement pour chaque individu ? Face à un changement d’importance tous vont se demander, silencieusement, ou à voix haute : « Où sont les bénéfices pour moi ? » S’ils n’en perçoivent aucun, ou si la douleur du changement dépasse le gain à en retirer, alors ils résisteront. À l’inverse, si on peut leur démontrer qu’ils y trouveront leur bénéfice, au moins à long terme, il est plus probable qu’ils épouseront le changement proposé.

    Répondre à ces questions permettra d’atténuer, de façon variable, les quatorze sources de résistance. Un simple tableau de celles-ci, indiquant qui les exhibe et une liste d’actions à prendre, peut constituer l’ébauche d’un excellent plan de gestion du changement.

     

    JOYEUSE PÉRIODE DES FÊTES À TOUS ET BONNE ANNÉE 2016

     

    Partager via Gmail

    votre commentaire