• Ma carrière de consultant a été centrée sur aider les entreprises du Québec à devenir plus compétitives, spécifiquement en augmentant leur productivité.

    C’est donc plutôt décevant de lire le dernier bilan préparé par le Centre sur la productivité et la prospérité de HEC Montréal

    Loin derrière! 

    « En 2017, dans une heure de travail, un Québécois produisait en moyenne pour 60,15$CA (à parité du pouvoir d'achat) de PIB, comparativement à 66,95$ pour la moyenne canadienne (et) ...largement inférieure à celle de pays comme les États-Unis (82,03$) , l’Allemagne (87,38$), ou la Belgique (93,43$) »

    « En fait, depuis la récession mondiale de 2008, seules la Nouvelle-Zélande (dans les pays de l’OCDE) et la province de Terre-Neuve-et-Labrador (au Canada) ont fait moins bien que le Québec » Un constant franchement décevant, pour ne pas dire décourageant.

    Pourquoi?

    Selon le Centre trois facteurs expliquent cette situation:

    » Nos entreprises n’investissent pas assez en automatisation et en TIC;

    » Elles ne font pas assez de R&D;

    » Notre niveau de diplomation est inférieur à la moyenne des autres pays.

    Le plus frustrant de tout ceci est que l’on connait, entend et répète ce même diagnostic depuis au moins vingt ans.

    Plusieurs autres ‘explications’ ont été mises de l’avant par de nombreux autres observateurs:

    » La difficulté de transformer les processus d’affaires et à vaincre la résistance au changement;

    » Une population d’entrepreneurs vieillissants, qui hésitent à investir dans des technologies qu’ils comprennent peu ou pas et qui donc perçoivent un risque financier accru; sans compter le fait qu’ils soient plus préoccupés de protéger leur capital de retraite que de reprendre un risque entrepreneurial.

    » Des modèles d’affaires inadaptés et l’hésitation des réseaux financiers à investir dans des actifs largement intangibles (une situation qui, heureusement, s’est grandement améliorée ces derniers 4-5 ans).

    » Pour les plus grandes entreprises, la complexité et le coût de prendre en compte leurs systèmes patrimoniaux (legacy).

    » Des préoccupations importantes (et légitimes) envers la cybersécurité.

    » Des technologies qui évoluent trop vite, mettant en doute la capacité d’avoir le temps d’en amortir le coût.

    » Le taux de change, car beaucoup de technologies (robots par ex. )sont fabriqués à l’étranger et vendus en dollars américains. Étonnamment dans la période ou le dollar canadien s’échangeait à parité et mieux, cela n’a eu aucun impact sur le niveau d’investissement des entreprises canadiennes.

    » Etc., la liste d’excuses pour ne rien faire est longue.

     La seule tendance ‘récente’ (soi disant parce qu’on la voit venir depuis longtemps) qui semble avoir un effet positif est la pénurie de main d’œuvre.

    Sur ce dernier point on commence à peine à en vraiment sentir les impacts. Cette pénurie est un problème mondial comme le montre le graphique ci-contre (sauf en Inde où la moitié de la population a moins de 25 ans). Le Québec vieillît plus vite—en 2017 25.4% de notre population était âgée de plus de 60 ans.

    Selon les 40 000 entreprises dans le monde, interrogées par la firme Manpower 45% (vs 40% l’an passé) ont eu des problèmes de recrutement. 60% des entreprises américaines ont des postes vacants, ce qui, au rythme actuel, pourrait faire baisser leur PIB de 1.5% d’ici 2030.

     

     

    Partager via Gmail

    votre commentaire
  • Dans son livre Michael Mauboussin d’Harvard discute de comment nous pouvons être victime de certaines routines mentales simplifiées qui nous empêchent de faire face aux réalités complexes inhérentes à plusieurs jugements de valeur.  

    On ne se lève pas le matin en se disant ‘je vais prendre de mauvaises décisions aujourd’hui ». Et pourtant on le fait tous, même les gens qui sont objectivement très intelligents.

    Pourquoi? 

    La flexibilité mentale, l’introspection et la capacité à bien calibrer l’évidence sont au cœur de la pensée rationnelle et pourtant absents des tests de QI. Même les gens intelligents prennent de mauvaises décisions parce qu’ils ont le même câblage cérébral que tout le monde. Le problème est qu’on ne consacre pas assez de temps à apprendre de nos propres décisions et de nos processus pour les prendre. « Le décideur typique n’alloue que 25% de son temps à penser à son problème et à apprendre de son expérience décisionnelle. » La plus grande partie du temps est consacré à colliger de l’information, ce qui est perçu comme du progrès et de la diligence.

    Daniel Kahneman (dans son livre Thinking, Fast ans Slow) fait remarquer que « L’état normal de votre cerveau est que vous avez des sentiments et des opinions intuitives sur tout ce que vous rencontrez. »  Vous aimez, ou pas, les gens bien avant de les connaitre; vous sentez qu’une entreprise aura du succès, bien avant de l’analyser, etc.

    Une bonne compréhension du contexte d’un problème nécessite d’en prendre une vue la plus large possible, d’un point de vue extérieur autant qu’intérieur. Or, en réalité, typiquement, on n’essaie pas tant de bien contextualiser un problème que de satisfaire nos intuitions préexistantes.

    Ego et aveuglement

    En d’autres mots nous privilégions toujours notre point de vue intérieur à un point de vue extérieur.

    La vue intérieure se consacre sur une tache en utilisant l’information proche et  disponible puis fait une prédiction basée sur cet ensemble étroit et unique d’intrants, lesquels peuvent inclure de simples anecdotes et de fausses perceptions.

    Un point de vue extérieur cherche plutôt à trouver des situations similaires qui peuvent fournir une base statistique valide pour prendre la décision. Qu’est-ce que d’autres ont fait et avec quel résultat? Ça ne vient pas naturellement, justement parce que cela nous force à mettre de côté l’information que l’on possède déjà.

    Quand notre vue intérieure est plus positive que celle extérieure, on se dit en fait (probablement implicitement) que cette fois-ci quelque chose sera différent. Notre cerveau est trop content de nous aider à bâtir  cet argument. Premièrement (selon Mauboussin) parce que non seulement sommes –nous des optimistes par nature, mais nous succombons facilement à « l’illusion d’optimisme » (notre futur nous semble plus prometteur que celui des autres); finalement nous sommes aussi victimes de « l’illusion de contrôle’ » (nous sur-estimons notre degré de contrôle sur les événements, même ceux aléatoires).

    Pourtant la recherche démontre que lorsqu’on force les gens à examiner des situations semblables et leurs fréquences de succès, ils se montrent capables de faire de meilleures prédictions.

    En somme c’est largement une question d’ego: je suis meilleur que les autres pour faire face à cette situation et j’utilise ces rationalisations pour expliquer pourquoi ça sera différent cette fois-ci.

    Incorporer la vue extérieure

    Ça se fait en quatre étapes simples:

    1. Sélectionner un classe de référence. Trouvez un groupe de situations, suffisamment large pour être statistiquement significatif et suffisamment petit pour être utilement analysable.

    2. Évaluer la distribution des résultats. Examinez les taux de succès et d’échec. Notez la distribution, le résultat moyen, les résultats extrêmes, les plus communs. Le taux de succès doit être raisonnablement stable dans le temps pour être valide. Faites attention aussi aux situations où de petites fluctuations peuvent causer des impacts majeurs (par ex. le succès d’un livre ou d’un film qui dépend largement de facteurs d’influence sociale, un phénomène inhéremment imprévisible).

    3. Faire une prédiction. Avec ces données de référence et de distribution vous êtres en mesure de faire une prédiction raisonnable.

    4. Évaluer la fiabilité de la prédiction et l’ajuster. La fiabilité d’une prédiction dépend beaucoup de ce qu'on cherche à prédire (les météorologues sont très bons, les éditeurs de livres beaucoup moins). Moins l’historique de prédiction est bon et plus on doit ajuster vers la moyenne (ou toute autre mesure pertinente). Plus la relation cause-effet est claire et meilleure sera la prédiction.

    En somme, ce qu’il faut retenir c’est que nous tendons à nous concentrer sur ce qui est différent dans chaque situation, alors que les meilleurs décisions se concentrent plutôt sur exactement l’opposé, i.e. sur ce qui est semblable.

    Les détails peuvent varier mais, à moins que ces détails ne soient ce qui gouverne spécifiquement le résultat, le patron de résultats demeurera le même.

     

     

    Partager via Gmail

    votre commentaire
  • Nos stéréotypes nous aident à catégoriser et à comprendre le monde qui nous entoure; mais ils peuvent aussi biaiser, négativement, nos décisions. Pouvons-nous nous guérir de nos biais? 

    Rôle des biais

    Selon une étude sur les stéréotypes de l’Université Harvard les humains ont appris à tout ’catégoriser’ pour faire face au bombardement d’informations qui nous assaille à tous les jours. Cela nous permet de saisir rapidement les différences significatives entre certains groupes (serpent = dangereux; ver de terre = inoffensif) et de mettre le reste de côté. Le stéréotypage est donc une sorte ‘raccourci mental’ qui libère nos ressources cognitives pour les choses importantes. De fait cette capacité s’est avérée essentielle pour la race humaine, nous aidant à éviter les situations dangereuses. Selon le professeur de psychologie Mahzarin Banaii de l’université Yale: « Notre habilité à catégoriser et évaluer est une partie importante de l’intelligence humaine, sans laquelle nous ne pourrions survivre ».

    Les dangers

    Est-ce un processus efficace? Peut-être! Sûrement quand on décide si, oui ou non, on va taquiner ce serpent dans notre jardin. Mais nos stéréotypes peuvent aussi être inexacts, de façon persistante. Selon John Bargh du New York University, la recherche a démontré que nous sommes prédisposés à nous concentrer sur les différences qui confirment nos stéréotypes préexistants, ce qui nous entraine dans un cycle où l’on ne reconnait que ce que l’on pense déjà vrai et où on ignore tout le reste (ce que le psychologue Peter Wason a appelé le ‘bais de confirmation’).

    Nonobstant toute considération morale et sociale, les biais créent une barrière pour toute entreprise qui veut innover. Non seulement cela présente en problème en termes de capacité à penser différemment, créativement, ‘hors de la boite », mais aussi en termes discrimination. Le résulta peut être un environnement peu ouvert aux idées alternatives, où les idées innovatives ne sont pas entendues.

    Prévenir plutôt que guérir

    Plusieurs organisations se sont tournées vers des programmes de sensibilisation à la diversitéj pour contrer ce problème, mais cela s’est avéré peu efficace. Selon Iris Bohnet, directrice du Harvard Kennedy School’s Women and Public Policy Program: « Pour que leurs croyances changent il faut d’abord que les expériences des gens changent ».Plutôt que des séminaires elle propose plutôt aux entreprises de “redesigner leurs processus de façon à éviter les biais à la source ».

    Mais comment saper cette mauvais habitude? On ne peut pas s’empêcher d’avoir des biais; cela fait partie intégrale du câblage cérébral humain. La réponse ne consiste donc pas à essayer de les éliminer, mais plutôt à changer nos processus de collaboration et de communication afin de prévenir leur apparition.

    Plusieurs moyens simples sont possibles:

     · impliquer des gens avec des expériences différentes;

    · demander des alternatives différentes (même mettre des groupes en compétition à cet égard);

    · créer une ambiance où l’expression de divergences et les désaccords sont acceptés, où la présence de biais est reconnue;

    · s’assurer que les objectifs et les critères de décision sont reconnus et partagés;

    · favoriser les processus basés sur les faits et l’analyse rationnelle et non émotionnelle;

    · éviter le biais d’ancrage (en introduisant des données numériques trop tôt;

    · utiliser un ‘avocat du diable’ pour challenger un consensus trop vite atteint, etc.

    La technologie peut aussi aider. Des applications permettent par exemple de faire des choix de candidats à l’aveugle, i.e. en ne rendant évident que le talent et en gardant anonymes les données sur l’âge, le sexe, le statut socio-économique, etc.  (certains orchestres symphoniques utilisent cette approche déjà).

    En neutralisant nos biais on peut briser le lien entre nos réactions purement instinctives et nos actions et, ainsi, libérer des talents latents. Un tel changement fondamental dans le fonctionnement de nos entreprises leur permettrait d’accéder à des processus décisionnels plus profonds et multi-dimensionnels et de tirer les pleins bénéfices de la diversité.

     BONNE SAISON DES FÊTES!

     

     

    Partager via Gmail

    votre commentaire
  • Encore aujourd’hui beaucoup de dirigeants partagent leurs données essentielles via des Excel, quelques bases de données maison, dans des documents Word, quand ce n’est pas via des listes manuscrites. Trop, très peu utilisent des techniques avancées d’analyse de données. Cette situation, heureusement, est en voie de changement rapide. On voit apparaitre de nouveaux types de dirigeants ‘C’: Chief Data Officers, Chief Analytics Officers, and Chief Performance Officers. 

    A quoi ressemblent les organisations ‘data-driven’ ?

    On les reconnait à plusieurs indices:

    · Elles développent des modèles mathématiques et des algorithmes d’analyse prédictive leur permettant d’améliorer significativement leur performance opérationnelle.

    · Elles instaurent un changement de culture organisationnelle dirigée vers une prise de décision basée sur des données concrètes (data based). Elles réussissent en donnant à chaque département et à chaque fonction les compétences et les outils nécessaires à une meilleure compréhension et à une meilleure utilisation des données.

    · Elles créent un ensemble d’outils et de gabarits (portails, tableaux de bord, cartographies, etc.) pour répandre la littératie numérique à travers l’entreprise.

    · Organisationnellement, chacun de leurs départements a un coordonnateur des « données » (modèles, coûts, budgets, contrats, demandes, ventes, qualité, etc.), responsable de les inventorier, de les créer et de les partager de façon transparente et rapide.

    Un modèle de maturité

    Chaque entreprise aura son parcours unique, mais, au plus haut niveau, elles ont en commun une culture qui valorise les données et leur utilisation et qui alloue, de façon prioritaire, des ressources à la création de programmes, de mesures et d’outils d’analyse avancés.

    Le modèle ci-dessous décrit le parcours générique suivi par toute entreprise dans sa quête d’une plus grande maturité dans sa capacité à produire et à partager des données. Des données ouvertes et transparentes en sont la fondation.

    1. Capturer et publier 

    Le premier niveau de maturité dans l’excellence analytique est la collecte et le partage de données utiles et facilement utilisables par tous les usagers, à tous les niveaux, dans l’entreprise.

    Lancer un programme de données ouvertes n’assure pas automatiquement la qualité de celles-ci. Mais leur exposition au plus grand nombre possible d’utilisateurs suscitera des réactions et des commentaires d’amélioration de la part de ceux-ci. La publication en elle-même sera une source d’amélioration, en encourageant le plus grand nombre à faire des doubles vérifications de leur complétude et de leur exactitude. De plus cela créera rapidement un appétit pour plus de données.

    Une politique de « données ouvertes » démontrera l’engagement de la direction et  permettra d’en énoncer les objectifs et les standards. Une telle politique articulera le calendrier et le processus de publication et de mise à jour, délimitera les rôles et responsabilités, définira les données à partager ouvertement, tout comme celles à diffusion restreinte (pour raisons de confidentialité, ou de sécurité). Une telle politique devrait indiquer clairement que toute donnée est, par défaut, partageable. Des procédures d’audit et de mesure de qualité doivent être établies, de même qu’une stratégie de mise en place de la politique.

    2. Polissage

    Le deuxième niveau de maturité bâtit sur les fondations du premier, en visant à améliorer la qualité des données (polissage). À ce stage de maturité la collecte et la publication de données est routinière et leur volume s’accroit rapidement, ce qui entraine un intérêt et une utilisations accrus.

    La disponibilité d’un large volume de données d’une grande diversité rend possible l ‘utilisation de techniques analytiques et de prise de décisions « data-driven », ainsi que l’appariation d’une culture des données. Les outils sophistiqués se propagent et créent de la valeur.

    3. Analyse

    Avec de grands volumes de données de grande qualité disponibles les décideurs peuvent commencer à en faire des analyses sophistiquées, à la recherche de patrons répétitifs et de nouvelles compréhensions.

    De plus on peut utiliser ces nouveaux éclairages à des fins prédictives. L’analyse prédictive sur des données historiques et en temps réel permet de prédire des événements futurs, afin de prévenir ceux qu’on préfère éviter.

    À ce stage les habilités des analystes, coordonnateurs et scientifiques des données se sont fortement développées, alors même qu’une disponibilité accrue de ces données accroit le momentum d’analyse avancée.

    4. Optimiser

    Au niveau le plus élevé l’utilisation des données est présente et optimisée à travers toute l’organisation. La culture en place non seulement accepte, mais embrasse l’utilisation des données, lesquelles font maintenant partie intégrale de la prise de décisions à tous les niveaux.

    L’analyse devient rapidement transversale, alors que le travail s’organise maintenant autour de processus d’affaires plutôt que par silos fonctionnels.

    À ce haut niveau de maturité les dirigeants adoptent une approche décisionnelle centrée client. Leur démarche s’articule sur la recherche préalable de fait plutôt que sur la démonstration a posteriori d’opinions préconçues.

    En somme

    Est-ce que le chemin vers l’excellence analytique est facile? Bien sûr que non; pas plus que toute transformation organisationnelle.

    Comme le disait John Kotter, l’expert universitaire du changement: “En réalité, même les efforts de changement réussis sont désordonnés et pleins de surprises.” Et pourtant une approche analytique centrée-données offre la meilleure promesses d’un meilleur alignement des ressources et des besoins.   

     

     

    Partager via Gmail

    votre commentaire
  • Une perspective originale, à la fois simple et brillante du professeur Ajay Agrawal du Rotman School of Business Management de l’Université de Toronto. 

    Quels coûts sont réduits?

    Les économistes posent toujours la même question plate pour évaluer la valeur d’une nouvelle technologie: « Oui, mais ça va faire baisser quels coûts au juste? ».

    Prenons un exemple du passé, les semi-conducteurs, pour illustrer ce qui arrive lorsqu’une technologie fait baisser le coût d’un intrant utile. Les semi-conducteurs ont réduit le coût de faire des opérations arithmétiques et, ce faisant, cela a eu trois conséquences importantes:

    1. Nous nous sommes mis à utiliser de plus en plus d’opérations arithmétiques dans des applications, au début surtout militaires et gouvernementales, qui les utilisaient déjà, puis dans d’autres domaines, comme la prévision de la demande, parce que ces calculs étaient maintenant faciles et peu dispendieux à faire. 

    2. Puis nous nous sommes mis à utiliser ces outils arithmétiques peu dispendieux pour résoudre des problèmes qui n’étaient pas traditionnellement formulés en termes arithmétiques. Par exemple, la création d’images photographiques, qui faisait avant appel à la chimie, est passée au traitement digital. 

    3. En parallèle la valeur d’autres choses a aussi été impactée: celle des compléments aux outils arithmétiques a augmenté (dans le cas de la photographie, pensons aux logiciels et équipements digitaux) et celle de leurs substituts a baissé (par ex. les films et produits chimiques de la photographie traditionnelle). 

    Un pouvoir de prédiction accru

    L’impact économique de l’intelligence artificielle (IA) sera important car il permet de réduire substantiellement le coût d’un intrant de premier ordre dans de nombreuses activités, tant d’affaires que personnelles: le coût de faire des prédictions. 

    Avec la baisse du coût nous utiliserons la prédiction de plus en plus pour des problèmes classiques (par ex. la gestion des stocks), parce que nous pourrons faire de meilleurs prédictions, plus vite, plus facilement et plus économiquement. Mais nous utiliserons aussi la prédiction pour résoudre des problèmes qui n’étaient pas, jusqu’à maintenant, considérés des problèmes de prédiction.

    Par exemple on n’avait jamais considéré les véhicules autonomes comme un problème de prédiction. Traditionnellement les ingénieurs ont conçu des véhicules auto-guidés (AGV) simples pour fonctionner dans des environnements contrôlés, en programmant des trajets filoguidés préétablis dans un entrepôt, ou une usine, et des réactions prédéterminées dans certaines situations (si un humain passe devant alors arrêter; si une étagère est pleine alors passer à la suivante, etc.).

    Mais cette approche est infaisable avec des automobiles dans les rues d’une ville,  parce qu’il y a beaucoup trop de ‘si’ possibles: s’il fait noir, s’il pleut, si un enfant se lance devant, si l’auto en face clignote pour tourner devant nous, etc. Aujourd’hui on peut recadrer ce problème en termes de prédiction. Un algorithme d’IA n’a qu’à prédire une réponse à une seule question: « Que ferait un humain dans cette situation? » Les actions possibles sont limitées: tourner à gauche, à droite, accélérer, ou freiner. Figurativement on met l’IA dans l’auto avec un humain, on lui fait prédire une action. Comme il n’a pas d’yeux ni d’oreilles on le dote de caméras, de radars, de lidars, etc.

    Au début l’IA fera beaucoup d’erreurs. Mais en comparant avec ce que fait l’humain elle apprend et améliore son modèle constamment, jusqu’à devenir tellement bon qu’elle n’a plus besoin de l’humain pour agir.

    Données-jugement-décision-action

    Comme avec l’arithmétique lorsque le coût de la prédiction baisse la valeur de ses substituts diminue et la valeur de ses compléments augmente. Le principal substitut à la prédiction artificielle est la prédiction humaine. Comme humains nous faisons des prédictions continuellement; mais malheureusement nous sommes des penseurs peu disciplinés, en plus d’être sujets à de nombreux biais cognitifs et décisionnels bien documentés, ce qui fait de nous de mauvais prédicteurs. Au fur et à mesure que les prédictions d’IA deviendront meilleures et que leur coût baissera, la valeur de la prédiction humaine diminuera.

    Mais, en même temps, la valeur des compléments à la prédiction augmentera. Parmi ces compléments fréquemment mentionnés on trouve les ‘données’. Plus le coût de prédiction baisse et plus la valeur des données corporatives augmente.

    Cependant, il y a un autre complément important qu’on mentionne moins souvent: le ‘jugement‘ humain. Nous utilisons des prédictions ET du jugement pour prendre des ‘décisions’. Historiquement on a toujours groupé les deux ensemble, dans une étape unique. Maintenant on peut séparer les deux aspects: avec la machine qui prédit le rôle distinct du jugement devient plus clair et sa valeur plus importante, vu que la machine ne peut porter de jugement. L’IA peut seulement faire des (bonnes) prédictions et les transmettre à l’humain pour que celui-ci juge quoi faire avec, i.e. prenne une ‘décision’.

    Un autre complément à la prédiction est l’action’. Une prédiction n’a de la valeur que si elle aboutit sur une action. Par exemple un algorithme de prédiction de la demande a beau être extrêmement juste et précis, il n’aura aucune valeur tant qu’un humain ne décide pas quelle quantité il compte acheter, ou produire. Nous ne possédons pas seulement nos données comme actifs, nous possédons aussi nos actions.

    Au début les outils d’IA auront un impact surtout sur l’efficience d’une compagnie (par ex. des gains de 1-10% du BAIIA), mais sa vraie valeur réside dans son potentiel transformationnel. Par ex. l’outil de recommandation d’Amazon est précis à 5% (i.e. en moyenne nous achetons une recommandation sur 20); ça semble peu, mais quand on pense qu’Amazon vous a sélectionné 20 choix parmi son offre de plusieurs millions d’items, c’est quand même pas mal! Mais le jour où sa précision atteindra 50% Amazon pourrait décider de ne même pas attendre votre décision et de vous l’expédier (avec droit de retour bien entendu). Ça vous évitera de le commander ailleurs, ou d’hésiter dans votre décision (c’est déjà dans vos mains) - un nouveau modèle d’affaires! 

     

     

    Partager via Gmail

    votre commentaire



    Suivre le flux RSS des articles
    Suivre le flux RSS des commentaires