Rutanquote rutan beta Les choix doivent-ils forcément être téméraires ? 

L’imaginaire populaire veut que prendre une décision soit toujours une prise de risque et donc un acte de courage et si c’était seulement un choix intelligent entre plusieurs options documentées et analysées objectivement, et donc un signe de sagesse ? Se pourrait-il que l’utilisation massive des tests permette enfin de mettre un terme aux bras de fer politiques lorsqu’il s’agit de proposer des choix aux citoyens ou aux managers.


 

Un problème d’ego

À chaque fois qu’un gouvernement doit prendre une décision politique ou la direction d’une entreprise une décision stratégique, on assiste à un ballet incessant, assorti de prises de positions marquées, de la part de ses dirigeants. En général, une moitié qui veut faire preuve de courage affronte l’autre qui freine en arguant de la prudence, sans qu’il soit fait preuve de beaucoup d’objectivité, et pourtant les deux camps recherchent en général la même chose : le bien-être des citoyens ou de l’entreprise.

Il est très rare que les décisions aboutissent au choix qui serait le plus logique et qui consisterait tout simplement à essayer !

En règle générale, c’est la logique binaire du oui ou du non qui l’emporte, et plus tard l’on pourra toujours chercher des excuses à un échec ou à un manque de clairvoyance. Quelles sont les raisons de ces attitudes dépassées qui ne mènent à rien tout en créant de nombreux conflits inutiles.

Le principe même du « chef » repose sur sa capacité à guider ses inféodés vers des jours meilleurs, plus de nourriture, plus de richesses, etc. Il est donc évident que tous les personnages dépositaires d’un minimum d’autorité essaient de conforter leur rôle en démontrant leurs capacités à prendre des risques, des décisions téméraires, intuitives, parfois hors de toute logique. Il est fort probable que si l’on analysait statistiquement le résultat de chacune de leurs décisions, il s’avérerait que la moitié a conduit à une réussite et l’autre moitié à un échec. Si ce pourcentage varie de quelques points l’entreprise disparaît, dans le cas contraire elle est florissante, un peu comme au tennis ou le vainqueur n’est parfois séparé du perdant que de quelques points. Le fait de savoir qui avait raison importe fort peu lorsque l’on subit le résultat final, plus particulièrement en cas d’échecs successifs.

Mais la prise de décision « élitiste » per un petit nombre de dirigeants n’est pas la seule à produire ces effets. En démocratie, les votations permettent au peuple d’exprimer des choix et de définir ainsi des orientation politiques, que ce soit directement ou par l’élection de représentants défendant certaines opinions. Même si le fait d’impliquer un nombre nettement plus grand d’individus dans le processus de prise de décision oblige à une plus grande information et à une réflexion plus poussée au travers des multiples débats, la décision finale est souvent prise « par les tripes » et débouche sur un saut dans le vide. Et en fin de compte l’on se retrouvera avec le camp de perdants pour critiquer le camp des gagnants si les résultats ne sont pas à la hauteur.

Quelle perte de temps, d’énergie et d’argent ! Sans parler des conflits inutiles et stériles opposant des personnes qui sont majoritairement de bonne foi.

Il y aurait peut-être une autre voie, plus démocratique, plus objective, et surtout plus transparente qui consisterait à recourir systématiquement, ou du moins à chaque fois que cela est possible, à l’expérimentation au sens large du terme, à savoir à des essais, des tentatives, des prototypes, en protocolant, documentant et analysant systématiquement les résultats selon des critères standardisés acceptés par le plus grand nombre. Cette démarche est parfois un peu plus longue, mais permettrait certainement d’éviter de trop grosses « casses » et surtout elle aurait le mérite de ne pas trop impliquer les observateurs qui peuvent assumer une certaine neutralité pendant l’expérience.

Mais pour arriver à une acceptation d’une telle démarche, plusieurs obstacles majeurs encombrent la route:

  1. La culture du droit à l’erreur est un élément fondamental des processus d’expérimentation. le principe même d’expérience sous-entend que le résultat ne peut-être connu à l’avance et donc qu’il ne saurait être fait mention d’erreur, mais bien de résultat d’expérience. Cela sous-entend aussi que l’on ne devrait pas prendre parti avant d’avoir un résultat, mais plutôt de collaborer au mieux à son obtention, et surtout à sa crédibilité.
  2. La définition de l’expérience, le champ et l’objet, la méthode, de même que l’interprétation des résultats, doit pouvoir se faire sur une base communément admise pour offrir des garanties d’acceptation. Lors des conclusions, les risques et opportunités doivent être clairement identifiés afin que l’on puisse objectivement décider des suites à donner à l’expérience.
  3. L’intérêt direct des parties peut fausser la décision et parfois un choix prétéritant une large majorité de la population se fait au bénéfice de quelques élites ayant réussi à orienter l’opinion. Pour toutes décisions politiques ou stratégiques, il conviendrait en premier lieu d’analyser les intérêts de toutes les parties et surtout de voir « à qui profite le crime« . C’est seulement à cette condition qu’un semblant d ‘objectivité pourra être atteint.
  4. La préférence au court terme, qui reste encore un travers majeur de nombreux décisionnaires dont les mandats ne couvrent pas forcément la durée complète du projet et qui de ce fait montrent peu d’intérêt à ses conséquences à long terme.

Cela démontre clairement la nécessité d’une mentalité collaborative (et curieuse) permettant de définir en commun les raisons et les objectifs liés aux expérimentations. Il est vrai que dans de nombreux cas des décisions impliquent un renoncement à certains dogmes, d’autant plus facilement acceptable si l’on arrive à laisser de côté les notions de perdants et gagnants. Mais hors ce changement de raisonnement au niveau des décisionnaires, il en est un autre nettement moins facile à faire passer et qui consiste à prendre conscience de la non-intangibilité des choses, de la perpétuelle évolution que connaissent les sociétés, ainsi que des effets systémiques qui s’y déploient. Ce qui est vrai aujourd’hui ne le sera peut-être plus demain, et à cette effet il convient aussi de prévoir des portes de sorties, des solutions de rechange, de la réversibilité, pour les cas où l’expérience démontrerait des résultats négatifs ou peu intéressants.

 

Quelques exemples :

A/B Testing

Cette méthode utilisée à l’origine pour l’optimisation des sites web, et à laquelle de nombreuses entreprises comme Google, Amazon et EBay ont recours pour améliorer la navigation sur leurs sites, a aussi été utilisée dans la campagne du Président Barack Obama en 2008. Les développeurs du site internet de la campagne ont ainsi testé à la fois différents boutons, différentes images, et ont également testé l’impact de vidéos à la place des images.

Une excellente présentation se trouve sur le site http://theologique.ch/campagne-web-obama et démontre comment tout au long de la campagne, l’esprit « work in progress » a permis à ses directeurs de campagne de s’adapter en permanence aux diverses situations et d’optimiser leur communication. Cette mentalité flexible implique que rien n’est jamais acquis, que tout peut être remise en cause et qu’il faut être en permanence en mesure de s’adapter.

Un excellent article sur le même sujet : http://www.wired.com/business/2012/04/ff_abtesting/all/ dans le magazine WIRED et un autre plus critique : http://www.wired.com/opinion/2013/11/what-to-do-when-ab-testing-doesnt-allow-us-to-c-enough/ 

Culture de l’erreur

La gestion des erreurs médicales en Suisse est récemment remise en cause par un professeur de l’Université de Neuchâtel, Olivier Guillod, qui lance un projet pour étudier le phénomène. Il part du principe que si l’on arrivait à mieux répertorier et comprendre toutes les erreurs commises par le corps médical, l’on pourrait nettement améliorer la qualité des soins et éviter qu’elles reproduisent. La transparence n’est pas encore suffisante.

Le problème principal étant la culture de l’erreur et de la responsabilité qui conduit de nombreuses erreurs à être passées sous silence et empêche donc une étude détaillée de leurs causes. Un article de « médecine et hygiène«  illustre clairement le phénomène.

 

Procéder par échantillons et prendre du recul

Au niveau de la politique de lutte contre les toxicomanies, les dogmes moralisateurs ont une très forte influence sur la politique adoptée par les divers gouvernements et de ce fait la répression a longtemps été privilégiée. Diverses autorités locales en Suisse, aux Pays-Bas ou encore au Royaume-Uni, ont choisi d’expérimenter la voie de la médicalisation et donc d’une distribution contrôlée des produits aux personnes dépendantes.

« En juillet 2001, le Portugal fut le premier pays européen à décriminaliser l’usage et la possession de toutes les drogues illicites. Nombreux étaient les observateurs hostiles à cette mesure, estimant qu’elle provoquerait une augmentation de l’usage des drogues et des problèmes associés. Les résultats d’une étude, publiés récemment, prouvent que cette crainte n’était pas fondée, tout en corroborant les conclusions de leur étude. Le rapport de 2010 de Hughes et Stevens montre une légère hausse du taux global de l’usage de drogues au Portugal au cours des dix années suivant la décriminalisation, mais cette hausse est comparable à celle d’autres pays similaires où la consommation de drogues est restée pénalisée. Dans le cadre de cette tendance générale, on note une baisse sensible de l’usage d’héroïne, qui représentait la principale préoccupation du gouvernement portugais en 2001. La conclusion d’ensemble du rapport est que la dépénalisation, associée à la mise en place de services thérapeutiques alternatifs destinés aux usagers souffrant de leur dépendance, a réduit la charge de travail du système judiciaire ainsi que le niveau d’usage problématique des drogues. »

Aujourd’hui grâce au courage des pionniers qui ont choisi de réaliser dans leurs localités ce genre d’expérience, malgré les risques et les obstacles, de nombreuses collectivité commencent à les imiter et la criminalité liée aux drogues pourra peut-être un jour être vaincue. Mais les luttes politiques entre partisans et opposants ont fait perdre un temps précieux, et pendant ce temps des millions de personnes souffrent des effets directs des drogues et des effets indirects du trafic.

 

Quelles expérimentations dans quels domaines ?

Toutes les décisions politiques ou stratégiques impliquent des choix dont les incidences se limitent en général à deux domaines :

  1. Les aspect économiques : qui comprennent toutes les conséquences sur le budget, à court, moyen et long terme et qui sont elles-mêmes la simple addition des coûts et bénéfices engendrés par le choix à faire. Les aspects économiques comprennent aussi les effets sur l’environnement et la santé, dont la préservation peut-être chiffrée, ou du moins évaluée.
  2. Les aspects sociétaux :  qui comprennent toutes les modifications du mode de vie qui ne sauraient être chiffrées directement, mais qui ont trait à une amélioration ou à une détérioration subjective de la qualité de vie. Très souvent ces aspects sociétaux se traduisent aussi par des effets économiques dérivés, mais qu’il conviendra d’analyser séparément.

 

Comment tester les aspects économiques ?

Lorsqu’un projet voit le jour, l’une des premières étapes est de chiffrer son coût et ses bénéfices dans un budget préliminaire, et par là de déterminer sa faisabilité par rapport aux moyens disponibles. Bien que les progrès en la matière soient notables, il reste souvent bien des inconnues qui ne seront pas chiffrées pour des raisons « politiques », à savoir la volonté de quelques individus de réaliser le projet à tout prix. Pour limiter la casse, il existe pourtant des solutions simples :

  • Définir clairement la durée du projet qui ne s’arrête pas à la construction, mais à la destruction ou parfois la remise en état. Ce facteur éviterait bien des désagréments de nombreuses années après la soi-disant conclusion du projet.
  • Adapter le financement en tenant compte du facteur précédent et en prévoyant dans le budget un poste à cet effet.
  • Fragmenter le projet à chaque fois que cela est possible. Il est toujours moins risqué de lancer des petits projets successifs, qu’un grand projet d’une traite.
  • Créer des scenarii qui envisagent toutes les options. L’informatique permet aujourd’hui de multiplier les simulations, comme pour la météo, et de les réactualiser régulièrement.
  • Définir les risques minimaux, moyens mais aussi maximaux du projet à tous les niveaux. Le principe de précaution devrait régir toute analyse à ce niveau.
  • Monitorer, surveiller le projet grâce à des points clés (KPI) ou autres critères qu’ils soient temporels, qualitatifs, quantitatifs.
  • Actualiser régulièrement le budget en fonction de l’évolution constatée et prévue. Les données peuvent varier dans le temps et seule une actualisation objective permet de garantir une conclusion sans surprise.
  • Introduire de la flexibilité et de la transparence : très souvent des dépassements de budget sont constatés car la direction du projet a choisi d’augmenter l’investissement pour diminuer les futurs coûts d’exploitation. Ces décisions font partie de la vie du projet et devraient être parfaitement transparentes et intégrées dans les paramètres précédents.
  • Réagir et modifier le projet, au fur et à mesure des évolutions constatées au niveau des paramètres précédents et de l’environnement. Il est parfois moins onéreux de stopper un projet à 80% réaliser que de payer les dégâts que son achèvement pourrait occasionner.

Un projet ne devrait se constituer que d’une vision stratégique accompagnée d’une enveloppe financière initiale qui justifie de sa faisabilité. Par la suite, il est impératif qu’un processus itératif se mette en place et lui permette d’évoluer, de se réaliser ou de s’éteindre, selon la situation.

Pour tout ce qui a trait aux aspects économiques, il existe une batterie d’expériences et de tests qui permettent d’analyser sa viabilité.

  • Études d’impact environnementales ou sur la santé.
  • Études utilisateurs ou banc d’essais pour la qualité, la durabilité, l’ergonomie, etc.
  • Marchés-tests pour lancement d’un produit ou d’un service.
  • Études de marché afin de définir l’existence d’un ou de plusieurs besoins.

Il existe malheureusement un certain nombre d’autres facteurs politiques et stratégiques, qu’ils soient de l’ordre de l’esprit de lucre, ou de soif de puissance, qui contribuent à fausser le jeu et à opacifier la gestion de divers projets.

L’argument principal qui est ressassé à chaque fois est : « Si l’on devait tout prendre en compte, l’on ne ferait plus rien !« . Telle n’est pas la réalité, car si l’on devait tout prendre en compte, on ferait simplement les choses différemment et probablement que le bénéfice pour quelques uns serait réduit à court terme, mais il est sûr qu’à long terme la majorité sortirait gagnante du processus.

Quelques bons et mauvais exemples

Les centrales nucléaires

Au moment de leur construction, il semblait réaliste d’imaginer que le progrès technique permettrait de trouver une solution pour les déchets et les radiations en cas d’accident. Les scientifiques, tout à leur bonheur de pouvoir manipuler un nouveau jouet, ont largement sous-estimés les conséquences des centrales sur l’environnement, notamment en limitant l’analyse des risques. La décision prise dans de nombreux pays de fermer les centrales suite à divers incidents se heurte aujourd’hui à un nouveau problème : la sous-estimation des coûts de mise hors-service et surtout la non-adaptation du taux de capitalisation des sommes provisionnées dans ce but dans les budgets et donc un manque à ce niveau. Si dès le départ le travail avait était fait objectivement, et non pas exclusivement dans l’intérêt à court terme des constructeurs de centrales et de leurs exploitants, le coûts du KW nucléaire aurait été nettement supérieur dès le départ, ce qui aurait permis aux énergies vertes de décoller plus tôt. Une actualisation permanente des risques, mais aussi des coûts aurait permis d’éviter ce genre de situations.

L’on peut faire la même analyse avec divers sites pollués dont l’assainissement revient aujourd’hui à l’État, car les entreprises coupables n’ont jamais provisionné d’argent à ce titre. Lonza en Valais en est le dernier exemple et il est fort probable qu’ils ne paieront qu’une fraction des coûts de dépollution en menaçant au niveau de l’emploi par exemple.

 

Nestlé : le cas « FLAIR »

Dans les années 70, Nestlé avait pris la décision de lancer un nouveau dessert à base de lait « FLAIR ». Il s’agissait d’une conserve contenant une espèce de marmelade qu’il convenait de mélanger à une certaine quantité de lait. En quelque minute le mélange gélifiait et formait une crème dessert aux fruits.

Nestlé lança le produit en Suisse (et en Australie ?) comme marchés-tests à grand renfort de publicité, à la télévision notamment. Le lancement fut un énorme succès au point d’aboutir à une rupture de stock, mais sitôt après les ventes déclinèrent. Il fut décidé de procéder à un « relaunch » et de refaire une nouvelle campagne. Un phénomène similaire se produisit mais avec moins d’ampleur.

Pour en avoir le cœur net, Nestlé décida d’organiser une étude qualitative auprès des consommateurs et se rendit compte que la publicité était trop alléchante par rapport au produit qui ne tenait pas ses promesses ni gustativement, ni « chimiquement », car le mélange du lait, produit idéalisé comme « pur » avec une marmelade à priori innocente, mais qui faisait gélifier le lait, lui ôtait ses caractéristiques naturelles pour en faire un produit « chimique ».

Le produit fut abandonné et grâce aux marchés-tests, Nestlé économisa des millions sur la dépense supplémentaire qu’aurait coûté un lancement mondial. Étonnamment l’on ne trouve pas trace de cette affaire sur le net ???

 

Les aspects sociétaux 

On tombe ici sur les aspects les moins testés car les plus sensibles. Les choix de vie sont liés à de nombreux choix plus dogmatiques d’ordre moral, religieux, historique ou encore simplement sentimental. Remettre en cause ces dogmes est probablement l’action politique la plus difficile à entreprendre. L’Histoire montre néanmoins que toutes les sociétés évoluent et s’adaptent aux changements liés aux évolutions technologiques et démographiques. Les évolutions culturelles et sociales, sont les conséquences de nouveaux comportements liés à des facteurs matériels en perpétuelle évolution. Malheureusement à chaque rupture techno-démographique, correspond une rupture socio-économique, débouchant en général sur une crise politique et de nouveaux choix culturels. Ces phénomènes sont assez lents, mais la politique ne réussit que rarement à adapter la société à la nouvelle situation, le plus souvent du fait d’une vision à court-terme assez conservatrice, car personne n’aime le changement.

Il est évident que presque toutes les décisions prises à ce niveau ont des implications économiques directes ou indirectes, mais à la différences de celles vues plus haut, elles ne sont que des conséquences d’une décision concernant un mode de vie. Et c’est ici que des décisions plus rapide basées sur des échantillons et des expérimentations pourraient apporter un net bénéfice tout en évitant des conflits inutiles.

Le plus souvent les controverses ont lieu sur des sujets liés au mode de vie et les batailles entre tenants du statu quo et initiateurs de changements sont féroces. Le pire est que personne ne serait capable de démontrer le bien fondé de sa position.

Dans ces domaines, le temps et la lente évolution des mentalités fait changer bien des choses, mais à quel prix. Il faut se souvenir des luttes pour le droit de vote des femmes, le droit de vote à 18 ans, les droits civiques pour tous, le droit au divorce, les droits de enfants, etc. pour comprendre que tout finit par arriver et qu’en fin de compte les prédictions de malheur émises par les Cassandre conservatistes ne se sont jamais réalisés.

Aujourd’hui les grandes causes sont essentiellement liés à des droits économiques plus égalitaires, à la libéralisation de certains comportements considérés encore récemment comme amoraux, sans parler des grandes décisions géopolitiques de scission, fusion ou d’adhésion à des ensembles divers.

  • Au niveau des droits à plus de justice économique, plus d’égalité, l’argument principal repris de tous bords est l’échec des systèmes communistes, et de ce fait on laisse un capitalisme sauvage détruire de manière éhontée la classe-moyenne qui était justement l’un des seuls acquis positifs dont il pouvait se targuer face aux systèmes égalitaristes purs et durs.
  • Au niveau des droits « moraux », le mariage et l’adoption entre partenaires de même sexe, reste un point conflictuel, notamment pour tous ceux qui prônent les valeurs « religieuses », alors qu’au sein de ces institutions le mensonge, la corruption et les déviances sexuelles, sans parler du passé, de l’inquisition, du soutien à l’esclavage, à des régimes totalitaires, ont complètement sapé l’autorité morale qu’elles détenaient.
  • Au niveau de la libéralisation de la consommation de stupéfiants, les opposants refusent de voir les dégâts causés par la criminalité qui est liée aux trafics, et sont les mêmes qui voudraient voir libéralisés la publicité pour le tabac et l’alcool dont les ravages sont bien plus graves.

Le temps donnera son verdict et très probablement, dans ces trois domaines, les évolutions correspondront à ce qui s’est déjà vu par la passé. Mais à nouveau, que de malheurs, que d’insultes, que de vies brisées pour quelques dogmes.

Et si l’on essayait plutôt ?

 

Quelques essais potentiels :

Revenu inconditionnel de base : 

Ce thème risque bien de devenir l’un des sujets politiques les plus chauds ces prochaines années, tant il est attrayant, utopiste et porteur d’espoir. Il va susciter un débat sans fin, des luttes impitoyables, des votations serrées et peut-être qu’un jour on vivra différemment.

Sans vouloir détailler ici l’argumentaire qui fera l’objet d’un article séparé, l’on rappellera que l’idée de base est de verser à chaque citoyen (yc enfants) d’un territoire donné un somme donnée, correspondant en général au minimum vital. Il s’agit d’une espèce de droit à exister que l’on pourrait comparer avec celui qu’avaient les hommes préhistoriques de s’installer dans des zones ou personne ne venait leur contester ce droit.

Les grandes questions que pose son introduction sont d’ordre macro-économique et surtout que se passera-t-il après son introduction ? Inflation, hausse des loyers, pénurie de main d’œuvre ?

Pourquoi ne pas progresser par petits pas et commencer à introduire une petite somme, de l’ordre de 500.-, en supprimant progressivement d’autres allocations ? Compte tenu de l’évolution des taux de chômage en Occident, de la robotisation massive annoncée et d’autres facteurs qui laissent entrevoir une évolution pas très rose, il vaudrait la peine de tenter la chose.

L’expérience pourrait comprendre tous les garde-fous permettant de limiter l’attractivité pour les individus extérieurs au territoire-test, autorisant une modulation de la somme en fonction de critères à préciser, un retour en arrière en cas d’échec, etc.

 

Assurance-maladie de base

Le thème d’assurance-maladie de base est un champ d’affrontement pour les tenants du libéralisme et les partisans de l’étatisation. Masi la question principale est un entité publique est-elle capable de gérer ce genre de domaine mieux qu’une entité privée. L’exemple de l’assurance-incendie est très parlant et justifierait que l’on accepte de l’essayer sur quelques cantons.

En Suisse, la couverture des risques contre les incendies est assurée, dans 19 cantons, par un monopole public et, dans les 7 autres cantons restants, par des compagnies privées placées en situation de concurrence. Quel que soit le régime choisi, l’assurance incendie est obligatoire dans tous les cantons suisses et tous les bâtiments sont donc couverts contre ce type de risques. Or, lorsque l’on compare les primes d’assurance observées dans les différents cantons suisses, on constate qu’en moyenne elles sont significativement plus élevées dans les cantons qui ont opté pour une solution privée. http://www.unige.ch/ses/ecopo/cours/ecodroit/exa%20oct%2004.pdf

Un monopole bien géré est souvent plus performant que la concurrence du fait de l’absence de coûts liés à la combattre. De plus la plus grande partie des marchés finirait par se transformer en duopole, voire en monopole si l’État n’intervenait pas.

 

Gratuité des transports publics

Il y a quelques années, les Genevois ont eu l’occasion de voter sur une initiative demandant la gratuité des transports sur le réseau cantonal et l’on refusée aux 2/3 des votants environ. Et pourtant les initiants avaient fait des calculs intéressants en faisant valoir que la suppression de la technique de billetterie, de gestion du cash, de l’informatique liée, ainsi que du personnel nécessaire pour les contrôles, aurait permis de compenser une partie des pertes, tout en permettant un développement massif des transports publics au bénéfice de la population.

D’autres villes ont pourtant expérimenté la chose sans problèmes graves. Pourquoi n’aurait-il pas été possible de tenter une expérience avec option de revenir en arrière ?

 

Flexibilité dans l’âge et le montant des retraites

Lors d’un débat sur ce thème, les arguments qui reviennent sans cesse sont principalement liés aux facteurs suivants : démographie et vieillissement de la population, montant des rentes et taux d’intérêts des marchés, âge de la retraite et espérance de vie. Ces trois domaines sont précisément fluctuant dans la durée et une variation minime de l’un peut avoir une incidence majeur sur tous les calculs actuariels permettant de prendre une décision.

Pourquoi ne pas sortir de la logique binaire et passez dans la « fuzzy logic » en acceptant que si les causes varient, les effets peuvent varier. Les pays scandinaves ont été les premiers à flexibiliser l’âge de la retraite, en Suisse la retraite par capitalisation dépend du résultats des placements. En regroupant le tout dans un paquet « variable » qui serait recalculé chaque année en fonction des variations observées sur une moyenne des 10 ou 20 années précédentes, les politiques n’auraient plus qu’à lutter sur la « qualité » des retraites et non plus à redéfinir sans cesse le contrat intergénérationnel en spéculant sur des variables aléatoires.

 

 

 

 

 

 

 

 

Quelques définitions (wikipedia)

Expérimentation

La méthode expérimentale est une démarche scientifique qui consiste à tester par des expériences répétées la validité d’une hypothèse en obtenant des données nouvelles, qualitatives ou quantitatives, conformes ou non à l’hypothèse initiale. L’expérience scientifique se distingue de l’expérience empirique en ce qu’elle exige un protocole conçu à partir d’une hypothèse.

Contrôle des paramètres et test d’hypothèses

La méthode expérimentale repose sur un principe : il s’agit de modifier un seul paramètre à la fois pour mesurer son effet. Le plus souvent une hypothèse tente d’identifier une liaison cause-conséquence.

Les expériences, réalisées selon un protocole précis et renouvelable, sont essentielles en matière de progrès des connaissances,

Expérience scientifique à l’aide de modèle

Lorsque certains phénomènes naturels sont trop complexes, trop vastes, trop dangereux, trop chers ou trop long à reproduire dans une expérience, on a recours à un dispositif simplifié : le modèle. Il peut s’agir : d’un modèle réduit (maquette), d’un modèle numérique (programme de simulation par ordinateur), d’un modèle vivant (plante ou animal).

Protocole expérimental

Le protocole d’expérimentation regroupe la description des conditions et du déroulement d’une expérience ou d’un test. La description doit être suffisamment claire afin que l’expérience puisse être reproduite à l’identique et il doit faire l’objet d’une analyse critique pour notamment détecter d’éventuels biais.

Structure théorique d’une expérience

D’un point de vue très général, l’expérience isolée comporte sommairement trois phases :

  • la préparation ;
  • l’expérimentation ;
  • l’évaluation.

Les deux dernières sont l’aboutissement simple de ce qui les a précédé.

Diverses méthodes

Loi empirique

Une loi empirique est une loi ou formule issue de faits expérimentaux ou validée par l’expérience mais dont on ne connaît pas de base théorique, ou bien qu’on ne peut pas relier à une base théorique simple. Ce type de loi, bien qu’empirique, peut cependant souvent alimenter l’élaboration d’une théorie.

La loi empirique est à la physique ce que la conjecture est aux mathématiques.

 

Étude randomisée en double aveugle

L’étude avec répartition aléatoireà double insu (ou en double aveugle) est une démarche expérimentale utilisée en recherche médicale et pharmaceutique. Elle est notamment utilisée dans le développement de nouveaux médicaments, et pour évaluer l’efficacité d’une démarche, d’un traitement. Le rôle d’un tel protocole, relativement lourd à mettre en place, est de réduire au mieux l’influence sur la ou les variables mesurées que pourrait avoir la connaissance d’une information (utilisation d’un produit actif ou d’un placebo, par exemple) à la fois sur le patient (premier « aveugle ») et sur l’examinateur (deuxième « aveugle »). C’est la base de la médecine fondée sur les faits.
Le test en double insu est également couramment utilisé en dehors du domaine médical dès lors que l’on souhaite réaliser une étude s’affranchissant des biais de perceptions conscients ou non du sujet testé (préjugés). C’est notamment le cas lors d’études comparatives en marketing ou pour des tests organoleptiques (mesure de la qualité gustative d’un aliment par un jury).

Traitement statistique

Aucun traitement n’est efficace à 100 % (sur tout le monde dans tous les cas). La guérison naturelle n’est pas non plus systématique. Il faut donc étudier un nombre de cas suffisamment important pour pouvoir écarter un biais statistique.

 

Tests

Un test est une méthode de travail dans de nombreux domaines, tant en sciences exactes qu’en sciences humaines. Il consiste en un essai d’action ou d’interaction pour apprendre à connaitre un milieu, un objet, un système, une personne en mesurant ses réactions.

 

Test A/B

Le test A/B (ou A/B testing) est une technique de marketing qui consiste à proposer plusieurs variantes d’un même objet qui diffèrent selon un seul critère (par exemple, la couleur d’un emballage) afin de déterminer la version qui donne les meilleurs résultats auprès des consommateurs. C’est une technique particulièrement employée dans la communication en ligne où il est maintenant possible de tester auprès d’un échantillon de personnes plusieurs versions d’une même page web, d’un même e-mail ou d’une bannière publicitaire afin de choisir celle qui est la plus efficace et de l’utiliser à large échelle.

Normes et standards techniques

Une norme technique est un référentiel publié par un organisme de normalisation comme Afnor, CEN, ISO, OASIS. Comme la langue anglaise ne marque pas la différence entre norme et standard (« norme » se dit « standard » en anglais), on parle pour les normes de standards de jure et pour les simples standards de standards de facto.

La normalisation ou la standardisation est le fait d’établir respectivement des normes et standards techniques, c’est-à-dire un référentiel commun et documenté destiné à harmoniser l’activité d’un secteur. Elle est réalisée par des organismes spécialisés, qui sont le plus souvent soit des organismes d’État, soit des organisations créées par les professionnels d’un secteur d’activité donné.

 

Tests utilisateurs / produits

Un banc de test est un système physique permettant de mettre un produit en conditions d’utilisation paramétrables et contrôlées afin d’observer et mesurer son comportement. Le banc de test est largement utilisé dans l’industrie, au point de représenter une part importante du budget de développement d’un produit. Les tests sont essentiellement destinés à vérifier les fonctionnalités du produit à l’état de carte électronique mais aussi sous la forme définitive (« produit fini »), ce sont alors de bancs de tests fonctionnels. Les besoins de test étant très différents selon le format définitif du produit à tester, il est d’usage de développer une interface spécifique pour chaque gamme de produit.

Un test utilisateur, ou test d’utilisabilité, est une méthode permettant d’évaluer un produit en le faisant tester par des utilisateurs. Le plus souvent, il s’agit de produits du domaine informatique (ex : logiciel, site web, intranet) dans le cadre de l’intervention ergonomique. Elle est considérée comme une démarche indispensable dans la conception de produit, car la plus efficace pour évaluer l’ergonomie d’une application ou d’un site web.

 

Le prototypage

La démarche (ou méthode) de prototypage consiste à réaliser un prototype. Ce prototype est un exemplaire incomplet et non-définitif de ce que pourra être le produit ou l’objet final.

 

Étude qualitative

Les études qualitatives regroupent l’ensemble des études utilisant des méthodes qualitatives pour la collecte et la description de données qualitatives. Celles-ci se définissent en opposition aux données quantitatives pouvant être mesurées et qualifiées par une unité de mesure alors que la donnée qualitative sera simplement décrite. Celles-ci peuvent donc être utilisées dans tous les domaines où des phénomènes ne peuvent être directement observés, notamment en sciences sociales et humaines.

Dans le domaine restreint du marketing, les études qualitatives s’appliquent à étudier les comportements et motivations d’un groupe restreint de consommateurs. Une étude qualitative ne cherche pas à extrapoler les résultats obtenus à l’ensemble de la population, il n’y a donc pas de notion de représentativité, mais on recherche à aller en profondeur et à comprendre les attitudes et sentiments.

Les études qualitatives sont menées par des spécialistes capables de mettre à l’aise et faire parler les personnes interrogées, mais aussi d’analyser les comportements non verbaux.

Avantages des études qualitatives

Dans la majorité des cas, les entreprises interrogent leurs clients pour connaître leurs forces et leurs faiblesses, mais aussi les souhaits et doléances qu’ils pourraient émettre.

L’erreur principale à ce niveau est d’interroger les clients existants, en général sur le point de vente ou sur la base d’un listing clientèle. Or les entreprises passent alors à côté de l’essentiel, à savoir: pourquoi les non-clients ne le sont pas ou ne le sont plus ?

Les études qualitatives sont coûteuses et longues, car elles demandent des interviews face-à-face ou en groupes. On commence par sélectionner les prospects en cherchant précisément dans la population des personnes qui auraient abandonné ou n’auraient jamais acheté. Par la suite, il convient de les interroger finement pour comprendre les raisons de cette attitude.

Les résultats de ce genre d’études sont souvent étonnants et peuvent produire des effets inattendus, car pour une fois il y aura des gens qui auront des avis bine plus originaux que ceux de la clientèle fidélisée. Des détails insoupçonnés peuvent surgir et permettre aux entreprises de corriger efficacement leur image, ou d’autres critères de choix.

 

Mystery Shopping

Le client mystère est une technique de contrôle de la qualité en entreprise et de marketing.

Il s’agit d’envoyer dans une entreprise des clients formés pour évaluer la qualité du service à la clientèle à l’aide de critères d’évaluation précis. Cela permet une connaissance pratique de la perception par les clients, ce qui permet de mieux répondre aux besoins et aux attentes. Cela peut être fait de manière ponctuelle (pour contrôler la qualité) ou de manière statistique (pour le marketing).

Le rapport de client mystère permet aux vendeurs d’identifier leurs forces et leurs axes de progression, et donc d’améliorer leurs compétences. Les personnes recrutées comme « clients mystères » se font passer pour des clients normaux, posent des questions, achètent des produits ou font des réclamations. L’entreprise est alors jugée par un questionnaire remis au client par le commanditaire. La pratique de la vidéo mystère se développe de plus en plus, il s’agit d’une variante du client mystère qui utilise une caméra cachée lors de la visite du magasin.

Le client mystère est très utilisé par les franchiseurs pour auditer les franchisés ou les succursales (cinémas, réseaux d’agences immobilières, restaurants, concessionnaires automobiles). Par exemple chez McDonalds en 2009 plus de 28 000 visites de clients mystères ont été réalisées dans les 1161 restaurants français via une société indépendante. C’est également cette méthodologie qui a été retenue par Viséo Conseil l’organisateur du concours de l’Élection du Service Client de l’Année pour mesurer les performances des entreprises en matière de relation client.

Exemple de mauvaise utilisation :

Client-Mystère

Cette méthode utilisée à l’origine pour permettre aux entreprises de mesurer la qualité et d’améliorer le service a fait ses preuve pour peu qu’elle soit utilisée intelligemment. Les résultats fournis par les achats-tests devaient permettre aux entreprises de découvrir leurs points faibles et d’entreprendre une démarche d’amélioration.

De plus en plus on assiste à une dérive vers une surveillance des collaborateurs à laquelle s’ajoute une obligation de délation de la part du client-mystère, sans parler de l’absence de formation des acheteurs.

Un témoignage : « Je m’étais inscrite sur le site de l’une de ces sociétés qui pratique des enquêtes anonymes. Après quelques jours j’ai reçu une proposition pour faire un achat dans une filiale d’un grand distributeur proche de mon domicile. J’ai dû télécharger et imprimer 21 pages de documentation (contrat compris) et l’on me demandait après ma visite dans ce magasin de remplir en ligne un questionnaire assez détaillé, précisant notamment que je devais prendre note du nom des collaborateurs.

Pour effectuer ce travail = 1 heure de préparation + transport en voiture 2×15′ + visite sur place 1/2 heure + 1 heure pour remplir le questionnaire en ligne = 3 heures de travail, on me proposait 30.- et je devais aussi effectuer un petit achat compris dans ce montant. C’est purement et simplement scandaleux. De surcroît l’accord ne prévoyait pas un contrat de travail mais une relation client-vendeur hors taxes et charges sociales. »

Les entreprises qui recourent à de telles méthodes sont purement et simplement dépassée par les évènements et incapables de motiver leurs collaborateurs. Si de surcroît elles utilisent ces informations proche de la délation, elles se rendent coupables d’une surveillance « orwellienne » propre à démotiver ceux qui ne le sont pas encore.

Le pire est que les résultats ne reflètent pas réellement la satisfaction globale du client à la sortie, mais bien la conformité du comportement à des standards établis.

 

Logique floue

 

La logique floue (fuzzy logic, en anglais) est une extension de la logique classique aux raisonnements approchés. Par ses aspects numériques, elle s’oppose aux logiques modales.

Formalisée par Lotfi Zadeh en 1965, outil de l’intelligence artificielle, elle est utilisée dans des domaines aussi variés que l’automatisme (freins ABS, conduite de processus), la robotique (reconnaissance de formes), la gestion de la circulation routière (feux rouges), le contrôle aérien (gestion du trafic aérien), l’environnement (météorologie, climatologie, sismologie, analyse du cycle de vie), la médecine (aide au diagnostic), l’assurance (sélection et prévention des risques) et bien d’autres.

Elle s’appuie sur la théorie mathématique des ensembles flous. Cette théorie de Zadeh est une extension de la théorie des ensembles classiques aux ensembles définis de façon imprécise. Partant d’un concept de fonction d’appartenance à valeur dans [0, 1], Zadeh :

  • redéfinit ce qu’est un sous-ensemble d’un univers donné,
  • bâtit un modèle complet de propriétés et de définitions formelles,
  • et montre que cette théorie des sous-ensembles flous se réduit effectivement à la théorie des sous-ensembles classiques dans le cas où les fonctions d’appartenance ne prennent que les valeurs binaires de {0,1}.

La logique floue présente aussi l’intérêt d’être plus facile et moins chère à implémenter qu’une logique probabiliste, bien que cette dernière seule soit stricto sensu cohérente (voir Théorème de Cox-Jaynes).

 

La science actuarielle

La science actuarielle concerne l’application des méthodes mathématiques et statistiques à la finance et aux assurances, particulièrement où cela se rapporte à l’évaluation des risques dans le long terme. Les actuaires sont les professionnels qui sont qualifiés dans ce domaine.

La science actuarielle s’appuie sur des disciplines connexes, en particulier les mathématiques de la probabilité et de la statistique. La science actuarielle traditionnelle se concentre sur l’analyse de la mortalité, sur la production de tables de survie ainsi que sur l’application des intérêts composés.

Plus récemment, la science actuarielle est venue à embrasser un modelage mathématique des finances plus sophistiqué. Les idées de l’économie financière deviennent aussi de plus en plus influentes dans la pensée actuarielle.

 

La recherche opérationnelle

La recherche opérationnelle (aussi appelée aide à la décision) peut être définie comme l’ensemble des méthodes et techniques rationnelles orientées vers la recherche de la meilleure façon d’opérer des choix en vue d’aboutir au résultat visé ou au meilleur résultat possible.

Elle fait partie des « aides à la décision » dans la mesure où elle propose des modèles conceptuels en vue d’analyser et de maitriser des situations complexes pour permettre aux décideurs de comprendre et d’évaluer les enjeux et d’arbitrer ou de faire les choix les plus efficaces.

Ce domaine fait largement appel au raisonnement mathématique (logique, probabilités, analyse des données) et à la modélisation des processus. Il est fortement lié à l’ingénierie des systèmes, ainsi qu’au management du système d’information.

 

La prospective

La prospective est la démarche qui vise, dans une perspective à la fois déterministe et holistique, à se préparer aujourd’hui à demain. Elle ne consiste pas à prévoir l’avenir (ce qui relevait de la divination et relève aujourd’hui de la futurologie) mais à élaborer des scénarios possibles et impossibles dans leurs perceptions du moment sur la base de l’analyse des données disponibles (états des lieux, tendances lourdes, phénomènes d’émergences) et de la compréhension et prise en compte des processus sociopsychologiques, car comme le rappelle Michel Godet ; « si l’histoire ne se répète pas, les comportements humains se reproduisent », la prospective doit donc aussi s’appuyer sur des intuitions liées aux Signaux faibles, des analyses rétrospectives et la mémoire du passé humain et écologique (y compris et par exemple concernant les impacts environnementaux et humains des modifications géo-climatiques passées). Le prospectiviste se distingue ainsi du prolongeur de tendances comme du visionnaire qui élabore des scénarios à partir de révélations.

Sa fonction première est de synthétiser les risques et d’offrir des visions (scénarios) temporels en tant qu’aide à la décision stratégique, qui engage un individu ou un groupe et affecte des ressources (naturelles ou non) plus ou moins renouvelables ou coûteuses sur une longue durée. Elle acquiert ainsi après avoir pris les risques nécessaires à une double fonction de réduction des incertitudes (et donc éventuellement de certaines angoisses) face à l’avenir, et de priorisation ou légitimation des actions.

La prospective est une démarche continue, car pour être efficace, elle doit être itérative et se fonder sur des successions d’ajustements et de corrections (en boucles rétroactives) dans le temps, notamment parce que la prise en compte de la prospective par les décideurs et différents acteurs de la société modifie elle-même sans cesse le futur qui est tout sauf prévisible. Elle s’appuie sur des horizons ou dates-butoir (ex 2010, 2020, 2030, 2040, 2050, 2100) qui sont aussi parfois des échéances légales, et qui permettent à différents acteurs de faire coïncider leurs scénarios ou calculs de tendance.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.