L’échelle Lefebvre : comment estimer le temps nécessaire aux innovations techniques

Introduction

Faire des prévisions en matière technique est difficile. Nous sommes toujours trop optimistes sur le court terme et trop pessimistes sur le long terme. Mais même si nous parvenions à corriger cela, nous avons toujours du mal à admettre que les paliers de l’évolution technique se mesurent en décennies plutôt qu’en années. Cet article explique pourquoi et vous propose une échelle de mesure afin de mieux évaluer les durées en termes de maturité (et donc de succès car il n’y a que les techniques matures qui rencontrent l’adhésion de leurs cibles).

Le quoi et le quand

En matière de prévisions techniques, il y a principalement deux dimensions : le “quoi” et le “quand”. Dire le “quoi” est relativement facile si on connait le domaine concerné mais se contenter de cela, ce n’est pas très utile… C’est comme de prévoir que la bourse va monter (ou baisser) sans être capable de préciser quand, sur quelle durée et, enfin, sur quelles valeurs. En revanche, dire le “quand” est beaucoup plus difficile mais c’est seulement en répondant sur les deux dimensions que les prévisions techniques peuvent être utiles.

Pendant ma carrière, j’ai toujours été plutôt bon pour prévoir les évolutions techniques dans mon domaine (l’informatique) mais pas aussi performant pour préciser à quelle vitesse elles allaient se produire et quand ces évolutions seraient enfin disponibles sur le marché (ce qui est très différent d’une démo dans un labo…). A ma grande surprise, ces évolutions se sont toujours avérées plus lentes que prévu et, en conséquence, leur maturité arrive bien plus tard qu’espéré.

J’ai fini par en faire un principe (le principe de maturité) et j’ai communiqué à ce sujet aussi souvent que possible. Quand je proclamais qu’il fallait au moins dix ans entre une découverte et sa première application pratique, je n’étais jamais cru. Et pourtant, j’étais encore trop optimiste, trop pressé.

Un aveuglement qui s’explique

Cet aveuglement envers ce “principe de maturité” vient principalement de la propagande technique (oui, il existe une “propagande technique”, nous y reviendrons !) qui affirme sur tous les tons que “tout s’accélère, tout va de plus en plus vite”…

Admettons mais, alors, comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse, comme je l’affirme et explique dans mon livre “La crise de l’IT des années 2020“) ?

En effet, en ce moment et depuis quelques années, quasiment tous les observateurs (qui ne sont pas forcément des spécialistes et encore moins des experts) vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.

Tout va plus vite, n’est-ce pas ?

En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ? 

Mais ça ne fonctionne pas toujours de la sorte : y croire et s’en persuader ne produit pas pour autant une réalité concrète sur le terrain.

Ne pas confondre perception et réalité

Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.

Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…

Tout nous pousse à croire que le progrès technique s’accélère, même la publicité tente d’en faire la démonstration !

La phase de maturation est systématiquement masquée

L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !

Mais, pendant ces trente ans, personne n’en parlait.

Ce croquis, qui fait inévitablement penser aux smartphones actuels, remonte  en réalité à 1988…

S’il y a accélération, il y a aussi ralentissement…

Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !

Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?

Tout le problème de la perception de l’accélération est résumé dans ce graphique : le grand public ne voit que la seconde phase et perçoit donc une accélération, car la longue et lente maturation est complètement ignorée.

L’état de l’art : ne pas croire la propagande !

L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi, il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie. 

Extrapoler à partir du passé

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine. C’est le principe des cygnes noirs : ce qui est prévu et qui semble évident n’arrivent pas souvent alors que ce qui est imprévisible et semble très improbable (pour ne pas dire impossible) arrive plutôt deux fois qu’une et l’Histoire est remplie de “cygnes noirs” qui confirment ce principe.

Les grands principes de l’évolution : la maturation

Le principe que nous allons détailler ici concerne le délai, le temps nécessaire pour qu’une innovation soit convertie en un produit, soit mise au point puis trouve enfin son marché et sa forme finale. La perception habituelle est que tout va de plus en plus vite, trop vite même parfois. Mais ne confondons pas perception avec réalité, car, contrairement à ce qu’on croit, il y a un délai incompressible entre l’apparition d’une technique, sa transformation en produit et son impact réel sur notre quotidien et nos habitudes.

Si l’évolution technique continuait à progresser à la vitesse que l’on a connue au XIXe siècle, il n’existerait plus aujourd’hui de délai entre une découverte et sa mise en application. Voici quelques exemples puisés dans les technologies de l’époque, aux États-Unis  : il a fallu attendre soixante-dix ans pour que le téléphone bénéficie à 50% de la population américaine et  trente-neuf ans pour que la télévision par câble atteigne ce taux, alors que seulement onze ans ont été nécessaires pour la radio… L’apogée est atteint avec le microprocesseur pour lequel, entre la première réalisation de Marcian Hoff et Federico Faggin en 1969 et sa diffusion massive via le micro-ordinateur en 1977, il s’écoule moins de dix ans. Personne n’a fait mieux depuis la fin des années soixante-dix.

Un délai incompressible

Une décennie, le voilà notre délai incompressible, le « time to market » cher aux industriels. Vérifiez, depuis le début des années soixante-dix, il faut au moins une dizaine d’années pour qu’une véritable innovation technique commence à trouver un marché (10 ans entre les premiers ordiphones WAP et l’iPhone) et à toucher un public. Et il faut au moins encore autant de temps pour qu’elle devienne incontournable (encore 10 ans entre le premier iPhone et la suprématie des plateformes comme Deliveroo ou Uber). Une génération est nécessaire pour changer les habitudes des utilisateurs et qu’ils adoptent des innovations dans leur quotidien (c’est comme pour l’aviation commerciale, elle existe depuis quelques dizaines d’années, mais n’est réellement à la disposition des masses que depuis peu).

Il est donc juste de dire que les évolutions significatives sont lentes et relativement peu fréquentes. En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard, normalisé (exemple : le concept de smartphone avec sa forme en brique qui est maintenant un standard bien installé et reconnu). Et l’histoire montre que ce processus prend souvent au moins vingt ans…

Vingt ans de délai pour les grands succès

Il a fallu vingt ans pour que les interfaces graphiques commencent à se populariser. Les premières recherches de Xerox datent des années 1970 et le succès de Windows 3.0 n’arrive que dans les années 1990. Il a fallu également vingt ans pour que le SGBDR se généralise entre les premiers travaux de recherches d’IBM et le succès d’un Oracle. Dix ans pour que les écrans à matrices actives concrétisent le rêve de l’écran plat à haute définition. Une dizaine d’années aussi pour le début de généralisation des réseaux locaux alors qu’on leur prédisait un avenir fulgurant. Et dix ans encore pour que France Télécom se décide à diffuser Numéris (avant l’ADSL…) à des tarifs acceptables !

Plus loin de nous, il a fallu près de trente ans (au XIXème siècle) pour que le moteur thermique (successeur de la machine à vapeur) passe d’une base très simple (alimenté au gaz, cycle deux temps, double effet, rendement faible) à sa forme finale et efficace (carburant liquide dérivé du pétrole, cycle à quatre temps, rendement acceptable).

Le délai incompressible (dix ans) combine plusieurs facteurs : 

  • Il faut du temps pour finaliser la mise au point (difficulté toujours minorée, mais la réalité est tenace et se rappelle au souvenir des optimistes à ce moment-là…).
  • Il faut du temps pour passer du discours technologique (c’est supérieur parce que…) au discours applicatif (cela va vous servir à…).
  • Il faut du temps pour que la cible visée se reconnaisse (ça va me servir à…)
  • Il faut du temps pour que les clients se familiarisent avant de généraliser (la plupart ont déjà essuyé des plâtres trop frais et n’ont plus envie de jouer les pilotes d’essai !).

La masse critique

Les évolutions les plus marquantes et les plus structurantes restent discrètes jusqu’à leurs percées. Un progrès n’apparaît pas spontanément (comme l’a résumé de façon géniale Ernest Hemingway à propos de “comment se retrouve-t-on ruiné après avoir été riche ?” : “progressivement et puis brutalement” –Gradually, then suddenly-), il est le fruit d’une lente maturation qui s’étale souvent sur une décennie (voire plus). Reprenons l’exemple d’Internet qui est très significatif sur ce plan…

Une croissance silencieuse

Pendant presque quinze ans, l’Internet a progressé discrètement, mais pas secrètement. Pourtant, personne n’en parlait. Il aura fallu l’émergence du Web en 1993-1994  pour que la croissance bondisse soudainement vers le ciel, à la surprise générale. La signification de ce phénomène est simple : les emballements de demain sont en préparation aujourd’hui, sous nos yeux. Il suffit donc de repérer les techniques prometteuses qui progressent régulièrement, sans accident de parcours, pour mettre le doigt sur les succès d’avenir.

Un emballement bénéfique

Il faut qu’il y ait un enthousiasme flagrant pour que l’emballement surgisse, c’est l’engouement des passionnés et adopteurs précoces qui le déclenche. Un exemple : l’Apple // a été l’amorce de la fusée “micro-informatique”. Pour que les deux Steve décollent (Steve Jobs n’a plus besoin d’être cité mais il ne faudrait pas oublier Steve Wozniak qui a été essentiel pour la partie technique de cette aventure…), il a fallu des efforts longs et soutenus de toute une génération de fervents adeptes, depuis les ingénieurs d’Intel, jusqu’aux concepteurs de CP/M, sans oublier les promoteurs du Basic, même si l’Apple// ne reposait sur aucun de ces trois composants !

Le phénomène d’emballement est comparable à la réaction en chaîne qui suit la réunion de la masse critique : il est à la limite du contrôlable. On l’a vu cette année avec l’emballement provoqué par ChatGPT qui aura mis au moins dix mois avant de se calmer. Ce phénomène est pourtant nécessaire afin d’assurer un retentissement suffisant à la nouvelle technique pour que sa diffusion ait véritablement des effets sur notre quotidien. Sans cela, la technique est confinée à une relative confidentialité qui interdit les impacts à grande échelle.

Attention à la fenêtre de lancement

Le non-respect du principe de la masse critique (attendre qu’une technique soit dans sa configuration favorable et qu’elle ait commencé à rassembler une bonne dynamique, le fameux momentum cher aux Américains) est fréquent dans l’informatique, car les grands acteurs sont trop avides de nouveautés spectaculaires pour se montrer patients. Pourtant, on peut tuer une technique prometteuse en la révélant trop tôt à l’appétit du public (comme on l’a fait avec les disques magnéto-optiques). Il existe donc une période de temps limitée pendant laquelle une technique doit faire ses preuves et fournir des exemples concrets de son utilité et de sa maturité. Cette période dure entre dix-huit et trente mois, pas au-delà. Cet obstacle est d’autant plus redoutable que l’attente est importante. Si l’accompagnement médiatique d’une nouvelle technique est exagéré, alors il s’ensuit un inévitable mouvement de balancier, tout aussi exagéré, pour sanctionner la légitime désillusion du public…

Car celui-ci n’est pas patient, l’hystérie de la découverte enthousiaste se transforme vite en déconvenue qui débouche sur un rejet immérité et prématuré (exemple : le flop des premiers casques de VR dans les années 90). La déception est souvent fatale (mais pas toujours), car elle influence le non-renouvellement des crédits, encore nécessaires pour parfaire la mise au point de la technique en devenir. C’est ce type “d’accident de parcours” qui est arrivé à l’intelligence artificielle à la fin des années quatre-vingt et qui faillit lui être fatal.

Le poids des infrastructures

S’il faut plus ou moins une décennie pour franchir toutes ces étapes et commencer la diffusion d’une invention, il en faut environ le triple pour atteindre le seuil de généralisation. Le temps nécessaire à une technique pour atteindre ce stade dépend aussi de ce qu’il réclame; les inventions nécessitant une infrastructure lourde sont forcément plus lentes à impacter leur marché.

Comme je sais que je ne suis jamais cru du premier coup quand j’évoque les délais des évolutions techniques, j’ai rassemblé ici quelques exemples qui montrent que de nombreuses découvertes que nous estimions proches de nous remontent en fait à bien plus loin dans le passé… Suivez le guide !

Quelques exemples incontestables

Les premiers composants électroniques remontent au début du XXe siècle : 1904 pour le tube diode (Fleming) et 1906 pour le tube triode (Lee De Forest). La découverte de la supraconductivité remonte à 1911 (découverte par Heike Kamerlingh Onnes).

L’électrocardiogramme est inventé en 1901 par Wilhem Einthoven. Et c’est Hans Berger qui invente l’électroencéphalogramme en 1924.

Le premier robot d’assemblage (Unimate de la société américaine Universal Automation) est installé dès 1962 sur une chaîne de production de General Motors. Plus de 60 ans après les premiers robots dans l’usine GM, Elon Musk a voulu nous faire croire que ses chaînes de montage robotisées (dans les usines Tesla) sont révolutionnaires… 

L’échographie est mise au point pour la première fois en 1955 par Inge Edler. Le stimulateur cardiaque (le fameux pacemaker) est inventé en 1958 par le docteur Ake Senning.

Richard Feynman a le concept de la nanotechnologie dès décembre 1959 (bien avant de pouvoir commencer à l’expérimenter).

Le premier appareil photo numérique à CCD (charge coupled device) est développé dans les laboratoires Bell dès 1971 (eh oui !). En 1975, Steve Sasson développe un autre appareil à base de CCD avec une résolution de 10000 pixels (il ne peut prendre que des photos en noir & blanc et demande 23 secondes pour capturer une image ensuite enregistrée sur une K7… l’appareil pèse 3,6 kg). Ensuite, RCA propose un appareil CCD capable de prendre des photos couleur en 1983.

C’est à la fin des années 1940 qu’une petite manufacture de produits photographiques de Rochester (New York) du nom de Haloid décide d’exploiter l’invention faite dix ans plus tôt par Chester Carlson, la xérographie (terme qui vient du grec xeros -sec- et graphein -écriture-). La conception du premier photocopieur, le XeroX Model A, et le succès des modèles suivants amènent la compagnie à changer son nom en 1958 pour Haloid Xerox, puis le 18 avril 1961, devenant simplement Xerox. 

XeroX Model A, 1949.

La première imprimante informatique à laser vient de Xerox aussi en 1971 (la 9700, un monstre capable de cracher 120 pages à la minute).

Canon en développe une version plus réduite en 1975 et HP commercialise sa première Laserjet en 1984 juste avant la Laserwriter d’Apple en 1985.

L’invention du téléphone mobile est attribuée au docteur Martin Cooper (Motorola) en 1973. Mais Motorola met encore dix ans avant d’en commercialiser un premier modèle : le Dynatac 8000.

L’empilement vertueux, mécanisme magique

Encore une fois, tous ces exemples sont là pour vous rappeler que l’innovation suit un chemin long et chaotique qui finit par déboucher, grâce à l’empilement vertueux. L’accumulation de petits pas finit par permettre d’atteindre un “effet de seuil” où le progrès franchit un palier et se révèle dans toute sa puissance.

Même si cette position (réfuter l’accélération continue du progrès technique) paraît contre-intuitive, je constate que je ne suis pas le seul à le dire et à l’écrire… Voici une petite sélection d’articles (plus un livre) qui vont dans ce sens !

 

Un préambule long mais nécessaire

Revenons donc, après ce long préambule, à cette fameuse “échelle Lefebvre” évoquée dans le titre de cet article ?

Cette “échelle” comporte quatre échelons : 

  • Dix ans, c’est le délais incompressible.
  • Vingt ans, c’est pour arriver au grand-public.
  • Trente ans, c’est pour atteindre la maturité finale.
  • Cinquante ans, c’est pour savoir que ça va en prendre encore cinquante !

En peu de mots, on peut résumer cette échelle ainsi : les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. 10, +10 (20), +10 (30).

Les exemples qui permettent de confirmer cette échelle sont nombreux et j’en ai déjà listé quelques-uns dans ce document. Ajoutons donc des exemples supplémentaires pour illustrer le dernier échelon : 50 ans, la frontière de l’illusion…

La frontière de l’illusion

Le premier exemple est bien connu (projet ITER), il s’agit de la fusion nucléaire contrôlée. Aujourd’hui, on le sait : la fusion nucléaire est un espoir ténu et très lointain (on parle désormais de 2070… comme pour confirmer la blague récurrente à propos de la fusion : “ça fait cinquante ans qu’on nous dit que ça sera prêt dans cinquante ans” !

L’autre exemple, c’est l’IA (la fameuse, trop fameuse “intelligence artificielle” !). Le concept initial remonte aux années cinquante et, aujourd’hui, après de nombreuses étapes plus ou moins spectaculaires, on est toujours loin du but défini par les pionniers : atteindre le niveau dit “d’intelligence générale”. Déjà, il faudrait s’entendre sur ce que ce “but” recouvre réellement mais on sait déjà que ça va prendre encore des décennies (j’insiste sur le pluriel ici…) avant de s’en approcher. Certes, alors que quasiment tout le monde a été hypnotisé par l’irruption de ChatGPT en 2023, il paraît téméraire d’affirmer qu’on est encore loin du but… Et pourtant, les vrais spécialistes (j’insiste sur “vrais” ici) nous le confirment : le chemin sera encore long, tortueux et semé de déceptions.

Conclusion

On constate qu’on n’est pas armés mentalement pour accepter que les évolutions techniques soient aussi longues, prennent autant de temps et demandent autant d’étapes. On a toujours tendance à croire que ça fait irruption brusquement parce que, justement, on n’a pas vu toute la phase de préparation. Il est difficile pour le grand public d’admettre que les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. Sur ce plan-là, on va continuer à croire aux “révolutions en une nuit” alors qu’elles ont toutes demandé vingt ans de préparation…

On aura beau dire et expliquer, les gens sont toujours persuadés que tout va de plus en plus vite. Tout simplement parce que dans leur vie à eux, ils ont de plus en plus de mal à gérer un monde qui est complexe et qui se complexifie de façon croissante. Donc cette notion de saturation est assimilée à de l’accélération alors que ça n’a rien à voir parce qu’on l’a vu, tout est cyclique. Et ses cycles s’enchaînent avec, successivement, des phases d’accélération et des phases de ralentissement. Le problème c’est que même pendant les phases de ralentissement, on a tout de même l’impression d’être toujours dans un monde qui va de plus en plus vite donc cet écart entre la perception et la réalité est voué à persister.

Ce contenu a été publié dans conférences, Informatique, Références IT. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *