Mes chroniques publiées sur Linkedin, compilation complète !

Voici des articles exclusifs que je n’avais publié que sur Linkedin (je crois, peut-être y a-t-il une ou deux exceptions…). Cela concerne pas mal de sujets divers mais je vous livre tout en vrac !

Bon, c’est tout de même par ordre chronologique, si ça peut aider…

Mes chroniques publiées sur Linkedin


La simulation, technique d’avenir, ô combien !

Publiée le 2 juin 2019 sur Linkedin

L’anticipation, sous-domaine de la science-fiction, joue son rôle quand elle permet de prévoir ce qui va nous arriver dans le futur. Dans le cas qui nous occupe ici, la question est centrée sur les applications de la simulation et leurs conséquences. Tout d’abord, il n’y a guère de doute que la simulation sera mise en œuvre.

Déjà, du côté scientifique, il y a beaucoup de justifications à le faire : pour modéliser les phénomènes naturels (tels que le climat et ainsi être en mesure de mieux prévoir son évolution ainsi que la météo à court terme) mais aussi et surtout pour modéliser les phénomènes sociaux (avec la nécessité de simuler les personnes jusqu’au niveau individuel le plus fin).

Aujourd’hui, de nombreux phénomènes sociaux sont considérés comme chaotiques, principalement par ignorance. Une fois simulés correctement, on pourra les étudier sous tous les angles et comprendre enfin la dynamique de chacun (si vous voulez optimiser l’évacuation d’un grand bâtiment, il vous faut connaitre à l’avance le comportement de la foule lors d’un mouvement de panique…).

Mais le domaine scientifique « pur » va être un champ d’application minoritaire de la simulation (contrairement à ce qui sera mis en avant pour justifier de la mettre en œuvre). Le domaine économique sera bien plus prolifique dans son utilisation des « simulis » !

Le domaine de la publicité, par exemple, sera un grand consommateur de situations simulées afin d’optimiser le message, le plan média, la fréquence de diffusion et ainsi de suite. On imagine bien que les politiciens, comme les publicitaires, vont également se jeter sur cet outil pour ajuster leurs discours en fonction de leurs cibles.

Tout cela parait évident une fois exposé correctement. Mais c’est dans le domaine de la « distraction » que le secteur économique va le plus avoir recours à la simulation, hé oui. En effet, regardez le succès actuel des différentes déclinaisons de ce qu’on appelle encore « les jeux vidéo » (voir à http://fr.wikipedia.org/wiki/Jeu_vidéo). Il suffit de regarder les chiffres pour se convaincre de l’importance croissante de ce secteur : l’industrie vidéoludique (c’est comme ça qu’on l’appelle selon Wikipédia…) génère actuellement un revenu plus important que celui du cinéma et ceci depuis 1997. En 2007, le revenu global approchait les 40 milliards de dollars. En 2012, le chiffre d’affaires mondial de l’industrie atteint 60 milliards de dollars selon le SNJV (Syndicat National du Jeu Vidéo). L’industrie vidéoludique serait ainsi la première industrie culturelle dans le monde. Le jeu le plus coûteux de l’histoire (fin 2013), GTA V, a coûté 270 millions de dollars (moitié production, moitié marketing) soit l’ordre de grandeur d’un blockbuster hollywoodien.

Donc, on a un moyen médiocre (pour dire le mieux) de se projeter dans un univers plus ou moins bien simulé (là encore, on reste gentil) et ça marche du tonnerre : des millions de gens (et pas que des jeunes) y passent un temps de plus en plus important tout en y dépensant une somme d’argent pas ridicule. Que se passera-t-il le jour où on pourra proposer une alternative autrement convaincante ?

Oui, vous m’avez bien compris, j’en reviens encore à la simulation, la vraie. Le jour où on pourra vous proposer une plongée en immersion totale dans les univers simulés (spécialisés au début, généralistes ensuite), vous allez voir que l’offre va faire recette immédiatement (et ça sera le cas de le dire : les succès financiers des jeux vidéo actuels paraitront bien pâles en comparaison !). Les gens vont se ruer vers ce nouveau « loisir » et les cas d’addiction vont se multiplier jusqu’à atteindre un seuil alarmant : le nombre d’individus qui vont préférer vivre une vie « plus ou moins scriptée » (en fonction de leurs préférences) dans les univers simulés va être surprenant. Tout du moins, ça sera surprenant à nos yeux d’aujourd’hui alors que ça paraitra banal quand ça sera possible. De la même façon qu’un honnête homme du XIXe siècle serait étonné de voir quelle est l’étendue actuelle de la consommation des substances addictives (y compris le sucre, les cigarettes, les médicaments, en plus des substances illégales comme les drogues dures).

Il n’est donc pas impossible (pour ne pas dire qu’il est probable) que l’usage des simulis soit le prochain grand problème de société à l’avenir. Voire même fera naître une autre catégorie de population : ceux qui vivent principalement en immersion (dans les simulis donc) et très peu (voire le moins possible) en dehors.

Bien entendu, cette situation ne va pas arriver du jour au lendemain. Tout d’abord, la mise au point de la « simulation totale » va prendre un certain temps (mais sans doute sera-t-elle là avant la singularité technologique qui reste un horizon hypothétique alors que la simulation totale est une perspective quasi certaine). Ensuite, les techniques d’immersion resteront compliquées et coûteuses pendant une période plus ou moins longue et, clairement, le transfert synaptique (si on continue à l’appeler ainsi) ne sera pas à la disposition de tout un chacun avant des décennies. Cependant, cela va finir par arriver et quand ça sera là, les digues vont céder et les masses vont s’y précipiter. Qui restera-t-il « à la surface » ?

Les deux extrémités, comme d’habitude : les plus pauvres qui n’auront pas les moyens de se payer une immersion (même brève) et les plus riches qui préféreront regarder tout cela de haut, tout en tirant les ficelles pour les plus malins d’entre eux.

L’avènement de la simulation aura quelques conséquences inattendues : disparation de la prostitution (tout du moins dans les pays riches, elle sera toujours effective dans les pays pauvres) et disparition des compétitions sportives. Ces disparitions seront limitées à leurs expressions physiques dans le monde « réel », car, bien sûr, compétitions et prostitution seront plus que jamais à la mode dans les simulis…

Pas besoin d’expliquer pourquoi la prostitution va être florissante dans les mondes virtuels, penchons-nous sur les raisons concernant les compétitions : facilités d’organisation, plus grande liberté des règles, diffusion « télévisée » à l’identique, réduction du danger et de ses conséquences, etc.

Encore que, pour ce dernier point, rien n’est moins sûr. On ignore encore (et pour cause !) quels seront les effets secondaires (ou encore, les effets réels, tout simplement) que pourraient avoir une blessure ou un traumatisme sur mon corps réel lorsque ces dommages arriveront à mon « avatar » en immersion… Peut-on vraiment séparer le corps de l’esprit ?

Voilà le type de « découvertes » que nous allons faire avec l’avènement de la simulation totale. Accrochez-vous, ça va secouer, car, comme disent les Anglais « there is always a surprise! » (il y a toujours une surprise).

PS) on constate que les simulis commencent à être mis en place par les industriels (à travers ce qu’on commence à appeler les “jumeaux numériques”). Les motoristes de l’aviation civile simulent le fonctionnement des moteurs équipant les flottes des compagnies aériennes en les alimentant avec les données réelles venant des vrais moteurs qui volent tous les jours.

Le but est de prévenir les pannes, d’anticiper les opérations de maintenance. Mais il est clair que, à l’avenir, ces simulations très techniques auront tout intérêt à être reliées à d’autres dans les domaines voisins : la météo afin de pouvoir y ajouter les données d’environnement et ainsi de suite. Une fois qu’on a cette image en tête, il est assez facile de se projeter la suite.

Et ce n’est que le début…


La technostructure est-elle en train de devenir autiste ?

Publiée le 18 septembre 2019 sur Linkedin

C’est la question qu’on peut se poser face au fossé qui est en train de se creuser entre les “gens normaux” et toutes les infrastructures dans lesquelles nous vivons et évoluons que j’ai pris l’habitude d’appeler la technostructure. En effet, on constate de plus en plus que le niveau de complexité augmente, que les réglementations s’accumulent, deviennent de plus en plus restrictive et qu’il est de plus en plus compliqué de les respecter, de les suivre ou même de les comprendre. En plus de cela, la numérisation croissante de nos interactions avec ses interlocuteurs (organisations ou sociétés), au lieu d’apporter les bénéfices espérés et promis produit de plus en plus de frustrations bien légitimes. En effet, on est de plus en plus souvent face à un mur, confrontés à des interfaces qui n’ont pas été pensées et qui n’ont pas été testé avec des “gens normaux” et qui vous imposent leur logique si tant est qu’elle soit compréhensible.

Et c’est moi qui dis cela !

Moi qui utilise des ordinateurs tous les jours depuis 1983… Moi qui suis à l’aise avec les systèmes techniques les plus divers, mais qui n’arrive plus à supporter l’absurde bureaucratie dans laquelle s’enfonce notre société.

Ce décalage de plus en plus fréquent et de plus en plus profond doit nous interroger. Jusqu’au cela va-t-il aller avant qu’un vrai craquement se produise ?

Va-t-on assister à un autre mouvement populaire de type “gilet jaune”, mais qui, cette fois, ne viendra pas des pauvres qui ne supportent plus d’être écrasés, mais des gens aisés qui ne supportent plus d’être oppressés par cette technostructure qui devient de plus en plus autiste.

À l’heure où l’on parle de plus en plus de relation client, sur le terrain, la situation est blême : le client, justement, a de plus en plus l’impression de ne plus être entendu, voire même de plus être respecté. Ce décalage ne peut plus durer, il va forcément déboucher sur quelque chose et j’ai bien peur que ce quelque chose ne soit pas souhaitable…


Pourquoi prédire un “hiver de l’IA” est contre-intuitif ?

Publiée le 7 janvier 2020.

Dans certains de mes écrits précédents, je reviens souvent sur une idée forte : l’IA, actuellement formidablement à la mode, va bientôt entrer dans une période moins florissante, un nouvel “hiver de l’IA” comme cette discipline en a déjà connu deux dans son passé. Pourtant, bien que les éléments qui indiquent ce prochain effondrement s’accumulent, le battage médiatique ne faiblit pas et continue à résonner positivement avec l’assentiment (aveugle ?) de la grande majorité des “analystes” de la tech. Pourquoi ?

Pour comprendre les forces qui sont à l’œuvre ici, je vous propose de nous pencher sur les mécanismes mentaux qui entretiennent cette croyance (l’IA, c’est l’avenir) en dépit des signaux qui indiquent le contraire.

Psychologie des foules

Prédire l’hiver de l’IA, c’est comme prédire un krach boursier : il est impossible d’indiquer avec précision quand cela se produira. Cependant, comme avant un krach boursier, on peut déjà observer des signes de l’effondrement imminent. Actuellement le “récit IA” trouve encore une résonance si forte qu’il est plus facile (pour le grand public) d’ignorer ces signaux et de continuer à croire cette belle histoire.

Pour comprendre la force du “récit IA”, il faut sortir du domaine de la tech pour passer dans le domaine de la psychologie sociale, de la psychologie des foules. Chaque nouveau convaincu renforce la conviction de l’ensemble avec des arguments du genre “un millions de personnes ne peuvent pas avoir tort, ne peuvent pas penser la même chose en même temps et se tromper” alors qu’on a des exemples par le passé qui montrent que le volume ne fait rien à l’affaire et qu’on peut avoir des foules qui ont des convictions (y compris très fortes comme dans le domaine religieux) qui ne reposent hélas sur rien. Dans le domaine de l’IA, il faut comprendre que chaque démonstration médiatique vient renforcer les autres. On est donc face à un effet cumulatif qui finit par ancrer une conviction en profondeur dans chacun de nous, on finit par s’habituer à “l’évidence” de telle ou telle affirmation, de telle ou telle hypothèse. Au bout d’un moment, elle n’est plus considérée comme une hypothèse, mais ça devient un fait (ça ne l’est pas), au moins dans la tête des gens. C’est ce mécanisme qui est à l’œuvre continuellement avec le battage médiatique autour de l’IA (et c’est pareil pour les autres modes).

Renforcement positif, forcément

Les membres du système médiatique vont, consciemment ou inconsciemment, appliquer un filtre de “renforcement” dans le choix des nouvelles qu’ils publient. Donc, dans un premier temps, ils vont plutôt publier des articles avec des éléments qui vont dans le sens d’une confirmation du phénomène en cours. Il faudrait le tarissement de cette source (celle qui confirme le phénomène) puis l’apparition d’une autre source (qui elle infirmerait la chose) qui irait dans l’autre sens (finalement, le phénomène “à la mode” n’est que vent, ça marche, etc.) et seulement si le flot de la seconde source se met à dépasser la première, on verrait le ton s’inverser. Et si on en arrive là, l’emballement médiatique reprend, mais dans l’autre sens.

Retournement de tendance, généralisée

Tout d’un coup, tous ces commentateurs qui disaient et répétaient “l’IA c’est l’avenir et ça va tout changer” vont se mettre à dire à l’unisson “finalement, c’est pas pour tout de suite, c’est limité, on a trop rêvé, etc.”. C’est un cycle qui se reproduit à l’identique depuis des décennies encore et encore. On a eu de nombreuses modes qui ont permis de l’illustrer (ce n’est d’ailleurs pas limité au domaine technique, on voit le même “cycle du hype” partout, y compris dans les domaines économiques et politiques). Ce n’est pas pour rien qu’en matière d’IA on parle de “printemps” et “d’hiver” parce que ça s’est déjà produit et l’on sait que ça va se produire à nouveau.

Une bulle médiatique, encore et toujours

Actuellement, nous avons tous les signes qui permettent d’identifier un prochain “hiver”, c’est-à-dire qu’on sait qu’on a accumulé tous les indices qui désignent une bulle, une bulle médiatique autour de l’IA qui se caractérise par “assez peu de signaux et beaucoup de bruits” (d’ailleurs, toutes les bulles médiatiques sont toujours basées sur un rapport signal/bruit complètement disproportionné !). La différence flagrante entre l’ampleur de l’écho donné aux réalisations spectaculaires (mais peu nombreuses) et le silence sur les réalisations ordinaires indiquent que ces dernières sont bien trop rares pour que la situation puisse être considérée comme “normale”. Donc, une mise en scène grandiose d’un côté et le désert de l’autre. On retrouve ce décalage aussi bien avec Watson d’IBM qu’avec Deepmind de Google. Dans ce dernier exemple, on va parler encore et toujours de sa formidable réussite dans le domaine du jeu vidéo et du jeu de Go, mais on va taire le fait que Deepmind n’arrive pas à trouver des débouchés pour ses logiciels en dehors de la “galaxie Google”. Pourquoi ce biais narratif ?

Eh bien parce que c’est plus facile et mieux reçu par la cible habituelle de ressasser quelque chose de connu que de proposer une vraie analyse, une analyse critique de la situation. Donc, on ne le fait pas sauf quand l’époque et l’atmosphère sont devenues favorables à un “AI bashing” qui, très vite, se généralise (emballement médiatique de fin de cycle). Ce décalage entre le grandiose de ce qui est mis en avant (AlphaZero et le jeu de Go) et le désert des réalisations plus modestes, mais concrètes peut être expliqué par le principe des retours décroissants qui est presque un effet de “miroir inversé” avec l’enflure médiatique qui elle va croissant.

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel !

Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité.

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire.

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas.

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite”… Voir à ce propos => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-1-la-maturation

Peu de sources, trop de diffuseurs

Mais cette confusion est inévitable, car liée à notre capacité de perceptions limitées et au fait qu’on aille toujours vers le plus facile. Et le plus facile, c’est de retenir les éléments qui correspondent à notre schéma de pensée (et d’éliminer les autres), auxquels on peut adhérer et avec lesquels on a “l’impression de comprendre” plutôt que de devoir reconsidérer ses filtres, faire une vraie analyse, se mettre à penser pour de vrai, à se lancer dans une analyse critique. Il est plus facile et confortable d’avaler des contenus qui, en fait, ne sont que des résumés (éventuellement de façon abusive sous couvert de vulgarisation) d’éléments lus ailleurs et regroupés en quelques copier-coller à faible valeur ajoutée, car mal compris et mal digérés.

La prochaine victime : l’informatique quantique

Le battage médiatique est constitué de ces redites reprises ad nauseam, car il y a très peu de sources et beaucoup de diffuseurs (comme il y a peu d’agences de presse et beaucoup de chaines de TV…). On voit ce mécanisme encore utilisé actuellement à propos de l’informatique quantique avec des promesses délirantes alors qu’on n’est qu’au tout début de ce domaine radicalement nouveau (voir plus à ce propos ici => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/linformatique-quantique-pour-bientot).

Je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse… Remettez en cause les analyses, y compris la mienne. La bonne attitude sur le plan intellectuel n’est pas de suivre le troupeau mais bien de tirer ses propres conclusions en fonction de votre contexte et de vos contraintes.


L’E-sport est en train de devenir un phénomène de société

Publiée le 20 janvier 2020 sur Linkedin

Avertissement – Je n’ai pas vraiment “rédigé” cet article : j’ai pris des éléments des différentes sources citées à la fin de cet article et je les ai ordonné de façon cohérente. Plus un travail d’édition (beaucoup de copier/coller, un peu de corrections et de reformulations) que de rédaction donc…

Dans l’e-sport, la progression des récompenses reflète la croissance de ce domaine. En 2013, à Sydney, la bourse était de $7000 pour le tournoi d’esport organisé à ce moment-là. Avance rapide jusqu’à aujourd’hui et l’on voit que ce même tournoi de Sydney offre désormais une bourse de $350 000 à se partager entre les participants, une inflation certaine !

L’e-sport est désormais de plus en plus reconnu comme une activité sportive, car il fait appel aux compétences personnelles des joueurs comme le réflexe, l’acuité visuelle, la précision, la stratégie ou la communication — des compétences utilisées dans des sports tels que les échecs, le sport automobile, le tir à l’arc ou les sports collectifs.

Des débuts timides puis fracassants

Les débuts de l’e-sport commencent dès 1990, entre autres grâce au jeu Quake. Ces premiers événements ne sont “que” des rassemblements de plusieurs dizaines de personnes. Ces derniers ramenaient leur propre ordinateur et s’affrontaient en LAN (Local Area Network). Puis avec la sortie d’autres jeux propices à l’e-sport, tels que Starcraft ou encore Trackmania, l’e-sport s’est diversifié sur plusieurs autres styles de jeu.

Les années 90 ont aussi vu l’essor des jeux de combat et des tireurs à la première personne (FPS). Les compétitions opposaient désormais joueur contre joueur au lieu des meilleurs scores. Cependant, c’était un titre de “stratégie en temps réel” qui allait littéralement changer la donne…

Sorti en 1998 pour PC, Starcraft avec son robuste mode multijoueur utilisait Internet pour jouer en ligne et en compétition. Il s’agissait d’un phénomène sans précédent en Corée du Sud. Les tournois Starcraft ont germé et les matchs ont été télévisés sur plusieurs stations. Les joueurs ont commencé à devenir pro, à former des équipes et à récolter des parrainages rémunérés avec des marques, avec des campagnes publicitaires. Ce fut la vraie naissance de l’esport.

La professionnalisation du jeu vidéo au sens large vient ensuite en 1997 avec la création de la Cyberathlete Professional League, revendiquant l’existence d’un système sportif dans lequel des équipes composées de joueurs, auxquelles viennent parfois s’ajouter des informateurs, managers, entraîneurs et sponsors s’entraînent régulièrement sur des jeux dans un but purement compétitif.

L’essor de l’e-sport

La compétition et les rencontres internationales se sont d’abord développées avec des FPS tels que Counter-Strike, entre autres. Mais le progrès du milieu compétitif suivait généralement celui des jeux vidéo : ainsi, en 2008, l’Electronic Sports World Cup a retenu de nouveaux jeux tels que Quake III Arena ou encore TrackMania Nations ESWC. Ainsi en élargissant son panel de jeux, l’e-sport avait davantage de chances de toucher un public plus large.

L’essor de l’e-sport a fait émerger de nouveaux métiers, celui de joueur professionnel ou bien de streamer (d’abord sur Twich, la plateforme pionnière en la matière et désormais sur YouTube). Avec cet élan rassemblant plusieurs millions de personnes, des acteurs majeurs s’intéressent à cette nouvelle discipline.

Mais c’est essentiellement en 2010 que l’on assiste à un véritable progrès dans le domaine compétitif avec l’ajout de jeux à l’e-sport tels que Hearthstone, StarCraft II, FIFA, les nouveaux volets de Call Of Duty et Counter-Strike, Dota 2 ou encore le très prisé League of Legends. De plus, le développement de la diffusion de ces rencontres grâce à des WebTV spécialisées dans ce domaine tels que MilleniumTV, OrigineTV, NetGaming, YouTube ou encore Twitch, a permis d’étendre l’influence de l’e-sport sur internet notamment. Ainsi, en 2014, on a recensé 89 millions de spectateurs (via ses plateformes) réguliers lors de compétitions de grande envergure et pas moins de 117 millions de spectateurs (toujours via ses plateformes) occasionnels.

Ce développement si rapide et efficace est également dû aux sponsors qui financent les rencontres et certaines équipes professionnelles ; on peut citer Intel ou AlienWare entre autres, qui organisent la majorité des rencontres en louant des salles et des stades entiers, en fournissant le matériel, ou encore en offrant la récompense à l’équipe gagnante.

Aujourd’hui, l’e-sport ne cesse d’attirer les amateurs et suscite même l’attention de nombreux journaux qui ne sont d’ordinaire pas spécialisés dans le domaine du jeu vidéo.

Et en France ?

En France, l’e-sport a commencé à faire parler de lui en 2010, avec le progrès des compétitions internationales.

On assiste en 2016 à la création de compétitions nationales telles que la e-ligue 1 sur la série FIFA, projet soutenu notamment par l’éditeur de jeux vidéo Electronic Arts.

Ainsi en 2016, l’e-sport en France a généré un revenu global de 22,4 millions de dollars d’après PayPal, et plus de 27 millions en 2017. L’hexagone est le troisième pays européen en termes d’audience pour l’e-Sport. En 2017, 37 millions de téléspectateurs en Europe regardaient régulièrement les compétitions. De leur côté, les Français étaient plus de 2 millions derrière leur écran. Un chiffre qui pourrait atteindre 2,8 millions en 2019. À titre comparatif, ces audiences sont équivalentes à des programmes télévisuels tels que les Césars ou encore les Victoires de la musique.

Le pays y voit une occasion de se développer dans un secteur en pleine expansion. Annoncée en 2018, la FFF (Fédération Française de Football) a décidé de lancer une équipe de France d’e-Sport.Toujours côté foot, le PSG s’est lancé dans l’E-sport en Octobre 2016 en s’associant avec Webedia, une entreprise spécialisée dans les médias en ligne.

De leurs côtés, les chaînes de télévision et les constructeurs s’activent aussi et y voient une opportunité grandissante. M6 a annoncé en février 2018 une participation minoritaire dans Glory4Gamers ou encore Renault qui a rejoint les rangs de Team Vitality en créant sa propre équipe « Renault Sport Team Vitality ».

La plupart des grands groupes médias français investissent aussi dans le secteur : Webedia en rachetant Oxent (développeur de l’e-Sport platform Tournament), Lagardère Sport avec Team Roccat, Vivendi avec Canal eSport Club.

Une ruée vers l’or au niveau mondial ?

L‘E-sport concerne aussi les jeux mobiles et ainsi Alphabet Inc, le conglomérat détenant Google et ses services, a investi 120 millions de dollars (en janvier 2018) dans une société chinoise, Chushou. C’est une société qui propose une plateforme de streaming de jeux mobiles, et plus particulièrement de jeux compétitifs. Cette dernière a déjà attiré plus de 8 millions de streamers. Leur objectif étant d’aider la plateforme à se développer en Chine et à l’international.

Les recettes de l’e-sport (850 millions de dollars en 2018, estimations) sont estimées à 10 milliards de dollars en 2030. En 2018, plus de 100 millions de dollars ont été distribués aux gagnants des compétitions. Ces chiffres peuvent paraître démentiels pour une discipline encore méconnue du grand public. Cependant, la finale mondiale du jeux-vidéos League of Legends a réussi à remplir un stade olympique, rassemblant ainsi plus de 40.000 personnes. Elle était aussi diffusée en direct et à réuni plus de 60 millions de spectateurs uniques.

Malgré des rémunérations de plus en plus faciles et importantes, les principaux revenus de la majorité des joueurs e-sport restent les plateformes de streamings (YouTube, Twitch) grâce aux dons ou aux publicités.

Certains acteurs déjà présents dans l’e-sport essayent de faciliter l’arrivée de cette discipline. Que ce soit un streamer qui sponsorise un joueur professionnel ou encore une chaîne de télévision qui ne diffuse que de l’E-sport.

L’e-sport étant une discipline naissante, certains points importants à son succès auprès du grand public posent encore problèmes. L’un de ce derniers est le nombre de d’événements organisés par différentes structures, de ce fait il peut y avoir plusieurs champions sur un seul et même jeu. C’est pour le moment le point faible de l’e-sport, il n’existe pas de structure officielle pour le représenter. C’est une des raisons pour lesquelles la fédération mondiale de Jeux Olympiques ne l’a pas encore accepté.

Malgré cela, l’OCA (Comité Olympique Asiatique) a annoncé sa volonté d’intégrer l’E-sport au programme des jeux asiatiques de 2022.

Toutes les disciplines sportives sont concernées ou presque !

On a déjà évoqué le foot et League of Legends qui sont deux piliers du développement de l’e-sport mais, bien sûr, d’autres secteurs sont aussi concernés même si certains prennent un peu le train en marche.

C’est le cas des sports-mécaniques où, en 2019, on a enfin vu un vrai décollage de la discipline. Que ce soit pour le MotoGP, Le Mans ou la Formule Un, des championnats officiels sont organisés et les vraies équipes y engagent des SimRacers super aiguisés. L’argent est au rendez-vous et cela aide à expliquer pourquoi après avoir tardé, le décollage n’en est que plus brutal.

Conclusion : les lignes sont en train de bouger

Il est incontestable que l’e-sport est en train de prendre sa place dans notre société des loisirs et du spectacle. Il est déjà possible de faire carrière, en tant que sportif professionnel, sans jamais aller sur le “vrai” terrain. La compétition est féroce et les meilleurs s’entraînent de façon “effrayante” (Marc Marquez qui est plutôt du genre à être un bosseur et un perfectionniste, a été étonné de voir l’engagement et la précision des meilleurs pilotes participants au championnat MotoGP en e-sport). La croissance est très forte car les sponsors pensent qu’ils ont enfin trouvé la recette magique pour toucher les “jeunes”… Du coup, l’argent coule à flot. Pour combien de temps ?

Alain Lefebvre – Janvier 2020

Sources utilisées pour cet article :

https://www.linkedin.com/pulse/exponential-esports-growth-from-7000-350000-australian-chris-smith/

https://www.geekslands.fr/item/1312-l-essor-de-l-e-sport-dans-le-monde/

https://www.forbes.fr/business/la-revolution-du-e-sport/

https://www.autoblog.com/2019/11/01/esport-racing-series-guide-history/

http://www.jeuxvideo.com/news/772751/google-investit-dans-l-esport-mobile-en-chine.htm

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

https://www.la-croix.com/Sport/Ce-sport-derange-monde-sportif-2017-05-12-1200846649

http://blogs.lecolededesign.com/veille/2018/01/11/lessor-de-le-sport/

https://www.lequipe.fr/Esport/Actualites/Esport-adrien-zerator-nougaret-sponsorise-un-joueur/864342

http://www.gameblog.fr/news/72810-es1-la-chaine-100-esport-a-une-nouvelle-date-de-lancement-et

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

http://www.lepoint.fr/sport/on-espere-que-l-e-sport-prendra-toute-sa-place-au-psg-10-01-2018-2185260_26.php


Les orphelins de leur passé numérique

Publiée sur Linkedin le 27 janvier 2020

C’est récemment que j’ai réalisé ça : on parle beaucoup de big data, de la prééminence de la donnée, y compris au niveau individuel, mais la réalité est tout autre… La réalité, c’est que de plus en plus de gens sont des « orphelins de leur passé numérique » !

J’ai compris cela en voulant migrer le contenu du téléphone de mon épouse, depuis son ancien iPhone qui commençait à accuser le poids des ans vers un Pixel 4 flambant neuf. Tout s’est bien passé et la procédure de migration conçue par Google (il y a même un adaptateur de prise USB pour faire face à tous les cas) est bien faite et efficace… sauf en ce qui concerne l’historique des conversations WhatsApp !

Je me suis penché sur le problème puis j’ai plongé dans ce trou noir et je dois avouer que j’ai eu du mal à en sortir… Rien ne fonctionne, ni même l’utilitaire dr.phone (payé 30 euros), il a fallu que je transfère à la main, morceau par morceau, l’historique de nos échanges afin qu’il ne soit pas perdu, qu’elle puisse le retrouver sur son nouveau téléphone tip-top. Si ça m’a pris tant d’efforts à moi, vous imaginez pour les gens « ordinaires » ?

En effet, en dépit des efforts des GAFAM, chaque migration, chaque passage d’un appareil à l’autre, chaque changement de logiciel et chaque changement de smartphone se passe mal, la plupart du temps : les procédures sont complexes, les gens sont peu enclins à les suivre et les bugs et situations inédites sont encore monnaie courante. Du coup, on a nouveau smartphone tout neuf oui, mais vide la plupart du temps… aie.

Or, nous avons tous des photos, des vidéos et des textes (voir des présentations) que nous voulons garder, absolument. Bien entendu, se pose d’abord un problème de place : les photos que nous prenons à l’occasion sont bien plus nombreuses qu’avant et elles pèsent plus lourd aussi. Même problème pour les vidéos et ainsi de suite (mais, bien sûr, c’est pour ces deux types de contenus que cet aspect se fait le plus sentir). Collectivement, nous produisons toujours plus de contenus chaque année, encore bien plus que ce qui a été produit jusque-là. Mais, de toute cette masse, quelle est la part qui est gâchée, perdue, inaccessible ?

Eh bien il s’avère quelle n’est pas négligeable. Dans cette ère du jetable, du plastique à usage unique, des smartphones qu’on remplace et déclasse pour un oui ou un non (en dépit de leur prix !), notre production numérique est difficile à traiter comme un bien qui est destiné à durer, à rester avec nous, à travers le temps, les âges, les générations.

Dans notre petite famille, nous avons un enregistreur vidéo (un Caméscope, c’est ainsi qu’on appelait cela il n’y a pas encore si longtemps) depuis 1990. Depuis, nous avons systématiquement converti et conservé précieusement ces enregistrements. Nous avons des serveurs Synology configurés en RAID pour cela et nous pratiquons des sauvegardes sur le mode 1-2-3 systématiquement et depuis des années (au passage, je recommande le service Backblaze…). Nous sommes parés pour les situations « normales », mais on ne sait jamais ce qui va menacer votre patrimoine de données, d’images, de vidéos… Nous tenons à ces images et à ces vidéos, nous considérons qu’elles sont une part de nous. Et nous nous apercevons qu’il est toujours plus difficile de les stocker, de les convertir, de les trier et ainsi de suite.

J’imagine que certains doivent avoir les mêmes difficultés que nous, mais que beaucoup d’autres renoncent à tous ces efforts. Nous entrons dans l’ère des orphelins du numérique où nous produisons beaucoup de données, mais où nous en perdons autant à chaque occasion.


Quand la réalité rejoint la fiction

Publiée sur Linkedin le 6 février 2020

Je viens de regarder un documentaire sur Arte : “Des robots et des hommes”. Un contenu sur la robotique, l’IA et les questions sociétales que ces sujets posent… Rien d’exceptionnel, mais j’ai pour habitude de regarder plus ou moins « tout » ce qui passe à ma portée sur ces sujets (et d’être souvent déçu par les banalités et les idées reçues qui y sont ressassées !).

Cependant, cette fois, une séquence a particulièrement retenu mon attention. À partir de 46:30; on y voit une jeune femme qui explique son quotidien au travail à Londres… Depuis dix ans, elle livre des colis (genre Uber Eats) en vélo et explique que depuis ses débuts, les choses ont bien changé : avant, elle avait un manager qu’elle voyait de temps en temps et, désormais, tout ce fait à travers une app, y compris les sanctions !

Voir à https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes/

Cette évolution déshumanisée m’a rappelé exactement le contexte d’un roman de SF écrit par Marshall Brain : Mana (voir à https://marshallbrain.com/manna1.htm).

Dans Mana, une chaîne de fast food remplace tous les managers par une application reliée aux employés par un casque audio où elle donne ses ordres. Les employés peuvent et doivent indiquer où ils en sont par un microphone intégré au casque audio. Les humains sont ainsi transformés en quasi-robots qui doivent obéir minute par minute à une application qui trace tout, n’oublie rien et sanctionne au moindre travers.

Il est assez saisissant de voir qu’on en est là, déjà. Et nul besoin d’une AI sophistiquée pour atteindre ce genre de résultat : il suffit d’un programme comme les plateformes de services telles qu’Uber et autres mettent en œuvre depuis des années. Les évolutions les plus radicales ne demandent pas forcément un saut technologique important, il suffit d’intégrer finement ce qui est déjà largement disponible…


Comment reconnaître une mode technique exagérée ?

Publiée sur Linkedin le 9 février 2020

En ce moment, les médias nous expliquent avec force que “l’informatique quantique”, c’est l’avenir et que ça va tout changer…

Les médias n’ont pas peur du ridicule, ils sont là pour faire de l’audience, à tout prix. Comme la nature, les médias ont horreur du vide. Quand la mode précédente commence à s’essouffler (au choix, la Blockchain, la voiture autonome ou encore l’IA), ils en cherchent une autre, n’importe quelle autre du moment que son contenu paraît sexy et accrocheur.

Car la propagande technique a ses règles qu’elle suit rigoureusement. Tout d’abord, pour vendre sa nouvelle mode, elle emploie toujours les mêmes arguments. Ils sont faciles à reconnaître et vous les connaissez déjà. C’est le fameux “c’est tellement important que ça va concerner tous les domaines applicatifs”… en clair, ça sera “tout pour tous”. Cette proposition est absurde et toujours démentie, mais elle joue son rôle. Celui d’allumer les signaux d’alerte dans l’esprit des lecteurs et donc d’attirer leur (faible) attention.

En effet, la grande majorité des gens n’analyse nullement ce qu’il voit passer, ils se contentent de réagir, nuance. Et pour déclencher cette réaction (émotionnelle plutôt que rationnelle, forcément), rien de tel qu’un argument massue s’appuyant sur la peur : tout va changer grâce/à cause de cette technologie, préparez-vous !

Dans le cas de l’informatique quantique, ce serait risible si ça n’était pas désolant de voir que les mêmes ficelles (grossières) sont utilisées encore et encore. Car, soyons sérieux, l’informatique quantique n’en est qu’à son tout début et ne va pas produire des résultats significatifs avant au moins une dizaine d’années. C’est comme si on extrayait un prématuré de sa couveuse en prétendant qu’il allait battre le record du 100 m… ridicule et dangereux.

Les technologies mises en lumière trop tôt souffrent de cette exposition médiatique prématurée. Certes, dans un premier temps, l’argent se met à couler à flots sur les quelques équipes de recherche concernées (notez bien, on parle ici d’équipes de recherche…), mais, quand la déception va arriver (et elle arrive toujours) ces crédits vont se tarir brutalement.

La technologie ainsi malmenée ne va pas disparaître, elle va continuer à évoluer lentement en mode discret, car c’est ainsi que cela fonctionne : les “révolutions en une nuit” mettent vingt ans à maturer discrètement. La biotech ou la nanotechnologie ont été des déceptions, car mises en avant trop tôt, bien trop tôt. Mais depuis qu’elles sont retournées dans l’obscurité, elles continuent à évoluer, à progresser, lentement mais sûrement. Un jour, elles reviendront sur le devant de la scène pour enfin produire leurs effets et changer la donne.

En attendant, apprenez à décoder la propagande et évitez de tomber dans les “pièges à gogos” qui sont continuellement renouvelés.


La discrimination du futur : entre les « pensants »​ et les « lobotomisés »​.

Publiée sur Linkedin le 19 février 2020

Il suffit de regarder la télé 5mn pour en être convaincu (surtout si vous ne l’aviez pas vu depuis longtemps) : les programmes tels qu’ils sont devenus aujourd’hui ne s’adressent qu’aux plus débiles d’entres nous (y compris et surtout les pubs qui atteignent désormais des sommets !).

Le vrai fossé, la vraie discrimination du futur n’est pas entre les races, les gros et les moins gros, les jeunes et les moins jeunes (j’en oublie forcément mais je vous laisse compléter la liste) mais entre ceux qui réfléchissent encore par eux-mêmes (que, par commodités, nous appellerons les « pensants » à partir d’ici) et qui sont forcément une minorité (de plus en plus infime, hélas) et ceux qui ont abdiqué leur cerveaux (ou ce qu’il en reste) et qui s’abreuvent de ces programmes (que ça soit à la TV, sur YouTube ou ailleurs, là encore je ne vais pas faire la liste, vous voyez l’idée). Nous appellerons les membres de cette majorité croissante (hélas), les lobotomisés (ce qui situe assez bien leur état).

Ce fossé existe déjà, il se creuse un peu plus tous les jours (les pensants sont de moins en moins nombreux, les lobotomisés sont de plus en plus débiles) mais ce n’est encore rien par rapport à ce qu’on risque de voir se concrétiser à l’avenir. En effet, imaginez le scénario suivant (qui, on va le voir, n’est même pas exagéré, ni sur le plan technique, ni sur le plan sociétal) : un ou plusieurs des GAFAM finissent par mettre au point et commercialiser des lunettes permettant d’obtenir une « réalité augmentée » permanente tout en restant discrètes (pas un gros machin façon masque de VR) et sachant resté connectées au réseau en toutes circonstances (grâce à la 5G, c’est pas si loin). Eh bien, je pense que ce dispositif (porté en permanence bien sûr) servira principalement aux lobotomisés afin de pouvoir se gaver de leurs « contenus favoris » tout au long de la journée. On peut même imaginer qu’il y aura deux versions de ces lunettes : une, assez coûteuse, où c’est vous qui choisirez ce qui s’affiche et une autre, bien moins cher car « sponsorisée » (par TF1 ou M6, au hasard) où vous n’aurez plus le choix des contenus qui s’affichent (et où, ô surprise, il y aura une tranche de pub supplémentaire…).

Une que ce scénario sera en cours de réalisation, nous pouvons dire adieu à la grande majorité de la population : ils seront perdus, inaccessibles et tout échange intelligible avec eux sera progressivement impossible.

J’exagère, vraiment ?


Toujours plus vite… vers quoi ?

Publiée sur Linkedin le 29 février 2020

Les apôtres de la modernité nous le répètent sans se lasser : tout va de plus en plus vite !

Faut-il les croire ?

Je vous l’avoue, j’ai une position tout à fait opposée : non, je ne pense pas que “tout va toujours plus vite” même et surtout le progrès technique !

J’ai même publié un livre à ce sujet qui démontre la stagnation des principales technologies à la mode. Sur Linkedin, je ne manque jamais de pointer les incohérences de cette nouvelle pensée unique tout comme les autres effets pervers de la propagande hi-tech (la fixation sur l’IA et/ou la Blockchain).

En vérité, à la place du “toujours plus vite”, ce que je constate, c’est plutôt un “toujours les mêmes défauts mais en plus grand nombre” !

Toujours plus de défaillances, d’impasses et de bugs dans la sphère numérique grandissante.

Soyons honnête et, pour le moment, la réalité de l’expérience utilisateur est plus souvent médiocre qu’idyllique dans le monde merveilleux de “la révolution digitale”… En effet, il suffit d’évoquer ces procédures qui passent par des successions de formulaires pour finalement échouer au dernier moment pour différentes raisons (dépassement du temps prévu, rupture réseau, données manquantes ou, le plus souvent, aucune raison évoquée mais un simple message “erreur, réessayer dès que possible” qui met en rage même le plus zen d’entres nous !), ces applications qui captent vos données mais ne vous permettent pas de migrer votre historique quand vous changez de smartphone, ces GPS qui vous font passer par des parcours soit-disant “optimisés” mais absurdes en pratique… dois-je continuer cette liste des (mauvais) exemples des ratés de la “révolution digitale” que nous subissons autant (voire plus que nous en profitons ?

Mais alors, comment expliquer cette unanimité dans vis-à-vis de cette pensée unique (tout va de plus en plus vite) ?

La réponse se trouve peut-être dans les volumes toujours croissants de ce qui nous est accessible…

X10 de contenus, dans tous les domaines

On en parle moins souvent que de l’accélération (supposée mais facile à réfuter) mais ce qui caractérise vraiment notre époque, c’est cette abondance dans les contenus et ce dans tous les domaines ou presque.

Il y a seulement vingt ans, le monde était très différent de celui d’aujourd’hui. Pas vraiment sur le plan du niveau technologique atteint (qui, j’insiste, stagne) mais bien sur le plan de la diversité de l’offre. Regardez autour de vous et vous constatez une incroyable abondance dans les contenus (de distractions puisque nous sommes dans la société des loisirs en plus d’être dans la société du spectacle, l’une étant la conséquence de l’autre d’ailleurs !) et les offres commerciales qui sont disponibles, le plus souvent à un prix abordable en plus.

Pour celles et ceux qui sont assez âgés pour s’en souvenir, on reste ébahis devant l’incroyable augmentation de l’offre accessible. On peut multiplier les exemples : qui peut encore compter le nombre de chaînes de télévision disponibles (inutile, aucune ne vaut la peine d’être regardée !) ?

Pareil pour les chaînes YouTube et les services en ligne. Je suis écrivain et j’ai pu constater que l’offre de livres sur Amazon avait littéralement explosé alors que les gens lisent moins… allez comprendre !

Oui, je pense vraiment que c’est l’abondance bien plus que la vitesse qui caractérise notre époque. Et, face à ce déferlement, chacun reste médusé. Pas étonnant que, faute d’analyse plus approfondie, on finit par “penser” que “tout va toujours plus vite”…


Nous sommes trop nombreux et ça nous entraîne sur une pente dont nous ne voulons pas…

Publiée sur Linkedin le 15 avril 2020

Oui, c’est un peu long comme titre et pourtant, c’est exactement cela… Tout d’abord, nous sommes clairement trop nombreux et, ensuite, cela a des conséquences : cette pente dont nous ne voulons pas et qui pourtant s’impose à nous et nous entraîne.

Pas besoin de trop revenir sur le “nous sommes trop nombreux” mais, si ça n’est pas déjà le cas, je vous conseille de lire ce petit récit que j’ai publié il y a plus d’un an (Un nouveau récit de fiction : « Les terribles trop »…). Une fois ceci posé, que constatons-nous ?

Notre nombre qui augmente en permanence conduit à toujours plus de densité. Cette densité a des conséquences en cascade, on peut le voir en ce moment d’urgence sanitaire mais ce qu’un aspect (même s’il est dramatique et actuellement proéminent). Car cette augmentation se paye avec d’autres croissances à tous les étages : plus d’impôts (lors de la “grippe de Honk Kong de 1969, la pression fiscale en France n’avait rien à voir avec son niveau de 2020…), plus de réglementations (et moins de libertés du coup) et plus de contraintes de toutes natures. Plus la population prend de la place, moins il y a de confort, de sécurité et de liberté pour tous, il faut bien le dire !

Or, en ce moment, ces “terribles trop” ne sont pas assez mentionnés, presque ignorés alors qu’ils sont vraiment à l’origine de nos problèmes (et pas seulement la crise actuelle qui, bien sûr, nous obnubile).


L’époque est favorable aux tartuffes

Publiée sur Linkedin le 20 avril 2020

En ces temps troublés, que voit-on ?

Des tartuffes de tout acabit qui tentent de faire passer des vessies pour des lanternes !

En effet, on ne compte plus les organismes de formations qui, auparavant, crachaient leur venin sur le E-learning et qui, aujourd’hui, le mettent en avant sans aucune vergogne… Pareil pour le télétravail, tous ces petits chefs qui n’en voulaient pas (surtout pour de mauvaises raisons) et qui tournent leurs vestes pour en vanter désormais les mérites…

Inutile de vous donner d’autres exemples, vous avez compris et vous pourriez citer d’autres imposteurs du même ordre. L’époque n’est pas à la vertu, elle est à celui qui se reniera le plus vite !


Le télétravail est une lentille grossissante !

Publiée sur Linkedin le 27 avril 2020

Les managers qui veulent à tout prix “fliquer” leurs collaborateurs qui travaillent à distance sont complètement “à côté de la plaque” : le télétravail agit en fait comme un révélateur. Celles et ceux qui étaient productifs au bureau le seront encore plus ailleurs, à distance, loin des contraintes paralysantes du “tout le monde au même endroit” (réunion chronophages, interruptions “sociales” constantes, etc.). En revanche, celles et ceux qui étaient performants pour “brasser de l’air” dans le contexte hautement social du bureau vont se retrouver fort dépourvus face à un écran, seul et sans public. C’est en cela que les situations de télétravail sont des révélateurs, des lentilles grossissantes qui permettent de départager les bons éléments productifs des “acteurs qui savent juste faire semblant” d’être de bons éléments.

Il en est de même pour le management. Celles et ceux qui insistent pour mettre en place ces dispositifs de surveillance sont du même acabit : conscients de leurs faiblesses en matière d’entraînement et de charisme, ils tentent de compenser en jouant les “petits chefs” et se transforment en “surveillants” car ils sont incapables de jouer pleinement leur rôle.


Ce que j’ai appris en 60 ans

Publiée sur Linkedin le 30 avril 2020

Hier, j’ai eu 60 ans. Je dois avouer que, quand j’avais la vingtaine, cela représentait pour moi un horizon si lointain qu’il paraissait tout à la fois inaccessible et complètement indésirable. Pour tout dire, je n’arrivais pas à me projeter “vieux”. Aujourd’hui bien sûr, j’ai une vision différente et je ne me vois toujours pas “vieux”.

Cependant, ce parcours qui s’est déroulé si vite, a eu le temps de m’apprendre une chose ou deux que je voudrais partager avec vous à travers cet article. Oh, je ne suis pas devenu un parangon de sagesse parce que j’ai atteint 60 ans mais laissons la modestie de côté pour tenter de transmettre ce que la vie m’a appris, jusqu’ici…

1- Apprendre

On ne cesse jamais d’apprendre et, surprise, c’est de plus en plus agréable, désirable même. S’il n’y a qu’une chose à apprendre aux jeunes, c’est ça : l’envie d’apprendre. Avec ça, vous êtes armé pour tous les défis.

2- Transmettre

C’est une pulsion qui s’impose à vous, l’âge venant. Ce que vous avez accumulé (et là, on ne parle pas de richesses mais de connaissances…), vous avez subitement envie de le transmettre, non, besoin de le transmettre. Pour que cela ne soit pas perdu ?

Peut-être, peu importe, la pulsion est là, il vous faut lui obéir.

3- Incertitude

Rien n’est sûr, surtout pas ce qui est annoncé comme certain. Attendez-vous à des déceptions si vous croyez celles et ceux qui vous annoncent des certitudes. Restez serein aussi, rien n’est sûr veut aussi dire que le pire n’est jamais certain… c’est déjà ça !

4- Amour, amitié

“Rien ne compense l’échec au foyer” me disait souvent un vieil ami… ô combien vrai !

Concentrez-vous sur l’essentiel : réussir à maintenir l’amour au sein de votre foyer. Cela semble évident, pourtant nombreux sont celles et ceux qui échouent en se perdant dans des objectifs divers qui ne sont PAS le but de la vie.

Si l’amour est important, ne négligez pas l’amitié qui est source (abondante) de bonnes surprises (et qui, souvent, dure plus longtemps…).

5- Lâcher prise

Je n’ai jamais rien achevé de bon en étant arc-bouté sur ma tâche. “Être à cran” ne vous aidera pas. Apprenez le lâcher prise, le plus tôt possible. D’abord parce que c’est long à maîtriser ensuite parce que ça sert longtemps.

6- Échecs, réussite

“Le succès, c’est d’aller d’échec en échec sans perdre son enthousiasme” (une citation célèbre attribuée à WINSTON CHURCHILL). Soyons clair, j’ai échoué très souvent, bien plus souvent même qu’il n’est confortable de l’avouer !

Mais échouer ne veut pas dire “se tromper”. Tous ces échecs m’ont apporté quelque chose, tous m’ont aidé à bâtir les quelques succès que j’ai pu achever. Sans les (nombreux) premiers, il n’y aurait pas eux les (quelques) seconds.

7- Rester positif

“Pourquoi s’inquiéter ?” dit le sage hindou… Il ne s’agit pas d’être positif à tout prix même au milieu des pires malheurs. Mais il suffit de se rendre compte que la beauté est partout (oui, vraiment partout, il faut juste chercher à la voir…) pour réaliser que nous avons le choix : nous plaindre (sans que cela fasse avancer quoi que ce soit) ou apprécier ce court séjour sur terre pour ce qu’il nous apporte.

8- Regard des autres

Ah si on pouvait se passer du regard des autres !

Mais on peut en fait. C’est lorsqu’on réalise finalement que le regard des autres ne vous apporte rien qu’on peut s’en libérer. Et cette liberté vous rend plus fort et plus heureux. C’est comme toute libération, il n’y a que le premier pas qui coûte…

9- Immuable

C’est comme les certitudes : rien n’est immuable. Riez quand vous entendez “pour toujours”. Aucune situation ne perdure, aucune domination n’est épargnée par le déclin, aucune position n’est acquise “pour toujours”. Libérez-vous de ce genre de boulet.

10- Sens de la vie

Ne cherchez pas le sens de la vie dans la philosophie ou dans l’ésotérisme, vivez-le à travers de profondes gratitudes : transmettre la connaissance, rayonner l’amour de vos proches, percevoir la beauté du monde, le voilà le sens de la vie.

Enfin, un dernier enseignement, très personnel cette fois : j’ai compris que je devais laisser une œuvre pour être tout à fait satisfait de mon passage dans ce monde. Cela paraît prétentieux ou trop ambitieux ou trop vain (c’est là où se libérer du regard des autres est utile…). Peu m’importe, c’est ma pulsion actuelle profonde. Peut-être cette « œuvre » restera inconnue, oubliée avant même d’être lue… peu importe, cela est mon moteur, ma motivation et mon devoir pour le temps qui me reste.


Haro sur le télétravail !

Publiée sur Linkedin le 11 juin 2020

Depuis le début du des confinement, on assiste à une véritable campagne de presse orchestrée contre le télétravail. On peut lire, ça et là, des articles résumant tous les inconvénients du télétravail, les témoignages des victimes (!) du télétravail, les inconvénients du télétravail qu’on a pu constater pendant la période de confinement et ainsi de suite.

En vérité tout cela ressemble fort à une ultime réaction de l’ancien monde face aux bouleversements récents du “nouveau monde” qui est en train de se mettre en place.

Il semble bien qu’une partie du management essaie de s’accrocher à ses anciennes prérogatives et fait tout ce qu’elle peut pour cela, y compris avoir recours à ce genre de campagne de le dénigrement. Cela indique surtout son degré d’affolement vis-à-vis de ce bouleversement que nous avons vécu tous ensemble. Car finalement, le télétravail est la seule bonne chose que l’on peut retirer des quelques mois de confinement que l’on vient de vivre en France.

Mais, comme ce mode de collaboration à distance semble insupportable à certains, rien de mieux que d’essayer de le disqualifier à travers des articles de pleurnicheur des nouvelles pratiques. Mais il n’y a pas que le management qui s’affole, c’est également le cas pour les “papillons de nuit” qui profitaient de leur présence au bureau pour brasser beaucoup d’air mais produire très peu. Avec l’avènement du télétravail, ce sont les premiers à être mis crûment devant leur inefficacité. Pour eux, il est clair qu’il vaudrait mieux revenir aux anciennes pratiques.

Cette ultime tentative de ces réactionnaires est bien la preuve, finalement, qu’il faut intégrer aussi largement que possible le travail à distance et affiner ce mode de collaboration sans présence physique. Qu’on le veuille ou non, qu’on l’apprécie ou pas, c’est un vrai progrès dans des pratiques professionnelles. Et tant pis pour les pleurnicheurs qui regrettent l’ancien monde car ils pouvaient l’exploiter et faire semblant de travailler sans trop se fatiguer.


Pour votre bien, restez à l’écart des modes techniques dans l’informatique…

Publiée sur Linkedin le 15 juin 2020

Je le répète à longueur de chroniques et d’ouvrages (à tel point que je pourrais passer pour un affreux rétrograde !) mais l’intérêt des organisations qui utilisent l’informatique n’est pas de suivre les modes imposées par les acteurs du marché qui, dans un bel ensemble, sont tous d’accord pour mettre en avant une nouvelle lubie tous les quatre ans.

Un exemple ? Pas de problème !

La transformation digitale était annoncée il y a quelques années comme une rupture majeure. Cloud, objets connectés, big data, intelligence artificielle et même les drones devaient devenir des technologies omniprésentes et tout révolutionner. En parallèle, de nouveaux entrants devaient s’imposer sur le marché avec leurs modèles d’affaires alternatifs et bousculer l’ordre établi, désintermédiant les acteurs historiques.

Dans la pratique, il y a bel et bien eu des ruptures sur certains secteurs d’activité comme Tesla dans l’automobile, Space X dans l’aérospatial, Revolut et N26 dans la banque de détail ou encore Netflix et Spotify, qui ont effectivement révolutionné l’industrie de l’Entertainment. Les GAFAM et BATX sont quant à eux devenus les premières capitalisations boursières et ont provoqué de profondes adaptations réglementaires sur le plan fiscal et en matière de protection des données personnelles, qui ont des répercussions sur l’ensemble des secteurs d’activité.

Mais il est clair que cette transformation digitale si elle a bien eu lieu dans quelques secteurs est loin d’avoir provoqué la rupture majeure tout azimut annoncée et répétée sur tous les tons.

En somme les ruptures annoncées se sont produites dans quelques cas emblématiques et mis en avant ad nauseam par les thuriféraires de la trop fameuse transformation digitale (elle aussi bien trop mise en avant !). Donc, on a généralisé quelques exemples exceptionnels en voulant faire croire qu’ils pouvaient s’appliquer à tous dans tous les domaines (ce qui n’était évidemment pas le cas, la suite l’a prouvé).

En réalité, c’est la même chose sur le plan technique : ce que les GAFAMs peuvent faire n’est pas forcément généralisable à toutes les organisations utilisant l’informatique (loin de là !). Un exemple éclairant avec l’IA : les GAFAMs ont tous su mettre en application le machine learning de façon spectaculaire mais, en dehors de ces cas extrêmes, c’est le désert !

On serait bien en mal de citer des organisations « ordinaires » ayant pu produire des résultats extraordinaires avec les dernières techniques de l’IA à la mode… Même IBM s’est planté en voulant commercialiser (trop tôt) son programme Watson auprès des intervenants du système de santé américain…

Et cette précaution ne se limite pas à l’IA, il en est de même pour quasiment tous les domaines à la mode !

Par charité, on évitera de poser les questions qui fâchent comme “mais où sont donc les voitures autonomes qu’on nous avait promises ?”.

Bref, vous l’aurez compris, les modes techniques sont toujours présentées trop tôt et vous avez intérêt à “laisser passer votre tour” afin d’en profiter une fois la maturité arrivée.


La prochaine ère de l’IT ? Une pause !

Publiée sur Linkedin le 18 juin 2020

N’en déplaise aux chantres de la “transformation digitale” (punaise, y en a vraiment marre d’utiliser cette expression !), la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment et c’est pas dommage !).

Non, la prochaine ère de l’IT, c’est de faire une pause, tout simplement.

Oui, notez bien la date et retenez que c’est moi qui vous l’annonce car, pour une fois, la prochaine mode, c’est de calmer tout cela et de se concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2-la loi de Moore est en train de s’effacer…


Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses (voir à https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in).

Je ne suis pas surpris puisque ça fait des années que je l’annonce (voir à http://www.alain-lefebvre.com/avenir-de-lia-lhypothese-85/). Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions peu à le dire. Maintenant que The Economist vient de publier ce dossier, le hype en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligé de me croire mais, en revanche, vous pouvez lire le dossier de The Economist fort bien fait…


Fin de partie pour la loi de Moore

Le NYT en parlait dès 2016 : la loi de Moore qui s’est vérifiée pendant des décennies est en train de s’effacer (lire à https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html).

En fait, c’est plus important qu’il n’y paraît car, qu’on le veuille ou non, qu’on y croit ou pas, les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage.

Gordon Moore, fondateur d’Intel, a observé en 1965 que le nombre de composants pouvant être gravés à la surface d’une tranche de silicium doublait à intervalles réguliers et le ferait dans un avenir prévisible – une idée connue sous le nom de loi de Moore. Credit Paul Sakuma/Associated Press

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé. Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus.

Voyons cet extrait de The Economist (source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). Il devrait savoir – pour entraîner son propre système «Openai Five», conçu pour battre les humains à «Defense of the Ancients 2», un jeu vidéo populaire, il a mis à l’échelle l’apprentissage automatique «à des niveaux sans précédent», exécutant des milliers de processus sans arrêt pendant plus de dix mois.

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de «Transformer», un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter «des millions de dollars» en consommation d’électricité.

===

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit. Vous voyez la collision des situations qui est en train de se dessiner ?

Bref, tout cela nous indique fortement qu’une pause est en train de s’installer. Il faut dire que la crise du Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… Tant mieux, qu’ils se recyclent sur autre chose.


Je veux aller vivre en Théorie

Publiée sur Linkedin le 29 juin 2020

Il est toujours très difficile d’avoir un discours contrariant dans le domaine technique parce que, d’une façon générale, le grand public a une perception “hystérique” de la réalité de l’évolution technique. Une perception déformée si le terme “hystérique” vous parait trop fort.

Que vous soyez craintif ou enthousiaste vis-à-vis des progrès techniques, dans les deux cas vous avez tort. La peur n’évite pas le danger et, si vous avez peur des évolutions techniques, peur de vous faire balayer (par Amazon ou par Uber), eh bien soyez sûr que ça arrivera. Car les évolutions techniques significatives finissent toujours par arriver et produisent des impacts importants. Simplement, ça prend toujours plus de temps qu’annoncé (principe de maturation toujours négligé ou sous-estimé).

Dans le même temps, si vous êtes trop enthousiaste en croyant que ces mêmes progrès techniques vont apporter et permettre, vous tendez le ressort de la déception cuisante qui, inévitablement, viendra. Pourquoi ?

Parce que, avouons-le, on est toujours déçu par la technologie et la vitesse de ses évolutions. Car la technologie requiert des investissements d’infrastructures pour sa mise en place, donc, des investissements importants (pensez à ce qui est en train d’être dépensé pour la mise en place de la 5G… et c’est la même chose tous les dix ans en matière de télécom).

Donc, quand on est face à des besoins de financements massifs, on est toujours obligé de “survendre” pour arriver à faire passer la pilule. Alors, forcément, le retour sur investissement va être long, ne va pas être aussi juteux que prévu et ainsi de suite.

En gros, la technologie ne nous décevrait jamais si tout se passait conformément à la théorie. Mais on sait bien que ce n’est pas le cas, jamais le cas. Comme le disait si justement Jean-Louis Gassée “je veux aller vivre en Théorie parce que tout se passe parfaitement en théorie”.

Mais en pratique, c’est autre chose : il y a des retards, il y a des imprévus, il y a des échecs, il y a des déceptions (voir le projet ITER par exemple). Gardez cela en tête la prochaine fois que vous devrez planifier un projet qui s’appuie sur une innovation technologique…


L’accélération est la nouvelle pensée unique (et c’est une connerie monumentale !).

Publiée sur Linkedin le 1er juillet 2020

On vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous le diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils se sont tellement persuadés que ce soit la vérité qu’ils se la répètent les uns les autres.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ?

Mais ça ne fonctionne pas toujours de la sorte. Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du soleil dans le ciel pour se rendre compte qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, pourtant à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux. Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement alors que la technologie est en train de ralentir.  Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira.

L’état de l’art, dans tous les domaines qui reposent sur la technologie, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on sur ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que la technologie est portée par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir.  C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et que cette solution est d’ordre technique.  Ainsi il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technologie vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu de la technologie. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie.

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) seront dans nos rues aussi rapidement qu’on nous dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi sûre.

Je peux parfois donner l’impression que je nie le progrès technique… Rien n’est plus faux !

Le problème essentiel vient de la façon dont les nouveautés techniques sont présentées au grand public. A chaque fois, la nouvelle technologie à la mode est accompagnée de promesses pharamineuses à grands coups d’adjectifs ronflants (« révolutionnaire » est le terme le plus souvent utilisé). Mais ça ne veut pas dire que c’est forcément un pétard mouillé pour autant. Internet, par exemple, n’a pas tenu toutes les promesses du temps de la bulle des dotcoms, mais il n’en n’a pas moins changé beaucoup de choses (depuis l’ecommerce qui a redéfinit nos pratiques de consommation jusqu’au cloud qui a redéfinit notre façon de gérer l’informatique). Au final, Internet peut être vu comme une déception seulement si vous avez cru à tous les bobards proclamés dans les années quatre-vingt-dix.

Je sais que la technique finit toujours par progresser, presque inexorablement et ce dans quasiment tous les domaines. Mais j’insiste, cette progression prend simplement plus de temps (toujours plus de temps !) que ce qui en est dit.

La technique ralentit, les retours décroissants sont partout et nous allons droit vers une déception majeure.

L’informatique semble être épargnée par cette stagnation mais c’est une apparence : seuls les capacités progressent (vitesse de traitement, affichage, stockage, taille des appareils et efficience électrique) mais pas les fonctionnalités qui restent très limitées. La meilleure preuve c’est que quand il y a une avancée dans ce domaine (IA avec les images ou la reconnaissance vocale), elle est mise en avant bruyamment !

Le progrès technique devrait être boosté en temps de guerre mais c’est l’inverse qui se produit : les militaires sont conservateurs et la recherche de l’innovation décisive est restée vaine lors des précédents conflits, seule la production de masse compte désormais.

Les programmes militaires sont comme ceux du médicaments : ils ralentissent inexorablement, pour un coût toujours plus élevé et sont donc moins nombreux à aboutir.

Dans le domaine spatiale aussi, les progrès sont très décevants (quasiment une absence de progrès en fait). SpaceX performe simplement en étant plus rationnel que les autres acteurs !

Il y a une grande différence entre un programme étudié et un programme opérationnel. Le nombre de projets étudiés et abandonnés est proprement vertigineux (ils sont très visibles dans les domaines spatial, nucléaire et militaire). Car la dernière marche est toujours la plus dure à gravir. Pour celles et ceux que les lois de l’évolution technique intéressent de plus près, j’ai listé celles-ci dans une série d’articles à voir à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-de-linformatique-introduction. Cela concerne surtout l’informatique (mon sujet de prédilection) mais c’est évidemment transposable et applicable aux autres domaines.

La propagande masque la réalité

La propagande est partout et masque la réalité. Deux exemples pour achever de s’en convaincre. Tout d’abord, un article paru sur « Siècle Digital » intitulé « Nos cellules souches squelettiques pourraient régénérer nos os ».

C’est une avancée scientifique importante qu’une équipe de chercheurs de Stanford vient de rapporter. Ils ont découvert les cellules souches squelettiques qui donnent naissance aux os, au cartilage et à l’os spongieux qui héberge la moelle osseuse. Cette découverte pourrait un jour aider les médecins à réparer ou à remplacer le cartilage des articulations et à guérir plus rapidement les os brisés. https://siecledigital.fr/2018/09/27/cellules-souches-squelettiques-aident-os-regenerer/

Et l’article continue sur le même ton avec des promesses faramineuses comme « Un jour, nous ne nous soucierons plus des effets du vieillissement ». Mais sur les étapes à franchir, les conditions pour confirmer cette découverte et un calendrier d’application, rien. L’annonce est jetée aux yeux du public comme si tout cela ne comptait pas et que cet avenir lumineux était déjà à notre porte !

Ensuite, cet autre article, toujours sur « Siècle Digital » :

Des chercheurs ont réussi à créer par hasard une enzyme capable de détruire du plastique. Une découverte qui pourrait contribuer à résoudre le problème de la pollution liée notamment aux bouteilles en plastiques. https://siecledigital.fr/2018/04/18/enzyme-mange-plastique/

Ce second exemple est encore plus pernicieux que le précédent car, cette fois, on sous-entend qu’on n’a même pas besoin de vraiment chercher des solutions : on va même les découvrir par accident !

Et comme toujours, aucune précision sur la mise en œuvre de cette découverte : comment va-t-on produire en masse cet enzyme ? quels seront les effets secondaires ? comment va-t-on collecter ces huit millions de tonnes de plastiques qui se retrouvent chaque année dans les océans ?

Pfuit, des détails tout cela !

Le solutionnisme est une impasse

Le « solutionnisme » frappe les esprits mais ça ne correspond à rien. Le nucléaire (gestion des déchets) est là pour nous montrer qu’il existe des problèmes sans solution et qu’il vaudrait mieux ne pas s’y engager dès le départ.

Les trois piliers de la techno-structure

Notre société repose sur trois piliers : 1- l’appétit de croissance, 2- la technologie omniprésente et 3- la propagande. Laissons de côté l’appétit de croissance déjà bien documenté par ailleurs. Ce dernier est le moteur de notre société, son apport énergétique. La machine est sa trajectoire, le spectacle est son ressenti.

Des grands penseurs du XXe siècle ont attiré notre attention sur les deux derniers piliers : Jacques Ellul pour la machine et Guy Debord pour la société du spectacle. Ellul est le premier à avoir compris que la société moderne était une société technicienne dirigée logiquement par des technocrates. Il explique dans ses livres que pour comprendre ce qu’est devenue notre civilisation, il est plus important de se pencher sur le rôle de la machine, son omniprésence et son infiltration continue que de répéter encore et encore la traditionnelle analyse marxiste sur le rôle du capitalisme…

(…) chaque progrès technique est destiné à résoudre un certain nombre de problèmes. Ou, plus exactement : en face d’un danger, d’une difficulté, (…) on trouve forcément la réponse technique adéquate. Ceci provient de ce que c’est le mouvement même de la technique, mais répond aussi à notre conviction profonde, générale dans les pays développés, que tout peut être ramené à des problèmes techniques.

Le mouvement est alors le suivant : en présence d’un problème social, politique, humain, économique, il faut l’analyser de telle façon qu’il devienne un problème technique (ou un ensemble de problèmes techniques) et à partir de ce moment-là, la technique est l’instrument adéquat pour trouver la solution.

(…) Le système technicien, exalté par la puissance informatique, a échappé définitivement à la volonté directionnelle de l’homme.

(…) La pratique intensive de la télévision anesthésie l’acte réflexif de la conscience et inhibe la parole. Elle fait de la parole un acte résiduel.

Jacques Ellul, dans « Le Bluff Technologique » 1989.

Ce qui compte, ce n’est pas ce qui est vrai, c’est ce qui en est dit !

Si la machine est omniprésente, c’est encore de manière assez subtile. Ce n’est pas le cas de la propagande qui elle, est très visible. C’est le troisième pilier si bien analysé par Guy Debord dans « La société du spectacle ». Dans le flot continue de la propagande, tout devient spectacle et la réalité ne compte plus. Peu importe ce qui est vrai, seul compte l’enrobage, le comment cela est présenté, nuance…

Plus on parle de transparence, moins on sait qui dirige quoi, qui manipule qui, et dans quel but. Guy Debord, dans “La Société du spectacle” (1967).

Ce que vivent les gens et ce qu’ils prennent pour de l’accélération, c’est en fait un abrutissement continu de « nouveautés » qui sont lancées dans le paysage médiatique comme autant d’étoiles filantes qui brillent furieusement pour s’éclipser aussi vite. Il n’y a aucun temps mort, à peine l’une disparaît qu’une autre prend sa place et attire à elle attention et commentaires.

Pas le temps de la réflexion

Le public n’a pas le temps de la réflexion avec un pareil pilonnage. Il est là, fasciné, sans comprendre la véritable portée et l’impact de la nouveauté présentée qu’aussitôt, une autre occupe la scène jusqu’à la prochaine. Peu importe que ces modes éphémères n’apportent ni progrès ni valeurs dans le court terme; peu importe qu’elles soient importantes ou négligeables dans le long terme, elles sont toutes présentées de la même façon.

Vous remarquerez (et ce n’est pas un hasard) que c’est la même technique de saturation qui est utilisée dans les domaines politiques et sociétaux. Cette loi de l’immédiateté et du bourrage de crâne permet de diriger les regards loin des vrais sujets et de noyer le poisson avec une efficacité avérée. Pourquoi donc la technostructure s’en passerait-elle ?

La technique est la nouvelle religion dans la mesure où il faut « croire » pour être « sauvé ». Du coup, elle a son dogme (tout est possible) et son clergé (tous les tenants de la hi-tech sans limites).

Une vérité indicible !

La vérité indicible (indicible, car elle remet en cause le dogme et, dans toutes religions, c’est le tabou absolu !), c’est qu’il n’y a pas d’accélération. Comment cela serait-il possible ?

Si tous les domaines techniques étaient en accélération continue, ils seraient tous capables depuis longtemps, de passer de la découverte à l’application sans plus aucun délai et il n’y a pas besoin d’être spécialiste pour observer que ce n’est évidemment pas le cas.

Ce que nous vivons actuellement est au contraire un ralentissement qui aboutit, au fil du temps, à une stagnation décourageante. Bien entendu, ce ralentissement et cette stagnation sont masqués par le bombardement médiatique qui fait en sorte de perpétuer l’illusion du progrès continu. On est quasiment dans la même situation que dans une longue guerre où la propagande s’efforce de maintenir le moral de la population en rabâchant que « la victoire est proche », que « la lumière est au bout du tunnel », que « l’ennemi est épuisé, son effondrement ne va plus tarder ».

La vérité est qu’il faut se débarrasser des illusions véhiculées par la propagande comme l’horizon fumeux des transhumanistes (si on était encore capable de raisonner sainement, de semblables affirmations feraient rire tout le monde !). Il faut savoir accorder du temps au temps et admettre que les progrès de la technique (les vrais progrès) en demandent beaucoup plus qu’on ne le voudrait. Les hommes aiment voir les résultats de leurs conquêtes. Seule cette rééducation va nous permettre d’évaluer sereinement et rationnellement les différents projets et nous permettre de choisir quels sont ceux qui méritent les allocations de ressources nécessaires. Mais la technostructure ne veut pas que vous soyez responsable de votre destin, ni dans le domaine technique ni dans les autres. C’est pourquoi elle préfère de loin vous faire gober des histoires merveilleuses à priori et incompréhensibles (et fausses) qui vous incitent à laisser à d’autres le poids des décisions impliquantes.


Nucléaire : parlons peu, parlons bien !

Publiée sur Linkedin le 6 juillet 2020

De nos jours, le principal problème c’est que trop de personnes parlent de ce qu’elles ne connaissent pas, vraiment pas. Et c’est particulièrement vrai en matière d’énergie nucléaire.

Pas d’avis autorisé

Je n’en suis pas un spécialiste, je ne peux donc donner un avis autorisé sur la question. En tant “qu’honnête homme” raisonnablement cultivé et instruit des choses techniques, je crois savoir que la production d’énergie s’appuyant sur des centrales à fission nucléaire présente des avantages indéniables mais aussi des (gros) inconvénients tout aussi indéniables. En tant que non-spécialiste, je ne peux donc pas trancher si les avantages l’emportent sur les inconvénients (même si j’ai mon idée là-dessus, je la garde prudemment pour moi…).

Contre-vérité ou bêtise crasse ?

En revanche, ce qui m’irrite profondément, c’est d’entendre encore et toujours les mêmes bêtises répétées avec une régularité déprimante sur le sujet. Pour illustrer mon propos, on va se contenter des deux affirmations qu’on entend tout le temps et qui sont simplement entièrement fausses (et c’est d’autant plus dommage de les entendre proférées par des interlocuteurs présentés comme des “spécialistes” par nos médias généralistes qui ne vérifient rien). Soit ces “spécialistes” ne sont pas compétents et c’est grave, soit ils mentent délibérément et c’est encore plus grave…

Voyons maintenant ces deux affirmations :

  1. le nucléaire ne rejette pas de gaz à effet de serre,
  2. le nucléaire contribue à l’indépendance énergétique nationale.

Le nucléaire et le gaz à effet de serre

Combien de fois avez-vous entendu cela ?

Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre, nous aide à tenir nos engagements…

Comment peut-on affirmer une chose pareille ?

Il suffit de regarder les immenses tours de condensations des centrales… Qu’en sort-il ?

De la vapeur d’eau. Or, la vapeur d’eau est le tout premier et le plus efficace des gaz à effet de serre, point. Ce n’est pas moi qui l’affirme et c’est facile à vérifier => https://fr.wikipedia.org/wiki/Gaz_%C3%A0_effet_de_serre

L’effet de serre naturel est principalement dû à la vapeur d’eau (pour 0,3 % en volume, soit 55 % de l’effet de serre) et aux nuages (17 % de l’effet de serre), soit environ 72 % dus à H2O et 28 % restants dus essentiellement au CO22. Il a porté la température moyenne, à la surface de la Terre, à +15 °C.

C’est tout de même pas difficile de se renseigner de nos jours. Il suffit de taper “gaz à effet de serre” dans Google pour avoir la réponse immédiatement. Donc, la prochaine fois que vous entendrez le fameux “Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre…”, vous saurez que ce “spécialiste” est soit incompétent, soit malhonnête.

Le nucléaire et l’indépendance énergétique nationale

La seconde affirmation est encore plus délirante et encore moins supportable si c’était possible !

Qu’on m’explique en quoi importer du pétrole ou importer de l’uranium est différent (sur le plan de l’indépendance énergétique au moins) ?

Pas besoin d’aller plus loin, la France ne produit presque pas d’uranium (pas plus que de pétrole) et est obligée de l’importer (principalement d’Afrique), point.

Très peu d’interlocuteurs compétents

Vous l’aurez compris, on entend tout et surtout n’importe quoi sur tous les sujets mais surtout sur les sujets techniques. Les soit-disant spécialistes compétents sont vraiment rares et ceux qui sont honnêtes encore plus. Vous êtes prévenus.


Où est passé le terrorisme ?

Publiée sur Linkedin le 2 septembre 2020

Je pense que vous l’avez remarqué : le terrorisme a disparu !

Oui, enfin, ne vous réjouissez pas trop vite, il n’a pas vraiment disparu… Simplement, on en parle moins et ça, je suis sûr que vous l’aviez remarqué.

Il n’a pas vraiment disparu, les attentats déjoués existent (mais là, on en parle carrément pas et pour de bonnes raisons…), les attentats réussis aussi mais ils n’ont plus la couverture médiatique passée. Pourquoi donc ?

Eh bien tout simplement parce que notre technostructure (dont les médias font partie) a trouvé mieux pour faire peur aux gens : la crise sanitaire !

Ah ça, mon bon monsieur, quand on met la main sur un levier aussi efficace, on ne va pas se priver, vous pensez… D’où l’actuelle pantalonnade sur les masques aussi absurde que ridicule. On se retrouve dans la situation où l’on exige que les motards portent un masque même sous leur casque intégral… Vous imaginez d’expliquer cela à un enfant ?

Et ce n’est qu’un exemple, les situations ubuesques abondent. Mais ça ne va pas arrêter l’enthousiasme de la technostructure vis-à-vis de cette pression quotidienne disponible à volonté. Faudra-t-il un soulèvement populaire pour y mettre fin ?

Hum, je ne crois pas, non. Si jamais soulèvement populaire il y avait, un bon petit attentat bien sanglant suffirait à mettre tout le monde dans le rang… Vous voyez bien que le terrorisme n’a pas disparu, il est simplement tenu en réserve.


Compliqué, révolution, stratégique…

Publiée sur Linkedin le 17 septembre 2020

Ohlala, ça va être compliqué pour cet athlète… Le commentateur sportif est aux limites de son vocabulaire et on va l’excuser s’il confond « compliqué » avec « difficile ». Après tout, il n’est pas commentateur sportif pour rien (et il y a pire que de commenter l’athlétisme, il y a le football…).

Hélas, trois fois hélas, ce mésemploi de ce terme n’est pas limité à cette catégorie de journalistes, il est en train de se généraliser. Et ce n’est pas le seul glissement sémantique auquel nous assistons : révolution à la place de percée, stratégique à la place d’important et j’en passe, je ne cite ici que les plus courants. Ce n’est pas inhabituel dans une langue vivante qui, comme son nom l’indique, évolue continuellement. Certains termes sont sur employés, galvaudés, détournés… c’est ainsi, pourquoi s’en désoler ?

Eh bien sans doute parce que ces détournements reflètent une posture en faveur du spectaculaire, voire même de l’enflure. Il faut employer des mots qui choquent pour être écouté. Il faut utiliser des termes qui semblent sophistiqués pour être remarqué. D’où l’emploi de « stratégique » (issu du domaine militaire) à tort et à travers alors que « important » voire « primordiale » auraient tout aussi bien fait l’affaire. Avec le suremploi de « révolution », c’est encore plus intéressant, car il s’agit là d’un contresens !

Ainsi, on va entendre parler de « révolution technologique » avec l’arrivée de la 5G alors que cette dernière ne fait rien à l’envers de la 4G, seulement la même chose avec des améliorations de performances à tous les étages… De façon intéressante, la 5G cristallise souvent l’emploi des deux termes en une même phrase, exemple : la 5G est une révolution technologique qu’il est stratégique d’embrasser.

Effectivement, vu sous cet angle, l’emploi correct de la langue française est bien compliqué… ou est-ce plutôt difficile ?


L’informatique est jugée sur ce qui ne fonctionne pas !

Publiée sur Linkedin le 28 septembre 2020

Que ce soit juste ou pas, il faut bien l’admettre, l’informatique des organisations est d’abord et avant tout jugée sur ce qui ne fonctionne pas, point.

On peut toujours rêver de mettre en place des avantages concurrentiels formidables, la réalité est plus prosaïque et elle vous rattrape vite : vos utilisateurs veulent que leurs applications fonctionnent, les bons jours comme les mauvais jours (surtout les mauvais jours en fait !).

Et le “bon” fonctionnement ne se limite pas à répondre présent lors d’une sollicitation technique (en clair, lorsqu’on demande la page d’accueil de l’intranet -par exemple-, celle-ci s’affiche dans un délai raisonnable), il faut aussi que la facilité d’utilisation soit au rendez-vous. Or, l’ergonomie de l’interface utilisateur est un point qui est toujours négligé. Combien de fois se retrouve-t-on sur la page d’une application où l’étape suivante est impossible à atteindre ou que les choix possibles sont trop confus pour être utilisables ?

Surtout aujourd’hui où l’on vous impose de plus en plus de faire toutes vos démarches en ligne (qu’elles soient administratives ou commerciales), le vécu utilisateur s’apparente trop souvent à un “parcours du combattant” qui est stressant et frustrant. Bref, vous l’aurez compris, l’informatique est critique et on a encore l’impression que les décideurs n’ont pas encore tout à fait intégré cette caractéristique majeure.

Pourtant, il n’y a pas besoin d’être un grand visionnaires pour s’apercevoir que, dans notre monde ultra technique, les choses qui ne fonctionnent pas sont plus la règle que l’exception… Que ce soit dans votre voiture (où l’électronique est de plus en plus présente, pas toujours pour le meilleur d’ailleurs, voir à Volkswagen Golf 8 : arrêt provisoire des livraisons à cause d’un bug) ou que ce soit dans votre usage personnel de votre smartphone (application qui déraillent, périphériques bluetooth non-reconnus, j’en passe et des pires…), on en vient à regretter l’époque où on se plaignait de son imprimante (ah, ça n’a pas changé… Why I Believe Printers Were Sent From Hell To Make Us Miserable) !

Bref, nous sommes passés d’une “civilisation de la peine” (où l’effort physique était prédominant) à une “civilisation de la panne” (où la machine qui est sensée nous soulager est trop souvent défaillante, voir « Civilisation de la panne » | Philippe Lestang, le blog). Les décideurs du domaine doivent donc se concentrer sur tous les aspects de la qualité informatique plutôt que d’essayer de coller à la dernière mode technique ou de courir (vainement) après un avantage concurrentiel qui sera (au mieux) bref et coûteux.

C’est ce que j’explique dans mon dernier livre “Vers l’informatique raisonnée” et je suis persuadé que ce recentrage sur la qualité est la tendance lourde de ces prochaines années.


Nos libertés nous sont retirées une à une…

Publiée sur Linkedin le 4 octobre 2020

La décision récente du président Macron d’abolir “l’école à la maison” a été applaudie par les zélotes de l’Education Nationale. Au vu de leurs résultats globaux, je les préférerais plus discrets…

Cette décision est justifiée, selon le président (si j’ai bien compris) parce que les islamistes radicaux (il y a des modérés ?) en profitent pour endoctriner leurs enfants (l’école coranique à domicile, carrément !). Comme toujours, ce sont les gens qui respectent les règles qui sont pénalisés par le comportement de ceux qui ne le font pas.

Soyez sûr que ça ne va rien changer du côté des islamistes : ils agissent dans des quartiers qui sont devenues des zones de non-droit où la Police n’ose plus aller (déjà, rien que cela est hallucinant) et donc, ils ne vont rien changer à leur façon de faire. Mais pour les autres, oui, ça va changer et pas en mieux.

Car, la plupart des français l’ignorait mais, jusque-là, nous avions le choix : mettre ses enfants à l’école (publique ou privé) ou assurer l’éducation soi-même. En effet, c’est l’instruction qui est (était) obligatoire, pas l’école, nuance. Et nous étions de plus en plus nombreux à profiter de cette liberté avec d’excellents résultats sur le plan académique. Nous avons pratiqué “l’éducation en famille” (l’autre nom pour “l’école à la maison”) dès la fin des années 90 et tous nos fils y sont passés pour des périodes plus ou moins longues selon leurs profils et leurs préférences. Nous avons toujours laissé le choix à nos fils pour leur plus grand bien.

Nous avons même mis notre expérience de cette pratique dans un livre “365 jours d’école à la maison” pour en fait profiter le plus grand nombre à l’époque où “l’éducation en famille” était encore peu connue et peu pratiquée. Aujourd’hui, nos fils sont grands et n’en ont plus besoin… est-ce une raison pour s’en détourner maintenant que cette pratique est interdite ?

On pourrait le faire, lâchement. On pourrait se dire “tant que cela ne m’affecte pas, le gouvernement peut bien faire ce qu’il veut”… Mais justement, je pense qu’il s’agit d’une occasion de relever la tête et de dire “non, ça suffit !”. Ce gouvernement, non content de gérer la crise sanitaire avec une incohérence rare (des masques inutiles aux masques obligatoires, allez comprendre !), le voilà qui progresse toujours plus dans la privation de nos libertés. Cela fait trop longtemps que ça dure, mesure après mesure et ce sont toujours les mêmes qui en pâtissent. Croyez-vous vraiment que cela va affecter les islamistes ?

Non mais en revanche, tous les parents qui avaient fait le choix de “l’éducation en famille” risquent de devenir des délinquants. Peu importe ce que vous en pensez, mais ce droit était tout à fait légitime et utile. Plusieurs fois, le gouvernement français avait déjà tenté de supprimer ce choix et, cette fois, grâce aux islamistes, il touche enfin au but.

Doit-on accepter un pareil arbitraire ?

Quand va-t-on enfin réagir face à la restriction de nos libertés ?

Un jour ou l’autre, VOUS serez concernés, inévitablement. Et, à ce moment-là, vous aussi direz “ça suffit !”.


La preuve concrète que les médias nous enfument…

Publiée sur Linkedin le 2 novembre 2020

L’affaire est simple et pourtant énorme : le 20 octobre dernier, Radio France a libéré une bombe qui aurait dû produire des effets dévastateurs… Et pourtant, rien, pas une retombée, pas une reprise. Les autres médias n’ont pas suivi, n’ont pas repris, la bombe a bien explosé mais dans un silence assourdissant comme on dit en pareil cas.

Et quelle était donc cette « bombe » qui aurait dû avoir des effets « énormes » ?

La voici : Présidentielle 1995 : quand le Conseil constitutionnel a manœuvré pour « sauver » le Président Chirac.

En clair, les « sages » du Conseil constitutionnel ont étouffé la fraude à l’élection présidentielle de 1995. Lisez le texte, tout est présenté, tout est expliqué. Roland Dumas en tête (lui-même s’y connaissant bien en fraudes et en manœuvres douteuses !), les sages ont décidé que, pour le bien de l’Etat, il valait mieux qu’ils ne jouent pas leur rôle, point. Je ne vais pas expliquer toute l’affaire, il vaut mieux lire le texte que j’ai mis en lien ci-dessus (ne faisons pas comme les ignorants sur Twitter qui réagissent simplement à la vue d’un titre !).

L’affaire est énorme parce que, justement, le Conseil constitutionnel est censé être l’ultime rempart contre les turpitudes de notre système. Et là, mis à l’épreuve, c’est une faillite totale. Comment après cela avoir confiance dans le système ?

Comment après cela croire que les élections présidentielles suivantes ont pu être « propres et sans tâche » ?

Dans le cadre d’un fonctionnement soi-disant démocratique, c’est gravissime. Pire, le silence des médias fait voler en éclat ce qui nous restait d’illusions sur le système. Car une affaire aussi énorme, aussi importante aurait dû provoquer un scandale retentissant, non ?

Ben non, justement. Le système se protège efficacement. Si ça n’est pas diffusé par les médias, ça n’existe pas. Voilà, c’est aussi simple que cela. Pensez-y la prochaine fois que vous penserez que les institutions démocratiques sont vertueuses, sont là pour nous protéger et que les médias, l’autre pouvoir, est présent pour renforcer toute cette construction à notre avantage.


Après le socialisme rampant voici le socialisme nocif !

Publiée sur Linkedin le 10 novembre 2020

Il suffit d’aller dans un supermarché, ces jours-ci, pour avoir une nouvelle démonstration que, décidément, on marche sur la tête en France…

Certains rayons sont « interdits » sous prétexte d’égalitarisme. Si certains commerçants ne peuvent pas vendre des chaussettes (ou autre biens « non-essentiels »), alors personne ne le peut !

Ah, bravo, bien joué, voilà un vrai progrès, voilà l’égalité qui est respectée !

Notre « génie français » nous permet d’être toujours en avance sur les autres nations. Nous avions déjà inventé le « socialisme rampant » (qui permet d’expliquer notre déclin de ces quarante dernières années) mais, cette fois, nous avons résolument franchi une étape de plus : nous venons d’inventer le « socialisme nocif » que les nostalgiques des pays de l’est doivent nous envier… Une vraie performance qui mériterait une qualification directe en demi-finale des championnats du Monde de la Connerie.

En vérité, nous donnant à voir à tout le monde le fond de la mentalité française la plus mesquine : si je ne peux pas l’avoir alors les autres doivent en être privés aussi… Minable, simplement minable.


Les médias ne sont plus que des chiens de garde de la ligne officielle

Publiée le 15 novembre 2020

On le voit en ce moment et c’est un spectacle édifiant : le tir de barrage contre le documentaire “Hold Up” est unanime et très significatif du rôle embrassé par tous les médias principaux… Ils sont les chiens de garde de la ligne officielle, point.

Ce n’est pas tout à fait nouveau, ça fait presque vingt ans que ça dure : depuis le 9/11, le débat est interdit, ne pas être complètement et aveuglément d’accord avec la ligne officielle est réprouvé, dénoncé, provoque poursuites médiatiques et ostracisme.

Dans le cas présent, il suffit de mettre l’étiquette “complotiste” pour que le sujet de la colère des médias soit aussitôt mis au ban de la société du spectacle, discrédité, moqué et rejeté. Un système où l’ostracisme est devenu la règle en dit beaucoup sur sa fragilité : désormais, aucune contestation n’est tolérée, comme dans le pire des régimes totalitaires. On sent bien un début de panique face à ce documentaire et rien que cela est assez parlant. Si le système était si sûr de sa position, pourquoi tant de haine et cette violence ?

Car oui, ce système est en train de devenir violent avec ses opposants. On a déjà vu avec surprise la violente réaction contre les gilets jaunes pendant les deux dernières années. On aimerait bien qu’une telle résolution martiale soit également mise en œuvre dans les fameuses “zones de non-droit” mais ça, il ne faut pas trop y compter.

Maintenant, ne me faites pas dire ce que je n’ai pas dit : le documentaire “Hold Up” n’est pas exempt de critiques. En particulier, j’ai été ébahi d’entendre les propos totalement délirant de Monique Pinçon-Charlot. Cette “sociologue” est coutumière de ce genre de délire et ne peut résister à chaque fois qu’on lui met un micro sous le nez…

Mais si Hold Up n’était qu’un ramassis de mensonges et d’idioties, pourquoi une réaction aussi forte et aussi unanime (à tel point qu’elle apparaît comme orchestrée…) ?

La vérité est que ce documentaire met quelques “points sur les i” et que ceux-ci sont particulièrement gênants, surtout pour les multiples conflits d’intérêts qui, eux aussi, en disent beaucoup sur la situation actuelle. C’est là tout l’intérêt de Hold Up et en réagissant de façon aussi disproportionnée, les médias n’ont fait qu’attiser la curiosité du public pour ce documentaire. C’est trop tard désormais pour “éteindre le feu”…


Les bonnes raisons d’être optimistes vis-à-vis de l’informatique !

Publiée sur Linkedin le 3 décembre 2020

Alors que ma vie professionnelle est déjà bien avancée, je ne peux que ressentir une forte reconnaissance pour ce secteur d’activité où, finalement, j’aurais accompli toute ma carrière.

En effet, on peut toujours critiquer tout ce qu’on veut mais il y a un moment où il faut savoir reconnaître les bonnes choses et vis-à-vis de l’informatique je ne peux qu’être subjugué devant le chemin parcouru et être très optimiste vis-à-vis de ce que nous promet le futur.

Encore aujourd’hui, je m’émerveille à chaque fois que j’ai l’occasion de participer à une vidéo conférence en constatant que ça fonctionne plutôt bien alors que je sais toutes les prouesses techniques qu’il a été nécessaire d’accomplir pour arriver à ce résultat. Pour les jeunes d’aujourd’hui tout cela fait partie du quotidien habituel et ne génère aucun ébahissement, c’est simplement normal. Pour moi en revanche, il s’agit d’un aboutissement d’années de lutte, d’espoir et de progrès qui se sont finalement concrétisés.

Même s’il m’arrive d’être critique vis-à-vis du battage médiatique en faveur de l’intelligence artificielle, j’utilise avec bonheur les assistants vocaux qui sont désormais à notre disposition presque partout et presque tout le temps et je pilote mon petit monde à la façon du capitaine Picard dans Star Trek lorsqu’il lançait son mot-clef “computer” et que la machine répondait par une note brève, attendant la suite, obéissante et omnisciente. Alexa (ou Siri ou Google Home) n’est pas encore tout à fait de ce niveau-là mais elle progresse en permanence.

Et tout cela sans oublier YouTube que j’utilise à chaque fois que je me demande comment faire telle ou telle tâche (travail manuel, bricolage). Qui aurait imaginé que YouTube deviendrait ainsi (entre autres) un auxiliaire du “do it yourself” ?

Et Netflix ?

Il y a vingt ans, nous rêvions de ne plus avoir à attendre l’arrivée des DVD dans la boîte à lettres (déjà envoyé par Netflix d’ailleurs)… Aujourd’hui, ce rêve est une réalité bien concrète et la “boite à films” fonctionne bien, même avec un accès (relativement) limité au réseau global… Encore une performance extraordinaire qui s’inscrit désormais dans une normalité banale.

Le fait que je sois en train de dicter cet article sur Gdocs (avec encore quelques inévitables corrections et travail d’édition) devrait nous permettre de mesurer le chemin parcouru par le “cloud computing”, dernier avatar en date de l’informatique.

Un chemin parcouru vertigineux et vivifiant

Quand j’ai commencé à travailler dans ce secteur au milieu des années 70, l’informatique centralisée rigide et monolithique était la règle générale et écrasante. Rares étaient les informaticiens qui considéraient la montée de la micro-informatique comme autre chose qu’un jouet pour ado attardé.

J’ai eu la chance de participer à plusieurs vagues techniques qui ont contribué à moderniser cette informatique “rustique”. Je dois dire que j’ai toujours trouvé ce métier passionnant et, quand la passion est là, c’est tout de même plus facile de l’assumer tous les jours. Je plains sincèrement tous ceux qui faisaient (et font encore) un boulot subit uniquement parce qu’il faut bien “manger et payer son loyer”. Avec l’informatique, je ne me suis jamais ennuyé même s’il m’est arrivé de passer par des moments difficiles (une fois, je suis resté 25 heures de suite -pas le choix, fallait que ça marche- pour résoudre un problème technique particulièrement retors mais je suis certain que nous avons tous ce genre d’anecdotes à évoquer !). Aujourd’hui, je n’ai pratiquement que des bons souvenirs à me rappeler et je ne peux qu’être profondément reconnaissant d’avoir fait partie de cette formidable aventure.

Quand j’ai commencé, les cartes perforées étaient encore omniprésentes et le fait de porter sur soi (oui, sur soi !) des capacités de traitements à faire rêver HAL 9000 (ne serait-ce que pour calculer vos efforts pendant votre sortie à vélo) était du ressort de la science-fiction très futuriste. Et pour qui a vécu les différentes versions de Windows et MacOS (depuis les années 80), comment ne pas être ravi de voir un Chromebook être opérationnel en seulement quelques secondes ?

Les héros sont des repères

“Même l’enfer a ses héros” dit l’un des personnages secondaires du film “La 9ème porte” (Polanski). Les héros de l’informatique sont nombreux et certains comme Steve Jobs sont très connus. Pour moi, il y en a un qui se détache de l’horizon et c’est Tim Bernes Lee, le co-inventeur du Web (avec Robert Cailliau). Pourquoi ?

Parce qu’il a eu le courage et la lucidité de résister aux spécialistes qui l’incitaient à centraliser la gestion des liens hypertextes afin d’éviter les erreurs 404 que nous connaissons tous. Avec le recul, on s’aperçoit que cet inconvénient est un prix minime à payer en contrepartie des immenses services qu’à rendu le Web et qu’il va continuer à rendre à l’avenir. Il est d’ailleurs fascinant de constater que le Web avec ses composants relativement rustiques est toujours aussi présent et aussi important dans notre informatique de tous les jours…

Pour moi, Tim Bernes Lee est le “James Watt” des temps modernes : un héros en apparence modeste mais qui eut un impact immense et durable sur l’évolution de la technique (la machine à vapeur pour Watt, le Web pour Bernes Lee).

Le futur est brillant car c’est vous qui allez le définir

On peut ainsi glorifier le passé mais c’est évidemment moins intéressant que de se pencher vers le futur et là, il y a également beaucoup de bonnes choses à venir. Il est évident que les 40 dernières années ont été fascinantes mais, selon moi, les 40 années à venir le seront tout autant.

Tout d’abord, il nous faut admettre que toutes les difficultés que nous affrontons aujourd’hui sont autant de pistes pour les progrès futurs. C’est comme cela que ça s’est passé hier et il y a de bonnes chances que ça recommence pour demain. C’est pour cela que je suis très optimiste sans pour autant être capable de prédire avec précision ce qui va être accompli dans les décennies à venir. Oui, je crois fermement qu’il y a encore plein de (bonnes) choses à faire et que les informaticiens ont encore un brillant avenir devant eux.

Non, les progrès qui vont être nécessairement arriver dans les domaines de la robotique et de l’IA (même si une “intelligence générale” n’est sans doute pas pour demain ni même pour après-demain) ne vont pas rendre inutile le personnel sur le terrain qui, avec son ingéniosité et sa capacité à s’accrocher à un problème jusqu’à trouver une solution satisfaisante, sera toujours indispensable.

Les métiers vont muter, c’est inévitable (où sont désormais les pupitreurs qui étaient si répandus quand j’ai commencé dans le domaine ?) et c’est tout l’enjeu d’une carrière bien menée : restez curieux, restez avides et vous resterez utiles (stay foolish, stay hungry…). Ne vous laissez pas enfermer dans une situation (trop) confortable qui va s’avérer être un piège au fur et à mesure des évolutions qui vont rebattre les cartes et changer la donne (c’est toujours ainsi, c’est la seule chose dont on peut être sûr).

L’informatique reste fascinante parce qu’elle est devenue accessible. Quand elle était centralisée et concentrée sur quelques mainframes, il était difficile d’y contribuer. La micro-informatique a changé cela en profondeur avec les conséquences que l’on sait. Les individus dans un garage ont pu lutter à armes quasiment égales avec les plus grands laboratoires. Un Linus Torvald ou un Larry Page sont des preuves vivantes de ce paradigme.

Aujourd’hui, à l’heure du Cloud Computing ou demain sous le signe de “l’informatique omniprésente” (pervasive computing), ce sera toujours aussi vrai et c’est une opportunité fantastique. Certes, il est désormais un peu tard pour développer l’app qui va réussir à faire son trou dans les app stores quasiment saturées. Mais peut-on imaginer que tous les jeux sont joués ?

Évidemment pas. En matière de confort de l’utilisateur et de facilité d’utilisation de cette informatique présente à tous les étages de nos vies connectées, tout reste à faire. Avec la progression des objets connectés tout autour de nous, il y a aussi énormément à faire.

Sans oublier la sécurité qui va devenir un enjeu majeur où tout le monde sera concerné (c’est déjà le cas mais tout le monde ne l’a pas encore compris…).

Le futur est brillant car il va être défini par vous. Je me réjouis d’avance d’être émerveillé par vos prouesses futures !


Faites du numérique qu’ils disaient !

Publiée sur Linkedin le 1er janvier 2021

Pendant cette année 2020, on a souvent entendu les bonnes âmes exhorter les petits commerçants à se mettre (enfin !) au numérique pour survivre… Comme si ouvrir un site marchand (car, bien souvent, “passer au numérique” n’est qu’une formule à la mode pour vendre sur le Web) était une tâche triviale et une assurance de succès !

En fait, ce n’est ni l’un ni l’autre, loin s’en faut. Tout d’abord, même si l’offre est abondante et relativement mature, elle demande quand même un minimum de compétences techniques pour la mettre en place. Ou alors, il faut abandonner toutes velléités d’indépendances et se résigner à rejoindre une grosse plateforme qui sont les vrais gagnantes de cette période.

Je ne fais pas qu’écrire sur l’évolution de l’informatique à travers les âges et les modes, je la pratique aussi avec assiduité !

L’eLearning et l’eCommerce, pas si facile !

Grâce à l’activité de mon épouse sur www.montessori.fr, j’ai pu explorer les arcanes du e Learning, des LMS et, on y vient, des difficultés à mettre en place un site marchand digne de ce nom. L’année dernière, j’ai mis en place l’extension Woocommerce sur notre site WordPress avec la passerelle Atos/Scelluis permettant de gérer le paiement par carte bancaire.

La mise en place de cette « chaîne de paiement” a demandé beaucoup d’efforts, d’allers et retours et aurait été impossible si je n’avais pas les compétences techniques nécessaires (arrêtons d’imaginer qu’employer WordPress et Woocommerce gomme instantanément tous les obstacles technique car ce n’est tout simplement pas vrai).

Bref, au bout de quelques semaines pénibles, tout ce bazar s’est enfin mis à fonctionner et nous avons pu encaisser nos paiements par carte comme des grands… Nous avons aussi pu constater la pauvreté du “back office” de notre banque qui, tenez-vous bien, ne permet pas d’afficher les paiements reçus autrement que par tranche de 40 jours (et estimez-vous heureux que ça marche ainsi, hein !). Tout cela respirait l’amateurisme et le mépris du client mais comment être surpris quand il s’agit du “glorieux secteur bancaire français que le monde entier nous envie”, n’est-ce pas ?

DSP2 remet tout en cause

Mais voilà, en matière d’informatique, quand ça marche, c’est toujours du provisoire !

Nos “amis” de Scellius nous ont informés qu’il fallait tout refaire à cause de la norme DSP2… Je l’avoue, je ne savais rien de DSP2 jusqu’à ce que Scellius nous explique la volonté de normalisation de l’Union Européenne (voir à https://fr.wikipedia.org/wiki/Directive_sur_les_services_de_paiement#La_Directive_sur_les_services_de_paiements_(DSP_2)) nous obligeait à migrer vers la nouvelle passerelle et donc de refaire tout le travail déjà péniblement accompli. Vouloir renforcer la sécurité des paiements en ligne, qui s’en plaindrait ?

Mais cela n’est pas sans conséquences sur les petits acteurs obligés (une fois de plus) de “faire de l’informatique” alors que ce n’est pas le cœur de leur activité. Ces évolutions perpétuelles, l’instabilité des logiciels et la complexité des solutions (j’insiste, même pour moi qui suis bien placé, je ne manque jamais de m’interroger sur “mais comment font les gens pour s’en sortir avec ça ?”) font que “se mettre au numérique” est facile à dire mais loin d’être facile à faire, surtout dans la durée.

J’ai conscience que ce “témoignage de terrain” n’a rien d’original et que je suis loin d’être le premier (ni le dernier !) à me plaindre cette situation mais en lisant la nouvelle “liste de tâches” imposée par Scelluis, j’ai senti qu’il fallait que je le rédige.

Par “solidarité sainte de l’artisanat” (comme dirait Brassens dans la chanson “Stances à un cambrioleur”) je souhaite bon courage à tous les “petits commerçants” qui vont se lancer dans cette périlleuse aventure : ne vous découragez pas les amis, ne croyez pas les bonnes paroles de ceux qui ne font jamais rien de concret, la route est longue et semée d’embûches, prenez votre temps et cheminez pas à pas.


Un autre discours est possible

Publiée sur Linkedin le 14 février 2021

Je crois qu’il est inutile de rappeler que nous traversons des temps difficiles : la crise sanitaire n’est pas terminée, la crise économique n’attendra pas longtemps avant de prendre le relais et ni l’espoir ni l’optimisme ne sont de mise pour le futur.

De plus, il suffit de regarder autour de soi pour constater un approfondissement des pires tendances de ces dernières années : les médias ne se contentent plus de diffuser des programmes abrutissants (de façon à mettre tous les auditeurs et spectateurs au même niveau, c’est-à-dire tout en bas), ils diffusent également la peur car l’émotion est devenu le moteur de l’opinion publique. Les soit-disant intellectuels sont également déprimants : ils se sont érigés en donneur de leçons méprisants afin de promouvoir les “avancées” les plus désolantes comme l’égalitarisme forcené ou un féminisme absurde (comme l’horrible “écriture inclusive”) où peu de femmes censées doivent pouvoir encore se reconnaître.

On touche le fond ?

Et pourtant, dans cette triste atmosphère, je vous le dis : il est encore possible et nécessaire de sortir de ce cercle vicieux. Les esprits éveillés sont encore nombreux. La montée de la médiocratie n’est pas inéluctable ni irrésistible. Nous devons réagir. Nous devons faire entendre nos voix.

Nous devons promouvoir la pensée éclairée, la culture universelle, la sagesse lucide et le plaisir de vivre. Chacun de vous a le devoir de s’exprimer et de le faire de façon positive.

Commençons ici

Ne laissons pas le terrain être occupé et exploité par les pires diffuseurs de tendances moroses et délétères. Commençons par cet espace. Linkedin peut devenir notre canal d’expression positive. Nous devons montrer qu’une autre voie est possible.

Je n’ai pas besoin de m’étendre, je sais que vous m’avez compris. Les discours les plus courts sont aussi les plus percutants. Disons “non à la médiocrité ambiante”, tous ensemble, enfin. Ainsi, nous déchirerons ce rideau grisâtre qui n’est qu’une fine pellicule vulnérable.

Nous donnerons un espoir à la jeunesse qui n’attend que cela. C’est notre pouvoir, c’est notre devoir.


Le problème avec Thinkerview

Publiée le 15 février 2021

Connaissez-vous la chaîne YouTube Thinkerview ?

Si oui, pas besoin de vous expliquer, sinon, allez voir à https://www.youtube.com/c/thinkerview/videos

Des interviews souvent passionnantes avec un décor neutre, toujours le même. Les personnalités interrogées sont souvent très pertinentes dans leur domaine et peuvent s’exprimer sans fard et sans contraintes (c’est un format long). J’écris “souvent” car j’aimerais bien que ça soit tout le temps le cas, justement. Oh, ce n’est pas le choix des interrogés qui est en cause. De Michel Onfray à Jean-Pierre Petit en passant par Arnaud Montebourg et Yanis Varoufakis (et j’en oublie forcément), nous avons droit à un panel d’experts talentueux et qui savent s’exprimer tout en restant accessibles, le problème n’est pas là. Mais alors, où est le problème ?

Eh bien il se situe au niveau de celui qui interroge. Faussement modeste, on ne le voit jamais mais on l’entend en revanche… trop. Au mieux, ça va donner des questions à rallonges et à tiroirs qui ressemblent à des examens de mémoire. Au pire, ça va être un interrogatoire où il manque que la contrainte physique pour ressembler à l’inquisition.

L’animateur de Thinkerview (qui préfère rester anonyme…) gâche le tableau en étant bien trop partial. Mielleux avec ses favoris et odieux avec ceux qui ne sont pas de son bord.

Un exemple qui illustre bien ce déséquilibre : l’interview de Laurent Obertone (diffusé en direct le 6 novembre 2018). Avec Obertone, pas de pitié, les couteaux sont sortis !

Laurent a eu bien du mérite à garder son calme face au déluge d’interruptions et de questions perfides.

On l’aura compris, notre “procureur” a choisi son camp : celui des bien-pensants-donneurs-de-leçons. Saura-t-on un jour calculer ce que cette engeance nocive aura coûté à la société en termes de reculs essentiels ?

Oui, les bien-pensants et le “politiquement correct” sont des maux qui gangrènent l’espace public depuis trop d’années. Ils censurent avec arrogance tout ce qui ne va pas dans leur sens et font semblant d’être en faveur du débat d’idées alors qu’ils ne supportent pas qu’on ne soient tous pas à genoux devant leur suffisance.

Si encore il s’agissait seulement d’un aveuglement intellectuel mais c’est pire : ces donneurs de leçons sont également les pires exemples de la loi de plomb “faites ce que je dis mais pas ce que je fais”.

Thinkerview aurait pu être un bon exemple de ces contenus qu’on aimerait mettre en avant. Mais l’adage se vérifie une fois de plus : il suffit d’une pomme pourrie pour gâcher le panier.


Incident OVH : un “avant” et un “après” dans l’évolution vers le cloud ?

Publiée sur Linkedin le 11 mars 2021

Inutile d’expliquer ce qui s’est passé dans la nuit du 10 mars : un (presque deux) datacenter d’OVH Cloud est parti en fumée (c’est le cas de le dire !)… Depuis, le débat fait rage sur la question des sauvegardes : certains disent que c’est de la responsabilité des clients alors que d’autres affirment (comme Louis Naugès) que c’est évidemment de la responsabilité de l’opérateur.

On ne va pas trancher ce débat ici et maintenant mais il est significatif de toutes les illusions qu’a engendrée la vague du cloud : tout d’un coup, l’informatique allait rimer avec “magique” alors qu’on était plutôt habitué à l’associer à “tragique”…

En revanche, ce que je crois c’est que cet incident ne va pas tout changer : l’évolution actuelle vers une informatique toute en ligne va se poursuivre. Mais tout comme les chaudières à vapeur (celles à “haute pression” du moins) explosaient de temps en temps à l’époque de la révolution industrielle, le chemin vers le cloud est également semé de quelques embûches et autres désillusions. C’est normal et même sain.

Si vous voulez que votre informatique en ligne soit tout le temps opérationnelle, quoi qu’il arrive, ne vous contentez pas de croire aux promesses de votre fournisseur mais prenez les choses en mains : mettez en place des redondances (oui, ça coûte cher), assurez-vous qu’il y ait des sauvegardes de faite (oui, c’est pénible) et que le personnel soit formé à mettre en place des plans de continuité d’exploitation (oui, c’est contraignant et complexe). L’exploitation, c’est comme la sécurité : c’est avant tout une histoire de personnel formé et motivé.


Avant, j’avais un avis sur tout…

Publiée le 17 mars 2021

Avant, quand j’étais un jeune con (c’était donc il y a un certain temps…), j’avais un avis sur tout, vraiment sur tout !

Et, bien sûr, j’imaginais que cet avis était pertinent, objectif et tout à fait sensé. Non, je n’imaginais pas en fait, je savais que j’avais raison, forcément raison.

Maintenant que je suis un vieux con, je ne suis plus aussi sûr de moi et mes avis sont désormais plus nuancés.

Comment cette évolution s’est-elle produite ?

Pourquoi suis-je désormais plus nuancé ?

Eh bien parce que je me suis aperçu qu’il y avait peu de cas où l’on pouvait avoir un avis définitif, surtout dans les domaines où l’on pas un spécialiste. Aujourd’hui, on assiste plutôt à l’évolution inverse : beaucoup de gens (plus en plus de gens en fait, les réseaux sociaux alimentent cette tendance…) émettent leur opinion bruyamment et même avec véhémence alors que les avis autorisés sont toujours aussi rares.

Il s’avère que cela porte un nom : L’effet Dunning-Kruger.

L’effet Dunning-Kruger, aussi appelé effet de surconfiance, est un biais cognitif par lequel les moins qualifiés dans un domaine surestiment leur compétence.

Je dois dire que, au contraire, ces dernières années m’ont fait comprendre que mes domaines de compétences étaient peu nombreux et, qu’en dehors d’eux, le mieux pour moi était de me taire. Ces vingt dernières années ont été ponctuées d’affaires à grand retentissement mais qui restent “indécidables” au final. Que ce soit le 9/11 en 2001 ou le MH370 en 2014 (pour ne prendre que ces deux exemples-là, bien connus de tous), les théories abondent, nombreux sont ceux qui se sont exprimés mais, en définitive, il est vraiment difficile d’avoir un avis tranché sur ces questions (si on essaye de rester honnête et objectif). C’est pour cela que je les présente comme “indécidables”…

De plus, il nous faut bien admettre que l’immense majorité d’entre nous se contentent de ce qu’il peut voir et lire dans les médias et sur Internet. Presque personne ne se donne la peine d’aller enquêter sur le terrain, d’interroger de vrais témoins et de faire un véritable travail d’investigation, faute de temps et de moyens, évidemment. Mais cette absence devrait nous inciter à plus de recul et de modération, surtout pour les domaines où nous ne sommes pas des spécialistes, j’insiste sur ce point.

Car, quand on est réellement compétent dans un secteur, que constate-t-on ?

Eh bien on voit avec consternation que les médias généralistes rapportent tout et n’importe quoi (surtout n’importe quoi) sur le secteur en question… Cela devrait nous inciter à plus d’humilité quand il s’agit d’une affaire qui ne se situe pas dans notre domaine d’expertise.


Notre histoire de l’informatique est unique et voilà pourquoi !

Publiée sur Linkedin le 14 avril 2021

C’est sans pudeur ni fausse modestie que je l’affirme : notre ouvrage sur l’histoire de l’informatique (“Cow-boys contre chemin de fer : que savez-vous des cinquante ans de l’histoire de l’informatique”, oui, c’est le titre complet !) est le meilleur livre en français sur le sujet !

Bien sûr, il existe tout de même quelques bons livres sur le sujet, mais ils sont surtout en anglais et écrits par des Américains. Les livres en français sont académiques et écrits par des universitaires pour d’autres universitaires… exhaustifs et barbants sont sans doute les qualificatifs les plus polis pour les désigner.

Dans le cas de notre ouvrage, au contraire, nous avons cherché à expliquer comment et pourquoi l’informatique a évolué pendant ces cinquante dernières années afin de devenir le système complexe et tentaculaire que nous connaissons et utilisons tous aujourd’hui. Et nous l’avons fait dans un ton décontracté et en interrogeant de multiples témoins, célèbres ou anonymes qui permettent de rentrer dans les détails des événements cruciaux.

Le résultat fait presque 500 pages (et encore, les illustrations sont “déportées” sur mon site web pour gagner de la place !) et permet de faire le tour de la question, pour ce qui est de l’informatique “moderne” au moins.

Informatique moderne ?

Pourquoi ce focus sur la partie “moderne” de l’histoire de l’informatique et quelle période cela recouvre-t-il ?

Commençons par répondre à la seconde question : notre ouvrage commence avec les années cinquante, au moment où l’ordinateur moderne (complètement électronique) naît aux USA. Nous poursuivons ensuite jusqu’en 2010 (pas plus loin, après c’est encore trop récent pour vraiment faire partie de l’histoire…).

Et nous avons éviter de remonter plus loin justement pour éviter de vous imposer encore une fois les poncifs sur Ada Lovelace et autres précurseurs lointains. Certains tiennent absolument à intégrer la machine de Pascal (la Pascaline de Blaise Pascal) dans l’histoire de l’informatique… Fort bien mais ce n’est pas notre démarche. Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXe siècle (et même des précédents), mais cela a déjà été fait de nombreuses fois. Notre but était plutôt de focaliser sur les cinquante dernières années de notre industrie afin d’en retracer les évolutions majeures et d’en comprendre les mécanismes.

Des cow-boys, en informatique ?

Dans cet ouvrage, nous parlerons de cow-boys pour parler d’entreprises, de personnes ou de pratiques qui ne s’embarrassent pas trop avec des procédures strictes ni pour demander une autorisation ou rechercher un consensus. Par opposition, les entreprises/personnes/pratiques « chemin de fer » suivent des procédures précises ainsi qu’un carnet de route défini à l’avance. Cette métaphore est bien évidemment tirée du Far West. Pour aller d’un endroit à un autre, un cow-boy n’a qu’à sauter sur son cheval (et aussi faire des provisions). Il peut changer d’itinéraire en cours de route si besoin est. Une compagnie de chemin de fer, par contre, doit d’abord poser des rails et pour cela planifier la construction de la voie ferrée, obtenir les accords nécessaires, etc. Comparée aux cow-boys, une entreprise de chemins de fer paraît beaucoup plus « sérieuse » et professionnelle — même si, techniquement, tous étaient des professionnels. Même de nos jours, l’expression « cow-boy » (se comporter comme un cow-boy) a une certaine connotation négative.

Dans le Far West, les chemins de fer ont peu à peu supplanté les cow-boys, les gens faisant transporter le bétail de plus en plus par le train. En informatique par contre, les chemins de fer ne supplantent pas toujours les cow-boys, comme nous allons le voir dans cet ouvrage.


Ce que nous apprend le Raptor sur notre présent

Publiée sur Linkedin le 14 mai 2021

J’avoue, je suis un fan de la chaîne YouTube du Raptor !

Si vous ne connaissez pas encore, c’est à découvrir d’urgence…

https://www.youtube.com/c/LeRaptor/videos

OK, c’est grôle mais est-ce que ça nous apprend quelque chose sur notre société et sur notre présent ?

Heureusement, oui et voici quoi…

La dernière en date… accrochez vous, c’est du lourd !

Dans ses vidéos fort bien faites (même si le montage est un peu nerveux et plein de références internes, c’est très travaillé, croyez-moi !), le Raptor expose sans pitié les travers répétés du gouvernement, des gauchistes, des féministes et des médias, le tout étant qualifié de « société des baltringues » (définition du terme « baltringue », par ici). Honnêtement, on ne peut lui donner tort et si vous voulez un recensement précis des dérives absurdes de notre époque, la chaine du Raptor est une bonne source.

Tout cela est déjà intéressant mais il y a plus : ces contenus nous montrent, de façon incontestable, que les médias sont verrouillés dans une course (absurde) au « toujours plus ». Ayant favorisé les émissions les plus abrutissantes et les plus abêtissantes pendant des années (que dis-je, des décennies !), les médias généralistes principaux ne savent plus quoi faire pour continuer à retenir une audience qui s’effritent inexorablement. D’où la tendance à faire pire, encore et encore jusqu’à tomber à des niveaux que personnes ne pouvaient imaginer (hélas, la réalité dépasse toujours la fiction, c’est vérifié une fois de plus).

L’erreur serait de penser qu’il s’agit-là d’une exception (certes malheureuse), d’une aberration qui ne compte pas. Il n’en est rien. Si une Soveig Halloin peut exister et se produire ainsi, c’est parce que le système en place le permet et l’encourage (si on en juge par les applaudissements désolants qui suivent sa « performance »…).

Devant la nullité organisée du gouvernement et des médias, les vidéos du Raptor deviennent une source d’informations crédibles et raisonnables… Eh oui, on en est là.


La seconde crise du logiciel

Publiée sur Linkedin le 18 mai 2021

Cette seconde crise est très différente de la première. Il y a soixante ans, la première crise s’est déclarée quand on s’est rendu compte que le développement des logiciels devenait le goulot d’étranglement de la mise en place des systèmes. Aujourd’hui, cette nouvelle crise ne concerne pas la vitesse de développement, mais la fiabilité des systèmes qui repose sur une part croissante de logiciels.

Une première crise il y a 60 ans

Revenons rapidement sur les causes et les effets de ce qu’on a appelé “la crise du logiciel” dans les années 60 et 70.

Au début des années soixante et avec le lancement de chaque nouvelle machine, le logiciel système fourni par IBM pour accompagner ses ordinateurs augmentait — en taille — d’un facteur dix tous les cinq ans !

En conséquence de cette “enflure”, on a estimé que la part du coût de développement des logiciels de base est passée de 10% en 1960 à 40% en 1965 sur le total du coût de mise en œuvre d’un nouveau système…

C’est ainsi que s’est révélée la première « crise du logiciel » : le nombre d’installations de systèmes augmentait bien plus vite que le nombre de programmeurs formés, le logiciel devenait le  goulot d’étranglement principal qui menaçait de mettre fin à la croissance de cette industrie.

Une première crise qui dure encore

Cette crise ne s’est jamais vraiment tout à fait résorbée, mais le secteur a appris à vivre avec jusqu’à aujourd’hui. La liste d’attente pour les nouvelles applications a toujours été très (trop) longue dans toutes les organisations reposant sur l’informatique et c’est aussi la raison du développement du “shadow IT” : les départements lassés de devoir attendre leurs applications se sont souvent mis à les développer par eux-mêmes avec des outils NoCode.

Une nouvelle crise, tu es sûr ?

Aujourd’hui, tout le monde est en train de réaliser que le logiciel est un élément essentiel dans les systèmes modernes. Le premier à l’avoir affirmé est Marc Andreessen dans son célèbre article “le logiciel mange le monde” en 2011 (lire à Why Software Is Eating the World). Et, effectivement, tous les systèmes développés désormais contiennent systématiquement une part de logiciel, une part de plus en plus importante.

Après la version optimiste contenue dans l’article d’Andreessen, il est temps de passer à la version réaliste : le logiciel est de nouveau en crise parce que sa généralisation démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…), mais, cette fois, la nature même de ces bugs est différente.

La toujours délicate intégration de systèmes

En effet, il ne s’agit plus simplement d’ordinateurs isolés ou fonctionnant en réseau… Cette fois, on touche du doigt la limite induite par la toujours délicate intégration de systèmes. Pour commencer, ces logiciels s’exécutent dans des contextes où les tests et les corrections sont difficiles à réaliser à cause de la nature même des systèmes embarqués (allez donc traquer un bug qui ne se manifeste que dans certaines conditions d’un avion en plein vol…). Ensuite, les systèmes en question ne sont pas des éléments isolés (comme le sont les ordinateurs, qu’ils soient en réseau ou non), mais bien des éléments profondément dépendants des autres systèmes qui les entourent et les alimentent en données et mesures. Enfin, les organisations qui développent ces logiciels ne sont pas spécialisées en informatique, mais font cela en plus de leur domaine d’expertise habituel. Tout cela explique, au moins en partie, pourquoi ces bugs sont si fréquents, si bloquants et si difficiles (et coûteux !) à corriger.

Une situation qui est significative d’un nouveau contexte

J’écris “en partie” car je pense que cette situation est significative d’un nouveau contexte. Il ne s’agit pas d’un épiphénomène qui apparaît brusquement pour disparaître une fois qu’on en aura pris la mesure. Je crois au contraire que c’est juste le début de nos difficultés en la matière. Il est possible, voire probable, que ce type de logiciel ne soit jamais totalement fiabilisé (tout comme il reste toujours des bugs dans nos programmes habituels). Dans le secteur informatique, on s’est adapté à cette réalité souvent pénible, quelquefois douloureuse, mais qu’on sait inamovible. Dans les secteurs industriels cités, en revanche, je doute qu’on s’attendait à une telle non-fiabilité et qu’on n’ait pas encore réalisé qu’elle était quasi-impossible à améliorer radicalement.

La situation ne va donc pas s’améliorer, mais va empirer et le logiciel va devenir le facteur bloquant de l’évolution vers le toujours plus d’intégration et de fonctions intelligentes tout comme il a représenté le goulot d’étranglement des débuts de l’informatique.


Qui sont les conspirationnistes ?

Publiée sur Linkedin le 2 juin 2021

Il suffit d’écouter les médias quelques heures pour s’en convaincre : les conspirationnistes sont parmi nous !

Ils sont partout, ils sont dangereux, ne les écoutez pas, dénoncez-les !

Le statut de conspirationniste arrive vite, il suffit de dévier un tant soit peu de la ligne officielle et là, c’est terminé : vous êtes désigné, exclu, ostracisé. Et cela peut arriver à tout le monde, vraiment tout le monde. Un exemple ?

Facile, Luc Montagnier. Vous avez beau avoir été un grand personnage très en vue, adulé même (dame, c’est pas si souvent qu’on peut se targuer d’avoir un prix nobel de médecine, découvreur du SIDA quand même !), on vous fera tomber de votre piédestal sans pitié si, aidé par votre notoriété, il vous viendrait à l’idée de promouvoir des idées suspectes.

Or, justement, c’est ce qu’a fait Luc Montagnier au tout début de la crise sanitaire : en avril 2020, Luc Montagnier émet l’hypothèse que le coronavirus 2 du syndrome respiratoire aigu sévère à l’origine de la pandémie de Covid-19, est “sorti d’un laboratoire chinois avec de l’ADN de VIH”.

Aussitôt, c’est l’unanimité dans les médias : Montagnier est pointé du doigt, descendu plus bas que terre, ostracisé définitivement. Les plus indulgents expliquent que le grand scientifique est désormais gâteux… ça se comprend, vu son âge, n’est-ce pas ?

Mais il suffit d’écouter une interview récente de Luc Montagnier pour constater, passez-moi l’expression, qu’il a encore toute sa tête.

Bref, c’était clair : le virus à l’origine de la crise sanitaire que nous vivons tous depuis le début de 2020 est d’origine animale exclusivement et ceux qui disent autre chose doivent être réduit au silence, point. Exit Luc Montagnier, “on ne peut pas être et avoir été”…

Ce qui était vrai hier…

Et puis, depuis quelques semaines, une nouvelle musique se fait entendre. Finalement, peut-être que le virus se serait échappé du laboratoire P4 de Wuhan… peut-être bien après tout.

“Ah mais ça change tout” me direz-vous, “on va donc réhabiliter Luc Montagnier du coup, non ?”. Non. Si vous avez été catalogué conspirationniste, vous le restez, même si votre thèse devient possible voire probable. Et cela doit être ainsi si on veut que l’actuel terrorisme intellectuel continue de fonctionner.

Vous êtes prévenus : vous n’avez pas le droit de dévier de la ligne officielle. La ligne officielle, elle, peut varier en revanche… Mais ce n’est pas la même chose, ça reste la ligne officielle… respect.


Abrutissement et illusion, les deux pôles de notre technostructure

Publiée sur Linkedin le 15 juin 2021

En ce moment, difficile d’échapper au matraquage de la coupe d’europe de football… Difficile aussi d’imaginer un sport plus nul apprécié on ne sait pourquoi par la lie de l’humanité (qui prouve, en cet instant, qu’elle est devenue majoritaire !).

Nombreux sont ceux qui suivent les championnats de foot simplement « pour faire comme tout le monde » (n’oublions pas que la pulsion d’intégration est un puissant moteur à l’œuvre en permanence dans l’immense majorité des cas… On imagine les ravages dans le cas des « supporters » !).

Cela fait des décennies que ça dure : le peuple réclame du pain et des jeux, alors on lui donne de la nourriture industrielle et du football. Après tout, comment ne pas admettre que le peuple n’a que ce qu’il mérite ?

Les médias complices encouragent la tendance. Tout ce qui permet d’accentuer l’abrutissement général est bon pour eux. Et n’allez pas croire que c’est lié à la crise sanitaire (dont on nous fait croire qu’elle est en train de se terminer… plus dure sera la chute !).

Inutile d’insister sur le côté abrutissant de ces grandes manifestations populaires, il suffit de voir comment les médias se ruent sur l’affaire pour comprendre qu’on est bien face à un phénomène monté de toutes pièces et soigneusement entretenu afin de continuer à en récolter les fruits (une populace docile qui canalise son ressentiment sur “l’adversaire” au lieu de s’en prendre à ses bourreaux… chapeau l’artiste !).

L’illusion du savoir

Voyons maintenant l’autre versant de la manipulation : l’illusion. En effet, contrairement à ce que vous font croire les médias, il est difficile d’avoir un avis pertinent sur les questions techniques de notre temps (en revanche, avoir une opinion est toujours assez facile : il suffit de se laisser influencer par le torrent des médias et penser ensuite qu’il s’agit de votre propre déduction… mais peut-on encore parler de penser dans ce cas ?). Un exemple récent (juin 2021) l’illustre assez bien : la sortie d’un documentaire sur les éoliennes (Éoliennes : du rêve aux réalités) a illustré jusqu’à la caricature le semblant de débat qui fait rage dès qu’il s’agit d’un sujet à caractère technique.

Les partisans des éoliennes et leurs adversaires se sont affrontés sur le terrain des arrières-pensées (à qui profite le boom des éoliennes et, de l’autre côté, qui sont les lobbies qui ont financé ce documentaire et pourquoi ?) mais pas sur les vraies questions techniques qui elles ont été laissées de côté (“le public n’y comprend rien de toute façon !”).

Il faut bien l’admettre, les questions techniques demandent un vrai approfondissement avant de pouvoir émettre un avis éclairé, éviter les idées reçues et les non-sens les plus communs sur telle ou telle question. Le débit effarant des médias nous fait croire que nous sommes informés sur ces sujets mais rien n’est plus faux : ce que les médias déversent n’a quasiment aucune valeur car il s’agit le plus souvent des idées reçues les plus banales sur chaque domaine (exemple : le nucléaire n’émet aucun gaz à effet de serre…).

Pour aller au-delà de ce premier niveau d’ignorance (qui est en fait pire que la vraie ignorance puisque le public a l’impression de savoir alors qu’il ne sait rien…), il faut passer du temps et s’investir dans le domaine concerné. Cela demande des efforts et cela rend humble, tout le contraire de la tendance actuelle. En effet, la fausse connaissance est un biais désormais clairement identifié (car il apparaît de plus en plus fréquemment) et cela porte même un nom : l’effet Dunning-Kruger, aussi appelé effet de surconfiance.

Le citoyen de base n’a ni le temps ni l’envie de consacrer des mois d’étude avant d’émettre un avis sur un sujet. Les élus non plus d’ailleurs, c’est pour cela que dans notre société hyper-technicienne, les avis techniques sont pré-mâchés et pré-digérés par les intervenants qui y ont le plus d’intérêts afin que les décideurs n’aient plus qu’à signer, surtout si la question bénéficie d’un effet de mode qui aura été soigneusement lancé et entretenu par ces mêmes lobbies. On ne compte plus les domaines qui ont ainsi été traités de cette manière : médicaments, pesticides, énergie, défense, etc.

Donc, même si on tente de vous faire croire que l’homme moderne est bien au fait de son époque, laissez vos illusions : notre monde dominé par la technique est complexe et seuls les techniciens qui œuvrent au niveau de la conception et de la mise en place des systèmes en ont une compréhension réelle (et encore !)…

Abrutissement et illusion

C’est ainsi que fonctionne notre société désormais : d’un côté, on va abrutir le bon peuple avec des grandes messes au contenu vidé de sens. De l’autre, on va faire croire au pékin de base qu’il est informé sur les questions de notre temps et que son opinion a de la valeur. Les écrans de fumée sont efficaces, dormez tranquilles braves gens !


Le grand écart

Publiée sur Linkedin le 21 juin 2021

Deux peuples, un écart entre les deux qui s’agrandit, qui devient béant. Une incompréhension fondamentale les éloigne encore.

Pour ceux qui font partie des soumis, les rebelles sont simplement des râleurs qui se révoltent contre tout et pour un rien. Ce sont surtout des emmerdeurs qui retardent le retour vers un monde “normal”… S’il le faut, il faudra les forcer, point.

Pour ceux qui font partie de cette toute petite minorité de “rebelles”, c’est l’étourdissement. Comment se fait-il que cette majorité molle se laisse faire avec une telle facilité ?

Comment se fait-il qu’ils acceptent tous l’inacceptable encore et encore ?

Comment peuvent-ils réclamer l’accès à des vaccins sur lesquels on ne sait rien, où le recul est inexistant et dont l’efficacité est, au mieux douteuse, au pire carrément toxique ?

Voilà un peuple hébété, rendu passif et consentant par des années d’une télévision abrutissante et qui n’arrive plus à en décrocher. Voici des gens qui font preuve d’une discipline incroyable en portant des masques (inutiles) en toutes circonstances (y compris seuls dans leurs voitures !). Voilà une minorité qui n’abdique pas, qui réfléchit encore, qui n’accepte pas tout sans poser des questions (légitimes), qui discute et refuse tout de même face à des abus évidents et répétés. Voilà une minorité pointée du doigt qui, à elle seule, maintient l’honneur de l’humanité à bout de bras.

On a déjà vu cela dans le passé (De Gaulle lors de Juin 1940) mais je n’imaginais pas que cela été aussi dur à vivre, aussi lourd à porter. Comment avoir encore foi en mes semblables quand je constate qu’ils avalent des anneries qui ferait rire mon cheval si j’en avais un !

Je ne sais pas comment vous vivez cela mais moi, j’ai du mal. Si vous faites partie des soumis, j’imagine que ça va, vous avez confiance dans ce qu’on vous dit et vous pensez sans doute que ce cauchemar va bientôt se terminer. Si vous faites partie des rebelles (peu nombreux, rappel), vous savez que ce cauchemar commence à peine.

Courage, c’est la nuit qu’il est beau de croire à la lumière.


Le monde actuel a commencé avec le 9/11

Publiée le 2 septembre 2021

Vous vous souvenez du 9/11 ?

Non, le but de cet “article” n’est pas de polémiquer une fois de plus sur les causes, les mensonges et les non-dits de cet événement majeur (une très bonne récapitulation peut se lire à https://www.voltairenet.org/article213844.html), mais plutôt de se souvenir que notre monde actuel a effectivement commencé là, tout simplement.

Oui, songez-y, notre société a vraiment débuté avec cet événement et son traitement médiatique. Tout d’un coup, un fait avec des contours brumeux devenait indiscutable, c’est-à-dire qu’on ne devait PAS le discuter, sous aucun prétexte, d’aucune manière, point.

L’imprudent qui osait remettre en cause la doxa (même avec précaution) était aussitôt ridiculisé et ostracisé… ça ne vous rappelle rien ?

Nous sommes désormais dans un contexte sociétal où il faut croire. Il ne s’agit plus de débattre de faits, il faut simplement avaler la version officielle pour la ressortir le moment venu avec la plus parfaite exactitude, sinon gare !

Aujourd’hui, on vous traite de “complotistes” comme jadis on jetait l’anathème en vous traitant d’hérétique… rien n’a changé finalement. C’était bien la peine de se moquer des communistes et de leur rigidité mentale (souvenez-vous de la fameuse “ligne du parti”…) si c’était pour l’adopter aussi complètement quelques dizaines d’années après.

Je crois tout de même que le plus troublant dans cette “évolution”, c’est la proéminence de la “croyance” : croire en ceci, croire en cela, ne rien remettre en cause, tout admettre du moment que ça vient de l’autorité… assez surprenant non quand on songe qu’on est censé être en plein XXIème siècle ?

Finalement, le 9/11 a enfanté son lot de crises que nous avons encaissé sans broncher, crescendo : les subprimes de 2008, la crise sanitaire actuelle… Tout cela n’est possible qu’avec l’assentiment de la majorité. C’est bien pour cela que la “fabrique du consentement” est devenue la mission N°1 des médias.

Si nous voulons retrouver notre liberté (et d’abord et avant tout notre liberté de penser !), il faut nous libérer de cette entrave : n’écoutez plus les médias, plus du tout.


La loi du “mur de la complexité”

Publiée sur Linkedin le 26 novembre 2021

Le fameux télescope spatial James Webb (JWST pour James Webb Space Telescope) va enfin être lancé, bientôt… Enfin, si tout va bien !

Car, depuis les lointains débuts de ce successeur du non-moins fameux télescope Hubble, les retards et les surcoûts se sont multipliés dans des proportions ahurissantes !

Revenons d’abord sur la genèse de ce projet. En 1989, le directeur du Space Telescope Science Institute, le centre chargé des opérations du télescope spatial Hubble, initie une réflexion sur le télescope qui devra prendre la relève de celui-ci vers 2005 (2005 !).

Entretemps, le prix de cette merveille est passé de 500 millions de dollars en 1996 à 9,7 milliards de dollars. Et chaque jour de retard ajoute un million de dollars à la facture.

Ces retards, d’ailleurs, se poursuivent. La date de lancement prévue la plus récente est le 22 décembre. Il s’agit d’un report, annoncé le 22 novembre, du 18 décembre. Mais au moins, la “chose” est maintenant sur le site de lancement.

Hubble lui aussi avait coûté cher : le coût du projet a atteint 2 milliards de dollars en 1990 (au moment de sa mise en orbite), faisant du télescope Hubble l’instrument scientifique le plus coûteux de tous les temps… Jusqu’à ce que son successeur batte le record !

Il était initialement prévu que le télescope Hubble ait une durée de vie de quinze ans mais, à ce jour, il fonctionne toujours (soit déjà 31 ans de services opérationnels !). On ne peut qu’espérer que le JWST soit aussi endurant…

OK, tout cela est intéressant mais les retards et les surcoûts sont monnaie courante quand il s’agit de projets techniques sophistiqués, non ?

Justement, c’est bien là que je voudrais attirer votre attention : n’y aurait-il pas une limite à ce que nous pouvons encaisser comme complexité ?

EPR et F35, entre autres

Et les exemples qui vont dans ce sens se multiplient sans que nous semblions en prendre conscience. Je pense en particulier à l’EPR et au F35. C’est comme si la “loi des rendements décroissants” s’appliquait aussi à l’escalade de la complexité.

Tout se passe comme si on n’était incapable de comprendre que nos progrès croissants (et bien réels) dans la maitrise technique ne pouvaient pas forcément se traduire dans des mises en oeuvre toujours plus grandes, toujours plus complexes.

Prenons comme exemple les projets de développement des armes modernes. Non seulement les programmes d’armement sont de plus en plus coûteux, mais aussi, et surtout ils prennent de plus en plus de temps (ce qui explique d’ailleurs qu’ils demandent de plus en plus d’argent). Le “démonstrateur Rafale A” vole le 4 juillet 1986 et le programme est effectivement lancé le 26 janvier 1988. Les premiers exemplaires sont livrés à partir du 18 mai 2001 (armée de l’air) et entrent en service en 2002 dans la Marine, soit quinze ans de développement alors qu’il n’en avait fallu que huit pour les programmes précédents (Mirage F1 et Mirage 2000).

Ces délais à rallonge ne sont pas propres à l’aviation ni même au contexte français. Du côté des chars d’assaut, non seulement le char Leclerc a coûté bien plus cher que son prédécesseur l’AMX 30, mais il a également demandé beaucoup, beaucoup, beaucoup plus de temps pour être mis au point et surtout livré.

Du côté des Américains, c’est encore pire : les chasseurs à réaction dévorent toujours plus de budgets et demandent toujours plus de temps à être étudiés, construits et livrés aux unités opérationnelles. Dans ce domaine, les tout derniers programmes F22 et F35 frôlent la caricature dans des proportions énormes. Le F16 n’avait demandé que quatre ans pour être conçu alors que le F22 en réclama quinze !

Le programme F35 en particulier est une réponse au programme F22 qui était considéré trop coûteux. Le F35 devait apporter la solution en étant multirôles, c’est-à-dire le même avion pour les trois armes (Air Force, Navy et Marines).  Mais il s’est avéré que le cahier des charges était bien trop complexe pour arriver à combiner les exigences de l’Air Force, de la Navy et du corps des Marines en un seul appareil capable de satisfaire les spécificités si diverses de la gigantesque armée américaine. Résultat, le projet a été grevé par de multiples incompatibilités, a coûté bien plus cher que prévu et n’a toujours pas atteint un niveau opérationnel satisfaisant.

Bon, c’était effectivement relativement facile de montrer le sur-place des projets militaires (surtout avec le F35 qui est une cible facile vue que ses déboires sont permanents !), mais on va maintenant pointer un secteur où ce sur-place est bien moins connu : les médicaments.

Les médicaments sous perfusion !

Voilà encore un domaine exemplaire : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une « loi », la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le nom Eroom est l’inverse de la loi de Moore bien connue dans le domaine des composants électroniques. Ce nom a été choisi afin de souligner l’effet miroir (inversé donc !) entre le milieu des médicaments et celui des composants.

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies (voir le schéma ci-dessous) est une bonne illustration de la loi des retours dégressifs.

Un secteur qui peine à trouver un second souffle

Tous les médicaments que nous utilisons aujourd’hui ont été découverts dans les années cinquante, à l’âge d’or des médicaments chimiques. Depuis, en dépit d’efforts colossaux, ce sont toujours les mêmes principes actifs qui sont déclinés à l’infini sous des packagings différents (à l’exemple de la molécule paracétamol vendue sous des dizaines d’appellations commerciales diverses), car les affaires restent les affaires, hein !

Autre exemple : une dose de Nusinersen, médicament moderne produit aux États-Unis pour soigner l’amyotrophie spinale [une maladie héréditaire qui atrophie les muscles], est vendue 70 000 euros. Son développement a duré dix ans et coûté plus d’un milliard de dollars.

Depuis 1980, aucune famille d’antibiotiques n’a vu le jour. Les nouveaux traitements ne sont que des modifications de composés connus.

Lisez Supériorité !

On pourrait ainsi multiplier les exemples, mais il me paraît plus intéressant de donner le mot de la fin à Arthur C. Clarke avec sa nouvelle “Supériorité” qui prouve que la guerre est une mauvaise période pour tenter d’innover et d’obtenir un avantage décisif.

« Supériorité » est une nouvelle de science-fiction de l’écrivain britannique Arthur C. Clarke, publiée pour la première fois en 1951. Elle décrit une course aux armements et montre comment le côté le plus avancé sur le plan technologique peut être vaincu, en dépit de sa supériorité apparente, par ses propres faiblesses organisationnelles et sa volonté de se débarrasser des anciennes technologies sans avoir complètement perfectionné la nouvelle. Pendant ce temps, l’ennemi construisait régulièrement un arsenal d’armes beaucoup plus important, certes plus primitif, mais surtout plus fiable. Cette histoire était au programme d’un cours de design industriel au Massachusetts Institute of Technology.

Source https://en.wikipedia.org/wiki/Superiority_(short_story).

Le mur de la complexité

Tout cela va peut-être finir par nous faire comprendre qu’il existe bien un mur de la complexité tout comme on admet l’existence du “mur du son” que l’aviation civile n’essaye même plus de franchir (car on connaît désormais les coûts et les conséquences techniques de la capacité supersonique). Ici, la bonne attitude est de savoir calibrer son ambition de façon à frôler ce nouveau mur sans risque de s’y fracasser (délais, surcoûts).

Tout cela, je l’ai déjà expliqué en long et en large dans mon livre récent “Le fait technique” mais le pré-bilan du JWST me donnait l’occasion d’enfoncer le clou une fois de plus !

Il faut donc privilégier les projets plus modestes (moins ambitieux) mais plus accessibles et plus faciles à mettre en place avec succès. Mais ce genre de leçon est-il compatible avec la mentalité du “toujours plus” propre à la psychologie humaine ?


Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Publiée sur Linkedin le 6 décembre 2021

Eh oui, comme le précise le titre de cet article, une période “extraordinaire” ne rime pas forcément avec “formidable”. Après tout, les guerres et les grandes catastrophes sont, elles aussi, des événements extraordinaires…

Une crise sanitaire ? Où ça ?

Bref, notre présent est dominé par les tenants et aboutissants de ce qu’il convient d’appeler la “crise sanitaire” mais qui est, en réalité, une crise de société très profonde. Durant ces derniers mois, nous avons constaté, souvent avec effarement, que beaucoup de règles qu’on croyait bien établies ont été balayées, oubliées, contredites et même interdites !

L’obligation de soigner, le débat contradictoire, la prudence scientifique, le droit à une pensée libre et le droit de l’exprimer, entre autres… Tout cela serait de l’histoire ancienne (jusqu’à ce qu’on nous explique que, en fait, ça n’a jamais existé…) face à une “urgence sanitaire” qui nous contraint à respecter des ordres absurdes et contradictoires, le tout sans broncher svp.

La réalité (et la brutalité) des faits oblige à reconnaître que nos gouvernants sont en guerre ouverte contre nous et, encore un élément extraordinaire, qu’une grande partie de la population (une large majorité) ne semble pas s’en rendre compte.

Ceci dit, avant d’aller plus loin sur ce triste présent, il faut se remémorer quelques épisodes d’un passé relativement récent pour s’apercevoir que nos gouvernants agissent contre nos intérêts depuis un certain temps déjà. Et s’ils le peuvent, c’est principalement grâce (ou à cause) de la passivité des gens. Passivité qui, de plus, est largement encouragée et entretenue, nous y reviendrons.

Une longue période de déceptions

Les vingt dernières années ont été lourdes de revers de toutes les sortes et d’amères déceptions. Que ce soit en France, au niveau européen ou américain, les gouvernants se sont évertués à nous mentir et à nous flouer, encore et encore. Et tout cela dans la plus parfaite impunité (pourquoi se priver après tout ?).

On pourrait revenir sur les attentats du 9/11 ou sur la conduite de la seconde guerre en Irak (ou ce qui s’est passé en Libye) mais je crois quand même que le plus marquant et le plus déplorable reste tout de même le traitement de la crise de 2008. Pour faire court, contentons-nous de rappeler qu’il s’agit d’une crise mondiale qui a été causée uniquement et entièrement par l’avidité sans borne des banquiers (une simplification, certes, mais nécessaire pour un article forcément limité). Les dégâts et les victimes ont été innombrables et qu’a-t-on fait ?

Eh bien, vous comprenez, on a sauvé les banquiers, hein… Il faut savoir respecter certaines priorités, n’est-ce pas ?

Selon moi, c’est vraiment là qu’on (nous, nous tous en tant que peuple) a perdu le contrôle et que les gouvernants ont réalisé qu’ils pouvaient tout se permettre, que ça passait sans problème. Depuis, les mensonges et les scandales (qui ont toujours existé, bien sûr) sont allés crescendo dans l’indifférence générale. Il y a bien des lanceurs d’alertes et des journalistes d’investigation mais qui les écoutent ?

Personne ou presque parce que la population est totalement anesthésiée. Et si c’était bien cela qu’on nous avait fait subir, une anesthésie générale ?

Et si tout cela était le résultat d’années de préparation ?

Personnellement, cela fait des années que je tente d’alerter sur la baisse générale du niveau intellectuel que je constate autour de moi et que je dénonce le rôle des médias dans cette affaire. J’ai toujours été frappé par l’absence de réaction face à ce phénomène, même de la part de ceux que j’estimais (encore) épargnés.

Donc, on peut s’étonner de la docilité des gens mais on peut aussi admettre que le travail de fond réalisé par les médias dans ce sens pendant ces dernières décennies a fini par porter ses fruits. En effet, comment nier que la promotion et la diffusion systématique des contenus les plus abrutissants soit en constante augmentation dans toutes les principales chaînes de TV et de radio ?

Auparavant, on avait des animateurs un peu beaufs (genre Patrick Sébastien) mais ça ne suffisait pas, il fallait aller à plusieurs crans au-dessus avec des animateurs carrément les plus vils (genre Cyril Hanouna). Les programmes de télé-réalités sont devenus tellement prisés que même les services comme Netflix ou Prime Vidéo en proposent !

Toute cette évolution négative (toujours abaisser le niveau, jamais le relever) a forcément produit des effets et on peut les constater en voyant nos ados se régaler des vidéos les plus débiles sur YouTube ou Tik-Tok. Si encore ce n’était visible que chez les ados mais tout le monde est touché, aucune tranche d’âge n’est épargnée, le mal est fait et il est généralisé.

Mais comme le labeur des médias ne suffisait pas tout à fait, nos bourreaux ont ajouté la force des algorithmes. On constate avec stupéfaction que Google (avec YouTube), Facebook et Linkedin censurent à tout va depuis quelques mois et avec une efficacité digne d’éloges. L’expression dissidente est étouffée avec une précision et une vitesse que l’ancien politburo soviétique n’aurait jamais pu espérer !

La crise sanitaire ou un test à (très) grande échelle

Ce que nous vivons depuis presque deux ans s’apparente de moins en moins à une crise sanitaire sérieuse à cause d’une épidémie foudroyante et super-dangereuse mais bien à une expérience de contrôle des populations (propagande, censure, coercition) dont les résultats dépassent les espérances les plus folles de ses promoteurs.

Comment imaginer qu’on allait pouvoir, si facilement, remplacer toutes les démarches scientifiques (qu’on croyait naïvement comme bien implantées… ah !) par des injonctions primaires de type “taisez-vous et croyez-nous”… et ça marche !

Comment pouvait-on imaginer qu’on allait pouvoir, si facilement, remplacer tous les débats contradictoires par l’ostracisme et le respect de la “ligne du parti” sans discussion d’aucune sorte ?

Ah ça si Staline et Mao sont en train de nous observer en ce moment, nul doute qu’ils doivent être en train d’applaudir avec admiration !

Un procès de Nuremberg, vous y croyez ?

On peut toujours espérer qu’on finira par organiser un méga-procès de Nuremberg de l’ère moderne où tous les truqueurs et tous leurs collabos serviles (journalistes et médecins qui ont marché dans cette combine toute honte bue) seront jugés, condamnés et punis de ce qu’ils viennent de nous faire subir (et ce n’est pas terminé, hélas) mais, franchement, j’y crois de moins en moins.

Tant que la bêtise et le conformisme à tout prix régneront, cette ambiance délétère continuera. Et, quelque part, je comprends ceux qui nous oppriment : pourquoi se priver, ce troupeau a choisi sa servitude, qu’il se fasse tondre puisqu’il est d’accord !

Le pire n’est jamais sûr

On dit que c’est la perte de l’espoir qui finit par tuer le naufragé… Et si c’était la perte de son âme qui égarait le peuple ?

Avec pour seuls horizons des distractions dépourvues de sens et une consommation exacerbée mais frustrante, les corrompus qui tentent de nous égarer ont presque réussi à nous perdre, effectivement. Mais tout espoir est-il perdu ?

Non, évidemment non. Même aux plus sombres heures de notre histoire, il y a toujours eu un sursaut qui nous a permis de repartir. Pour cela, l’engagement de la majorité n’est pas nécessaire. Il suffit à quelques-uns d’impulser le mouvement pour que le reste suive, tôt ou tard. La faible lumière de la résistance débouchera sur une aube glorieuse. Il faut y croire et agir car “c’est la nuit qu’il est beau de croire à la lumière”.


Un coupable de complaisance !

Publiée sur Linkedin le 11 décembre 2021

En ce moment, on entend une nouvelle petite musique qui montre que le vent est en train de tourner. Et vers quoi souffle le vent désormais ?

Eh bien, on s’est trouvé un coupable de complaisance qui arrange tout le monde. Il s’agit de Jean-François Delfraissy qui, en quelques semaines, est passé de respectable à gâteux.

Quelque part, je devrais me réjouir :  Jean-François Delfraissy ne fait pas exactement partie des personnes pour lesquelles j’ai de la sympathie. Mais le désigner à la vindicte populaire me paraît tout à fait en ligne avec les mensonges et manipulations donc on nous abreuve depuis le début de cette crise.

Le plus drôle si j’ose dire c’est que c’est Martin Blachier désigne désormais Jean-François Delfraissy comme le responsable de tous nos maux et comme incapable de conduire la politique crise sanitaire, comme s’il en avait été capable depuis le début !

En France, on est coutumier de l’emploi de ce coupable de complaisance, souvenez-vous de l’affaire du sang contaminé. Pas un seul politique n’a été sérieusement inquiété, bien sûr !

Que Delfraissy soit démis de ses fonctions et je ne vais certainement pas pleurer mais je considère qu’il ne doit pas être le seul à payer les pots cassés.  En effet, les coupables dans cette affaire sont nombreux. À commencer par Martin Blachier, justement, qui ne s’est pas privé de dire tout et son contraire depuis le début de sa présence médiatique dans le cadre de cette crise.

Mais soyons clair, Blachier et Delfraissy sont du menu fretin par rapport aux vrais responsables de cette situation calamiteuse.  En particulier j’aimerais bien réserver une place de choix pour notre ministre de la Santé, le formidable Olivier Véran.

On n’oubliera pas non plus tous ces journalistes serviles qui ont porté le message de ce gouvernement en guerre contre son propre peuple. Non, rassurez-vous, quand Delfraissy sera oublié depuis longtemps, nous, nous n’aurons rien oublié et rien pardonné.


La question principale : à quelle vitesse ce Metaverse va-t-il arriver ?

Publiée sur Linkedin le 12 décembre 2021

La question à laquelle on doit répondre aujourd’hui c’est surtout “à quelle vitesse ce Metaverse va-t-il arriver ?”. C’est la question principale tout simplement parce que c’est celle à laquelle on peut essayer de répondre, alors que l’autre question principale qu’on imagine assez facilement ce serait plutôt “à quoi va ressembler ce Metaverse qu’on nous annonce aujourd’hui ?”.

Donc, la question de la vitesse d’apparition reste bien la principale aujourd’hui tout simplement parce que c’est celle qui nous impose de réagir et de nous positionner vis-à-vis de ce nouveau phénomène décrit par tous comme étant structurant pour le futur de l’informatique au sens large (the next big thing).

Sur ce sujet, il y a donc deux écoles qui s’affrontent. Une qui prétend que cela va arriver vite, dès l’année prochaine ou presque. Et une autre qui dit que ça va être plus long, que ça va prendre des années avant d’avoir une concrétisation bien réelle c’est qui (et amusants de d’utiliser l’adjectif bien réel dans un domaine où tout est virtuel.

On peut aussi imaginer que les deux écoles de pensée ont raison dès le début puisque quelque chose va effectivement arriver relativement vite mais que la forme finale, la forme effective elle, prendra des années pour trouver son chemin, se concrétiser et rallier les utilisateurs massivement.

Ceux qui pensent que le Metaverse va se concrétiser rapidement mettent en avant l’exemple de Meta (la société, maison mère de Facebook) qui a investi lourdement et qui commence à présenter ses premières briques comme Horizon Worlds. Alors justement parlons-en de cette soit-disant première brique et, clairement, si ce n’était pas Meta qui était derrière cette réalisation, eh bien on serait simplement tordu de rire à la vue de cette première réalisation tant elle est grotesque et éloignée de ce qu’on pourrait imaginer pour un usage professionnel.

Que le Metaverse prenne des années pour se concrétiser et trouver sa forme finale n’est pas surprenant et n’est pas inédit dans l’histoire technique. Si on reprend l’histoire du web, celui-ci a beaucoup évolué entre sa première forme, qu’on peut situer en 1994, et celle qu’on connaît aujourd’hui.

Cette évolution s’est faite graduellement, avec des étapes importantes, comme au début des années 2000 avec le protocole Ajax mais, fondamentalement, dès le début, le web ressemblait déjà à ce qu’il est aujourd’hui. Pour le Metaverse en revanche, c’est beaucoup plus difficile de dire à quoi il va ressembler dès aujourd’hui. Car nous nous situons encore aujourd’hui dans la période qui ressemble à celle qui a précédé l’avènement du web et où l’on parlait encore des “autoroutes de l’information”. Sans que personne n’ait été capable de donner une définition claire est utilisable de ce que pourrait être ces fameuses autoroutes de l’information et à ce à quoi elles allaient servir.

Donc, laissons là pour le moment la question de “à quoi va ressembler le Metaverse” pour nous concentrer sur la rapidité éventuelle de son apparition.

Cette question de la rapidité de réalisation d’une innovation majeure m’intéresse particulièrement parce qu’elle est au centre de mon travail depuis des années. En effet, à travers des livres, des articles, des conférences et des webinaires, j’essaye d’expliquer que les innovations, les vraies innovations, les vraies ruptures, prennent du temps, beaucoup de temps, toujours plus de temps que ce qu’on est prêt à admettre.

Il est logique et naturel qu’on ait du mal évaluer correctement la durée nécessaire car tu nous pousse à croire que, pour reprendre une expression déjà très utilisée, “c’est déjà demain”. La propagande technique cherche continuellement à nous faire croire que tout va très vite et même notre enthousiasme naturel nous pousse à croire et même à désirer que, effectivement, ces progrès annoncés, nous allons pouvoir en tirer parti très rapidement.

Mais une analyse objective de la situation et de ses perspectives nous oblige à comprendre qu’il faudra des années d’efforts, d’essais et d’erreurs avant que la bonne forme du Metaverse puisse finalement apparaître et devenir disponible pour le plus grand nombre. Sans oublier, bien évidemment, les moyens nécessaires pour en profiter. Car rappelons que cet univers virtuel, pour le moment spéculatif, va demander des interfaces très spéciales afin de permettre et de renforcer l’immersion.

Bref, vous l’aurez compris, une fois de plus, je me situe fermement du côté de ceux qui vous disent que cela va prendre du temps et qu’il faut garder de s’enthousiasmer trop rapidement à propos de ce concept qui n’est encore, justement, qu’un concept.


Les fraudes hi-tech et ce qu’elles nous révèlent…

Publiée le 14 décembre 2021 sur Linkedin

Les utopies techniques ont de l’avenir

On peut s’escrimer à longueur d’articles et de livres (comme je l’ai fait dans mon ouvrage « le fait technique« ) à expliquer le côté absurde des utopies techniques, ça restera vain. Tout d’abord parce que les biais cognitifs sont difficiles à surmonter, mais aussi parce que la propagande solutionniste a une “force de frappe” (avec la complicité des médias) bien plus importante que les commentateurs raisonnables qui tentent de faire la part des choses (et on a pu le mesurer douloureusement lors de la terrible crise sanitaire, où nous sommes restés englués de longs, très longs mois).

Donc, oui, les entités (gouvernements, entreprises, gourous autoproclamés, etc.) qui servent et qui se servent de la propagande technique vont continuer à mentir et à délirer impunément pendant longtemps puisque ça marche : audience et crédits pour eux, dénigrement pour les autres (les commentateurs raisonnables).

Si, comme je le prétends, la propagande technique excessive est toxique, c’est qu’elle devrait avoir des effets mesurables, non ?

Justement oui, et dans ce cadre, je vous propose d’évoquer les fraudes techniques qui se transforment inévitablement en scandales financiers retentissants. Non, il ne s’agit pas d’évoquer les bricolages minables d’un Madoff en 2001 ou les innombrables scandales politiques qu’on ne sait plus dénombrer tellement ils sont fréquents. Intéressons-nous plutôt à la recrudescence récente des fraudes hi-tech afin de comprendre ce qu’elles révèlent sur notre époque.

D’Enron à Wirecard

Les fraudes à grande échelle venant d’entreprises réputées ne sont pas un phénomène nouveau. Il y a eu l’énorme scandale Enron en 2001 (voir à https://fr.wikipedia.org/wiki/Enron) et bien d’autres auparavant, avec de très nombreux cas de comptes bidonnés (d’Oracle en 1991 à Worldcom en 2002, voir à https://fr.wikipedia.org/wiki/WorldCom). Plus proche de nous, il y a eu la surprenante affaire Wirecard en 2020 (voir à https://fr.wikipedia.org/wiki/Wirecard) qui a démontré que même les Allemands n’hésitaient pas à frauder quand l’occasion leur était donnée. Mais ça, on le sait depuis la gigantesque affaire du dieselgate de Volkwagen (voir à https://fr.wikipedia.org/wiki/Affaire_Volkswagen).

Puisqu’on évoque des peuples soi-disant vertueux, n’oublions pas nos amis japonais qui ne sont jamais les derniers à se retrouver honteux devant leurs malversations diverses : Toshiba en 2015, Mitsubishi Motors en 2016 et j’en oublie certainement plein d’autres !

Du côté de la hi-tech

Ce qui est nouveau, c’est le caractère technique des scandales récents (à part Wirecard et encore…). Il s’agit essentiellement de mensonges sur les performances techniques de produits mis en avant, pas sur le trucage des comptes comme avec l’affaire WeWork et autres ainsi qu’on en avait l’habitude.

Cette fois, il ne s’agit pas d’entrepreneurs trop optimistes sur leur capacité à vendre leur dernière trouvaille, il s’agit de la trouvaille elle-même qui n’est que du vent et ça, c’est (relativement) nouveau.

Ces dernières années et dans ce cadre, nous avons eu l’affaire de Theranos (avec Elizabeth Holmes, voir à https://korii.slate.fr/biz/vilains-du-net-theranos-elizabeth-holmes-scandale-silicon-valley-medecine-mensonge), celle de OneCoin avec la “crypto-queen” bulgare Ruja Ignatova (aujourd’hui toujours en fuite, voir à https://fr.wikipedia.org/wiki/OneCoin), les robots de livraison soi-disant autonomes de Kiwibots (voir à https://siecledigital.fr/2019/09/03/les-robots-kiwibots-etaient-pilotes-par-des-colombiens-sous-payes/) et enfin récemment Nikola Corp. (voir à https://www.novethic.fr/actualite/finance-durable/isr-rse/nikola-motor-l-autre-tesla-s-effondre-en-bourse-sur-fond-de-promesses-douteuses-149032.html) avec leurs camions électriques, mais, hélas, dépourvus de moteur (filmés en train de dévaler une colline, ça aide quand on n’a pas de moteur !!).

Revenons rapidement sur le cas Wirecard. Même s’il ne s’agit pas d’une fraude technique en soi, il y a tout de même une composante hi-tech dans cette affaire. Le PDG de Wirecard (Markus Braun) aimait mettre en avant le caractère innovant de son approche avec, disait-il, une utilisation intensive de logiciels IA de type machine learning… Bien entendu, quand son château de cartes s’est écroulé, son soi-disant recours au machine learning est apparu pour ce qu’il était : un rideau de fumée. Il n’y avait pas d’usage de l’IA à Wirecard autrement que dans les prétentions du PDG.

Fake it until you make it

Tout cela commence à faire beaucoup. Il semblerait que la pression permanente exercée sur les entrepreneurs les pousse de plus en plus à annoncer des résultats inatteignables et à faire semblant de les avoir atteints par tous les moyens (le fameux « fake it until you make it », soit “faites semblant jusqu’à ce que vous y arriviez pour de bon”). Mais dans les cas que nous venons de lister, il semble que la perspective d’y arriver après avoir beaucoup essayé soit même absente…

Les individus nommés ici ont un comportement pour le moins étonnant : ils démarrent quelque chose d’où une personne sensée sait qu’elle ne pourra pas s’en sortir. C’est une chose de monter une gigantesque arnaque où l’on disparaît dans la nature après avoir plumé quelques pigeons (ou de nombreux pigeons, au choix), mais lorsque votre visage est affiché dans tous les magazines de business et que l’on vous présente comme le nouveau Steve Jobs au féminin (ça a été le cas pour Elizabeth Holmes), vous savez que vous n’aurez nulle part où vous cacher (encore que, Ruja Ignatova y est bien arrivé, elle !). Ces comportements quasi-suicidaires sont-ils de plus en plus fréquents ou est-ce l’évolution globale de notre société qui leur permet d’apparaître et de prospérer (au moins pour un temps) ?

Portrait type du menteur technologique

On se retrouve avec différents profils de menteurs techniques avec ces histoires. Voici une typologie dressée sur le tas :

– Nous avons tout d’abord le classique « Fake it ’till you make it » déjà évoqué : des entrepreneurs qui ont peut-être plus de pression ces temps-ci pour offrir des résultats spectaculaires et qui peuvent bidonner des résultats pour gagner du temps. Exemple type : Elon Musk qui aime beaucoup promettre, mais qui oublie rapidement ses promesses (sauf que Tesla a un vrai produit et est finalement devenu profitable). Ou même Bill Gates (qui a promis un BASIC pour l’Altaïr 8800 lors des débuts historiques de Microsoft alors qu’ils ne l’avaient pas encore écrit).

– Nous avons ensuite les modèles économiques bancals du style WeWork. Rien d’illégal dans la mesure où ça ne semble déranger personne (sauf que WeWork a fait perdre pas mal d’argent à pas mal de gens…).

– Nous avons aussi les traditionnels exploiteurs de buzz, comme toutes les compagnies soi-disant d’IA qui n’ont rien à faire avec l’IA sauf dans leur discours. Admettons néanmoins que cette forme de promotion suivie de la commercialisation de produits médiocres ait toujours existé.

– Et enfin (je l’ai gardé en dernier !), nous avons le redoutable « Fake it, period » (je fais semblant, point barre) : les véritables arnaques du style Theranos, OneCoin ou Nikola Corps. Peut-être bien que ces personnages hauts en couleur sont des cas cliniques qui ont toujours existé, mais qui, pas de chance (sauf pour eux), trouvent peut-être des investisseurs plus réceptifs ces temps-ci et c’est bien cela le problème.

Que peut-on en déduire ?

Comment expliquer que des pareils profils et des comportements du type “fake it, period” puissent faire illusion (au moins pour une période) dans notre contexte de capitalisme débridé ?

Il a certes la pression permanente sur les entrepreneurs pour annoncer du grandiose, mais il y a aussi des investisseurs qui sont prêts à croire n’importe quoi sans vraiment d’esprit critique et sans analyse sérieuse (surtout sur le plan technique) de ce qui leur est présenté : leur fameuse “due diligence” se résume trop à vérifier que les slides soient percutants et que le business plan soit alléchant, peu importe que tout cela soit tissé avec des liens éthérés.

Mais si encore il ne s’agissait que de financiers trop avides. Dans le cas de Nikola Corp., par exemple, il semble bien que General Motors se soit associée (dans tous les sens du terme) à cette start-up avec enthousiasme, mais sans vraiment vérifier ce qui leur était dit, y compris sur le plan technique qui est pourtant censé être leur point fort…

Les menteurs sont récompensés aux dépens des entrepreneurs honnêtes

Un tel laisser-aller a des conséquences catastrophiques pour tout le monde et d’abord pour ceux qui s’efforcent de rester honnêtes : ils sont refusés, repoussés, n’arrivent pas à attirer l’attention, car les menteurs pathologiques leur volent la vedette.

Avec une perversion endémique de ce type, on en arrive à encourager le mensonge et à décourager l’honnêteté. Qui sont les responsables ?

Tout d’abord les médias qui veulent toujours du sensationnel et ne peuvent se contenter d’améliorations incrémentales (alors que la technique évolue toujours pas à pas). Ensuite les financiers qui sont trop gourmands et qui vont plutôt se tourner vers ceux qui promettent la lune, peu importe que ça soit inaccessible puisqu’ils (les investisseurs des premiers tours) seront sortis du capital de la start-up au moment de l’introduction en bourse et avant que le scandale n’explose… le bon vieux “après moi le déluge” de Louis XV est toujours d’actualité.

Rien à attendre des médias

On le voit, les médias sont juste capables de relayer le hype du moment, sans aucune analyse ni vérification. Ce qui est important à retenir, ce sont les biais mentaux qu’il nous faut corriger sans cesse afin de garder une vision juste (ou, au moins, aussi juste que possible) de l’évolution technique à l’avenir. Répétons une fois de plus qu’il faut être patients à court terme et optimistes à long terme (un peu comme les investissements en bourse en fait !). Armés de ces principes, vous saurez faire le tri entre les modes sans fondements (ou mises en avant trop tôt) et les tendances solides.


La danse médiatique sans fin ni sens

Publiée sur Linkedin le 19 décembre 2021

La vague médiatique en faveur du tout nouveau métaverse nous apprend au moins une chose : la danse des médias ne s’arrête jamais, est continuellement renouvelée même quand la nouvelle musique n’est encore tout à fait composée ni que les danseurs soient capables d’exécuter les pas encore en cours de création…

En effet, la notion même de métaverse n’est pas encore claire que déjà les trompettes de la renommée sonnent et annoncent qu’il s’agit de la nouvelle grande affaire !

Peu importe que sa forme soit encore en définition, ni que son avènement soit encore lointain, la messe est dite, prosternez-vous, le métaverse est l’avenir, point.

Ici aussi, les rares esprits encore éveillés (une espèce rare pendant cette époque de folie collective…), auront remarqué qu’on disait aussi cela pour les récentes modes précédentes. Souvenez-vous, il y a quatre ans, c’était l’IA et la Blockchain qui devait tout redéfinir. Puis, quand la Blockchain a tardé à délivrer ses promesses (c’est toujours le cas d’ailleurs), le discours central de la propagande techno s’est recentré sur les cryptomonnaies et, dernièrement, sur les NFT.

On constate semblable mouvement du côté de l’IA qui est désormais moins mise en avant mais, rassurez-vous, la bulle médiatique a toujours du neuf en magasin : l’IA tarde à faire son big bang ?

Mais ce n’est pas grave puisque nous avons les ordinateurs quantiques qui eux, promettent de tout changer !

Peu importe que cette nouvelle informatique quantique soit encore à des années (à des décennies en fait…) de connaître un début de réalisation concrète, son triomphe certain est déjà proclamé. Et c’est ainsi encore et encore… Comment se fait-il que cette danse sans fin et sans sens ne nous ait pas déjà tous dégoûté ?

D’abord, il faut admettre que des forces puissantes sont à l’œuvre. D’un côté, nous avons l’industrie électronique/informatique qui a besoin d’attention (un peu) et de financements (beaucoup !). De l’autre, nous avons l’industrie médiatique qui a simplement besoin d’attention (beaucoup !). Ces deux-là ont forgé une alliance objective qui donne des résultats formidables depuis quarante ans. Donc, pas question de changer la recette, ma bonne dame !

Mais voilà, le processus s’est emballé et, désormais, la musique est déconnectée de la danse et plus personne n’y comprend rien. Aucune importance, le but n’est pas de faire comprendre, le but est simplement de faire admettre : voilà la nouvelle mode, adorez-la, point.

Vu comme cela, on comprend mieux les derniers développements qui affectent notre société. Car les techniques de ce bourrage de cranes techno sont désormais reprises par les autres pans de la propagande. Vae victis.


Avec le Web3, nouvel enfumage à l’horizon !

Publiée sur Linkedin le 7 janvier 2022

Le Web3 ? Qu’est-ce que c’est encore que ça ?

Eh bien, personne ne sait vraiment ce qu’est ou pourrait être le Web3 sinon qu’il n’a rien à voir avec le Web 3.0 mis en avant (sans succès) par Tim Berners Lee. En gros, les promoteurs du Web3 promettent un Web renouvelé et débarrassé de ses tares (comprendre la prééminence des GAFAM) grâce à un fonctionnement décentralisé s’appuyant sur des Blockchains…

Le problème avec cette promesse, c’est qu’elle repose sur des éléments très instables (les crypto-monnaies comme le Bitcoin) et très perfectibles (comme les blockchains justement !). Pas tout à fait le meilleur candidat possible pour faire vraiment mieux et plus équitable que le Web 2.0. L’argument principal des promoteurs du Web3 est qu’il sera décentralisé et, ainsi, échappera au contrôle des acteurs dominants… En fait, cet argument cache simplement leurs volontés de devenir les nouveaux acteurs dominants et de profiter de ce pouvoir pour se comporter en terrains conquis (je ne suis pas le seul à le dire, lisez donc cet article https://www.lemondeinformatique.fr/actualites/lire-web3-ou-la-chimere-de-l-internet-du-futur-85285).

Tous les acteurs ont un agenda

Tout cela m’évoque furieusement les années 90 où Oracle dénonçait les pratiques abusives d’IBM et incitait les clients à quitter big blue pour se réfugier au sein du “gentil rouge”… Aujourd’hui, je doute que les clients qui subissent les pratiques commerciales du “gentil rouge” puissent vraiment faire la différence avec le temps où il subissait le joug d’IBM !

Tous ses acteurs ont un agenda (tous !) : les gros veulent rester au sommet (Mark Zuckerberg veut se réinventer avec Meta pour ne pas chuter), les petits veulent y grimper pour admirer la vue… C’est l’éternel histoire du monde, ne vous laissez pas abuser par les promesses des promoteurs du Web3. Au lieu de raconter des histoires, je préférerais les voir s’occuper des performances lamentables des blockchains (et consommer moins d’énergie stupidement aussi pendant qu’on y est !), pour commencer avant de nous promettre de l’appliquer à tout le Web et toute l’informatique (il faut reconnaître cela : ces jeunes loups du Web3 sont ambitieux) !

Pour se convaincre que la Blockchain n’est pas encore à niveau pour se généraliser, il suffit de lire cet article : https://www.usenix.org/publications/loginonline/web3-fraud

Bref, on l’aura compris, le Web3 n’est pas l’avenir de l’informatique ni du Web mais une combine de plus pour recycler encore plus de crypto-monnaies bidons.


Il est temps de lire « Le monde sans fin »​

Publiée sur Linkedin le 3 février 2022

Le livre à lire en ce moment n’est certainement pas celui de telle ou tel candidat(e) à l’élection présidentielle (qui sont souvent des ouvrages d’une grande médiocrité), non.

En revanche, vous ne perdrez pas votre temps en vous penchant sur une BD, oui, une BD… Celle de Christophe Blain (Scénario, Dessin) et de Jean-Marc Jancovici (Scénario) : Le monde sans fin.

Cet ouvrage est volumineux (192 pages) mais se lit assez vite car il est très bien fait : pédagogique, amusant même et « right to the point » comme dirait Iso Yamura. On n’est pas forcément d’accord avec tout (je ne partage pas l’enthousiasme et l’optimisme de Jean-Marc Jancovici sur le nucléaire) mais il faut reconnaitre que ce livre met des gros points sur des gros i et c’était nécessaire. Ce n’est pas qu’un livre sur le climat, l’écologie ou même l’énergie, pas seulement. Selon moi, c’est l’ouvrage idéal pour mesurer ce qu’est devenue notre société moderne depuis qu’elle a embrassé le machinisme (l’utilisation des machines à tous les étages). Tout comme comme j’ai essayé de l’illustrer dans « Le Fait technique » (voir à http://www.alain-lefebvre.com/un-nouveau-livre-le-fait-technique/), Blain et Jancovici nous montrent (avec brio) sur quoi repose notre monde et comment il a évolué en deux cent ans.

Rien que pour cela, c’est un livre incontournable, surtout pour les enfants !

Je l’ai donné à lire à mon fils de 13 ans et son premier commentaire a été « hé, c’est bien mieux que la SVT ! » (SVT : sciences de la vie et de la Terre, une matière scolaire actuelle). Donc, je vous recommande ce livre sans restriction : c’est bon pour toute la famille !

Alors, bien sûr, ce livre interroge sur notre avenir : continuer à faire semblant (greenwashing, croissance verte et autres balivernes) va nous envoyer droit dans le mur et cela va occasionner des dégâts, des victimes, beaucoup de douleurs… Alors, comment éviter cela et trouver une issue acceptable ?

Le livre offre quelques pistes et c’est déjà pas mal. La principale serait de passer à une génération de responsables conscients des enjeux et prêts à faire des vrais efforts, pas seulement des discours… On les cherche encore !


Ce grand embrasement qui vient

Publiée sur Linkedin le 12 mai 2022

Lorsque j’ai rédigé et publié mon livre “Cette révolte qui ne viendra pas”, c’était d’abord pour répondre et démentir le texte “cette insurrection qui vient” dont les arguments ne m’avaient pas convaincu. Dans “Révolte”, j’explique que l’insurrection est quasiment impossible du fait du verrouillage du système par les médias et par le faible niveau général de la population (que la technostructure cherche toujours à abaisser avec une efficacité certaine !).

Je n’ai toujours pas changé d’avis : des embryons de révolte même modeste le mouvement des gilets jaunes sont combattus par le pouvoir en place avec une violence disproportionnée (et délibérée) afin de décourager explicitement toute amorce de tentative dans ce domaine.

Mais je pense que les conditions sont en train de changer et qu’elles vont déboucher sur ce que j’appelle “le grand embrasement”. Alors, attention, je n’emploi pas les termes “révoltes” et “insurrections” dans ce cas précis : révolte et/ou insurrection suppose que le groupe à sa tête a un minimum de projet politique en réserve (même très flou) en cas de succès.

Là, ça ne sera pas le cas, pas du tout. Le grand embrasement sera un déchaînement de violence aveugle et sans discernement qui affectera tout le monde sans distinction. Ce n’est pas un scénario souhaitable, loin s’en faut mais à force de tuer dans l’œuf tous les mouvements de protestation légitime, on aboutira à ce dénouement malheureux.

Imaginez ce qui se passe en ce moment au Sri Lanka mais puissance dix et dans notre contrée… Gagné, voilà à quoi va ressembler le grand embrasement !

OK, c’est pas terrible mais comment en être certain ?

On ne peut pas en être certain, “le pire n’est jamais sûr” comme le dit fort justement un dicton populaire mais nous avons une série de signaux faibles qui montre que les choses sont en train d’évoluer, que des craquements se font entendre et que cela annonce des conséquences sinistres.

Mais quels sont ses signaux faibles annonciateurs de la catastrophe ?

Eh bien ils sont divers, éparpillés et pas toujours faciles à comprendre et à relier mais ils ont tous un point commun important : le rejet de la technostructure dans son ensemble. Et ce rejet va se transformer en une haine qu’il sera impossible d’endiguer, d’où le terme d’embrasement.

Quelques exemples : des tours de communications 5G incendiées, des câbles de fibres optiques sabotés ou des étudiants fraîchement diplômés qui rejettent le jeu de dupes que leur propose le système (voir à https://youtu.be/SUOVOC2Kd50 ça vaut le coup de les entendre : “Plus de courage en 7 minutes que les 5 dernières années de politique française”). Ces exemples peuvent vous sembler anecdotiques et peu importants. Détrompez-vous, ils sont les signes extérieurs, et encore timides, d’une colère qui va croissante. Cette colère enfle, se répand et elle est jus-ti-fiée. La technostructure abandonne le peuple à son triste sort et le peuple va finir par se rebiffer. Cela ne va pas se produire d’une façon organisée et encore moins raisonnable mais cela va arriver.

On le voit partout : services publics qui désertent, déserts médicaux, formalités en ligne obligatoires, règles administratives qui changent sans cesse et se complexifient jusqu’à l’absurde et même répression vexatoire (comment prendre autrement ces radars placés vicieusement pour faire du chiffre ?).

Boris Vian avait dit “le devoir de chaque citoyen français et de trouver le fonctionnaire qui s’occupe de son cas et de l’égorger”… J’ai peur que cette prédiction finisse par devenir une terrible réalité !

Cette technostructure arrogante et déconnectée semble vouloir tout faire pour pousser les gens à bout et c’est effectivement ce qui est en train de se produire. Cela va encore prendre du temps avant l’explosion finale. Combien ?

Je ne sais pas, le timing est toujours la prévision la plus difficile à produire mais je suis désormais persuadé que ça arrivera et ce n’est pas une bonne nouvelle, pour personne.


Comment disparaît une mode technique -Web3- et pourquoi c’est totalement justifié dans le cas présent

Publiée sur Linkedin le 24 juin 2022

Aussi incroyable que cela puisse paraître mais en dépit de tout ce qu’on a pu apprendre à leurs sujets, le Metaverse et le Web3 sont encore des termes à la mode aujourd’hui. Le cas du Metaverse est facile à régler (c’est trop tôt, faut lui laisser du temps, point). En revanche, le “phénomène” du Web3 est tellement délirant qu’il mérite qu’on s’y penche.

Commençons par revenir sur la mécanique des modes techniques…

D’où venons-nous ?

La propagande tech ne s’arrête jamais !

Il y a dix ans, la mode était sur les apps mobiles, il y a cinq ans sur l’IA et ainsi de suite.

Que s’est-il passé depuis ?

Les mobiles apps se sont généralisées effectivement donc ça ne pouvait plus être un “sujet de mode”, point barre.

L’IA a pris le relais avec des effets démos spectaculaires (et ici, “l’effet démo” a vraiment joué à fond !) mais on s’est progressivement aperçus que ces avancées (bien réelles et importantes) n’étaient pas faciles à généraliser. Il y a eu quelques tentatives de commercialisation à grande échelle (IBM surtout et Google dans une moindre mesure ou plus discrètement au moins) mais qui se sont toutes soldées par des échecs retentissants. Les seules à avoir vraiment bénéficiées de “l’effet IA” se sont les startups qui ont collé cette étiquette à leur business plan afin de lever de l’argent plus facilement (avec au moins 40% de fake complet, le tout attesté par des études sérieuses).

Donc on est resté longtemps dans le domaine de la “promesse pour très bientôt” mais ça, ça ne tient pas dix ans : on est désormais dans la phase où l’IA n’est plus vraiment un sujet chaud mais seulement un sujet d’arrière-plan dont on sent bien qu’il reviendra à un moment sur le devant de la scène (mais quand ?).

Que s’est-il passé ensuite ?

La nature a horreur du vide et la propagande tech aussi !

La crypto était déjà plus ou moins à la mode depuis 2018 quand la valeur du Bitcoin passait certains seuils. Puis, les NFT sont apparus suivis par la vente de Beeple qui a été comme un coup de tonnerre dans un ciel bleu…

À partir de là, les médias se sont emparés du phénomène qui s’est un peu détaché du statut de “truc bizarre et risqué compris seulement par les geeks” pour prendre des allures plus intéressantes d’une possible “nouvelle ruée vers l’or” déjà plus alléchante.

Mais la vraie bascule est arrivée avec le “moment Meta” quand Zuck s’est lancé dans la course au Metaverse comme Kennedy dans la course vers la lune (aux débuts des années soixante).

Le moment Meta – stupeur et incompréhension !

L’annonce de Facebook devenant Meta a représenté un événement majeur dont on a pas encore mesuré toutes les conséquences. Mais cela a certainement propulsé du jour au lendemain un nouveau buzzword : le Metaverse !

La propagande s’en emparé, les médias s’en sont emparés, les consultants, les analystes et les commentateurs s’en sont emparés mais également les petits malins comprenant que c’était désormais une étiquette qui faisait vendre (comme avec l’IA)…

Stupeur d’abord car c’était effectivement une perspective nouvelle (même si elle a des racines culturelles profondes) et formidable qui s’ouvrait (passer de “je surfe le web” à “je suis dans l’Internet”, c’est quand même quelque chose !).

Incompréhension car, comme toujours, la dimension temporelle a été volontairement oubliée. Zuck n’a jamais promis le Metaverse pour demain ou alors, c’est un “demain lointain” (voire vraiment lointain).

Souvenons-nous que quand Kennedy lança la course vers la Lune, il se donnait un horizon à presque dix ans… Le pari a été tenu mais de justesse !

Le Web3 pointe le bout de son nez

Suite au succès (relatif et en trompe-l’oeil) des NFT, les petits malins de la crypto se sont dit que le moment était bon pour, à leur tour, pousser leur concept disruptif et ce fut l’entrée en scène du Web3.

On est donc passé d’une situation où la propagande tech commençait à manquer de sujets (l’IA s’usait un peu) à un quasi trop plein avec Metaverse et Web3 en même temps !

Le nouveau cocktail a bien fonctionné et certains se sont même convaincu que l’un n’allait pas sans l’autre (rien n’est plus faux mais passons). La propagande est contente, elle a de nouveau du “grain à moudre” et s’en donne à coeur joie !

Ce qui ne va pas avec le Metaverse…

Ici, c’est simple : il y a un décalage bien trop grand entre les attentes et le temps qui va être nécessaire pour que le concept commence à produire quelques résultats significatifs. Et ce décalage ne se chiffre pas en mois mais en années voire en décennies… rédhibitoire !

Le fait que tous les imposteurs (comme The Sandbox) se soient emparés du mot-clé ne change rien à la rupture qui s’annonce inéluctable : arrivera un moment où le buzzword ne fera plus recette car sa concrétisation aura trop tardée, point (quand ? En septembre 2022, en même temps que l’effondrement de la crypto).

Ce qui ne va pas avec le Web3

Ici, c’est pire car rien ne va droit avec le web3 !

Rappelons que le Web3 n’est pas un vrai concept mais plutôt un habillage habile autour de la crypto pour justifier et inciter à consommer toujours plus de crypto afin de profiter d’une chimérique et jamais atteinte “décentralisation” (entre autres promesses).

Le Web3 est un écran de fumée qui, évidemment, n’a pas résisté à l’épreuve du temps : toutes les promesses (toutes !) de la crypto, de la blockchain, des NFT, de la DeFi, des smart-contract et des DAO se sont toutes avérées être des espoirs déçus dans le meilleur des cas ou des mensonges grossiers le plus souvent. Pas une seule promesse ou espoir dans ce domaine n’a été contredit par l’épreuve du temps et des tests concrets sur le terrain (comme ces soit-disant blockchain capables de proposer des meilleurs performances que les traditionnelles Bitcoin ou Ethereum et qui se sont effondrées systématiquement dès qu’on a tenté de les solliciter de façon un peu sérieuse… sic transit gloria mundi!).

Nous avons eu assez de démonstrations édifiantes, il est temps d’admettre que le Web3 n’est pas autre chose qu’une façade vite faite, mal faite pour la crypto qui, après tout, n’est elle qu’un piège à gogos avides et crédules (ces gens croient dur comme comme fer à la théorie du “plus grand imbécile » -il y en aura toujours un autre pour payer plus cher que moi ce que je viens d’acheter- sans réaliser que les prochains “plus grands imbéciles”, c’est justement eux !).

Mais si tout cela n’était qu’écran de fumée et piège à gogos, ce ne serait pas encore trop grave. Car il y a pire !

La crypto sert aussi les intérêts des pires criminels du moment. En effet, sans le Bitcoin, le ransomware serait une activité moins facile à “monétiser”. Pièges à gogos et ransomware, c’est tout ?

Non, il faut aussi ajouter le blanchiment d’argent (encore une activité criminelle) au “palmarès” de la crypto => Binance accusé d’avoir blanchi plus de 2 milliards de dollars.

N’en jetez plus, la coupe est pleine !

Quand je vois qu’il y a encore des articles qui paraissent en ce moment pour déclarer que le Web3 est “la prochaine évolution du Web” et que c’est une “révolution”, je me demande si on partage les mêmes sources…

Pourtant, rien n’est caché et il suffit d’aller sur https://web3isgoinggreat.com/ pour mesurer l’ampleur nocive du soi-disant phénomène révolutionnaire. Et on le sait depuis un moment en plus !

Il suffit de regarder et d’écouter cette vidéo (Line goes up- the real problem with NFTs) pour comprendre à quoi on a affaire :

Cette vidéo est très complète et très dense (et très exacte !), il n’est donc pas inutile de la visionner plusieurs fois… pour bien comprendre tous les tenants et aboutissants de cette fraude (car, une fois qu’on a compris, autant appeler les choses par leur nom, non ?).

Bref, on l’aura compris, le Web3 est concept bancal, frauduleux et qui ne résistera pas au prochain crash majeur de la crypto qui devrait arriver lors de l’automne 2022. On est déjà) entré dans le “crypto-winter” mais ce n’est encore rien par rapport à ce qui va arriver à la rentrée : cette fois, l’effondrement sera massif, les “valeurs” du Bitcoin et de l’Ether vont reculer de plusieurs années et la remontée qui s’ensuivra sera longue. De quoi calmer pour un bon moment tous les espoirs d’une “ruée vers l’or” qui n’a jamais existé que pour quelques “happy few” qui ont habillement provoqué ce battage et en ont profité (et eux seuls, des noms ? Facile, Andreessen-Horowitz par exemple).

Du crypto-winter au crypto-crash

A partir de là, Le Web3 quittera pour de bon la catégorie “buzzword” pour rejoindre les poubelles de l’histoire comme un terme infamant qui aura marqué plus qu’une déception : une manipulation mensongère de bout en bout (tout comme Terranos ou Nikolas Motors).

Attention, la crypto ne va PAS disparaître pour autant même après avoir pris une grosse claque (et oui, ça va être une très grosse claque !). Il y a trop de gens (malfaisants) qui ont intérêt à ce que ça continue, même sur un mode mineur. Les criminels du ransomware vont simplement demander plus de Bitcoin pour compenser la baisse du cours, tout simplement.

Et ensuite, que va-t-il se passer ?

Eh bien, comme d’habitude : ces modes déchues (Web3 et Metaverse) vont être remplacées par d’autres et tout continuera. La propagande va débiter ses promesses absurdes sur un nouvel horizon radieux et il se trouvera toujours assez de monde pour vouloir y croire.

Pour ce qui est du Metaverse, ça reviendra (éventuellement sous un autre nom d’ailleurs) car ici le fond est bien réel mais comme ça réclame du temps, il faudra juste être patient.


Crypto : de la bulle spéculative à la bulle d’illusions !

Publiée sur Linkedin le 28 juillet 2022

Si vous suivez l’actualité des cryptomonnaies en ce moment, vous avez pu constater une curieuse distorsion de la réalité : alors que nous sommes entrés dans une phase qu’on peut qualifier “d’hiver de la crypto” où ce domaine va enfin sortir (mais pas sans dégâts) de sa spirale spéculative pour aller vers une grosse correction (dans tous les sens du terme !), on voit encore passer des titres d’articles du genre “le web3 est une trop belle opportunité pour la laisser passer…”. Je dois dire que ce genre de titre m’irritait déjà il y a six mois mais aujourd’hui, comment est-il encore possible d’écrire cela ?

Je me dis que, forcément, l’auteur de l’article ne vit pas dans le même monde que moi, qu’il n’a pas accès aux mêmes sources ou alors, qu’il est prisonnier d’une boucle temporelle qui lui impose six mois de retard par rapport à nous… ça ne peut être que cela, non ?

Ce n’est pas moi qui ait inventé l’expression “crypto winter” (https://cryptoweek.fr/crypto-winter-2022-quand-bitcoin-sera-t-il-en-bas), les pros du domaine sont déjà capables d’en identifier plusieurs (hiver) et de dire fièrement “celui-là est moins terrible qu’en 2017”…

Récapitulatif d’une descente aux enfers…

Pour comprendre l’écart entre la situation actuelle et les illusions du dernier carré des fans de crypto, il faut revenir (brièvement) sur les épisodes précédents (voir aussi https://www.linkedin.com/pulse/comment-dispara%C3%AEt-une-mode-technique-web3-et-cest-dans-lefebvre/), accrochez-vous, ça va secouer !

  • Le 13 février 2022, quatre agences de cryptographie ont acheté des publicités du Super Bowl : Coinbase, FTX, eToro et Crypto.com. Coinbase est devenue l’une des applications les plus téléchargées après la diffusion de leur publicité. On peut dire que c’est l’instant précis du sommet qui précède le déclin…
  • Le 4 avril, Bitmex est devenue la première agence de cryptographie à annoncer des licenciements, licenciant 25 % de ses employés.
  • Le 3 mai, la Réserve fédérale a relevé les taux d’intérêt de 0,5 %, déclenchant une large liquidation sur le marché. En huit jours, Bitcoin a chuté de 27% à un peu plus de 29 000 dollars et Ether a chuté de 33,5% à environ 1 960 dollars. Le NASDAQ a chuté de 12,5 % au cours des cinq jours suivant l’annonce.
  • Le 9 mai 2022, les jetons Luna ont fait la une des journaux après que l’UST a commencé à casser son ancrage au dollar américain. Au cours de la semaine suivante, le prix de l’UST a plongé à 10 cents, tandis que Luna est tombé à « pratiquement zéro », contre un sommet historique de 119,51 $. Avant le crash, Luna était l’une des dix plus grandes cryptomonnaies du marché. L’effondrement a anéanti près de 45 milliards de dollars de capitalisation boursière en une semaine.
  • Le 10 mai, Coinbase, avec des actions en baisse de près de 80 % par rapport à leur sommet, a annoncé qu’en cas de faillite, les gens perdraient leurs fonds. Le PDG a annoncé plus tard qu’ils ne couraient aucun risque de faillite.
  • Le 13 mai, Terraform Labs a temporairement interrompu la blockchain Terra en réponse à la baisse des prix de l’UST et de la Luna. Malgré les tentatives de la société pour stabiliser UST et Luna via ses réserves de bitcoins et d’autres crypto-monnaies de la Luna Foundation Guard, l’arrimage 1:1 de l’UST à l’USD ne s’est pas matérialisé. Au 16 mai 2022, les analystes de la blockchain affirment que l’utilisation des réserves de bitcoins de LFG reste encore largement incertaine.
  • Le 12 juin, Celsius Network, un échange cryptographique, a annoncé l’arrêt de tous les retraits et transferts. Le Bitcoin a chuté de 15% le lendemain à près de 22 500 dollars et Ether est tombé à 1 200 dollars. Une vague de licenciements d’autres agences de cryptographie a accompagné cela, notamment de Crypto.com et Coinbase.
  • Le 13 juin 2022, le stablecoin algorithmique de Tron, USDD, a perdu son ancrage au dollar américain.
  • Le 17 juin, Bitcoin est tombé en dessous de 20 000 dollars pour la première fois depuis décembre 2020 et Ether est tombé en dessous de 1 000 dollars pour la première fois depuis janvier 2021.
  • Le 17 juin, Babel Finance, un prêteur crypto basé à Hong Kong, a gelé les retraits.
  • Le 23 juin, CoinFlex a suspendu les retraits après qu’une contrepartie, qu’elle a nommée plus tard Roger Ver, a rencontré des problèmes de liquidité et n’a pas remboursé un appel de marge stable de 47 millions de dollars.
  • Le 27 juin, Three Arrows Capital, un fonds spéculatif de cryptomonnaies, a fait défaut sur un prêt de 670 millions de dollars de Voyager Digital, un courtier en cryptomonnaies.
  • Le 30 juin, FTX a annoncé qu’elle pourrait acquérir BlockFi, une entreprise de cryptographie qui avait licencié 20 % de son personnel.
  • À la fin du mois de juin, de nombreuses agences de cryptographie ont commencé à repenser leurs dépenses alors que leurs fonds commençaient à diminuer.
  • Le 2 juillet, Three Arrows Capital a déclaré faillite.
  • Le 4 juillet, Vauld, un prêteur de crypto basé à Singapour soutenu par Coinbase et Peter Thiel, a interrompu les retraits et les échanges sur sa plateforme.
  • Le 5 juillet, eToro a mis fin à son accord de société d’acquisition à vocation spéciale (SPAC) et a licencié 6 % de ses effectifs.
  • Le 5 juillet, le courtier en cryptographie Voyager Digital a déposé son bilan en vertu du chapitre 11.
  • Le 6 juillet, Genesis Trading a révélé qu’elle avait été exposée dans la faillite de Three Arrows Capital.
  • Le 8 juillet, Blockchain.com a annoncé à ses actionnaires qu’elle faisait face à une perte potentielle de 270 millions de dollars sur les prêts accordés à Three Arrows Capital.
  • Le 11 juillet, il a été annoncé que les mineurs de crypto au Texas avaient temporairement fermé leurs portes car une vague de chaleur intense a mis à rude épreuve le réseau énergétique.
  • Le 11 juillet, le Conseil de stabilité financière (FSB) a déclaré que la crypto « doit faire l’objet d’une réglementation et d’une surveillance efficaces proportionnelles aux risques qu’elles posent ».
  • Le 12 juillet, un dossier déposé auprès du tribunal américain des faillites du sud de New York par des avocats représentant les créanciers de Three Arrows Capital a déclaré que la localisation actuelle des fondateurs de la société était inconnue.
  • Le 14 juillet, Celcius Network a déclaré faillite.
  • Le 19 juillet, SkyBridge Capital a gelé les retraits.
  • Le 20 juillet, Vauld a déposé une demande de protection contre les créanciers, l’équivalent de la faillite aux États-Unis.
  • Le 20 juillet, Zipmex, une bourse d’Asie du Sud-Est, a gelé les retraits.
  • Le 25 juillet, Coinbase a fait l’objet d’une enquête de la SEC pour avoir potentiellement menti à ses clients. Cela a entraîné une baisse de 21 % de leur stock le lendemain.
  • En juillet 2022, Bitcoin et Ether étaient en baisse de plus de 60 % par rapport à leur pic.

Source : https://en.wikipedia.org/wiki/Cryptocurrency_bubble#2020%E2%80%932021_boom_and_2021%E2%80%932022_crash

Vous avez tout lu ? Bravo !

Vers le bain de sang !

Bon, que le Bitcoin ou l’Ether (l’Ether est le nom du coin qui est basée sur la blockchain Ethereum) connaissent des variations de leurs cours, rien de plus normal : ce sont les éléments principaux de cette bulle spéculative, c’est donc dans l’ordre des choses. Que des start-up spécialisées fassent faillite à cause de ces variations, c’est tout à fait normal également. Mais que des plateformes “d’échanges” gèlent les transactions et empêchent les retraits des clients, voilà qui est déjà plus significatif, non ?

Cela prouve tout simplement et sans aucune ambiguïté que les acteurs de ce “marché” sont entrés en mode “panique” : le sauve qui peut général est décrété et personne de sérieux dans le milieu croit que la phase finale du crash puisse encore être évitée.

Ces derniers mois, nous avons franchi successivement les paliers de -20% puis -50% (les paliers habituels quand une bulle spéculative est en train d’exploser… ce qui peut prendre des mois, voir les bulles précédentes…), reste le dernier, à -80% qui lui est vraiment synonyme de “bain de sang”.

Les baleines sont pressées

Le franchissement de ce palier est prévu entre septembre et octobre de cette année et les “baleines” (c’est ainsi que l’on surnomme les gros détenteurs de crypto… ceux qui, depuis le début, manipulent le marché à leur seul profit) savent que le compteur tourne et qu’il faut sortir du marché (vendre leur crypto) maintenant !

C’est pour cela que la propagande évoque des rebonds et des hivers finalement pas si terribles : il faut entretenir l’illusion que cette crise n’est pas si grave et que le meilleur est encore à venir. Le dernier chapitre du battage médiatique met un fort accent sur les cycles, que maintenant c’est le moment de construire sagement sans bruit : « bear market is a time to build »…

Il suffit que les baleines arrivent à convaincre un lot suffisant de “crédules/avides” (le dernier lot des “plus grands imbéciles”, également appelée “théorie du plus grand fou” ou “théorie du survivant”) pour sortir du marché sans trop de casse. Et je constate que c’est en train de marcher. Et que c’est pour cela qu’on voit autant d’articles sur les cryptomonnaies en ce moment : la propagande tente de relancer la machine une dernière fois (pour faciliter la sortie du marché des baleines… après, advienne que pourra !). C’est un discours simple mais bien ciblé qui glorifie les « believers », ceux qui tiennent bon et qui sont encore des “holders” (des idiots utiles plutôt…).

Une bulle d’illusions, ça existe !

Nous sommes passés d’une bulle spéculative à une bulle d’illusions : ceux qui prétendent encore que la “crypto c’est super” ou que le “web3 c’est l’avenir” sont soit profondément malhonnêtes, soit profondément idiots. Je penche plutôt pour la seconde solution (les malhonnêtes existent mais ils sont moins nombreux) : le dernier carré des fans de crypto est en plein déni de réalité. Attendons le bain de sang afin de voir s’ils sont toujours dans l’enthousiasme…

La crypto va rester

Même un palier à -80% ne va pas “tuer” la crypto (ne serait-ce que pour permettre aux pirates de faire payer leurs ransomwares !) : certains coins vont disparaître (il y en a trop pour qu’il en soit autrement) mais le Bitcoin et l’Ether sont là pour rester, même à des niveaux historiquement bas. Puis, ils vont remonter, progressivement et une nouvelle bulle spéculative va se former. Cela peut prendre deux ans ou plus mais c’est ainsi que ça se passe, hélas.

Épilogue : les leçons qu’on peut/doit tirer de tout cela…

Tout d’abord, il nous faut admettre une bonne fois pour toute que la propagande technique existe, qu’elle s’est emparée des médias et tente (avec un certain succès, voire même un succès certain !) de nous imposer des modes (et peu importe son contenu technique, réel ou supposé) tous les deux/trois ans.

Ensuite, il faut reconnaître que cette mode technique, qui reposait sur peu de choses (le web3) et dont toutes les promesses ont été systématiquement démontées, a tout de même réussie à s’imposer et à occuper une bonne partie de l’espace médiatique avec des “experts” nous expliquant régulièrement et très sérieusement pourquoi nous devions accepter que cette nouveauté fragile et mal assemblée représentait l’avenir de l’informatique sans l’ombre d’un doute.

Nous devons donc nous interroger sur notre crédulité ou, au moins, sur le poids que fait peser la propagande sur les canaux d’informations techniques qui n’en sont presque plus. En effet, comment continuer à considérer que ces canaux ont la moindre crédibilité sur le plan technique puisqu’ils se sont évertués pendant deux ans à nous faire prendre des vessies pour des lanternes ?

Enfin, les leçons du passé ne servent pas à grand-chose. Sinon, comment comprendre qu’il ait fallu tant de temps pour reconnaître ce qu’était le web3 : une bulle spéculative de plus. Pourtant, des bulles spéculatives, on en a vu passer et, à chaque fois, tout le monde a dit “plus jamais ça !” (vous avez remarqué combien cette expression “plus jamais ça” n’atteint jamais son but ?). On savait les caractéristiques d’une bulle, il était facile d’appliquer les critères sur la nouvelle venue et pourtant, rien ou presque. Seuls quelques rares témoins ont dénoncé la situation, les autres ont préféré croire que, cette fois, “to the moon” était une promesse solide et non pas un piège à gogos.

Notre crise sanitaire à nous

Finalement, nous aussi nous avons eu notre “crise sanitaire” dans notre domaine hi-tech !

Avec quasiment le même cirque comme le défilé des faux-experts racontant n’importe quoi mais étant écoutés religieusement. Où tous les comportements sains qui auraient évité cet égarement ont sauté, les uns après les autres : bon sens, discernement, intelligence et scepticisme raisonné. Au lieu du bon sens on a eu l’avidité crédule, au lieu du discernement on a eu l’aveuglement enthousiaste, au lieu de l’intelligence on a eu la folie de la “ruée vers l’or” et au lieu du scepticisme raisonné on a eu le dogmatisme indiscutable de “c’est l’avenir, admettez-le”.

Cet épisode met aussi en exergue nos comportements humains (trop humain !) les moins reluisants : on préfère les gains rapides et faciles à l’effort de longue durée, on préfère écouter les marchands de promesses, même s’ils sont délirants, plutôt que d’entendre les avertissements des (vrais) experts modérés et prudents. Enfin, on préfère l’illusion souriante à la dure réalité même quand les faits sont sous notre nez. Triste et significatif à la fois.

Cette crise de la hi-tech n’est pas terminée et va encore causer des dégâts. Cet épilogue est sévère mais il est juste : la débâcle du web3 ne va épargner personne, tout le monde va y perdre quelque chose (et ce n’est pas forcément de l’argent), l’espoir, la fois dans l’évolution technique, la réputation de sérieux des uns et des autres et ainsi de suite.

Le fact-checking se pratique peu dans le domaine technique mais si l’épisode web3 doit servir à quelque chose, ça doit être au moins à cela : vérifiez, vérifiez, vérifiez.


L’illusion d’un “grand soir” des protocoles du web 3

Publiée sur Linkedin le 3 août 2022

Article rédigé en collaboration avec Pascal Blachier.

Suite à https://www.linkedin.com/pulse/crypto-de-la-bulle-sp%C3%A9culative-%C3%A0-dillusions-alain-lefebvre/, il manquait un complément… le voici !

Certains laissent entendre qu’un jour ce serait le “grand soir” de l’avènement d’un web 3 immersif et bienveillant grâce à l’interopérabilité de tous les codes sources de 3DS – et des GAFAM, tant qu’on y est – qui renonceraient à leur pouvoir et leurs modèles économique miraculeusement parce qu’ils auraient atteint la grâce de l’éveil vers un état supérieur de conscience !

Croire en cela, c’est avoir la foi en la techno et la toute puissance de l’intelligence humaine sans tenir compte de ce qui s’est effectivement passé pendant les quarante dernières années de l’évolution de l’informatique !

Le mouvement open source, le bon exemple…

Il y a eu quelques cas où des protocoles et des standards ouverts et transparents ont effectivement triomphé et ça s’appelle communément le mouvement open source (pour simplifier). Précisons évidemment que, pendant sa “marche triomphale”, le mouvement open source n’a jamais bénéficié d’un coup de pouce des grands acteurs de l’époque qui auraient bénévolement abandonné tel ou tel pan des éléments qui aidaient à leur domination…

C’est même clairement l’inverse puisque tous les codes open source qui se sont avérés plus novateurs ou efficaces que les codes propriétaires ont été pillés sans aucun scrupules et constituent aujourd’hui le cœur des principaux systèmes. Cela va du noyau aux IHM, en passant par les piles TCP/IP, les compilateurs, interpréteurs et environnements de développement. A tel point qu’aujourd’hui, les mêmes personnes travaillent simultanément ou successivement sur des codes ouverts et des codes propriétaires, des codes libres et des codes commerciaux, pour des entreprises privées ou des ONG.

Ni indépendant, ni décentralisé !

La vérité actuelle est bien moins rose que ce que veulent la présenter les (quelques) promoteurs du web 3 qui restent encore actifs : le web 3, tel qu’il fonctionne actuellement, n’est ni indépendant ni décentralisé, eh oui !

Pour réaliser combien cette affirmation (le web 3 est décentralisé et indépendant) ne résiste pas à l’examen, il faut entrer un peu dans la technique… Suivez-moi, ça va bien se passer !

La nécessité de passer par des APIs

Le web 3 n’est pas décentralisé. Et ce n’est pas nous qui le disons !

Étant donné que la plupart des ordinateurs personnels n’exécutent pas de nœud Bitcoin et ne conservent donc pas une copie complète de la blockchain localement, ils ont besoin d’un autre moyen d’accéder aux données des “grands livres” (les différentes blockchain : Bitcoin, Ethereum, etc.). Cet “autre moyen”, ce sont les interfaces de programmation d’applications (API) : des bibliothèques de code spécialisé qui offrent des raccourcis pratiques pour extraire des données d’une blockchain donnée.

Infura et Alchemy sont les deux principaux fournisseurs de ces API, comme le souligne Moxie Marlinspike. Les soi-disant “applications décentralisées” (les fameuses dApps), comme Mirror, OpenSea et Zora, s’appuient sur ces systèmes pour récupérer les données des blockchains publiques (via des appels d’API). Ce sont ni plus ni moins que des intermédiaires.

Fire the middleman!

Une fois de plus, on nous rejoue la chanson du Web qui va supprimer les intermédiaires (cette fois, ce serait le web 3 dans ce rôle fumeux) et cette promesse ne fait que dissimuler un changement d’intermédiaires… Comme à chaque fois.

Cette dépendance aux API d’Infura ou d’Alchemy est générale. Elle se vérifie pour la plupart des sites qui vous demandent de vous connecter avec un bouton “connecter votre portefeuille” par opposition à un nom d’utilisateur et un mot de passe, et pour les portefeuilles en ligne comme MetaMask, qui existent à la fois en tant que sites web dédiés et extensions complémentaires pour les navigateurs Internet. Ils fonctionnent tous sur le web 2 auquel nous sommes déjà habitués.

Décentralisé, vraiment ?

Ensuite, sur la question de la soi-disant décentralisation du web 3, on peut dire sans exagérer que le mensonge est grossier. Le web 3 commence avec toute notre infrastructure existante. On a donc toujours besoin du routage et du DNS, on a toujours besoin d’un serveur (qu’il soit dans le cloud ou pas), on a toujours besoin de stockage et on a toujours un calcul distribué entre le navigateur et le serveur. On n’a donc déjà supprimé aucun des gardiens du système distribué conventionnel, ce qui montre que les affirmations d’une décentralisation sans gardiens sont fausses, tout simplement.

Roll back ou hard fork ?

Enfin, quand vous lisez sans cesse que tout ce qui est dans la blockchain (sans préciser de quelle blockchain il s’agit, le plus souvent…) est inaltérable, sachez que c’est faux et qu’Ethereum en a fait la démonstration éclatante en procédant à un “roll back” en 2019 (les fans d’Ethereum préfère parler de “hard fork” pour cette opération mais ça revient au même)… Pas mal pour un système qui est censé resté immuable quoi qu’il arrive !

Un enfumage comme rarement !

Alors si tout ceci est vrai, pourquoi ce battage médiatique en faveur du web 3 ?

Parce que c’est l’aveuglement habituel qui accompagne une “ruée vers l’or”. Peu importe que cet or soit faux ou absent, le mot d’ordre est lancé et il enflamme le peu de cerveau qui reste aux gogos.

Dans son état actuel (c’est-à-dire s’appuyant sur Ethereum), le web 3 est une escroquerie, un édifice technologique qui est plus qu’inutile comme le découvrira rapidement toute personne qui tentera de déployer une application réelle. On est toujours dans la chimère des rêves surexploités sur la technologie blockchain, perpétuellement à la recherche du problème de demain pour justifier un investissement aujourd’hui (le paradoxe habituel de la solution à la recherche de son problème). C’est le discours traditionnel des charlatans, sauf que cette fois-ci, il est poussé par les plus grands investisseurs du monde qui ont de gros sacs de jetons (NFT et crypto monnaies) à placer. D’où le claironnage d’une nouvelle ruée vers l’or…

Profitons-en pour tordre le cou à une autre idée reçue aussi absurde que risible : Les promoteurs du web 3 ne veulent pas “rendre le pouvoir au peuple”, ils le veulent simplement pour eux !

Ces nouveaux entrants ambitieux rêvent de remplacer les GAFAM dans leur position dominante et c’est ainsi depuis des décennies. Quelquefois, ils vont jusqu’à l’avouer comme Nikil Viswanathan, le patron d’Alchemy qui dit « en tant qu’entreprise, j’aimerais avoir des points de verrouillages propriétaires”… Il n’y a que les naïfs et les doux rêveurs pour croire que le web 3 va être la libération tant attendue.

Décentralisé ne veut pas dire gratuit !

Un autre problème récurrent avec le web 3 et tout ce qui est soi-disant “décentralisé” : la question des coûts n’est jamais abordée, comme si tout cela était gratuit bien sûr !

Un exemple : IPFS (le système de fichiers distribués). Le stockage a un coût mais, bizarrement, ce n’est jamais abordé par les promoteurs des dApps comme si ce n’était pas important. Pourtant, si un nœud IPFS est hébergé sur AWS (par exemple), je doute fort que ça soit gratuitement… En revanche, quand vous devez payer des “gas fee” (lors d’une transaction en Bitcoin ou en Ether), vous vous rendez compte que tout cela (toute cette plomberie soi-disant décentralisée) coûte fort cher en plus d’être très lent !

Tous ceux qui mettent en avant le web 3 en disant “c’est l’avenir et ça va tout changer” (affirmation classique) sont soit incompétents (et c’est grave) soit malhonnêtes (et c’est encore plus grave !). Que quiconque puisse considérer cela comme l’épine dorsale informatique d’un nouvel Internet mondial est plus que risible.

La combo qui fonctionne à tous les coups : ignorance+fainéantise !

Il est frappant de voir tomber une à une toutes les défenses de bon sens, de pertinence et d’efficacité. Elles s’effondrent devant les assauts des marchands qui exploitent le combo « ignorance+fainéantise » activable dans chaque être humain (l’arnaque la plus récente, celle de “Crypto Gouv” est très significative de l’efficacité de cette combo…). On pourrait même trouver des liens entre le mythe du progrès permanent, la startup nation, l’orgueil et l’égoïsme. Les cavaliers de l’apocalypse appelés par les péchés capitaux. Biblique.

En effet, on retombe rapidement dans nos malheurs du moment. Et la fabrique du consentement a bien fonctionné pour nous inculquer les fausses certitudes du zéro papier, puis du dématérialisé (puisque c’est numérique, pas de support physique), puis du tout gratuit (forcément, puisque c’est virtuel). Alors qu’en fait c’est tout le contraire à la fois en termes physiques (voir les rapports du Shift Project) et en termes de pouvoir et de libertés (voir par exemple les alertes de la Quadrature du Net).

Après avoir observé les quelques décennies de vie du Léviathan informatique, fils de la fée électricité et de l’algèbre, nous nous garderons bien de prédire l’avenir avec certitude.

En ce qui concerne la blockchain, qui présente indéniablement toutes les caractéristiques d’une technologie de rupture, après la hype, la consécration ultime serait celle de la généralisation des usages. Et pour l’instant, le Gartner constate que cela ne sert vraiment que pour le trading de cryptomonnaie. Ce qui n’est assurément pas un progrès de la civilisation…

Le web 3 annonce une crise de l’informatique…

Il ne restera sans doute pas grand-chose du web 3 sinon un avertissement : comme un soir d’été, les nuages noirs s’accumulent annonçant l’orage qui vient…

En ce moment, nous vivons une période de “plateaux” qui est en train de durer. Le marché informatique n’est pas habitué à ça, il est habitué à la croissance à deux chiffres. Or, tout se combine pour provoquer ce ralentissement, un gros ralentissement. Même la loi de Moore qui a été fidèlement respectée pendant toutes ces décennies nous fait faux-bond désormais, c’est la panique !

En conséquence, le marché tout entier, comme un seul homme, est prêt à tout pour retrouver cette chère croissance dont il est devenu dépendant. Et si c’est sous la forme du web 3, pourquoi pas, hein !

Le web 3 s’est dégonflé ? Vite, il faut mettre autre chose en avant : réalité augmentée (RA), réalité virtuelle (RV), n’importe quoi du moment que les gens se mettent à acheter, massivement.

Ici, le mot-clé est massivement. Les précédentes phases de croissance ont été des mouvements de forte croissance : le boom du PC, la vague du smartphone, ça représentait de sacrés volumes !

Et, comme le disait fort justement Scott McNealy (l’un des fondateurs de Sun Microsystems) : “volume is everything” (il en savait quelque chose puisqu’il avait constaté que les PC avaient supplanté ses chères stations Sun en dépit de leur infériorité technique). Un peu comme Staline avait dit “le Vatican, combien de divisions ?”, le volume compte plus que la sophistication technique.

Or la RA et la RV en dehors du fait que, oui, c’est l’avenir (ou, du moins, un des aspects de l’avenir), non, ce ne sont sans doute pas des marchés de masse comme l’ont été le PC puis le smartphone avant eux…

La crise est donc en train de se mettre en place au grand dam des responsables qui appellent à grands cris l’arrivée de la “next big thing” (ici, on l’aura compris, le mot qui compte est “big”) afin de relancer les ventes. Vu ainsi, le web 3 n’est qu’un épiphénomène d’un mouvement plus souterrain mais plus puissant : le mode plateau nous apporte une crise (dans notre domaine hi-tech) comme on n’en a pas eu depuis les années 80…


La “next big thing” attendue par le marché… N’aura pas lieu !

Publiée sur Linkedin le 30 août 2022

Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).

Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).

La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.

Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.

La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?

Une phase dite de plateau

Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !

Un tabouret à 3 pieds !

La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !

Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).

Des volumes impressionnants

Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.

Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…

En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !

Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.

Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !

Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.

Les progrès de l’électronique, locomotive cachée de tout le reste !

En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.

Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.

Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.

Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la « mode » des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.

Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !

Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas :  début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.

De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

Le plateau s’exprime partout

Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet « atterrissage » se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.

Le mode plateau est déjà une réalité

On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.

Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.

Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?

Les candidats pressentis sont à côté de la plaque !

Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…

Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !

Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.

Une crise profonde (et durable ?)

Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.

Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.

Le retour au monde d’avant : une chimère ?

Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.

Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !

Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !

Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.

Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.

Une nouvelle ère

Il y a et il y aura de nombreuses « next things » (VR, wearables, etc.), mais pas de « next big thing » avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !

Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.

La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.

Ce contenu a été publié dans La terrible vérité. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire