La simulation idéale (en simracing)

Cette fois, j’ai envie de vous parler de la simulation idéale pour le Simracing et bien sûr elle n’existe pas encore. Si l’on regarde dans l’offre du marché, qui est riche et différenciée, il y a plusieurs titres qui présentent des caractéristiques communes qui sont plutôt pas mal, qui atteignent un niveau intéressant, mais qui sont loin de pouvoir constituer une “simulation idéale”. Ceci étant dit, la notion de “simulation idéale” est évidemment propre à chacun : ce que j’imagine d’idéal n’est pas forcément à votre goût et vice-versa.

Du bon à reprendre de l’offre existante

Donc, ce que je propose cette fois, c’est d’imaginer ma simulation idéale à partir des caractéristiques qu’on a envie de retrouver dans cette simulation hypothétique. Bien sûr, cette simulation reprendrait des éléments déjà fort bien traités dans les titres actuels comme le force feedback, la modélisation des voitures, la modélisation des tracés avec le laser scan et ainsi de suite. Tout ça, bien sûr, n’est pas à jeter aux orties, c’est à garder et c’est cela qui doit encore être amélioré si c’est possible. Mais c’est justement dans les autres caractéristiques qu’il faut aller creuser pour compléter ce qui pourrait devenir une simulation idéale.

Fonction indispensable, mais jamais utilisée ?

Il faut faire cet exercice de penser avec sincérité parce que, bien sûr, on peut imaginer que telle ou telle caractéristique qui paraît éventuellement indispensable sur le papier, mais qui, au final, ne serait peu ou pas utilisée par les joueurs parce que trop contraignante ou parce qu’elle n’apporte pas de plaisir ou même tout simplement trop difficile à utiliser. Par le passé on a déjà eu l’exemple de ces fonctions qui étaient bien pensées et qui étaient censées refléter la réalité, mais qui étaient systématiquement contournées parce que n’apportant rien au gameplay ou même gâchant le gameplay. J’en veux pour exemple le fait de devoir démarrer son moteur manuellement que tu es une fonction qui existait de la simulation proposée par Kunoz dans la simulation qui précédait Assetto Corsa (ça fait un moment donc et cette étape n’a plus été vue nulle part depuis…).

Des choix structurants

Donc, si on voulait imaginer une simulation idéale, par quoi faudrait-il commencer, qu’est-ce qui serait indispensable d’intégrer ?

Ce n’est pas évident comme question, car les réponses dépendent des orientations de conception qu’on va choisir au départ et pour lesquelles on devra rester fidèle tout au long de la phase initiale. Par exemple, on peut définir un mode carrière qui ressemble plus ou moins à la réalité, c’est-à-dire qui soit basé sur la méritocratie. Cela va impliquer que l’apprenti pilote, pour passer d’un niveau à un autre, doit avoir complété le niveau en cours, mais pas seulement : il faut également qu’il le fasse à un certain niveau de performance parce que sinon, évidemment, il va être recalé et devra redoubler le niveau qu’il vient d’effectuer ce qui, avouons-le, n’est pas très motivant à la longue.

Ceci dit, le mode carrière peut aussi être reproduit autrement, par exemple en se basant sur les voitures disponibles et en liant l’évolution technique de ces voitures au niveau de performance du pilote qui les conduit. Pour parler concrètement, on peut imaginer qu’on commencerait avec une monoplace de base et qu’on pourrait faire évoluer les performances de cette monoplace en fonction des primes récoltées lors des courses effectuées dans la catégorie de départ. Mais en plus, on pourrait imaginer que ce système basé sur l’argent fonctionne dans les deux sens c’est-à-dire que les primes servent également à l’entretien de la voiture et également aux réparations sur la voiture. Car bien sûr, chaque sortie de route entraîne des dégâts et les dégâts importants entraînent des dépenses conséquentes. Inévitablement, dans ce contexte, il faudra trouver l’équilibre entre performance et fiabilité. Performance d’une part pour récolter de bonnes primes afin de continuer à faire progresser la voiture et donc, les résultats et fiabilité d’autre part pour éviter de devoir dépenser ses primes en réparation.

Tony Stewart’s Sprint Car Racing, le bon exemple

Et là il ne s’agit pas seulement de mon imagination débridée, il s’agit d’un exemple bien réel que j’ai pu éprouver dans le cadre d’un titre : Tony Stewart’s Sprint, Car Racing. En effet, ce titre est dédié au Sprint, Car (sur ovale de terre battue) et il propose exactement cette fonctionnalité et le fait bien. C’est donc possible : ça ajoute pas mal d’intérêt au mode carrière et, j’en témoigne, ça fonctionne.

Sortir des évolutions scriptées

Ensuite, on veut faire évoluer la voiture elle-même dans un cadre technique et évidemment on voudra éviter de se retrouver dans une situation scriptée ou finalement les évolutions possibles sont prévues et codifiées à l’avance et n’offrent pas beaucoup de marge. Aujourd’hui de nombreux titres proposent ce type d’évolution, comme Forza Motorsport par exemple, où il est possible d’améliorer sa voiture étape par étape en achetant des pièces détachées plus évoluées que dans la configuration de base. Mais c’est justement là le contexte scripté que je voudrais éviter parce que ça n’apporte pas grand-chose, on sait d’avance ce qu’on va avoir et il n’y a pas de surprise. Ce qui serait préférable, ce serait évidemment d’avoir de l’influence sur les possibilités techniques d’évolution qui s’offrent à nous. Par exemple, décider de consacrer une partie de son budget à des recherches dans tel ou tel domaine, par exemple l’aérodynamique, de façon à obtenir des progrès qu’on n’aurait pas obtenus automatiquement et c’est comme ça qu’on sortirait du contexte scripté.

Pour les technophiles seulement ?

Bien entendu ce genre de possibilités ne va intéresser que les utilisateurs qui aiment la technique et qui trouveront ce type de challenge excitant et valorisant. Pour les autres, pour ceux qui ont du mal à régler leur voiture et aimeraient bien laisser ça à un ingénieur de piste virtuel. Avec lui, il y aurait juste à décrire le comportement de la voiture en virage et il ferait les ajustements nécessaires. Eh bien, pour ceux-là, ma proposition est une aberration !

Ce que je propose est à l’opposé de cet ingénieur de piste virtuel. Il est d’ailleurs intéressant de noter que certains titres par le passé ont essayé de mettre à disposition un “ingénieur de piste virtuel” qui fait les ajustements ou qui les propose à votre place. Project CARS 2, par exemple, avait ce type de fonction intégré dans la partie réglage de la voiture. Clairement, ce n’était pas très convaincant et ça laissait encore pas mal à désirer. Quand on a le niveau de compétence supposé, il est clair qu’on préférera intervenir soi-même sur la voiture et sur les réglages (voir à ce propos ici et ici).

L’étape d’après : la voiture complète basée sur vos choix

L’idéal serait évidemment de pouvoir générer entièrement une voiture à partir des paramètres de votre choix et en vérité c’est déjà possible !

En effet, il existe déjà la possibilité de définir les choix techniques de votre voiture dans Automation et ensuite d’importer le résultat dans BeamNG Drive. Pour le moment, tout cela est encore un peu embryonnaire et BeamNG Drive n’est pas exactement mon modèle de simulation sur piste réaliste. Mais, au moins, cela indique que cette direction est possible, voire souhaitable.

Et, en faisait quelques recherches, j’ai découvert que c’est également possible avec Assetto Corsa !

Multiplayers ou IA ?

L’autre aspect important de cette simulation idéale, ce sont les adversaires et là, clairement, on a seulement deux choix possibles : soit le multiplayers, soit les IA.

Le multiplayers est très frustrant (à part sur iRacing) parce qu’on se rend bien compte que, la plupart du temps, sur le lobby, on va tomber sur des types qui font n’importe quoi, qui ne respectent rien (dernièrement, sur Forza, j’en ai même vu un qui s’amusait à rouler en sens inverse !) et qui n’auront aucun remords à gâcher votre course dès le premier freinage…

Reste les IA : affronter des adversaires robotisés pilotés par une intelligence artificielle. Et là, on a beaucoup de recul puisque ça fait des années voire des dizaines d’années que nos différents titres nous proposent cette option. Je considère que le niveau qu’on a atteint aujourd’hui avec Automobilista 2 est tout à fait satisfaisant.

Alors, comme on veut toujours mieux, il faudrait que les IA puissent progresser par elles-mêmes. Par exemple en s’appuyant sur un système de machine learning de façon à ce que leur niveau de compétitivité soit toujours adapté à votre niveau. Donc si vous progressez et que vous allez plus vite, les IA vont plus vite aussi. Et si vous êtes dans un jour sans, eh bien, en quelque sorte, elles vous attendent. Présenté ainsi, ça paraît grossier, mais bon, on comprend à peu près le schéma de penser derrière le recours à ces IA adaptatives.

Second volet à venir…

Il y a encore beaucoup d’autres aspects à traiter dans le cadre de cette simulation idéale et je vous propose qu’on se retrouve dans un second volet qu’il me reste à écrire.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Les grands personnages de l’informatique que j’ai rencontré dans les années 90…

Lors de ma carrière dans l’informatique, j’ai eu la chance et le privilège de rencontrer directement les principaux dirigeants des grandes sociétés ce qu’on pouvait appeler les grands personnages de l’informatique. Aujourd’hui je vais vous parler des plus connus et parmi eux il y a Bill Gates, Steve Ballmer, Scott Macnelly, Larry Ellison et Marc Andreessen.

Steve Jobs, est le seul qui manque à l’appel et j’en suis bien désolé.

C’est de ce que j’ai effectivement rencontré, voir interviewé, dont je vais vous parler aujourd’hui, principalement en bien mais quelquefois en moins bien.

Publié dans Anecdotes IT, documentaires IT, Informatique | Laisser un commentaire

Mon 34ème livre : Dr Miracle, saison 1972 (tome 3 de la série “Dr Miracle”).

Voià un nouveau livre de publié : Dr Miracle – saison 72, disponible comme d’habitude sur Amazon. Et, pour une fois, j’ai été plutôt lent à l’écrire puisque je l’ai commencé en juillet 2022 !

La couverture du dernier “Dr Miracle”.

Même si j’ai été lent à l’écrire, je suis particulièrement content de l’avoir achevé car cela donne corps à cette série qui commence à ressembler à quelque chose avec trois volumes. C’est donc une saga importante pour moi, comme toutes les séries que l’on débute, on espère toujours pouvoir la mener à bien. Et comme je m’éloigne du thème de la SF avec “Dr Miracle”, je voudrais bien que ces livres trouvent leur audience ce qui, pour le moment, n’est pas vraiment le cas. J’ai essayé d’en faire parler dans les sites et magazines spécialisés (comme Sport-Auto et Auto Hebdo) mais sans succès.

Pourtant, j’aime beaucoup le concept qui est l’épine dorsale de ces livres : le Dr Miracle en question est une sorte de coach, un conseiller discret mais qui tire sur les bonnes ficelles afin de remettre telle ou telle écurie de course sur le chemin du succès. Ces “Dr Miracles” ont toujours existés (et existent toujours !) dans le monde des sports mécaniques mais il n’y en avait pas qu’un par époque bien sûr.

Très peu de fiction

Dans cette série, il y a très peu de fiction voire pas du tout : le seul élément imaginé, c’est le personnage de Dr Miracle lui-même. Tout le reste est basé, plus ou moins fidèlement, sur des faits précis et sur ce qu’on peut savoir sur la manière dont ils se sont déroulés.

Documentation importante nécessaire

Bien entendu, pour écrire ces livres, je me documente sérieusement et c’est d’ailleurs une partie du plaisir que je trouve à raconter ces histoires : c’est de les découvrir en premier !

La saison 1972

Dans ce troisième volume des aventures de Dr Miracle, nous verrons l’émergence de Jarno Saarinen, la victoire de Beltoise à Monaco, Matra aux 24 heures du Mans, l’Indy 500 avec Penske, l’engagement de Porsche dans le challenge Can-Am et, enfin, la nouvelle victoire de Japauto au bol d’or.

Publié dans Livres, Mes livres, Sport-auto | Laisser un commentaire

Je recommande d’écouter cette (longue) interview de Cyril ABITEBOUL

Oui, vous avez bien lu, je recommande d’écouter cette interview de l’ancien directeur de Renault F1. Alors, on connait surtout Cyril à travers ses apparitions sur Netflix dans la série “Drive to Survive“. Voici un court exemple :

Alors, comme vous le savez, je ne suis plus trop fan de la F1. J’ai beaucoup suivi ce championnat dans le passé que j’ai beaucoup apprécié. Mais désormais, c’est un passé de plus en plus lointain !
Ceci dit, on s’aperçoit que la F1 est un spectacle qui est très peu (voire pas du tout, surtout si on est habitué au MotoGP !) intéressant à suivre en direct, mais qui peut procurer des contenus intéressants sous la forme de documentaire comme on a pu s’en apercevoir avec le fameux
Drive to survive de Netflix.

Si je vous recommande ici de regarder cette interview que Cyril Abiteboul c’est justement parce qu’elle permet d’aller au-delà des apparences et de découvrir quelqu’un qui est au minimum intéressant à défaut d’être forcément sympathique. Et en plus, il a des choses à dire, il les dit, et c’est fascinant de découvrir après coup les petits secrets de cette grande organisation. Car je l’avoue, jusque-là je n’avais pas une opinion formidable de Cyril Abiteboul simplement parce que je me basais sur ce que j’avais vu de lui sur Netflix justement.

Or, en écoutant cette longue interview, j’ai découvert un personnage intéressant, précis, assez franc ou en tout cas en apparence et qui raconte son parcours à peu près tel qu’il s’est déroulé tout du moins de son point de vue. Et c’est justement parce que cette interview permet d’aller au-delà des apparences et d’éventuellement changer son opinion sur ce personnage que je vous la recommande, mais pas seulement. Elle apporte aussi des détails croustillants sur le fonctionnement de ce microcosme qu’est la F1. Si vous vous intéressez à ce sujet ou plus généralement au sport auto dans son ensemble, je pense qu’il s’agit d’un contenu qui mérite qu’on y passe du temps.

Voilà la présentation qui en est faite par Yann DELPLANQUE, l’animateur de la chaine YouTube “Dans la boite à gants” (que je découvre à cette occasion).

Aujourd’hui, j’ai le plaisir de recevoir Cyril ABITEBOUL. Personnage qui ne laisse personne indifférent, je dois dire qu’il m’a particulièrement marqué, sûrement parce que son parcours académique ne présageait pas vraiment ses 15 années en Formule 1 complètement folles. Entre un patron du nom de Flavio BRIATORE, puis un certain Carlos GHOSN à la tête de Renault, ses bras de fer avec Redbull et Helmut MARKO ou encore sa désillusion avec Daniel RICCIARDO, vous allez plonger dans les coulisses de la Formule 1. Que vous le connaissiez depuis Drive to Survive sur Netflix ou depuis ses débuts en Formule 1 chez Renault en 2001, vous allez découvrir le parcours extraordinaire d’un homme dont l’unique obsession est le résultat. Ce que vous allez entendre de la part de l’ex-Directeur Général de Renault F1 Team, vous ne le retrouverez nulle part ailleurs même si vous êtes un passionné averti du monde de la Formule 1. Je vais me mouiller un peu en disant cela, mais cet épisode est assurément le mieux construit depuis mes débuts il y a près de 3 ans, j’espère que vous l’apprécierez autant que l’on a pris de plaisir à le tourner avec Cyril.

Publié dans Sport-auto | Laisser un commentaire

Un article prospectif de Justin Lefebvre : les processeurs ARM et Windows…

Avant-propos d’Alain :
Mon fils Justin (15 ans) voulait publier cet article (qu’il a rédigé entièrement, je n’y ai apporté que des micro-corrections tout à fait mineures) mais, comme il n’a pas (encore) de blog, je lui ai proposé d’utiliser le mien…

Introduction

En 2024, la licence de Qualcomm qui leur garantit qu’ils sont les seuls à produire des processeurs pour Windows ARM va expirer, laissant donc la place à n’importe qui. Y-a-t’il ici un potentiel de remplacer l’archaïque architecture X86 ?
Est-ce trop tôt ?

Un petit rappel pour commencer en douceur…

Pour un petit rappel, la plupart des ordinateurs qui tournent sur Windows, opèrent avec un processeur basé sur l’architecture “X86”, qui est différente de l’architecture “ARM”. Dans le passé, on les différenciait par leur utilisation ; les X86 étaient faits pour les calculs complexes, qui demandent beaucoup des procédures et de temps, et donc employés dans les PC, tandis qu’ARM est plus simple, plus direct et plus minimaliste dans ses instructions, et beaucoup plus efficaces (que les processeurs X86) sur leur consommation électrique, donc utilisés dans les téléphones, les tablettes, les consoles portables, etc. 

Mais récemment, Apple a décidé de prouver que ARM a aussi beaucoup de potentiel pour le marché des PC de workstations : programmes et calculs complexes, modélisations 3D et même du gaming, le tout avec une consommation électrique (j’insiste) beaucoup plus efficace que n’importe quel X86 (voir image ci dessous).

Crédit : optimum tech

Sauf qu’Apple n’a pas eu de mal à adapter l’écosystème entier pour ARM puisqu’ils possèdent leur écosystème entièrement, aussi bien le hardware que le software. Du côté des pc, c’est bien plus complexe car il peut exister un ordinateur qui n’a pas deux pièces venant du même fabricant… Il faudrait donc qu’un fabricant de processeur comme AMD, Nvidia, Qualcomm (ou Intel s’il se réveille à temps) travaillent en commun avec Microsoft pour développer une version fiable et optimisée de Windows Arm, et qui soit compatible avec le hardware actuel.

Mais si Qualcomm avait la licence pendant si longtemps, pourquoi n’ont-ils pas décollé en popularité ? 

Eh bien, Microsoft avait peur que si Qualcomm réussissait à populariser les CPU sur ARM, il dominerait le marché comme Intel l’a fait avec les X86. Donc Microsoft a juste attendu que leur licence d’exclusivité expire, en laissant Windows ARM avec peu de support, peu de mises-a-jour, bref, bloquant toute possibilité à Qualcomm de faire un bon produit, donc de dominer. Maintenant que la licence est proche d’expirer, Microsoft va accueillir trois nouveaux constructeurs les bras grands ouverts et potentiellement améliorer Windows pour ARM.

Ma prévision

De là vient ma spéculation : Un, deux, trois ou les quatre géants vont travailler en collaboration avec Microsoft pour développer deux versions du prochain Windows (donc W12). L’une, celle de base, sera toujours sur X86 pour les clients souhaitant passer de W11 à W12 sans changer leur processeur. Puis une deuxième version, basée sur ARM, pour supporter la nouvelle lignée des processeurs ARM d’AMD, Nvidia et Intel. La transition sera lente, mais après sans doute une ou deux générations de processeurs, ainsi que toute la durée de vie de W12, la grande majorité des logiciels seront compatibles entre les deux architectures, et les performances seront supérieures, le tout avec une consommation inférieure. Cette transition n’affectera pas que les PC, mais logiquement, ensuite les consoles, les consoles portables, et les serveurs, où la transition a déjà commencé. C’est donc peut-être le début de la fin pour X86 ?

Je noterais aussi que Nvidia n’est pas complètement inexpérimenté dans la conception de processeurs basés sur ARM, car ils on fait la lignée de processeurs pour serveurs de database, les Grace Hopper. Même si en effet, ces processeurs n’étaient pas destinés pour la masse, il faudrait donc qu’ils apprennent à optimiser leurs processeurs pour l’expérience utilisateurs.

Nvidia a besoin de créer des CPU/APU par exemple s’ils ne veulent pas se faire écraser dans le domaine des ordis portables, où AMD et Intel vont offrir des packages sans eux.

Qualcomm n’est pas complètement en dehors de l’équation car ce sont les seuls qui ont de l’expérience à développer des CPU pour PC sur Windows, et ils viennent d’annoncer leur nouvelle lignée de processeurs sur ce marché (la comparaison ci dessous est entre les X86 les plus efficaces en consommation et le nouveau CPU de Qualcomm).

Crédit : Videocardz.com

Conclusion : tout le monde gagne !

En conclusion, si cette transition se fait, tout le monde va y gagner : Les consommateurs qui ne seront pas écrasés sous un monopole d’une marque, puisqu’il y aura potentiellement quatre constructeurs, donc du choix dans les produits, mais aussi une réduction dans la consommation d’électricité des ordinateurs les constructeurs car ils vont explorer un tout nouveau marché. Et enfin Microsoft car leur produit sera reconnu comme fiable (s’ils font leur travail).

sources : 

https://videocardz.com/newz/nvidia-and-amd-reportedly-working-on-arm-based-processors-for-pcs

https://www.youtube.com/watch?v=BZW_orkfhGQ&t=900s 

https://www.youtube.com/watch?v=5dhuxRF2c_w&t=780s 

https://www.youtube.com/watch?v=MxCPUfJsdMQ&t=931s

Le mot de la fin par Alain…
Depuis que Microsoft et Intel dominent le marché des PC, il y a eu souvent ce genre de prédictions mais force est de reconnaitre que ça ne s’est jamais réalisé. Cette fois-ce sera-t-elle différente ?
Difficile à dire. Justin fait le pari que oui, nous verrons…

Publié dans Anecdotes IT, Informatique | Un commentaire

Que peut-on encore dire d’intéressant sur Forza Motorsport (8) ?

Avant de commencer à parler de la dernière version de Forza Motosport (que beaucoup s’obstinent encore à désigner par “Forza Motosport 8”), voyons déjà ce que je disais sur la version précédente en septembre 2019 (dans le “monde d’avant” donc…) :

==============

Alors, déjà, il y a deux versions de Forza pour deux publics bien différents : Motorsport (actuellement en version 7) et Horizon (actuellement en version 4). Horizon est typiquement un “jeu de voitures” sur routes ouvertes. J’ai essayé et j’ai tout de suite détesté (mon fils de onze ans aime bien lui… comme quoi il en faut pour tous les goûts) : rouler à fond dans de beaux paysages, je ne vois pas vraiment l’intérêt (mais c’est sans doute moi qui suis limité sur ce plan…). Je préfère nettement tourner sur circuits… direction Forza Motorsport donc. Pour beaucoup, c’est le “vrai” Forza.

Par rapport à nos titres habituels, Forza est quand même assez différent dans la mesure où il faut “acheter” ses voitures et qu’on reçoit des “récompenses” au fur et à mesure de la progression dans le jeu. Rien de tout cela dans nos simulations habituelles, n’est-ce pas ?

Au début, ce “decorum” m’irritait plutôt mais, finalement, on s’y fait assez vite. Bon, arrête de tourner autour du pot et parle-nous du comportement au volant, bon sang !

Eh bien, une fois qu’on a retiré toutes les aides, c’est plutôt pas mal en fait. Bien mieux que ce à quoi je m’attendais à dire vrai. Si on est tout à fait honnête, c’est au moins aussi bien que PCARS mais sans doute un peu en dessous de rFactor 2, à mon avis. Tourner à Spa au volant d’une Corvette CR7 est une expérience tout à fait convaincante, pas de problème, on s’y croit !

La CR7 sur Forza est très réussie, y compris au volant !

Bon, bien sûr, les effets visuels (brouillard, effet de soleil, etc.) sont vraiment bluffants mais le rendu au volant est quand même ce qui compte le plus à nous autres, les puristes de la simulation. Je dois dire que sur ce plan, Forza Motorsport 7 passe la barre haut la main (with flying colors comme dirait mes amis américains !). Pour ce qui est du comportement des IA, je n’ai pas encore assez roulé pour avoir une idée bien arrêtée. Je dirais que ce n’est pas mal mais largement améliorable. Il me semble que l’opposition cesse une fois qu’on a réussi à prendre la tête, comme si les adversaires étaient démoralisés tout d’un coup…

Pour ce qui est de la sensibilité aux réglages, j’ai peu testé et je ne peux me prononcer. En revanche, ce qui est sûr, c’est qu’il faut presque systématiquement augmenter la puissance de freinage (surtout pour les voitures “vintages”).

Car c’est une leçon que je tire de cette expérience (très positive, dois-je le répéter ?) : il faut vraiment beaucoup rouler pour bien se rendre compte des défauts et des qualités d’un titre… Un exemple : c’est en utilisant PCARS sur cette console que, finalement, j’ai réalisé un gros défaut de ce titre (un comportement que je n’avais pas réussi à vraiment saisir jusque-là)… J’ai constaté que le comportement des voitures changeait (inexplicablement) entre les essais libres et la course (avec des configurations identiques, évidemment !). Donc, vous vous appliquez à bien régler votre voitures (pneus durs, réservoir plein, tout ça) mais, au moment du départ, vous vous retrouvez avec un engin qui ne se comporte plus comme avant avec les conséquences immédiates qu’on imagine facilement… Cette différence est vraiment dommageable et retire une bonne partie de son attrait à PCARS 2.

L’autre intérêt de Forza, c’est le côté “casual gaming” : le titre vous permet de rouler sans avoir à vous poser de questions, vite fait, bien fait. Et ça, c’est tout à fait dans l’esprit console. Disons-le, c’est (selon moi) un gros plus de ces plateformes. Voilà, je ne sais pas si j’ai réussi à vous convaincre d’inclure Forza et la Xbox dans nos destinations possibles (si ce n’est préférées !) mais, de mon côté, je suis bien content d’avoir essayé finalement !

=============

Donc, aujourd’hui, j’ai décidé de vous donner mon avis sur ce nouveau titre car il est remarquable et significatif sur plus d’un plan. Tout d’abord, j’ai pu remarquer l’ampleur de la promotion avant que ce titre ne soit effectivement disponible : c’est là où on voit qu’il y a Microsoft derrière !

Si “Le Mans Ultimate” ou “Automobilista 2” disposaient ne serait-ce que du dixième de cette force de frappe, il est clair que les choses changeraient radicalement pour eux. Une grosse promo avant le lancement (avec des promesses “en veux-tu en voilà !”) et une couverture média tout aussi impressionnante au moment de la disponibilité réelle du jeu le 10 octobre dernier.

Et puis, quand le jeu a été vraiment disponible, là, le ton a changé un peu et de nombreux Youtubeurs ont crié au scandale !
Alors, simulation de l’année ou infâme daube ?
Ni l’un ni l’autre en fait… Voici mon avis mo-dé-ré dans un vidéo de 30+ minutes :

Ah oui, j’oubliais : je ne peux comparer Forza à la dernière version de Gran Turismo étant donné que je n’ai jamais essayé ce dernier.

Bilan final et récapitulatif… D’abord les points positifs :

  • Le FFB (une fois bien réglé) et le comportement des voitures bien prévisible et amusant (sauf exceptions parce que certaines voitures sont carrément ratées),
  • Les IA (une fois que le premier tour est passé…),
  • Le système de pénalités (le meilleur aujourd’hui disponible sur le marché),
  • Les graphismes (y compris les effets météo) et les sons ,
  • Le système de gestions des collisions (comme les pénalités : bien équilibré),

Et maintenant, les points négatifs :

  • Le drop off des pneus (un bon point mais là c’est trop fort !),
  • Le jeu libre (pas de qualifs, pas de maitrise de la grille et ainsi de suite),
  • Le choix des voitures discutable (trop de voitures de route) et les catégories (trop d’anomalies absurdes) et un choix de circuits un peu restreint,
  • Les filtres du multiplayers sont inefficaces (du coup, le lobby est chaotique),
  • La stabilité du jeu (ça plante, trop !),
  • Le mode carrière qui est bof-bof…
  • Les replays (marche pas, tout simplement !),
  • Les stats, vos stats (ben y en a pas…).

La vérité est que le nouveau Forza Motorsport n’est pas très différent du précédent en fait !
Bon, il y a des circuits en moins et  des détails de ce genre mais, grosso modo, c’est très comparable. Voilà, c’était le mot de la fin.

Et, comme promis, voici une bonne vidéo sur comment régler son volant avec Forza Motorsport :

Publié dans Ce blog, Sports mécaniques virtuels | 2 commentaires

Le seconde crise du logiciel sera plus grave que la première !

Plus le niveau de la technique est élevé, plus les avantages que peuvent apporter des progrès nouveaux diminuent par rapport aux inconvénients.

Simone Weil.

Nous sommes désormais entourés par de multiples dispositifs électroniques qui reposent tous et de plus en plus sur la programmation numérique. Et force est de constater deux choses : d’une part, ces dispositifs sont très attachants (pour ne pas dire addictifs !) ; dès qu’on s’en sert et qu’on en constate l’efficacité, on a ensuite du mal à s’en passer (notamment les smartphones). Mais, d’autre part, on se rend vite compte que ces appareils ont une fiabilité “aléatoire”, pour le dire gentiment… Or, la question de la fiabilité (ou de la non-fiabilité dans le cas présent) va se poser de manière de plus en plus appuyée, voire douloureuse.

L’informatique (et la technique en général) est jugée sur ce qui ne fonctionne pas !

Que ce soit juste ou pas, il faut bien l’admettre, l’informatique des organisations est d’abord et avant tout jugée sur ce qui ne fonctionne pas, point. Surtout depuis que cette informatique est exposée aux regards de tous dans ses relations avec ses clients via les interfaces Web et mobiles…

On peut toujours rêver de mettre en place des avantages concurrentiels formidables, la réalité est plus prosaïque et elle vous rattrape vite : vos utilisateurs veulent que leurs applications fonctionnent, les bons jours comme les mauvais jours (surtout les mauvais jours en fait !).

 Et le “bon” fonctionnement ne se limite pas à répondre présent lors d’une sollicitation technique (en clair, lorsqu’on demande la page d’accueil de l’intranet -par exemple-, celle-ci s’affiche dans un délai raisonnable), il faut aussi que la facilité d’utilisation soit au rendez-vous. Or, l’ergonomie de l’interface utilisateur est un point qui est toujours négligé. Combien de fois se retrouve-t-on sur la page d’une application où l’étape suivante est impossible à atteindre ou que les choix possibles sont trop confus pour être utilisables ?

Surtout aujourd’hui où l’on vous impose de plus en plus de faire toutes vos démarches en ligne (qu’elles soient administratives ou commerciales), le vécu utilisateur s’apparente trop souvent à un “parcours du combattant” qui est stressant et frustrant. Bref, vous l’aurez compris, l’informatique est critique (et il est critique qu’elle réponde correctement quand on en a besoin) et on a l’impression que les décideurs n’ont pas encore tout à fait intégré cette caractéristique majeure.

Les nouvelles voitures stoppées par les bugs !

Pourtant, il n’y a pas besoin d’être un grand visionnaire pour s’apercevoir que, dans notre monde ultra technique, les choses qui ne fonctionnent pas sont plus la règle que l’exception… Que ce soit dans votre voiture (où l’électronique est de plus en plus présente) ou que ce soit dans votre usage personnel de votre smartphone (applications qui déraillent, périphériques bluetooth non-reconnus, j’en passe et des pires…), on en vient à regretter l’époque où on se plaignait de son imprimante (ah ça, ça n’a pas changé…) !

Je n’exagère même pas : au fur et à mesure que le temps passe, nos voitures sont de plus en plus des “ordinateurs avec des roues” et les inévitables bugs les rendent souvent inutilisables. Un exemple : en mai 2020, le groupe Volkswagen a été obligé de retarder (encore) la sortie de sa nouvelle Golf 8 à cause d’un problème de logiciel. En cause, un problème lié au système d’appel d’urgence eCall qui a retardé l’arrivée effective sur le marché de la nouvelle Golf. Devenu obligatoire en Europe depuis le 31 mars 2018, le système d’appel d’urgence doit être fonctionnel et nécessitait donc une mise à jour pour les véhicules déjà produits. La Golf 8 n’est pas la seule à poser problème chez VW, la nouvelle ID.3 est elle aussi frappée par les bugs : des ingénieurs affirment que le développement a été “trop hâtif” et que les logiciels ont du mal à communiquer entre eux, entraînant de nombreux bugs électroniques. Des centaines de testeurs rapportent près de 300 erreurs par jour (en février 2020), obligeant Volkswagen à revoir sa copie.

Bien entendu, VW n’est pas le seul constructeur à souffrir de cette complexité logicielle, mais ces retards successifs ont fait grand bruit en Allemagne où l’on s’étonnait de voir la commercialisation de produits importants retardés pour des questions qui n’ont rien à voir avec ce que les constructeurs automobiles ont l’habitude de traiter.

Le mur de la complexité

On pourrait ainsi s’avancer à tracer une courbe en cloche avec en abscisse la complexité et en ordonnée le bien-être général : 

La partie croissante représente le progrès garant de l’avenir, c’est-à-dire la complexité maîtrisée donc déterministe, la partie décroissante représente la chute où règne le chaos.

Source http://arnienathalaud.unblog.fr/divagations/3-de-la-complexite/

Erreur mineure, grandes conséquences potentielles

Un exemple du chaos entraîné par cet excès de complexité : une erreur logicielle mineure qui aurait pu compromettre le décollage d’un avion. C’est ce qui aurait pu se produire en juillet 2020 lors d’un vol reliant le Royaume-Uni et l’Espagne. Avant chaque vol, les passagers s’enregistrent et doivent préciser leur sexe. En fonction de la réponse, le logiciel estime un poids moyen en fonction de si on est un homme, une femme ou un enfant. Des informations importantes pour le pilote puisqu’avec une connaissance du poids total des passagers, le commandant de bord peut ajuster la vitesse et déterminer quelle puissance il doit mettre lors du décollage.

Lors de ce vol commercial du 21 juillet 2020 reliant Birmingham à Palma, il y avait 187 passagers à bord ainsi que 6 membres d’équipage. Après plusieurs mois sans être utilisé à cause du Covid-19, le logiciel d’enregistrement de l’opérateur TUI Airways a obtenu une mise à jour qui présentait un gros problème. L’ensemble des passagères qui avaient choisi le titre de “Mademoiselle” ont été considérées comme des enfants. Et c’est ici que réside le problème : le logiciel a considéré que les “Miss” étaient des enfants, estimant donc un poids moyen qui n’était pas le bon. Effectivement, la classification attribue un poids de 34 kg pour un enfant et de 69 kg pour une femme. À bord du Boeing, il y avait normalement 29 enfants de prévus or, avec cette erreur, la feuille de charge considérait qu’il y en avait 65 ! 

Générant ainsi au passage une différence de 1244 kg par rapport à la charge réelle de l’avion.

Une capture de l’écran du cockpit servant à définir les paramètres de la poussée au décollage…

Même si le pilote trouvait étonnant le nombre anormalement élevé d’enfants à bord, il s’est quand même basé sur cette information erronée pour préparer son décollage. Du coup, la vitesse programmée pour décoller était un poil trop faible…

En soi, les passagers à bord n’ont pas risqué leur vie, mais l’organisme britannique en charge des accidents aériens a tout de même qualifié cet incident de “grave”. Par ailleurs, sur la même journée, trois vols au départ de Birmingham ont également été victimes de ce bug. Plus grave, la compagnie aérienne avait connaissance du problème qui a duré une dizaine de jours. Des équipes avaient corrigé les erreurs sauf pour celles concernant les passagers qui s’étaient enregistrés 24 heures avant le vol en raison du départ en week-end des équipes. Cette histoire est emblématique des petits problèmes qui s’accumulent (mise à jour erronée, équipe non disponible, etc.) et qui finissent par déboucher sur une situation qu’on n’aurait jamais imaginée au départ (une erreur mineure sur le logiciel de gestion de l’embarquement qui impacte le décollage de l’avion…).

La civilisation de la panne

Bref, nous sommes passés d’une “civilisation de la peine” (où l’effort physique était prédominant et où tout le travail s’effectuait laborieusement “à la main et à la sueur de son front”…) à une “civilisation de la panne” (où la machine qui est censée nous soulager est trop souvent défaillante). 

Partant du principe que l’automatisation croissante induit de plus en plus de complexité et démultiplie d’autant la probabilité de la panne, l’avenir serait donc pavé de… dysfonctionnements, comme on dit aujourd’hui par euphémisme. D’où cet axiome : La panne est consubstantielle à la technologie.

Yves Lasfargue recense des “points de fragilité” qui sont autant de causes de panne dans les systèmes d’informatisation et d’automatisation actuels. La multiplication et la complexité des composants dans les machines : la probabilité pour que la faucille tombe en panne est infiniment moindre que pour la moissonneuse-batteuse ! 

La fragilité apparaît donc comme la rançon de la complexité… et du confort, toute la question étant de savoir si le taux de pannes est supportable. L’intégration locale des composants explique qu’une panne de l’un des composants se répercute inéluctablement sur l’ensemble du système jusqu’à le paralyser.

Chacun connaît aujourd’hui les limites des systèmes automatisés : plus ils sont récents, plus ils sont intégrés, c’est-à-dire que les machines dépendent de plus en plus les unes des autres. Les systèmes “hautement intégrés”, genre atelier robotisé ou réseau de communication, sont fragiles, délicats et présentent des risques de pannes non négligeables du fait des interrelations entre chaque composant.

Yves Lasfargue, directeur du Créfac dans “Robotisés, rebelles, rejetés”. Les éditions de l’Atelier, Paris, 1993.

La fiabilité des systèmes complexes

La fiabilité des systèmes complexes est devenue une denrée rare, car on ne laisse pas le temps à ces systèmes de mûrir. Un exemple parlant : les fusées. Les lanceurs utilisés pour mettre des satellites et des hommes en orbite autour de la Terre ne sont pas très nombreux et font l’objet de grandes attentions. Cela peut facilement se comprendre : les lancements coûtent très cher et les échecs sont le plus souvent des désastres complets (mort des astronautes et/ou perte totale de la charge utile).

Et pourtant, en dépit de ces enjeux, la fiabilité de ces lanceurs dépasse rarement les 50% (en clair, un lancement sur deux échoue). Il y a pourtant une exception : la fusée russe Soyouz affiche une fiabilité record. À fin 2017, plus de 1 880 lanceurs Soyouz ont été lancés, avec un taux de réussite proche de 98 %.

Comment expliquer cela ?

Eh bien, justement parce que les Russes ne sont pas repartis d’une feuille blanche pour faire évoluer leur fusée fétiche. Le lanceur Soyouz est mis en service en 1966. Il s’agit d’une évolution du lanceur Voskhod lui-même dérivé du missile balistique intercontinental R-7 Semiorka par adjonction d’un troisième étage. Quand on sait que le missile R-7 est lui un dérivé du fameux V2 conçu dans les années quarante par Von Braun, on comprend que la technologie embarquée dans les lanceurs russes bénéficie déjà d’un certain recul. On voit tout de suite la différence : dans ce domaine, la fiabilité ne s’obtient pas en quelques mois, mais bien en années, voire même en décennies.

La seconde crise du logiciel

Bien qu’il existe une littérature pertinente sur le sujet (j’ai déjà cité Jacques Ellul et je viens de le faire avec Yves Lasfargue), les risques liés à la croissance de la complexité sont trop souvent ignorés ou niés. En conséquence, je pense que nous allons droit vers une nouvelle “crise du logiciel”.

Cette seconde crise va être très différente de la première. Il y a soixante ans, la première crise du logiciel s’est déclarée quand on s’est rendu compte que le développement des programmes devenait le goulot d’étranglement de la mise en place des systèmes (les ordinateurs dans les organisations, principalement des mainframes). Aujourd’hui, cette nouvelle crise ne concerne pas la vitesse de développement, mais la fiabilité des systèmes qui repose sur une part croissante de logiciels.

Une première crise il y a 60 ans

Revenons rapidement sur les effets et les causes de ce qu’on a appelé “la crise du logiciel” dans les années 60 et 70. Au début des années soixante et avec le lancement de chaque nouvelle machine, le logiciel système fourni par IBM pour accompagner ses ordinateurs augmentait -en taille- d’un facteur dix tous les cinq ans !

En conséquence de cette “enflure”, on a estimé que la part du coût de développement des logiciels de base est passée de 10% en 1960 à 40% en 1965 sur le total du coût de mise en œuvre d’un nouveau système… C’est ainsi que s’est révélée la première “crise du logiciel” : le nombre d’installations de systèmes augmentait bien plus vite que le nombre de programmeurs formés, le logiciel devenait ainsi le goulot d’étranglement principal qui menaçait de mettre fin à la croissance de cette industrie. 

Une première crise qui dure encore

Cette crise ne s’est jamais vraiment tout à fait résorbée, mais le secteur a appris à vivre avec jusqu’à aujourd’hui. La liste d’attentes pour les nouvelles applications a toujours été très (trop) longue dans toutes les organisations reposant sur l’informatique et c’est aussi la raison du développement du “shadow IT” : les départements lassés de devoir attendre leurs applications se sont souvent mis à les développer par eux-mêmes avec des outils no-code.

Une nouvelle crise, tu es sûr ?

Aujourd’hui, tout le monde est en train de réaliser que le logiciel est un élément essentiel dans les systèmes modernes. Le premier à l’avoir affirmé est Marc Andreessen dans son célèbre article “le logiciel mange le monde” (source https://a16z.com/2011/08/20/why-software-is-eating-the-world/) en 2011 dont voici un extrait :

Six décennies après la révolution informatique, quatre décennies depuis l’invention du microprocesseur et deux décennies après l’avènement de l’Internet moderne, toutes les technologies nécessaires pour transformer les industries grâce au logiciel fonctionnent enfin et peuvent être largement diffusées à l’échelle mondiale.

Plus de deux milliards de personnes utilisent aujourd’hui l’Internet haut débit, contre peut-être 50 millions il y a dix ans, lorsque j’étais chez Netscape, la société que j’ai cofondée. Au cours des 10 prochaines années, je m’attends à ce qu’au moins cinq milliards de personnes dans le monde possèdent des smartphones, donnant à chaque individu doté d’un tel téléphone un accès instantané à toute la puissance d’Internet, à chaque instant de chaque jour.

En arrière-plan, les outils de programmation logicielle et les services Internet facilitent le lancement de nouvelles start-ups mondiales basées sur des logiciels dans de nombreux secteurs, sans avoir besoin d’investir dans une nouvelle infrastructure et de former de nouveaux employés. En 2000, lorsque mon partenaire Ben Horowitz était PDG de la première entreprise de cloud computing, Loudcloud, le coût d’un client exécutant une application Internet de base était d’environ 150 000 $ par mois. L’exécution de cette même application aujourd’hui dans le cloud d’Amazon coûte environ 1 500 $ par mois.

Et, effectivement, tous ou quasiment tous les systèmes développés désormais contiennent systématiquement une part de logiciel, une part de plus en plus importante.

Après la version optimiste contenue dans l’article d’Andreessen, il est temps de passer à la version réaliste : le logiciel est de nouveau en crise parce que sa généralisation démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Que ce soit VW ou Boeing (Boeing est en crise depuis les accidents affectant son 737 Max, encore une histoire de logiciels mal-conçus), leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger), mais, cette fois, la nature même de ces bugs est différente.

La toujours délicate intégration de systèmes

En effet, il ne s’agit plus simplement d’ordinateurs isolés ou fonctionnant en réseau… Cette fois, on touche du doigt la limite induite par la toujours délicate intégration de systèmes. Pour commencer, ces logiciels s’exécutent dans des contextes où les tests et les corrections sont difficiles à réaliser à cause de la nature même des systèmes embarqués (allez donc traquer un bug qui ne se manifeste que dans certaines conditions d’un avion en plein vol…). Ensuite, les systèmes en question ne sont pas des éléments isolés (comme le sont les ordinateurs, qu’ils soient en réseau ou non), mais bien des éléments profondément dépendants des autres systèmes qui les entourent et les alimentent en données et mesures. Enfin, les organisations qui développent ces logiciels ne sont pas spécialisées en informatique, mais font cela en plus de leur domaine d’expertise habituel. Tout cela explique, au moins en partie, pourquoi ces bugs sont si fréquents, si bloquants et si difficiles (et coûteux !) à corriger.

Une situation qui est significative d’un nouveau contexte

Je pense que cette situation est significative d’un nouveau contexte. Il ne s’agit pas d’un épiphénomène qui apparaît brusquement pour disparaître une fois qu’on en aura pris la mesure. Je crois au contraire que c’est juste le début de nos difficultés en la matière. Il est possible, voire probable, que ce type de logiciel ne soit jamais totalement fiabilisé (tout comme il reste toujours des bugs dans nos programmes habituels). Dans le secteur informatique, on s’est adaptés à cette réalité souvent pénible, quelquefois douloureuse, mais qu’on sait inamovible. Dans les secteurs industriels cités, en revanche, je doute qu’on s’attendait à une telle non-fiabilité et qu’on n’ait pas encore réalisé qu’elle était quasi-impossible à améliorer radicalement.

La situation ne va donc pas s’améliorer, mais va empirer et le logiciel va devenir le facteur bloquant de l’évolution vers le toujours plus d’intégration et de fonctions intelligentes tout comme il a représenté le goulot d’étranglement des débuts de l’informatique.

Les tests logiciels sont lents et complexes

Écrire un logiciel est -relativement- rapide, mais le mettre au point est terriblement plus long, car les tests logiciels sont lents et complexes. Lents, car il y a de nombreuses possibilités à vérifier et il faut tout revérifier à chaque modification (tests de non-régression). Complexes, car le contexte est important et pour un logiciel système (par exemple), il faut pouvoir tester chaque plate-forme dans toutes les configurations possibles… On imagine vite ce que cela représente !

Logiciels et turbines à gaz, même combat !

Prenons un exemple, celui d’un “accident industriel” célèbre : les turbines à gaz GT24/GT26 d’Alstom qui se sont avérées défectueuses au début des années 2000. Pourquoi des engins aussi coûteux et complexes ont-ils été mis sur le marché sans être testés de fond en comble (ce qui aurait évité de commercialiser des turbines de grande puissance comportant un défaut de conception) ?

Tout simplement parce qu’il aurait fallu laisser tourner ces turbines pendant des années (quatre à cinq ans minimum !) avant que le défaut ne se manifeste… La rentabilité du programme ne pouvait s’accommoder de tests aussi longs, la direction de l’époque a donc pris le risque de se contenter des tests habituels qui étaient tout à fait satisfaisants…

 Le schéma des turbines à gaz GT24/GT26 d’Alstom.

On est plus ou moins face au même dilemme avec les logiciels embarqués : il faudrait pouvoir les tester sur l’ensemble du cycle de vie et sur toutes les variations de plateformes possibles et il suffit de lire cette phrase pour penser immédiatement que ce n’est pas près d’arriver !

Les conséquences de la seconde crise du logiciel

La nouvelle crise du logiciel que nous sommes en train de vivre produit déjà des conséquences en cascade : la vague des ransomwares qu’on connaît depuis quelques années et qui va en s’amplifiant n’en est qu’un exemple.

Nous avons déjà évoqué les déboires du Boeing 737 Max mais imaginez cet exemple à l’échelle d’un système déployé globalement et concernant des millions d’unités… Du jour au lendemain, suite à une attaque ou à une mise à jour maladroite (ou à une attaque permise par une mise à jour mal-conçue…) deviendrait totalement inutilisable pour une période plus ou moins longue. Le futur sera sans doute fait de ces “tempêtes logicielles” qui vont rendre inopérants des pans entiers de notre infrastructure globale pendant des jours, des semaines voire des mois.

Qui n’est pas en faveur des smart grid ?

Une logique qui se comprend, mais qu’il faut éviter

Injecter du logiciel partout vient d’une logique facile à comprendre : pour augmenter la souplesse et la performance des systèmes distribués (distribution d’eau ou d’électricité par exemple), on va vers les fameuses smart grid qui promettent beaucoup, mais représentent aussi un réel danger latent. Le fait d’ajouter de la complexité à la complexité est rarement un bon calcul, comme on va s’en rendre compte douloureusement à l’avenir…

Publié dans Anecdotes IT, documentaires IT, Informatique, Le fait technique, Références IT | Laisser un commentaire

L’échelle Lefebvre : comment estimer le temps nécessaire aux innovations techniques

Introduction

Faire des prévisions en matière technique est difficile. Nous sommes toujours trop optimistes sur le court terme et trop pessimistes sur le long terme. Mais même si nous parvenions à corriger cela, nous avons toujours du mal à admettre que les paliers de l’évolution technique se mesurent en décennies plutôt qu’en années. Cet article explique pourquoi et vous propose une échelle de mesure afin de mieux évaluer les durées en termes de maturité (et donc de succès car il n’y a que les techniques matures qui rencontrent l’adhésion de leurs cibles).

Le quoi et le quand

En matière de prévisions techniques, il y a principalement deux dimensions : le “quoi” et le “quand”. Dire le “quoi” est relativement facile si on connait le domaine concerné mais se contenter de cela, ce n’est pas très utile… C’est comme de prévoir que la bourse va monter (ou baisser) sans être capable de préciser quand, sur quelle durée et, enfin, sur quelles valeurs. En revanche, dire le “quand” est beaucoup plus difficile mais c’est seulement en répondant sur les deux dimensions que les prévisions techniques peuvent être utiles.

Pendant ma carrière, j’ai toujours été plutôt bon pour prévoir les évolutions techniques dans mon domaine (l’informatique) mais pas aussi performant pour préciser à quelle vitesse elles allaient se produire et quand ces évolutions seraient enfin disponibles sur le marché (ce qui est très différent d’une démo dans un labo…). A ma grande surprise, ces évolutions se sont toujours avérées plus lentes que prévu et, en conséquence, leur maturité arrive bien plus tard qu’espéré.

J’ai fini par en faire un principe (le principe de maturité) et j’ai communiqué à ce sujet aussi souvent que possible. Quand je proclamais qu’il fallait au moins dix ans entre une découverte et sa première application pratique, je n’étais jamais cru. Et pourtant, j’étais encore trop optimiste, trop pressé.

Un aveuglement qui s’explique

Cet aveuglement envers ce “principe de maturité” vient principalement de la propagande technique (oui, il existe une “propagande technique”, nous y reviendrons !) qui affirme sur tous les tons que “tout s’accélère, tout va de plus en plus vite”…

Admettons mais, alors, comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse, comme je l’affirme et explique dans mon livre “La crise de l’IT des années 2020“) ?

En effet, en ce moment et depuis quelques années, quasiment tous les observateurs (qui ne sont pas forcément des spécialistes et encore moins des experts) vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.

Tout va plus vite, n’est-ce pas ?

En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ? 

Mais ça ne fonctionne pas toujours de la sorte : y croire et s’en persuader ne produit pas pour autant une réalité concrète sur le terrain.

Ne pas confondre perception et réalité

Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.

Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…

Tout nous pousse à croire que le progrès technique s’accélère, même la publicité tente d’en faire la démonstration !

La phase de maturation est systématiquement masquée

L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !

Mais, pendant ces trente ans, personne n’en parlait.

Ce croquis, qui fait inévitablement penser aux smartphones actuels, remonte  en réalité à 1988…

S’il y a accélération, il y a aussi ralentissement…

Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !

Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?

Tout le problème de la perception de l’accélération est résumé dans ce graphique : le grand public ne voit que la seconde phase et perçoit donc une accélération, car la longue et lente maturation est complètement ignorée.

L’état de l’art : ne pas croire la propagande !

L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi, il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie. 

Extrapoler à partir du passé

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine. C’est le principe des cygnes noirs : ce qui est prévu et qui semble évident n’arrivent pas souvent alors que ce qui est imprévisible et semble très improbable (pour ne pas dire impossible) arrive plutôt deux fois qu’une et l’Histoire est remplie de “cygnes noirs” qui confirment ce principe.

Les grands principes de l’évolution : la maturation

Le principe que nous allons détailler ici concerne le délai, le temps nécessaire pour qu’une innovation soit convertie en un produit, soit mise au point puis trouve enfin son marché et sa forme finale. La perception habituelle est que tout va de plus en plus vite, trop vite même parfois. Mais ne confondons pas perception avec réalité, car, contrairement à ce qu’on croit, il y a un délai incompressible entre l’apparition d’une technique, sa transformation en produit et son impact réel sur notre quotidien et nos habitudes.

Si l’évolution technique continuait à progresser à la vitesse que l’on a connue au XIXe siècle, il n’existerait plus aujourd’hui de délai entre une découverte et sa mise en application. Voici quelques exemples puisés dans les technologies de l’époque, aux États-Unis  : il a fallu attendre soixante-dix ans pour que le téléphone bénéficie à 50% de la population américaine et  trente-neuf ans pour que la télévision par câble atteigne ce taux, alors que seulement onze ans ont été nécessaires pour la radio… L’apogée est atteint avec le microprocesseur pour lequel, entre la première réalisation de Marcian Hoff et Federico Faggin en 1969 et sa diffusion massive via le micro-ordinateur en 1977, il s’écoule moins de dix ans. Personne n’a fait mieux depuis la fin des années soixante-dix.

Un délai incompressible

Une décennie, le voilà notre délai incompressible, le « time to market » cher aux industriels. Vérifiez, depuis le début des années soixante-dix, il faut au moins une dizaine d’années pour qu’une véritable innovation technique commence à trouver un marché (10 ans entre les premiers ordiphones WAP et l’iPhone) et à toucher un public. Et il faut au moins encore autant de temps pour qu’elle devienne incontournable (encore 10 ans entre le premier iPhone et la suprématie des plateformes comme Deliveroo ou Uber). Une génération est nécessaire pour changer les habitudes des utilisateurs et qu’ils adoptent des innovations dans leur quotidien (c’est comme pour l’aviation commerciale, elle existe depuis quelques dizaines d’années, mais n’est réellement à la disposition des masses que depuis peu).

Il est donc juste de dire que les évolutions significatives sont lentes et relativement peu fréquentes. En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard, normalisé (exemple : le concept de smartphone avec sa forme en brique qui est maintenant un standard bien installé et reconnu). Et l’histoire montre que ce processus prend souvent au moins vingt ans…

Vingt ans de délai pour les grands succès

Il a fallu vingt ans pour que les interfaces graphiques commencent à se populariser. Les premières recherches de Xerox datent des années 1970 et le succès de Windows 3.0 n’arrive que dans les années 1990. Il a fallu également vingt ans pour que le SGBDR se généralise entre les premiers travaux de recherches d’IBM et le succès d’un Oracle. Dix ans pour que les écrans à matrices actives concrétisent le rêve de l’écran plat à haute définition. Une dizaine d’années aussi pour le début de généralisation des réseaux locaux alors qu’on leur prédisait un avenir fulgurant. Et dix ans encore pour que France Télécom se décide à diffuser Numéris (avant l’ADSL…) à des tarifs acceptables !

Plus loin de nous, il a fallu près de trente ans (au XIXème siècle) pour que le moteur thermique (successeur de la machine à vapeur) passe d’une base très simple (alimenté au gaz, cycle deux temps, double effet, rendement faible) à sa forme finale et efficace (carburant liquide dérivé du pétrole, cycle à quatre temps, rendement acceptable).

Le délai incompressible (dix ans) combine plusieurs facteurs : 

  • Il faut du temps pour finaliser la mise au point (difficulté toujours minorée, mais la réalité est tenace et se rappelle au souvenir des optimistes à ce moment-là…).
  • Il faut du temps pour passer du discours technologique (c’est supérieur parce que…) au discours applicatif (cela va vous servir à…).
  • Il faut du temps pour que la cible visée se reconnaisse (ça va me servir à…)
  • Il faut du temps pour que les clients se familiarisent avant de généraliser (la plupart ont déjà essuyé des plâtres trop frais et n’ont plus envie de jouer les pilotes d’essai !).

La masse critique

Les évolutions les plus marquantes et les plus structurantes restent discrètes jusqu’à leurs percées. Un progrès n’apparaît pas spontanément (comme l’a résumé de façon géniale Ernest Hemingway à propos de “comment se retrouve-t-on ruiné après avoir été riche ?” : “progressivement et puis brutalement” –Gradually, then suddenly-), il est le fruit d’une lente maturation qui s’étale souvent sur une décennie (voire plus). Reprenons l’exemple d’Internet qui est très significatif sur ce plan…

Une croissance silencieuse

Pendant presque quinze ans, l’Internet a progressé discrètement, mais pas secrètement. Pourtant, personne n’en parlait. Il aura fallu l’émergence du Web en 1993-1994  pour que la croissance bondisse soudainement vers le ciel, à la surprise générale. La signification de ce phénomène est simple : les emballements de demain sont en préparation aujourd’hui, sous nos yeux. Il suffit donc de repérer les techniques prometteuses qui progressent régulièrement, sans accident de parcours, pour mettre le doigt sur les succès d’avenir.

Un emballement bénéfique

Il faut qu’il y ait un enthousiasme flagrant pour que l’emballement surgisse, c’est l’engouement des passionnés et adopteurs précoces qui le déclenche. Un exemple : l’Apple // a été l’amorce de la fusée “micro-informatique”. Pour que les deux Steve décollent (Steve Jobs n’a plus besoin d’être cité mais il ne faudrait pas oublier Steve Wozniak qui a été essentiel pour la partie technique de cette aventure…), il a fallu des efforts longs et soutenus de toute une génération de fervents adeptes, depuis les ingénieurs d’Intel, jusqu’aux concepteurs de CP/M, sans oublier les promoteurs du Basic, même si l’Apple// ne reposait sur aucun de ces trois composants !

Le phénomène d’emballement est comparable à la réaction en chaîne qui suit la réunion de la masse critique : il est à la limite du contrôlable. On l’a vu cette année avec l’emballement provoqué par ChatGPT qui aura mis au moins dix mois avant de se calmer. Ce phénomène est pourtant nécessaire afin d’assurer un retentissement suffisant à la nouvelle technique pour que sa diffusion ait véritablement des effets sur notre quotidien. Sans cela, la technique est confinée à une relative confidentialité qui interdit les impacts à grande échelle.

Attention à la fenêtre de lancement

Le non-respect du principe de la masse critique (attendre qu’une technique soit dans sa configuration favorable et qu’elle ait commencé à rassembler une bonne dynamique, le fameux momentum cher aux Américains) est fréquent dans l’informatique, car les grands acteurs sont trop avides de nouveautés spectaculaires pour se montrer patients. Pourtant, on peut tuer une technique prometteuse en la révélant trop tôt à l’appétit du public (comme on l’a fait avec les disques magnéto-optiques). Il existe donc une période de temps limitée pendant laquelle une technique doit faire ses preuves et fournir des exemples concrets de son utilité et de sa maturité. Cette période dure entre dix-huit et trente mois, pas au-delà. Cet obstacle est d’autant plus redoutable que l’attente est importante. Si l’accompagnement médiatique d’une nouvelle technique est exagéré, alors il s’ensuit un inévitable mouvement de balancier, tout aussi exagéré, pour sanctionner la légitime désillusion du public…

Car celui-ci n’est pas patient, l’hystérie de la découverte enthousiaste se transforme vite en déconvenue qui débouche sur un rejet immérité et prématuré (exemple : le flop des premiers casques de VR dans les années 90). La déception est souvent fatale (mais pas toujours), car elle influence le non-renouvellement des crédits, encore nécessaires pour parfaire la mise au point de la technique en devenir. C’est ce type “d’accident de parcours” qui est arrivé à l’intelligence artificielle à la fin des années quatre-vingt et qui faillit lui être fatal.

Le poids des infrastructures

S’il faut plus ou moins une décennie pour franchir toutes ces étapes et commencer la diffusion d’une invention, il en faut environ le triple pour atteindre le seuil de généralisation. Le temps nécessaire à une technique pour atteindre ce stade dépend aussi de ce qu’il réclame; les inventions nécessitant une infrastructure lourde sont forcément plus lentes à impacter leur marché.

Comme je sais que je ne suis jamais cru du premier coup quand j’évoque les délais des évolutions techniques, j’ai rassemblé ici quelques exemples qui montrent que de nombreuses découvertes que nous estimions proches de nous remontent en fait à bien plus loin dans le passé… Suivez le guide !

Quelques exemples incontestables

Les premiers composants électroniques remontent au début du XXe siècle : 1904 pour le tube diode (Fleming) et 1906 pour le tube triode (Lee De Forest). La découverte de la supraconductivité remonte à 1911 (découverte par Heike Kamerlingh Onnes).

L’électrocardiogramme est inventé en 1901 par Wilhem Einthoven. Et c’est Hans Berger qui invente l’électroencéphalogramme en 1924.

Le premier robot d’assemblage (Unimate de la société américaine Universal Automation) est installé dès 1962 sur une chaîne de production de General Motors. Plus de 60 ans après les premiers robots dans l’usine GM, Elon Musk a voulu nous faire croire que ses chaînes de montage robotisées (dans les usines Tesla) sont révolutionnaires… 

L’échographie est mise au point pour la première fois en 1955 par Inge Edler. Le stimulateur cardiaque (le fameux pacemaker) est inventé en 1958 par le docteur Ake Senning.

Richard Feynman a le concept de la nanotechnologie dès décembre 1959 (bien avant de pouvoir commencer à l’expérimenter).

Le premier appareil photo numérique à CCD (charge coupled device) est développé dans les laboratoires Bell dès 1971 (eh oui !). En 1975, Steve Sasson développe un autre appareil à base de CCD avec une résolution de 10000 pixels (il ne peut prendre que des photos en noir & blanc et demande 23 secondes pour capturer une image ensuite enregistrée sur une K7… l’appareil pèse 3,6 kg). Ensuite, RCA propose un appareil CCD capable de prendre des photos couleur en 1983.

C’est à la fin des années 1940 qu’une petite manufacture de produits photographiques de Rochester (New York) du nom de Haloid décide d’exploiter l’invention faite dix ans plus tôt par Chester Carlson, la xérographie (terme qui vient du grec xeros -sec- et graphein -écriture-). La conception du premier photocopieur, le XeroX Model A, et le succès des modèles suivants amènent la compagnie à changer son nom en 1958 pour Haloid Xerox, puis le 18 avril 1961, devenant simplement Xerox. 

XeroX Model A, 1949.

La première imprimante informatique à laser vient de Xerox aussi en 1971 (la 9700, un monstre capable de cracher 120 pages à la minute).

Canon en développe une version plus réduite en 1975 et HP commercialise sa première Laserjet en 1984 juste avant la Laserwriter d’Apple en 1985.

L’invention du téléphone mobile est attribuée au docteur Martin Cooper (Motorola) en 1973. Mais Motorola met encore dix ans avant d’en commercialiser un premier modèle : le Dynatac 8000.

L’empilement vertueux, mécanisme magique

Encore une fois, tous ces exemples sont là pour vous rappeler que l’innovation suit un chemin long et chaotique qui finit par déboucher, grâce à l’empilement vertueux. L’accumulation de petits pas finit par permettre d’atteindre un “effet de seuil” où le progrès franchit un palier et se révèle dans toute sa puissance.

Même si cette position (réfuter l’accélération continue du progrès technique) paraît contre-intuitive, je constate que je ne suis pas le seul à le dire et à l’écrire… Voici une petite sélection d’articles (plus un livre) qui vont dans ce sens !

 

Un préambule long mais nécessaire

Revenons donc, après ce long préambule, à cette fameuse “échelle Lefebvre” évoquée dans le titre de cet article ?

Cette “échelle” comporte quatre échelons : 

  • Dix ans, c’est le délais incompressible.
  • Vingt ans, c’est pour arriver au grand-public.
  • Trente ans, c’est pour atteindre la maturité finale.
  • Cinquante ans, c’est pour savoir que ça va en prendre encore cinquante !

En peu de mots, on peut résumer cette échelle ainsi : les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. 10, +10 (20), +10 (30).

Les exemples qui permettent de confirmer cette échelle sont nombreux et j’en ai déjà listé quelques-uns dans ce document. Ajoutons donc des exemples supplémentaires pour illustrer le dernier échelon : 50 ans, la frontière de l’illusion…

La frontière de l’illusion

Le premier exemple est bien connu (projet ITER), il s’agit de la fusion nucléaire contrôlée. Aujourd’hui, on le sait : la fusion nucléaire est un espoir ténu et très lointain (on parle désormais de 2070… comme pour confirmer la blague récurrente à propos de la fusion : “ça fait cinquante ans qu’on nous dit que ça sera prêt dans cinquante ans” !

L’autre exemple, c’est l’IA (la fameuse, trop fameuse “intelligence artificielle” !). Le concept initial remonte aux années cinquante et, aujourd’hui, après de nombreuses étapes plus ou moins spectaculaires, on est toujours loin du but défini par les pionniers : atteindre le niveau dit “d’intelligence générale”. Déjà, il faudrait s’entendre sur ce que ce “but” recouvre réellement mais on sait déjà que ça va prendre encore des décennies (j’insiste sur le pluriel ici…) avant de s’en approcher. Certes, alors que quasiment tout le monde a été hypnotisé par l’irruption de ChatGPT en 2023, il paraît téméraire d’affirmer qu’on est encore loin du but… Et pourtant, les vrais spécialistes (j’insiste sur “vrais” ici) nous le confirment : le chemin sera encore long, tortueux et semé de déceptions.

Conclusion

On constate qu’on n’est pas armés mentalement pour accepter que les évolutions techniques soient aussi longues, prennent autant de temps et demandent autant d’étapes. On a toujours tendance à croire que ça fait irruption brusquement parce que, justement, on n’a pas vu toute la phase de préparation. Il est difficile pour le grand public d’admettre que les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. Sur ce plan-là, on va continuer à croire aux “révolutions en une nuit” alors qu’elles ont toutes demandé vingt ans de préparation…

On aura beau dire et expliquer, les gens sont toujours persuadés que tout va de plus en plus vite. Tout simplement parce que dans leur vie à eux, ils ont de plus en plus de mal à gérer un monde qui est complexe et qui se complexifie de façon croissante. Donc cette notion de saturation est assimilée à de l’accélération alors que ça n’a rien à voir parce qu’on l’a vu, tout est cyclique. Et ses cycles s’enchaînent avec, successivement, des phases d’accélération et des phases de ralentissement. Le problème c’est que même pendant les phases de ralentissement, on a tout de même l’impression d’être toujours dans un monde qui va de plus en plus vite donc cet écart entre la perception et la réalité est voué à persister.

Publié dans conférences, Informatique, Références IT | Laisser un commentaire

Sam Altman est le prochain SBF… en pire !

Les deux Sam… le pire n’est pas celui qu’on croit !

En ce moment, c’est le procès de SBF (Sam Bankman-Fried, le fondateur de FTX, une plateforme d’échanges crypto qui a fait une faillite retentissante en novembre 2022). Petit à petit, on découvre l’ampleur de la fraude et de la culpabilité de l’ex petit génie. Il n’y a guère de doute que ce dernier va faire un long séjour en prison et qu’on l’oubliera. Tant mieux dans un sens car nous n’avons pas besoin de ce genre de personnage qui s’est avéré être un menteur particulièrement vicieux.

Mais si vous avez aimé SBF, vous allez adorer l’autre Sam : Sam Altman. Un “wunderkid” en remplace un autre, assez vite. Sam Altam sait brosser ses cheveux, lui.

L’autre Sam, baigné dans la “gloire de l’IA”

Nous allons maintenant parler de l’autre Sam d’Amérique, le visage de la révolution de l’IA qui a pris d’assaut le monde (vous savez ce que j’en pense ou alors, il suffit d’aller revoir ceci) : Sam Altman d’OpenAI. Sam Altman (SamA dans le reste du texte) se décrit comme un entrepreneur, un investisseur et un programmeur. Il a été président de Y Combinator et PDG de Reddit pendant une courte période. Il a cofondé Loopt en 2005 et est l’actuel PDG d’OpenAI, la société mère du chatbot ChatGPT.

Depuis le lancement de ChatGPT, SamA attend avec impatience d’étendre de manière agressive son empire technologique, la cryptographie étant le dernier espace dans lequel le milliardaire de 38 ans se lance (oh, quelle surprise !). Son objectif est de « fournir une fraction d’un jeton numérique à chaque personne dans le monde ». Worldcoin (c’est le nom du “alt coin” lancé par SamA), une entreprise à la pointe de la technologie, veut utiliser la technologie de balayage de l’iris pour authentifier les individus et les récompenser avec des jetons.

Les parallèles entre SamA et SBF sont nombreux : les deux aiment la crypto et ils aiment aussi susciter la régulation du gouvernement mais pour les activités des autres, pas pour eux bien sûr !

SBF réclamait de la régulation sur les plateformes d’échanges espérant ainsi affaiblir Binance… On connaît la suite.

SamA estime que la technologie IA nécessite l’intervention des gouvernements. “Je pense que si cette technologie tourne mal, elle peut faire des dégâts… nous voulons le dire clairement”, a déclaré Altman, ajoutant : “Nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise”. Ben voyons !

SamA, un SBF en pire

Avec SamA, nous avons l’exemple type d’un individu dangereux et sans scrupule. Pour s’en convaincre, il suffit de d’interpréter les signaux que ce type envoie…

Déjà, rien que ce premier exemple est édifiant : SamA lance une société sur l’IA basée sur l’Open Source et, à la première occasion, il se vend à Microsoft !!

Bravo, c’est du jamais vu !

Comme si cela ne suffisait pas à montrer quelle est la nature de cet individu, voilà qu’il se lance dans la crypto (le repaire des escrocs) !

Si, avec ça, vous avez besoin de plus de signaux, c’est que vous ne voulez pas voir l’inéluctable : SamA fera encore plus de dégâts que SBF. Vous l’avez là pour la première fois ici, souvenez-vous en…

Publié dans Anecdotes IT, La terrible vérité | 3 commentaires

Les deux bords de la société

Notre société humaine est désormais divisée en deux bords, deux extrêmes qui s’éloignent l’une de l’autre, progressivement mais inexorablement.

Vous allez me dire, ce n’est pas nouveau !

En effet, depuis qu’on étudie le “champ sociétal”, on aime à le séparer en entités distinctes : les riches et les pauvres, les progressistes et les conservateurs, les écolos et les pollueurs et ainsi de suite, vous m’avez compris.

Mais on n’en est plus là aujourd’hui. Un des deux bords, qui compte encore la majorité des gens (et largement), représente la conformité (ceux de ce bord diraient même la “normalité”). Dans ce groupe, ces gens croient à la parole officielle (la doxa), ils ne la remettent pas en doute. Ils râlent éventuellement mais ils se conforment, y compris aux injonctions les plus intrusives comme les injections de produits douteux sous couvert d’une “science” inféodée à Big Pharma.

Le second bord est celui de la liberté. Ce groupe est encore minoritaire mais grandit chaque jour un peu plus. Les membres de ce groupe rejettent la doxa et ses zélateurs (les principaux médias). Ce n’est pas une position facile car la puissance publique utilise tous les moyens à sa disposition (pressions statutaires, ostracisation, restrictions d’actions et de mouvement) pour “faire rentrer dans le rang” ces récalcitrants qui gâchent le bel alignement.

Ce que nous avons vu de choquant sans y croire depuis cinq ans

Eh oui, cela fait au moins cinq ans que nous avons basculé dans une France difficile à reconnaître !

Nous avons vu la violence publique s’abattre sur les gilets jaunes, une répression d’une brutalité que l’on ne pouvait imaginer s’est déchainée sur des protestataires qui ne représentaient un danger pour personne. Moi comme d’autres, nous n’en sommes pas encore revenus… Cette violence, cette répression, cette brutalité envers un groupe aussi inoffensif, c’était plus que choquant, c’était incroyable !

Puis nous avons eu la fameuse “Crise sanitaire” et son cortège de mesures absurdes : privation des libertés, contraintes risibles et inefficaces (tous s’en souviennent avec un peu d’embarras : comment as-t-on pu supporter un gouvernement aussi inepte ?), sans oublier la coercition insidieuse sur ceux (rares) qui relevaient courageusement que, vraiment, quelque chose n’allait pas. Et bien sûr, les fameux vaccins miracles sont arrivés : 100% efficaces et 100% sûrs… Combien de fois avons-nous entendu cela ?

Mais, bien sûr, ces “vaccins expérimentaux” obligatoires n’ont pas été efficaces et ils ont produit de nombreux effets secondaires incontestables (sans parler des morts subites, le tout dans un silence médiatique assourdissant).

Tout cela s’est accompagné d’une propagande des médias permanente et abrutissante. Et comme cela ne suffisait pas, nous avons découvert que les principaux réseaux sociaux pratiquaient une censure systématique, même sur les contenus factuels basés sur les chiffres officiels !

Si on m’avait dit que Facebook, Youtube et Linkedin (pour ne citer qu’eux) deviendraient des collaborateurs zélés de la puissance publique, je ne l’aurais pas cru (tout comme je jugeais impossible -à tort !- la violence sur les gilets jaunes…). Avec tout cet appareil oppressant, se faire traiter de complotiste est devenu un badge d’honneur : depuis cinq ans, pratiquement tout ce que les soit-disant complotistes ont annoncé et dénoncé s’est avéré exact… Sans que les médias le reconnaissent, bien sûr. Ce silence complice démontre s’il en était besoin que ces “journalistes” sont à fond du côté du système, poussent la propagande officielle même quand cette dernière est absurde (comme on a pu le voir à maintes reprises lors des reportages sur la guerre en Ukraine) et sont donc sans doute possible des ennemis du peuple.

Une France méconnaissable

Oui, je n’exagère même pas en écrivant que nous avons basculé dans une France que nous ne reconnaissons pas. Passe encore de la corruption, du gaspillage de l’argent public, des emplois fictifs et autres abus, nous faisons désormais face à une puissance publique hostile, agressive et sans contrôle. En plus, tout cela se produit en même temps que la dégradation manifeste de nos infrastructures publiques : après les déserts médicaux (une pénible réalité dès qu’on s’éloigne des grands centres urbains), nous devons désormais faire face aux déserts administratifs où il devient de plus en plus difficile de faire renouveler une simple pièce d’identité !

Cela sans même évoquer la fiscalité toujours plus écrasante ou l’Education Nationale qui se perd dans les débats sur le genre alors que les résultats des tests des élèves n’a jamais été si bas. Comme si tout était fait pour exacerber la frustration du peuple et exciter l’envie de révolte des classes laborieuses.

Plus jamais cela, la grande illusion

Pendant des décennies, on nous a rabâché “plus jamais cela” en pointant les années d’occupation et de collaboration de triste mémoire. Mais voilà qu’il a suffit d’une crise sanitaire pour que toutes ces résolutions solennelles soient aussitôt oubliées et foulées aux pieds. Les médias ont organisé une opposition exacerbée entre les vaccinés et les non-vaccinés. Ces derniers étaient désignés à la vindicte du bon peuple et certains (dont une majorité d’artistes connus, on ne va pas les oublier…) s’en sont donné à cœur-joie d’une manière écoeurante, rappelant ainsi les sombres heures de la collaboration. On croyait donc (à tort) qu’on ne reverrait pas de telles bassesses mais, comme je l’ai souligné plus haut, la France d’aujourd’hui ne ressemble plus à la France à laquelle nous étions tous habitués.

Une certaine résistance est en train de se former

Justement, certains ont compris qu’il fallait arrêter de subir et d’obéir aveuglement. Que cet État n’était plus là que pour nous abaisser et nous contraindre d’accepter l’inacceptable. Bien entendu, qualifier ce mouvement de “résistance” fait inévitablement penser aux FFI (Forces Françaises de l’intérieur, la résistance unifiée à partir du 1er juin 1944). Notre modeste mouvement n’est évidemment pas comparable avec la résistance des patriotes lors de l’occupation de notre pays. Nous n’en sommes pas à prendre les armes mais l’idée de la liberté qui nous guide est la même.

Et pourtant, notre génération de”boomers” a été élevée avec le respect des institutions comme horizon indépassable. Quand j’étais jeune, les soit-disant révolutionnaires (genre les leaders de mai 68 dont le sociologue Michel Clouscard a démontré qu’ils n’étaient que des sociaux-traîtres au final) me semblaient tout à fait à côté de la plaque. Jamais je n’aurais imaginé qu’un gouvernement français ferait preuve de cette hostilité poisseuse envers son propre peuple.

Jamais je n’aurais pu imaginer que j’écrirais un jour un texte comme celui-là. Ce n’est pourtant pas moi qui ai changé mais les masques autour de nous qui sont tombés.

Des trahisons récentes et significatives

S’il fallait encore une preuve que le système global nous est hostil et agressif, il suffit de constater les trahisons qui se multiplient, même de la part des institutions que nous pouvions imaginer impartials : l’appel récent du pape en faveur de l’accueil des réfugiés ou le prix Nobel de médecine attribué aux découvreurs des fameux “vaccins” ARN devraient achever de nous convaincre qu’il n’y a rien à attendre des maillons du système qui nous encercle et nous enferme.

Il n’y a rien non plus à espérer de la collusion des médias mainstream et des réseaux sociaux. Ces derniers ont prouvé maintes fois qu’ils étaient résolument du côté du manche. 

La guerre comme ultime recours

L’Histoire l’a montré souvent (trop souvent), les systèmes politiques en déliquescence ont recours à la guerre pour prolonger leur domination. Et justement, les guerres se multiplient ces derniers temps comme vous avez pu le remarquer. Pour les hiérarques du système, la guerre ne présente que des avantages : tout d’abord, ce ne sont pas eux qui les mènent (!), ensuite ça permet de mobiliser les masses pour une “juste cause”, ça permet d’écouler le matériel militaire et ainsi de pouvoir en vendre plus à ceux qui ont les moyens de payer et enfin ça justifie une propagande débridée qui se résume toujours “eux contre nous” et “nous sommes du côté du bien” ce qui est évidemment mensonger dans tous les cas.

En revanche, pour les peuples, la guerre est une perte nette sur tous les plans. 

Inventons notre résistance

Notre résistance, nous devons l’inventer nous-mêmes avec nos propres moyens. Mais nous avons une certitude : le temps joue pour nous. En effet, aucun système oppressif ne dure toujours. Tout comme les monopoles finissent toujours par être balayés, les dictatures soit-disant douces qui nous oppriment ne résisteront pas à l’usure du temps et à l’opposition des peuples.

Le combat sera long, il sera amer mais il est inévitable que nous soyons vainqueurs car ceux qui nous oppriment n’ont pas de base solide. Sinon, pourquoi seraient-ils obligés de faire appel aux mensonges systématiques de la propagande pour justifier toutes leurs actions ?

Il ne s’agit donc pas de proclamer que nous allons triompher parce que nous sommes les plus forts mais plutôt parce que nous sommes du côté du bien. Car se battre pour sa liberté, c’est toujours être du côté du bien.

Publié dans La terrible vérité | Laisser un commentaire

Deep Fake grâce à l’IA, des cas pratiques et utiles à l’horizon ?

Cette fois, nous allons parler d’IA et de manière positive !

Si vous suivez ce blog, vous savez que je fais partie des “septiques” vis-à-vis de la vague IA générative que nous subissons depuis des mois. J’essaye même de temps en temps de ramener les gens à la raison (voir “Quelques règles pour survivre à la hype…“), sans grand succès d’ailleurs !

Dans une série récente réalisée avec Redsen, j’essaye de faire voler en éclats tous les poncifs à propos de cette nouvelle vague IA et de ses promesses (et menaces !) extraordinaires, à voir ici  (c’est une playlist acec 6 vidéos) :

Cependant, mon propos du jour n’est pas de revenir encore sur l’hallucination collective qu’on vient de subir avec ChatGPT et consorts… Non, cette fois, je vous propose plutôt de constater qu’on est sans doute pas loin des vrais cas pratiques.

Traduction vidéo synchronisée

L’exemple du jour c’est Hey Gen qui le fournit. Il s’agit d’une startup dédiée aux nouveaux usages grâce au recours massif à différents systèmes d’IA. J’ai donc testé leur offre de traduction synchronisée dont le princip est fort simple ; vous uploader une vidéo qui a été réalisée dans une langue (le français dans mon cas) et vous sélectionner la langue désirée (l’espagnol dans mon cas) et vous attendez le résultat. Hey Gen promet que la vidéo va être une copie conforme de votre “discours” mais dans la langue cible avec même la synchronisation des lèvres… Voyons donc ce que cela donne :

Ne vous y trompez pas : je ne suis pas à mon tour victime de l’effet démo mais quand on peut repérer des avancées intéressantes, il faut aussi savoir le reconnaitre.

Donc, sans doute ce type de service (Hey Gen) est-il annonciateur de cas pratiques utilisables comme celui-ci. Cela ne veut pas dire que les traducteurs vont inexorablement se retrouver au chômage, loin de là !
Mais ces nouveaux outils vont permettre de créer des nouveaux usages comme on a pu le vivre avec les différentes vagues logicielles de ces dernières décennies.

Publié dans à travers mes découvertes, Anecdotes IT, Informatique | 4 commentaires

Des vidéos éclairantes sur l’évolution de la société depuis mai 68

Mai 68 est un marqueur de notre histoire récente. Mais au-delà des poncifs habituels sur cette date et cet événement, il est bon d’écouter certains penseurs, surtout ceux qui sont peu connus ou même, encore mieux, en disgrace.

Je vous en propose deux aujourd’hui : Alain Soral (sur lequel j’ai déjà parlé ici, ça remonte à 2011 quand même !) et Michel Clouscard que je ne connaissais pas du tout et c’est l’interview de Soral qui m’a permis de le découvrir…

Alors, certains vont dire “Soral ? Mais c’est un facho !”… Et ça suffit à l’exclure ?
Je ne crois pas : Soral a des choses à dire et il le dit plutôt bien, ça nous change des ectoplasmes que tentent de nous imposer les médias, point.

De plus, écouter Soral permet de faire des découvertes significatives comme Clouscard que je considère être comme le “Jacques Ellul de la sociologie” !
Bon, il faut nuancer : Ellul est le théoricien de l’influence de la technique sur la société (un thème qui m’est cher) alors que Clouscard est le théoricien de “capitalisme de la séduction” (un domaine vaste et fascinant). Je vous invite à regarder et écouter le documentaire ci-dessous qui lui a été consacré : on apprend beaucoup et on comprend aussi pas mal grâce à ce contenu.

On s’aperçoit grâce à ces deux vidéos que les Tartuffes qui occupent désormais les plateaux-télé (que, je rappelle, nul ne vous oblige à regarder !!) sont des renégats et des sociaux-traitres.

Publié dans à travers mes découvertes, La terrible vérité | Laisser un commentaire

Championnat complet de la saison F1 de 1978 sur AMS2, récit et bilan

L’idée est de pouvoir boucler un championnat complet (bon, 14 manches, face aux standards d’aujourd’hui, ça parait peu !) avec un bon niveau de compétitivité des IA (100% quand même) et la possibilité d’abimer la voiture (et donc de ne pas terminer).

Un petit aperçu de ces courses avec une vidéo récente à voir (ou à revoir) ici…

J’ai quand même mis deux limites au réalisme. Tout d’abord, les manches durent 40 minutes, pas plus. Je pense que c’est la bonne durée : ni trop court, ni trop long (mais ça n’engage que moi). Ensuite, pas de pluie : toutes les manches se déroulent par temps sec. Automobilista 2 (AMS2)  gère le temps variable et la pluie est plutôt réaliste, même un peu trop : si la pluie est forte, sur certains circuits, on ne voit carrément rien !

Après y avoir bien réfléchi (et fait quelques tests), je me suis dégonflé : pas de pluie pour ce coup-ci. J’ai utilisé les skins permettant de recréer visuellement le plateau de la saison 1978 et ces skins sont vraiment formidables : jusqu’aux casques de pilotes fidèlement reproduits !

Andretti en tête… logique !

https://www.racedepartment.com/downloads/ams2-f1-1978-season.47537/ réalisée par AFry.

Et ce n’est pas tout : avec cette skin, vient un fichier XML qui redéfinit les forces en présence afin d’être sûr que les meilleurs vont être devant (Andretti, Peterson, les Ferrari) et que les attardés seront bien ceux qui étaient peu compétitifs lors de cette fameuse saison (genre Arnoux, Brambilla, Rosberg, etc.).

Admirez les détails de cette skin !

Le choix des circuits aussi, j’y ai fait bien attention : j’ai privilégié les versions “historiques” des différents tracés mais, avec la version actuelle d’AMS2, il est impossible de reproduire le calendrier de la saison 78 (manque Le Castellet par exemple) et j’ai donc été obligé d’inclure des tracés qui n’existaient simplement pas à l’époque. Mais, à part ça, il y a vraiment de quoi s‘y croire !

Un circuit peu connu mais à découvrir !

Manche 1 – Argentine – Termas de rio Hondo

Victoire facile en partant de la pôle. J’ai attaqué tout le long pour me mettre hors de portée de Peterson (rapide et incisif). Pneus usés mais encore utilisables, carburant avec une bonne marge.

Un tracé plat mais assez intéressant au final…

Manche 2 – Brésil – Jacarepagua

Victoire difficile en partant de la première ligne (mais pas en pôle position).

Andretti a mené au moins les trois quart de la course et j’ai passé mon temps à le poursuivre, à le rejoindre et à tenter de le dépasser (beaucoup d’échanges musclés où je rétrogradais ensuite de 2-3 secondes pour revenir après).

Finalement, j’ai pu le dépasser et prendre de l’avance (jamais plus de 5 secondes). Fin de course difficile : pneus avants très usés, je ralentis fortement. Andretti remonte fort, je suis sauvé par les attardés qui le retarde et l’élimine dans le dernier tour !!

C’était la course la plus difficile de la saison…

Kyalami, mon circuit préféré !

Manche 3 – Afrique du Sud – Kyalami

Je pensais faire la pôle facilement mais mes adversaires ont amélioré en fin de séance, je me retrouve seulement 4ème temps.

Départ moyen, je fais les premiers tours en 5ème position. Je reste calme, je remonte pas à pas et, au 9ème tour, je prends la tête facilement. AMS2 plante (c’est rare mais ça arrive !) vers le 14ème tour (tiers de la course).

Seconde tentative : très bon départ, je pars en tête et j’y reste tout le temps, rien à signaler sinon que les pneus avant s’usent beaucoup et vite (il y a un équilibre à rétablir). Course quand même moins dominante qu’en Argentine car je termine avec une avance réduite cette fois.

Un tracé vraiment difficile !

Manche 4 – USA Ouest – Long Beach

Pôle position, largement. Pourtant, le tracé est super difficile !

Victoire relativement facile car je n’ai pas l’opposition (dès la fin du premier tour, j’avais 4 secondes d’avance sur le second !) mais le tracé du circuit fait qu’il fallait rester concentré tout le temps : la moindre erreur et c’est le mur…

L’usure des pneus n’a pas posé de problème cette fois (le rééquilibrage des réglages semble porter ses fruits) mais il fallait que je surveille la température des freins qui montait vite si j’attaquais un peu.

J’ai pris un tour à tout le monde sauf les cinq premiers.

Un circuit qui semble facile et qui ne l’est pas !

Manche 5 – Portugal – Estoril

Pôle mais il a fallu que je me bouge pour la décrocher !

Je termine 5ème. J’aurais pu gagner mais j’ai fait trop d’erreurs. Je termine la course sans aileron arrière et c’est déjà beau que j’ai pu sauver cette 5ème place !

En fait, j’ai sous-estimé la difficulté de ce tracé dont les points de freinages sont difficiles à déterminer à plusieurs endroits, d’où mes erreurs à répétition. Ceci dit, je n’envisageais pas de gagner chaque course !

Manche 6 – Espagne – Barcelone
Pôle position sans problème et, cette fois, j’ai bien pris le temps de peaufiner la configuration course, surtout au niveau de la pression des pneus (plus forte côté droit pour compenser le sens du circuit qui a surtout des virages à droite).

Mon objectif principal : faire une course super propre pour oublier la précédente !

Victoire très satisfaisante car j’ai atteint mon objectif : j’ai gagné sans virer personne… Mais j’ai surpiloté pendant les trois premiers tours et ça c’est moyen.

J’ai pris un départ moyen et j’ai passé un moment derrière les deux Lotus qui allaient bien. J’ai pu prendre la tête au 4ème tour mais je n’ai jamais eu une grosse avance sur Andretti qui signe son meilleur temps à moins d’une demi-seconde du mien.

J’ai de l’avance au championnat : 135 pts sur le second (Watson) qui a 95 pts.

Manche 7 – Italie – Imola

Pôle position relativement facilement mais ce circuit ne m’inspire pas.

Je pars en tête et j’arrive à creuser un petit écart sur Watson (au mieux, autour de 10 secondes) mais je m’aperçois vite que je n’ai pas embarqué assez de carburant (c’était régulièrement trop pour les autres tracés mais pas ici où on est à fond souvent et longtemps). A partir de la mi-course, je passe en mode “economy-run” pour arriver à finir.

J’y arrive presque mais il y a un tour de trop à faire et je termine en me traînant, sauvant juste la 3ème place !

Brands Hatch, un tracé vraiment unique !

Marche 8 – UK – Brands Hatch

Pôle mais je me sortant les tripes : Brands Hatch reste un circuit hyper difficile où la faute est facile…

Je prends un bon départ et je mène mais sans creuser l’écart. Andretti devient pressant à partir du 3ème tour et me double à la fin du 5ème en me bousculant. Je repars 5ème et remonte 3ème à mi-course mais pas mieux : j’ai fait trop d’erreurs pour rattraper les Lotus !

Au championnat, regroupement : j’ai 165 pts devant Watson avec 128 pts puis Andretti (119) et Peterson (106).

Un tracé à l’intérêt douteux…

Manche 9 – Allemagne – Hockenheim

Je n’ai réussi que le 4ème temps sur ce tracé sans grand intérêt finalement. Mais j’ai constaté qu’en surgonflant un peu les pneus (pour compenser le fait qu’ils ne montaient pas en température), on gagne en vitesse de pointe au moins 10 km/h sinon plus !

Victoire relativement facile après un excellent départ, en tête de bout en bout et pas d’erreur cette fois. J’ai pu creuser un petit écart dès le début et heureusement car cet écart est ensuite resté stable : mes poursuivants bénéficiaient de l’aspiration et pas moi.

Bonne affaire au championnat… En revanche, on peut se demander quel est l’intérêt d’un circuit pareil : nul selon moi.

Un beau circuit qui n’existe plus (sous cette forme), hélas !

Manche 10 – Autriche – Zeltweg

Très mauvaises qualifs !

J’aime bien ce circuit mais j’y suis lent… Je reste coincé à plus de 2 secondes de la pôle et rien à faire pour améliorer (13ème temps au final… ça aurait pu être encore pire !)… De plus, je constate que les pneus avant s’usent vite. Cela va être difficile de faire un super résultat ici !

Après un bon départ, je suis remonté en 10ème position, j’ai passé une bonne partie de la seconde moitié de la course à remonter sur Dépailler pour la 9ème place mais, à chaque fois que j’étais à portée, je faisais une micro-erreur qui me renvoyait à 3 secondes.

J’ai dû faire au moins 5 ou 6 tentatives pour le doubler enfin. En fin de course, les gars devant ralentissaient (à cause des attardés) et j’ai pu donc accrocher la 8ème place en finissant à un souffle du 7ème… Bref, ça aurait pu être pire.

Le légendaire tracé de Spa…

Manche 11 – Belgique – Spa

Cette fois, je me sentais bien sur ce tracé et j’étais compétitif : pôle-position facilement et avec un bon écart (presque une seconde). Difficile de comprendre ce qui m’est arrivé en Autriche du coup !

Le déroulement de la course a été limpide : départ correct, en tête de bout en bout, écart creusé progressivement avec le second (Waton puis Andretti). Même l’usure de pneus n’a pas été un problème car mon réglage permet d’user les 4 presque de façon identique.

Le seul écueil, c’était que je rejoignais un attardé, le “dirty air” de son sillage rendait la voiture difficile à tenir.

Au championnat, je suis assez confortable avec 219 pts devant Andretti (177 pts) et Watson (161 pts).

Forza Monza !

Manche 12 – Italie – Monza

Pôle-position assez facilement. Bonne course avec une nette victoire mais, en fait, je n’ai pu commencer à avoir un vrai écart avec Andretti qu’à partir de la mi-course.

Je suis surtout super content d’avoir fait une course vraiment propre : aucune erreur, rien à me reprocher (ou presque) et un bon rythme.

Le Glen et ses couleurs d’automne…

Manche 13 – USA est – Watkins Glen

Nouveau (gros) trou d’air : comme à Zeltweg, je ne suis pas compétitif sur une piste que pourtant j’apprécie… seulement 15ème temps en ayant essayé plein de réglages pour améliorer la voiture (qui sous-virait trop dans les grandes courbes). Finalement, à la fin des qualifications, je ne suis que 17ème sur la grille… Vraiment pas terrible !

Je m’aligne en me disant qu’il faut que je fasse la même course qu’à Zeltweg justement : accrocher une 8ème ou 7ème place pour sauver au moins quelques points… Sauf que là, je pars d’encore plus loin !

Bon départ (super bon départ même) et premier tour de folie, je suis 12ème. Ensuite, dans les premiers tours, j’arrive encore à grappiller quelques places : 10ème. J’ai attaqué autant que je pouvais pour rejoindre celui qui était devant moi et, à mi-course, je suis 8ème ce qui n’est déjà pas si mal. La fin de course va procurer son lot de surprises puisque les nombreux abandons me poussent à la 4ème place !

Une position très chanceuse et pas vraiment méritée mais je suis content qu’une mauvaise course se termine au pied du podium. Au championnat, je ne peux être rejoint par Andretti (le dernier à me menacer), c’est gagné !

Suzuka, un grand huit ?

Manche 14 – Japon – Suzuka

En prenant les mêmes réglages qu’au Glen, j’ai fait facilement la pôle avec plus d’une seconde d’avance…

La course a été limpide : après un départ moyen, je me suis retrouvé 3ème derrière les deux lotus d’Andretti et Peterson. Mais je n’ai pas eu de mal à les doubler tous les deux dès la fin du premier tour. Le reste fut tranquille : j’augmentais mon avance sans forcer tour après tour. Pas de problème de pneus ni d’essence. J’ai donc gagné avec une bonne marge.

Et pourtant, je n’apprécie pas particulièrement ce tracé que je trouve artificiellement difficile et, en plus, je déteste vraiment la dernière chicane que je trouve complètement ridicule, pire que celle de Spa, c’est dire !

Après 14 manches, je gagne assez largement…

Conclusion

Globalement, j’ai plutôt de la chance pendant ce championnat car je n’ai pas abandonné une seule fois sur panne mécanique. Et pourtant, des abandons de voitures fumantes, j’en ai vu un paquet surtout en fin de course !

De plus, ces abandons m’ont souvent été favorables, surtout quand j’étais à la ramasse…

Alors, justement, comment expliquer mes contre-performances ici et là (en fait, surtout Zeltweg et Watkins Glen) ?

Eh bien, je ne les explique pas. Je constate que j’ai été dans le coup souvent et quelquefois carrément au-dessus du lot (comme à Long Beach et à Suzuka). Mais les concurrents étaient compétitifs car, à chaque fois que je faisais une erreur, j’étais passé et déposé par mes poursuivants.

Sur le plan de la gestion des courses je me suis débrouillé correctement sauf à Imola où la panne d’essence était vraiment de ma faute. Cependant, ce revers m’a plutôt servi car j’ai fait très attention à ce paramètre lors de la suite (et cet incident ne m’a plus jamais menacé). J’ai aussi amélioré la situation sur le plan de l’usure des pneus au fur et à mesure qu’avançait la saison en affinant les réglages de ma BT46B. Tout d’abord en équilibrant la répartition des efforts entre le train avant et le train arrière puis en adoptant des réglages de pression asymétriques entre les bords gauche et droits en fonction du tracé à chaque fois. Si le circuit tournait majoritairement à droite, je surgonflais (un peu) les pneus avant et arrière droits afin de compenser leur moindre travail et ainsi de les garder en température.

Ces fignolages m’ont bien aidé lors de la seconde moitié de la saison où je n’ai plus eu besoin d’économiser les gommes alors que cela m’est arrivé en première partie.

Une fois de plus, Automobilista 2 m’a éblouie par la finesse de sa simulation et par la somptuosité des paysages qui environnent les circuits. Lorsqu’on débouche de la parabolique à Monza, on peut voir les Alpes au nord de MIlan avec les sommets couverts de neige… sublime ! 

On est gêné par le sillage aérodynamique des voitures que l’on suit de trop près, on les voit perdre des morceaux de gommes et les échappements cracher des flammes au rétrogradage… L’immersion est complète et ça aide à garder sa concentration.

Je suis très satisfait d’avoir “remporté ce championnat” fictif mais j’aurais aimé faire au moins une course “parfaite”. Pas forcément en l’emportant largement (ça, j’ai eu) mais plutôt en ne faisant pas la moindre erreur pendant les quarante minutes que durait chaque manche. Et quand je dis “pas la moindre erreur”, c’est aucun freinage raté (avec élargissement dans le virage pour compenser), aucune limite de piste de franchie et pas un seul contact (même minime) avec les IA (y compris avec les attardés). Eh bien ça, je me le suis promis avant chaque départ et j’attend encore de réussir à l’accomplir (j’ai frôlé ce résultat à Monza mais pas tout à fait complètement…).

Tu as le temps de faire tout cela ?

Bon alors, bien sûr, faire 14 courses de 40 mn (sans compter les qualifs , hein !), ça prend du temps, beaucoup de temps, j’avoue. Mais c’est du temps-plaisir !

Et, bientôt, si tout va bien, un nouveau titre de SimRacing va adresser ce problème du temps, surtout pour les équipages éparpillés… Il s’agit de Le Mans Ultimate !

LMU peut-être vu comme un lifting de rFactor2 mais j’espère bien que cela va s’avèrer être bien plus que cela. LMU devrait proposer une fonction de “relais asynchrone” qui va être très apprécié par ceux qui ne peuvent pas rouler n’importe quand (la grosse majorité en fait). J’espérais quelque chose comme cela depuis longtemps afin de pouvoir rouler avec des amis éloignés et très occupés. Faire les 24 heures du Mans en SimRacing, c’est génial mais c’est très impliquant. Avec cette solution, ça va le rendre un peu plus possible… Je veux y croire !

Publié dans Sport-auto, Sports mécaniques virtuels | Laisser un commentaire

Une vidéo de plus pour mes trois derniers casques

Encore un petit supplément dans la grande série “j’aime les casques de moto et je le montre !“… On en était resté au sauvetage du Premium Trophy mais, entretemps, j’en ai acheté trois de plus… Mais arrêtez-le, quelqu’un !

Voilà donc une courte (finalement pas si courte : je suis bavard sur ce sujet !) vidéo pour couvrir ces trois casques de plus : le Gasoline Jet Café Racer (à €46,58), le Marko Boréal (un autre jet, à €172,13) et le HJC V10 (un intégral vintage à €201).

Alors, ce sont les derniers ?

Ben, peut-être pas même si la liste potentielle commence à s’épuiser…

Publié dans casques moto | Un commentaire

Un petit tour à bord d’une Brabham BT46B à Barcelone

Petite vidéo du formidable Automobilista 2 v1.5 sur le cicuit de Barcelone. Je sais, les F1 de 78 n’ont jamais couru sur ce tracé puisqu’il n’existait pas encore lors de cette saison mémorable (La manche espagnole de la saison 1978 de F1 s’est déroulée à Jarama). Et oui, la BT46B n’a jamais couru ailleurs qu’à Anderstorp. Enfin, c’est certain que les Brabham BT49 n’ont pas disputé la saison 1978 car elles ne sont apparues que deux ans plus tard !
Mais cet ajout permet d’avoir un peu plus de diversité (le mot est à la mode !) dans le peloton et la “balance des performances” façon AMS2 fait en sorte que ces voitures (les BT49) ne soient pas loin au-devant des autres… Ouf !

La possibilité de replacer les “skins” des voitures nous offre le plateau de la saison 1978 d’une façon très agréable à défaut d’être réaliste (les Ferrari et Ligier sont basées sur la Lotus 79 mais comme le “décor” est bien réalisé, ça passe !). Les casques sont très bien fait et la compétence des pilotes est bien reproduite puisque nous avons systématiquement les Lotus d’Andretti et de Peterson aux avant-postes.

J’ai choisi de rouler à bord de la BT46B (la fameuse “voiture-aspirateur” qui gagna la première et seule course où elle fut alignée) de Lauda, mon pilote préféré.

Dans cette petite vidéo, je ne vous propose que les trois premières minutes sur les 40 que durait cette course. Plus d’explications ci-dessous…

Pas pour frimer !

Alors, tout d’abord, ce n’est pas pour “frimer” que je vous propose cette vidéo car, dans ces 3 minutes, je fais pas mal d’erreurs : je rate mon départ, je me fais bousculer par Andretti après le S du départ, Peterson en profite pour me passer aussi… Et, à la fin du premier tour, je sort super large de la dernière courbe à droite !

Cette grossière erreur aurait pu être la dernière de cette session car ma course aurait pu (aurait dû ?) se terminer là… Heureusement, la chance était avec moi et j’ai pu me remettre en piste sans rien toucher (c’est là aussi qu’on voit que les PNJ – PNJ = personage non-joueur ou adversaire robot ou IA, tout simplement…- d’Automobilista 2 sont particulièrement prudents et attentionnés : personne ne m’a percuté lorsque je suis (mal) revenu en piste !

Ensuite, je continue les conneries car je suis énervé par mon mauvais début de course : “dive bombing” de la mort qui tue pour m’extraire du groupe des poursuivants qui m’avaient pourtant gentiment épargné, “block pass” agressif sur Peterson et le même, un tour plus loin sur Andretti au même endroit (mais ça, on ne le voit pas car la vidéo s’arrête avant…). Tout ça sans compter le nombre de point de corde que je loupe car, bien sûr, je surpilote pour rattraper les deux Lotus !

Par la suite, je me suis enfin calmé et j’ai commencé à rouler propre afin d’épargner mes pneus et de ne pas faire surchauffer mes freins. Et c’est à partir de là que j’ai pu gérer ma course : rester en tête, creuser un peu d’avance (assez peu au final) et rallier l’arrivée sans plus faire de boulette…

Pourquoi seulement 40 mn ?

Selon moi, c’est pile le bon choix de durée : pas trop court, pas trop long (hey, c’est un loisir, ça doit rester du plaisir !). De plus, avec les F1 de 1978, je ne vois pas comment faire durer mes pneus pendant 1h30/1h40 !!
Là, en 40 mn, je dois gérer l’usure des pneus mais ça reste jouable.

Pourquoi les F1 de 1978 ?

C’est vrai, y a plein de choix de monoplaces sur AMS2 mais j’aime pas les modernes (trop d’appuis et moteurs trop “hystériques” !) et, parmi les rétros, j’ai longuement roulé avec les F1 de 1983 mais avec la McLaren Cosworth (ma préférée de cette époque) c’est vraiment dur de lutter avec les turbo !

Avec les voitures de 1978, j’ai un compromis qui me convient : juste assez d’appui pour être -relativement- faciles à piloter (on peut attaquer raisonnablement sans risquer de se mettre au tas à chaque virage) mais qui doivent être menées avec respect… Il faut gérer les pneus et les freins et il faut éviter les surrégimes (surtout lors des rétrogradages) pour ne pas abimer le moteur. Tout cela, ça me convient bien.

Et puis, avec ces voitures, j’arrive encore à être plus rapide que mon fils de 15 ans qui m’atomise avec les voitures modernes !

Et AMS2, c’est vraiment si bien que cela ?

J’ai déjà expliqué dans cet article tout le bien que je pensais d’AMS2 et je continue à affirmer que c’est actuellement la meilleure simulation disponible, surtout pour rouler offline. Quels sont les autres choix possibles ?

rFactor2 : très bonne physique mais graphismes un peu datés et, surtout, bien trop de bugs qui font planter le titre trop souvent (vraiment trop souvent…).

iRacing : le meilleur choix pour rouler online mais le niveau est hyper-compétitif désormais. Les graphismes sont bons mais un peu “plats” et le FFB n’est plus aussi bon qu’il y a dix ans. La possibilité de rouler offline progresse et les IA sont très bien, quasiment du niveau d’AMS2 (j’ai testé de nouveau dernièrement). Mais c’est iRacing : c’est cher et fermé.

Assetto Corsa : très bonne physique avec certaines voitures (la March F1 de 1970 est absolument extraordinaire, vraiment !), physique déroutante avec les autres. Pour ce qui est d’Assetto Corsa Competizione, c’est limité aux GT3 alors, merci mais non merci.

Reste quoi comme autres choix ?
Souvenons-nous qu’on parle ici de simulations… On peut s’amuser avec Gran Turismo ou Forza mais c’est autre chose (rien de négatif ici).

Ce que nous apporte la simulation désormais

Je pratique le SimRacing depuis les années 90, je commence donc à accumuler une certaine expérience… L’immersion progresse encore et toujours à tel point que, au bout de 40 mn de course, je suis épuisé et ne nage à cause de la tension de la concentration nécessaire !

Dans cet article récent, je vous exposais les petits ajouts qui rendent AMS2 encore plus plaisant. Je confirme aujourd’hui : sans le Buttkicker ou sans Crew Chief, ça n’a plus du tout la même saveur… Quand je m’installe au volant, je savoure désormais chaque minute. J’ai vraiment l’impression de pratiquer le pilotage comme aux grandes heures de mes expériences sur monoplace (en 200 et 2001 sur Arcobaleno). Surtout qu’avec la mise à jour 1.5, le FFB d’AMS2 vous permet de parfaitement sentir le sous-virage ou le contraire, c’est bluffant !

Sur YouTube, on peut voir des setup de folie qui font monter l’addition… Certes, c’est impressionnant mais est-ce nécessaire ?
Je ne crois pas : avec un PC solide et un triple-screen raisonnable, on peut déjà se faire très plaisir (OK, ça prend un peu de place, c’est vrai). J’ai amélioré et peaufiné ma configuration pas à pas et sans faire des dépenses excessives. Je privilégie toujours les petites évolutions maitrisées plutôt que les grands sauts dans l’inconnu qui vont vous priver de votre configuration le temps d’arriver à la mettre en place. Car, le vrai ennemi, c’est le temps : le SimRacing réclame du temps pour pouvoir le pratiquer, il faut donc éviter d’être handicapé par une configuration toujours en devenir…

Je viens de le dire, le temps voilà l’ennemi et c’est pourquoi je roule désormais majoritairement offline. Parce que c’est difficile de réunir toutes les bonnes conditions au moment où JE peux rouler… Avec le offline, c’est plus simple : on configure son choix de course et c’est good to go!
Ceci dit, en dépit des progrès des IA (surtout avec AMS2), j’avoue que rouler avec d’autres vrais humains est bien plus excitant mais c’est aussi plus de stress : quand vous touchez un de vos adversaires, ce n’est pas une IA que vous envoyez dans le décor, c’est quelqu’un comme vous à qui vous gâchez la course… nuance.

Publié dans Sport-auto, Sports mécaniques virtuels | Laisser un commentaire

Ce qui ne change pas (ou très lentement) dans le secteur informatique

On dit continuellement que tout change très vite dans le secteur informatique et dans les techniques utilisées dans l’électronique et l’informatique. C’est en partie vrai mais en partie seulement. Aujourd’hui, dans cet article, nous allons plutôt parler des choses immuables, celle qui ne change jamais (ou presque jamais !) et vous allez voir qu’il y en a plein de ce genre dans l’informatique justement.

Une architecture Von Neumann omniprésente

Déjà un élément qui n’a jamais changé depuis le début c’est l’architecture des ordinateurs qui encore aujourd’hui répond à un formalisme qu’on appelle l’architecture Von Neumann.

Schématisation de l’architecture de von Neumann.

Et oui c’est peut-être une surprise pour vous mais c’est toujours la même architecture depuis le début. c’est aussi parce que cette organisation des composants s’est avérée être efficace et relativement facile à mettre en œuvre. La technique informatique a évolué sur les matières utilisées pour les composants et la structure même de ses composants mais l’architecture de base, elle n’a jamais évolué. Cela peut enfin changer à l’avenir avec l’avènement des ordinateurs quantiques qui eux sont radicalement différents mais comme cet avènement est encore lointain je gage que l’architecture Von Neumann a encore de beaux jours devant elle.

John von Neumann dans les années 1940. Un mathématicien éminent injustement méconnu au regard de ses apports !

Le silicium irremplaçable ?

Autre chose qui n’a pas bougé depuis les débuts de l’informatique moderne : c’est l’usage du silicium pour les composants électroniques. Alors il est important de préciser qu’on parle de l’informatique moderne c’est-à-dire depuis le début des années 60 pas avant ou les ordinateurs étaient encore équipés quelquefois de lampe à vide et là c’était pas (du tout !) du silicium. j’ai beau être un ancêtre, avoir connu la carte perforée, mon ancienneté ne remonte tout de même pas jusque-là !

donc le silicium semble être irremplaçable indétrônable puisque depuis le début on n’a pas fait 100 à y avoir recours. Pourtant il y a eu quelques tentatives, dans les années 80 par exemple, avec l’utilisation de l’arséniure de gallium mais ça n’a pas été très loin. donc encore un domaine qui se caractérise par un certain immobilisme.

Les projets, toujours un bain de sang !

Ce qui ne change toujours pas et qui est à la limite du désespérant, c’est la difficulté de mener des projets informatiques et d’aboutir dans les délais prévus et dans le budget prévu. En vérité, plus de la moitié des projets engagés par les clients, les constructeurs ou les éditeurs n’aboutissent tout simplement pas. Depuis toujours, le développement logiciel est une activité difficile qui finit le plus souvent par un échec cuisant. Les méthodes évoluent, les outils évoluent mais ce qui ne change pas c’est la difficulté d’écrire des programmes et surtout de les mettre au point de manière satisfaisante. Une percée radicale ou une évolution significative sont annoncées régulièrement mais, presque 50 ans après le livre de Frédéric Brooks, on constate toujours qu’il n’y a toujours pas de balle d’argent (there is no silver bullet) et que les projets informatiques peinent à sortir du puits à goudron (tar pit).

La hype règne en maître !

Une autre constante du secteur de l’informatique c’est ce qu’on appelle la hype. Il s’agit du battage médiatique à l’occasion d’une nouvelle mode technique. ici tous les mots sont importants en particulier le fait qu’il s’agit de mode et non pas de technique établies et que le principe d’une mode c’est que ça se démode !

Alors dire que ça ne change pas est légèrement inexact car en fait la hype empire d’année en année donc quelque part ça change quand même un peu. Il y a quelques décennies il était raisonnable de parler de battage médiatique à chaque fois qu’une nouvelle mode technique apparaissait et semblait prometteuse. Puis on est passé à l’exagération médiatique et maintenant j’affirme qu’on en est à l’hystérie médiatique à chaque fois qu’une nouvelle mode technique ou une pseudo mode technique apparaît et semble être plus ou moins prometteuse. Le pire a été atteint avec le web 3 qui non seulement n’apporte pas grand-chose sur le plan technique mais en plus et tout simplement une escroquerie dans sa nature même.

Des promesses, toujours des promesses

Autre chose qui paraît immuable, qui semble ne jamais changer, ce sont les promesses commerciales pour vendre l’informatique au sens large ou des nouveaux systèmes ou des nouveaux logiciels ou des nouvelles architectures. Dernièrement on en a encore eu l’exemple avec la montée puis la généralisation du Cloud, la promesse était, encore une fois, que ça allait revenir moins cher. Combien de fois ai-je entendu cela pendant mes 40 ans de carrière dans le secteur ? 

Et, à chaque fois, cela s’est avéré inexact. Il n’y a pas que l’argument économique qui revient constamment dans les promesses exagérées du discours commercial du secteur informatique, il y a également des affirmations du genre “ça va être plus facile à développer” ou encore “l’exécution des programmes sera bien plus rapide”. Je simplifie un peu (à peine !) mais vous avez tout de suite perçu l’idée générale derrière ces affirmations car vous aussi vous les avez entendues encore et encore…

L’immobilisme n’est pas une fatalité

J’insiste ici sur les éléments qui ne changent pas mais cela ne veut pas forcément dire que des choses sont destinées à rester toujours les mêmes y compris dans les domaines déjà cités. Je voudrais prendre comme exemple la fameuse loi de Moore qui s’était toujours vérifiée depuis le milieu des années 60 mais qui a fini par s’effacer récemment. Donc, même une situation qui perdure année après année, décennie après décennie, n’a pas vocation à être en place éternellement, comme on a pu le voir justement avec la loi de Moore. Ceci pour dire que je ne prétends pas que toute l’informatique est condamnée à l’immobilisme et que rien ne change jamais bien évidemment. Je veux juste mettre l’accent sur des exemples significatifs qui montrent que le progrès frénétique et les changements tout azimut ne sont pas une généralité en informatique contrairement aux idées reçues.

Pas un techno-réfractaire !

J’insiste aussi sur le fait que je ne suis pas contre l’évolution technique, je ne suis même pas un sceptique de l’évolution technique. Je voudrais juste qu’on en prenne la mesure exacte plutôt que de basculer systématiquement dans les fantasmes les plus délirants dès qu’on parle de l’évolution technique et de son inévitable accélération, qui est tout ce qu’on veut sauf prouvée. La meilleure preuve que je ne suis pas un “techno-réfractaire”, c’est que ce texte que vous êtes en train de lire, je ne l’ai pas directement rédigé mais plutôt dicté directement à mon Mac puisque, désormais, cette technique est suffisamment au point pour être utilisable (après, il faut bien le dire, des décennies d’efforts). Et d’ailleurs, dicter un texte n’est pas tellement plus facile ni même plus rapide que de le taper directement au clavier parce qu’il faut savoir à l’avance ce qu’on veut exprimer.

En conclusion

Il ne s’agit pas ici de seulement dénoncer une fois de plus les idées reçues trop nombreuses et trop stupides dans ce secteur comme dans de nombreuses autres. Tout au long de ma carrière en informatique j’ai justement essayé de promouvoir de façon équilibrée ce qui me paraissait être légitime, intéressant, utilisable, applicable en un mot. et c’est pour cela que j’insiste autant à travers mes livres ou dans des articles comme celui-ci sur le côté nocif de la hype ou sur les impasses que représentent les idées reçues.

Publié dans Anecdotes IT, Informatique, Références IT | Un commentaire

Montolieu, le village du livre

Imaginez un village du Tarn isolé et typique (magnifique même) et qui, en plus, est dédié aux livres… Ne rêvez plus, ce village existe et c’est Montolieu !
Dans ce village, il n’y a pas moins de quinze librairies… Voici quelques photos (issues du site) pour situer l’ambiance :

 

 

 

Alors qu’on dit et répète qu’à notre époque les gens lisent moins (voire plus du tout), c’est rassurant de constater ce genre d’initiative. Nous avons passé la matinée à Montolieu et y avons acheté des kilos de livres !

En particulier, j’ai trouvé des “Sciences & vie” spécial automobiles des années 50/60 qui sont de véritables trésors…

Bien entendu, pour cela, il faut fouiller les librairies et même, certaines fois, leurs annexes (quelquefois encore plus grande que la boutique principale !) mais le résultat en vaut la peine…

Publié dans Livres | Laisser un commentaire

Que reste-t-il du client-serveur ?

Le modèle client-serveur était le grand espoir du début des années 90. Grâce à lui, on allait enfin pouvoir combiner les interfaces graphiques des PC avec des processus solides et des bases de données volumineuses des divers serveurs et autres mainframes.

Les espoirs du client-serveur première génération se fracassent sur le “mur du déploiement”…

Mais, après plusieurs années d’essais/erreurs, d’expérimentations sophistiquées et de projets ambitieux, force était de reconnaître que le modèle peinait à tenir toutes ses promesses. Les ambitions du client-serveur se sont douloureusement fracassées sur les écueils suivants : les applications étaient difficiles à développer (à cause des interfaces graphiques et du fait du caractère “distribué” de l’exécution des requêtes et procédures), elles étaient difficiles à déployer (il fallait les installer une par une sur chaque PC de chaque utilisateurs et, quand il y en avait des centaines, l’expression “le mur du déploiement” prenait tout son sens !) et à maintenir (le mur du déploiement s’opposait aussi aux inévitables mises à jour). Et enfin, le trafic réseau important interdisait d’envisager un fonctionnement “à distance” dans de bonnes conditions (comprendre, avec des performances acceptables à l’époque où même l’ADSL n’existait pas encore, même à l’état de concept…).

Le Web rebat les cartes avec une solution utilisable dans toutes les conditions

On pouvait penser que, avec du temps et beaucoup d’efforts, on allait finir par surmonter tous ces problèmes. Mais le modèle client-serveur mis en œuvre avec un client “lourd” (qu’il soit basé sur Windows ou le Mac, ça n’a fait aucune différence) est resté au fond du sac “de la déception et de l’oubli” depuis son échec au milieu des années 90 (définition des différences entre client lourd, client léger et client riche à https://fr.wikipedia.org/wiki/Client-serveur).

Car oui, on a tendance à l’oublier mais le Web est une déclinaison du modèle client-serveur. HTTP est un protocole en tout point conforme au modèle client-serveur. En un sens, grâce au Web (et à HTTP) le client-serveur n’a jamais été aussi vivant et répandu !

Certes, il s’agit là d’une déclinaison minimum (client-serveur de présentation) du modèle mais peu importe, le fait est là, le client-serveur n’a pas disparu, tout au contraire. Mais quand le Web s’est imposé de façon foudroyante à partir des années 1994/95, il était aussi l’illustration incontestable que la simplicité est la reine de toutes les vertus en matière informatique.

Le Web première génération s’est donc imposé, d’abord pour des pages statiques d’information sur l’Internet et, dans un second temps (mais très vite aussi) sur les intranets. Bien entendu, on ne s’est pas contenté de mettre en place juste des sites statiques, utiles mais limités. Progressivement, le Web s’est avéré être également une plateforme adéquate pour des traitements transactionnels via le Web client-serveur (c’est moi qui l’ai appelé ainsi à cette époque), à la fois simple et robuste, gommant en une seule fois toutes les limites qui avait fait échouer le client-serveur basé sur le client lourd.

Le client léger triomphait et son potentiel paraissait sans limite.

Sun et Oracle tentent un coup d’état

Évidemment, ce triomphe radieux de la simplicité heureuse (!) ne pouvait pas plaire à tout le monde, en particulier à ceux qui voyaient dans l’irruption de l’Internet une possibilité de déloger Microsoft de son sommet. Java est apparu en 1995 au sein de Sun Microsystems et fut aussitôt mis en avant par Sun (beaucoup) et Oracle (un peu) comme LA solution qui allait permettre de profiter pleinement du Web ET de se débarrasser de Microsoft par la même occasion… Les deux promesses se sont avérées être nettement exagérées (voire complètement fausses !), le Web a prospéré sans Java et Microsoft est toujours là (hélas ?).

C’est que la solution de type “client lourd renouvelé” proposé par Sun avait de nombreux défauts et, disons-le, ne fonctionnait pas, tout simplement. Je pourrais expliquer le pourquoi du comment en long et en large mais je l’ai déjà fait amplement dans mes livres parus à l’époque (voir Intranet, client-serveur universel et Web client-serveur, le triomphe du client léger… Ces livres ne sont plus guère disponibles et c’est pourquoi j’ai tout regroupé dans Du client-Serveur au Web qui lui est disponible !).

Bref, la tentative de “putsch” via Java (sans oublier le désastreux CORBA !) s’est terminé par un échec retentissant et mérité (même si certains -peu nombreux désormais- ne veulent toujours pas l’admettre). Dans l’informatique, il y en a toujours pour croire que “plus c’est compliqué et mieux c’est” alors que la réalité du terrain nous prouve tous les jours que ce sont les solutions relativement “rustiques” qui s’en sortent le mieux.

Le client léger devient client riche avec Ajax 

Si l’idée d’un client lourd éventuellement débarrassé de ses tares revenait régulièrement, c’est bien qu’il manquait tout de même quelque chose au client léger : la possibilité d’avoir une interface un peu plus interactive. Le recours à JavaScript (rien à voir avec Java et heureusement !) était un pas dans cette direction mais, bien sûr, on voulait plus et mieux…

Et nous avons fini par l’avoir !

Ce miracle porte un nom et c’est Ajax (Ajax est l’acronyme d’asynchronous JavaScript and XML : JavaScript et XML asynchrones).

C’est Ajax qui a vraiment changé la donne technique du Web et a permis de passer d’un client léger mais limité à un client riche à qui plus rien ne manque. Ajax étend le dialogue client serveur continu au niveau d’une page au lieu de nécessiter le chargement d’une nouvelle page pour chaque échange.

C’est Gmail (en 2004) qui a popularisé ce fonctionnement : grâce à Ajax, Gmail n’était pas qu’un Webmail de plus mais une véritable application Web riche et interactive qui n’avait rien à envier à une application native Mac ou Windows.

Après Gmail, Ajax s’est répandu largement et plus aucune application Web d’envergure ne peut s’en passer. Le client riche est désormais une réalité et son domaine d’application ne cesse de s’étendre. Le ChromeBook de Google (encore un vieux rêve qui a pu trouver sa forme finale) a pu voir le jour et prendre sa place sur le marché grâce à la richesse apportée par Ajax et ce n’est pas fini. 

Un client-serveur dont on ne parle plus car il est omniprésent

Le client-serveur a donc fini par triompher, complètement au point d’être omniprésent. Lorsque je travaillais à sa promotion en publiant le premier livre en français sur le sujet (Architecture client-serveur en 1993), je n’imaginais évidemment pas que cela se passerait ainsi. Le chemin a été long et difficile (c’est toujours ainsi quand une nouvelle technique tente de trouver sa place) mais le résultat dépasse de beaucoup mes espoirs les plus fous que j’osais formuler à cette époque. Le fait qu’on en parle plus de nos jours est le signe le plus sûr de son triomphe total : l’omniprésence se paye par l’invisibilité.

Publié dans Anecdotes IT, Informatique, Livres, Références IT | 2 commentaires

Les 20 ans de BD de Quentin : l’entretien complet !

20 ans de BD, ça se fête !

Et surtout, ça permet de revenir sur les faits marquants, se poser les bonnes questions et savourer le moment et le parcours…

Il y a 51 minutes de questions/réponses… Ah oui, c’est pas un “format court !”, en effet !
Mais, en 20 ans, Quentin à accumulé bien des choses à dire…

Publié dans Ce blog | Laisser un commentaire

Journée internationale du chat : voici Flocon !

Normalement, je ne suis pas trop fan des journée internationale de ceci ou de cela mais pour celle du chat, je dis oui !

Pour illustre cela dignement, voici le gardien de notre maison, notre redoutable Flocon qui règne en maitre sur notre domaine…

Publié dans Ce blog, Ch'es grôle !, divers | Laisser un commentaire

Quels sont les livres informatiques *vraiment* important (j’insiste sur “vraiment”)

Kevin Mitnick vient de mourrir et c’est l’occasion de se pencher sur cette importante question : quels sont les livres qui comptent vraiment dans le domaine informatique ?

A mon avis, il y en a deux et deux seulement !
Oui, je sais, ça parait peu… Mais là, on parle des livres qui sont importants pour le domaine (fondamentales même, oserais-je l’écrire) et qui sont quasiment intemporels (c’est-à-dire que, depuis leur publication, leur argument est resté complètement valable en dépit du temps passé). Deux livres donc.

Commençons par celui de Mitnick justement avec “The art of deception” (l’art de la supercherie, “deception” est un faux-ami en anglais…). Mitnick en a écrit d’autres mais je pense que c’est ce premier qui a fait date et qui reste incontournable dans son domaine (la sécurité informatique).

L’auteur nous explique, avec de nombreux exemples, qu’il ne sert à rien de se doter d’un firewall de la mort-qui-tue car c’est une protection illusoire, trop facile à contourner grâce à l’ingénierie sociale… de quoi s’agit-il ?

L’ingénierie sociale regroupe des technique utilisées par les cybercriminels pour inciter des utilisateurs peu méfiants à leur envoyer leurs données confidentielles, infectant ainsi leurs ordinateurs avec des programmes malveillants ou ouvrant des liens vers des sites infectés. Par ailleurs, les pirates informatiques peuvent tenter d’exploiter le manque de connaissances d’un utilisateur. Grâce à la rapidité de la technologie, de nombreux consommateurs et employés ne réalisent pas la valeur des données personnelles et ne savent pas comment protéger ces informations de manière optimale.

Source https://www.kaspersky.fr/resource-center/definitions/what-is-social-engineering

C’est aussi ce que j’ai constaté tout au long de ma carrière dans l’informatique : l’humain est toujours le maillon faible en matière de sécurité, toujours !

J’ai interrogé des spécialistes pour mes chroniques Redsen à ce sujet et tous répètent la même chose : former vos gens plutôt que de dépenser votre argent dans des systèmes sophistiqués qui vont s’avérer décevants… Voir à https://www.redsen.com/chronique-alain-lefebvre/penser-a-la-securite-informatique-serait-il-antinaturel/

Depuis que KM a publié son premier livre, rien n’a changé, son propos reste pertinent et indépassable. Et vous allez voir qu’il s’agit de même pour le second livre : The Mythical Man-Month de Fred Brooks.

Paru en 1975 il est toujours autant d’actualité encore aujourd’hui !

Les projets logiciels sont difficiles à faire aboutir dans les délais prévus et dans le budget prévu. En fait, ils sont simplement difficiles à faire aboutir, point barre !

Dans son ouvrage de référence, Fred Brooks explique pourquoi. Lui aussi insiste sur le facteur humain, quelle surprise !

Vous l’avez compris, je ne peux que recommander de lire (ou de relire comme je le fais actuellement) ces deux livres qui, j’insiste, ont gardé toute leur pertinence encore aujourd’hui. D’ailleurs, cela devrait conduire à s’interroger : voilà un secteur qui n’arrête pas de proclamer qu’il change tout le temps et évolue très vite… Mais on constate surtout que les fondamentaux restent les mêmes décennie après décennie !

J’avais annoncé deux livres mais j’entend déjà les cris de certains : deux livres, seulement deux livres, tu es sûr ?

Allez, si vous insistez, je peux aussi en inclure un troisième : Does It Matter?: Information Technology and the Corrosion of Competitive Advantage de Nicolas Carr.

Dans cet ouvrage magistral, l’auteur explique que le fameux “avantage stratégique” que l’informatique est censée apporter est le plus souvent une illusion… Oui, dur à encaisser mais tout à fait vrai !

Tout cela, je l’ai écris maintes fois dans mes livres techniques tels que “Vers l’informatique raisonnée” mais cela va tellement à l’encontre des croyances habituelles sur le sujet que cela a du mal à faire son chemin…

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique, Livres | Laisser un commentaire

Mon activité d’écriture en ce moment…

De temps en temps, je vous informe sur mes sujets du moments, les projets en cours et, d’une façon plus générale, de mes “travaux d’entretien” sur mes livres déjà publiés.

Mise à jour de Dr Miracle 70 & 71 avant la sortie du tome 3 (1972)

Avant de finaliser mon travail actuel sur la saison 1972 de “Dr Miracle“, je me suis aperçu qu’il fallait que j’harmonise les deux premiers tomes (saisons 1970 et 1971) avec les standards définis dans le troisième à venir… J’en ai profité pour également faire des corrections (mineures mais tout compte n’est-ce pas ?).

Revoir et améliorer mes livres déjà publiés est une partie importante de mon travail quotidien à laquelle je ne rechigne jamais, même au détriment des nouvelles écritures en cours. En effet, pour moi, mes livres publiés ne sont pas des “branches mortes” et il crucial de continuer à les faire vivre… Voilà, c’est dit (une fois de plus car j’ai déjà dit cela sur ce blog même si je ne retrouve pas tout de suite où !)).

Le tome 3 de la saga “Dr Miracle”, la saison 1972

Le voilà le projet du moment : la saison 1972 de sports mécaniques de Dr Miracle. Cette saga sur le “vroum-vroum” des années 70 est un projet de coeur pour moi. C’est aussi un projet de (très) longue haleine car ça va prendre un peu (beaucoup en fait !) de temps à être bouclé mais je n’en ai cure : ce sont ces années là dans ce domaine là que je veux revisiter une fois de plus mais avec un personnage prétexte, Yves Lefranc alias “docteur miracle”.

La saison 1972 est particulièrement intéressante en plus : elle marque une nouvelle ère dans le domaine des grands prix moto et de l’endurance (fin des gros moteurs sur les protos).

Mise à jour et corrections sur “Le fait Technique”

Toujours sur le principe “il n’y a pas de petites corrections”, J’ai remis la main à la pâte sur “Le Fait Technique” alors sa publication est relativement récente.

Voilà pour les travaux du moment : l’amour des livres, c’est aussi et d’abord de les respecter.

Publié dans Le fait technique, Mes livres, Sport-auto | Laisser un commentaire

Des petits plus pour votre setup de Simracing… ainsi que pour apprécier AMS2 !

Voici ce que je viens d’ajouter dernièrement sur mon baquet afin d’améliorer l’immersion… Alors, au programme de cet article, il y a Buttkicker, Crew Chief et les mods qui arrivent (enfin) sur Automobilista 2 (AMS 2 pour faire court).

Dans cet article, pas mal de vidéos empruntées à des “influenceurs du SimRacing” que je salue au passage !

Buttkicker, c’est pas mal

C’est un accessoire qui fait vibrer votre siège en fonction de ce qui se passe à bord de votre voiture… Voyons voir :

Alors, qu’est-ce que ça donne, ça vaut le coup (et le coût) ?

A mon avis, oui, ça vaut le coup si on suit les conseils de Homed en limitant les effets à seulement ceux qui comptent pour vous car il est très vrai que “trop d’effets tue l’effet !”. Donc, si on passe du temps sur le paramètrage et qu’on est raisonnable sur le nombre d’effets (moi, je me contente de deux : les vibrations du moteur et les secousses lors du passage des rapports); alors c’est vraiment bien : l’immersion est renforcée, c’est clair.
Un indice qui ne trompe pas : quand on va sur une simulation non-supportée, ça vous manque tout de suite… Tout est dit !

Coussin de siège

Cela parait être une blague mais je l’ai acheté (et installé) et, effectivement, c’est bien mieux :

Le confort dans le baquet, ça compte vu le nombre d’heures qu’on passe dedans !

Tension de harnais ?

Alors, ça pourrait devenir un projet futur… je dois avouer que je suis tenté !

AMS 2, toujours mieux !

AMS 2 s’améliore encore et toujours. La version 1,5 va sortir avec un nouveau modèle de pneus qui promet beaucoup : on sent beaucoup mieux le train avant, rFactor2 est (enfin) dépassé.Et les projets d’avenir sont enthousiasmants : Le Mans est au programme, rien que cela !

Les mods arrivent enfin et c’est une super nouvelle : tout ce qui manque en terme de véhicules historiques va pouvoir être comblé (je rêve là, ok, ok…).

Et voici quelques éléments comme Crew Chief pour le compléter de manière intelligente.

Crew Chief

Crew Chief est un utilitaire in-dis-pen-sable pour vous aider à gérer vos courses et qui renforce l’immersion, vraiment !
Donc, vous avez un type qui vous parle “à la radio” pour dire tout ce qui est utile et même indispensable : sortie des stands claire, faut penser à ravitailler, les dégats sur ta voiture, la températures des freins, des pneus, du moteur et ainsi de suite… On s’y habitue tellement vite que, sans, ça ne le fait plus !

Comment ça marche, comment ça s’installe, voyez cela sur cette vidéo :

Ah, d’accord, vous voulez Crew chief mais en français ?
Pas de problème, y en a qui se sont penchés sur la question (moi, la version en anglais me va bien…) :

Mods, enfin !

Il y a des mods sur Automobilista 2 désormais et c’est génial !
Je recommande surtout celles de Thunderflash. Pouvoir rouler dans des groupe 5, c’est vraiment super, ceux qui ont connu “DRM Revival” me comprendrons. Vous allez me dire “oui mais ce sont juste certaines des voitures qui sont présentes dans PCARS 2 et c’est vrai. Mais, elles roulent bien mieux dans AMS 2 !

https://www.youtube.com/watch?v=GV1NFZ0ZX1k

Avant, installer des mods dans AMS 2 était vraiment (trop) compliqué et pénible (car il fallait refaire la manip à chaque màj !) mais, maintenant, nous avons enfin un “gestionnaire de contenus” !

Content Manager

Grâce à ce gestionnaire de contenus, installer des mods est devenu faciles alors, plus d’excuse !

Nouveau CM pour AMS2 https://www.racedepartment.com/downloads/automobilista-2-content-manager.59727/

Les Mods circuits et voitures https://projectcarsmoddingteam.weebly… https://mmodding3.net/

Des skins etc pour AMS2 https://www.racedepartment.com/downloads/categories/ams-2-skins.197/

Si, avec tout cela, je ne suis pas parvenu à vous convaincre de vous y mettre (à AMS2), c’est que c’est peine perdue !

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Visite au musée des 24 heures du Mans…

Je ne sors pas souvent de ma tanière alors, quand je le fais, il faut vraiment que cela en vaille la peine !!

Mais à l’occasion de l’édition du centenaire des 24 heures du Mans qu’on a déjà évoqué, le musée de ces mêmes 24 heures s’était doté d’une exposition exceptionnelle et temporaire… En effet, elle s’achève le 2 juillet !

Je savais que c’était le type d’événement à ne pas louper mais j’étais réticent à affronter la foule… J’ai donc planifié ma visite au moment le plus “creux” d’après mes estimations.

Et, effectivement, c’était tranquille et l’exposition présentée était de très haut niveau avec certaines voitures illustres mais qu’on ne peut jamais voir (collections privées). Mon coup de coeur à moi, c’est la magnifique Tracta de 1928 de mon héros, J.A Grégoire.

Je suis tout à fait ravi que le musée ait rendu hommage à celui qui reste méconnu et qui fut pourtant indissociable de l’essor de l’automobile à traction avant dans le monde…

Publié dans Ce blog, Sport-auto | Laisser un commentaire

Retour sur l’édition du centenaire des 24 heures du Mans

Ce week-end, c’était les 24 heures du Mans, une épreuve que je suis depuis des décennies et que je ne veux rater sous aucun prétexte… Je n’y vais pas physiquement sur place cependant : j’y suis allé en 2003 et j’ai détesté cela !

En effet, il y avait bien trop de monde pour moi et même si j’étais dans des conditions VIP (invité par l’équipe Pescarolo parce que Soheil Ayari y roulait à l’époque), je me suis bien juré de ne pas y remettre les pieds : la foule, c’est vraiment pas mon truc.

Eurosport, laissez parler vos consultants !

Donc, je regarde les 24 heures à distance, au confort de mon home devant mes écrans (jusqu’à 4 !) grâce à la retransmission intégrale d’Eurosport (canal sans pub de préférence… encore heureux qu’on puisse choisir !). D’ailleurs, à propos d’Eurosport, il faudrait que les journalistes/commentateurs rigolent un peu moins et soient un peu plus attentif à ce qui se passe sur la piste (un temps de réponse de plusieurs secondes à plusieurs dizaines de secondes selon les événements !). Un conseil simple; laissez un peu plus la parole à vos pilotes/consultants : Frank Lagorce, Eric Hélary et Paul Belmondo, ils savent de quoi ils parlent, eux…

Endurance-info pour aller plus loin

Eurosport donc, c’est bien pour les images qui bougent mais, pour les détails importants, mieux vaut aller aux bonnes sources. Et, en français, je ne saurais trop vous recommander le site Endurance-info qui est très complet, très bien informé et très pertinent (c’est tout ?). De plus, son abonnement payant n’est vraiment pas cher, profitez-en tant que c’est comme cela (note pour Endurance-info : changez rien les gars !) : 18€ par an, soit 1,5€ par mois…

L’édition du centenaire… l’affiche tient-elle ses promesses ?

Alors, cette 91ème édition avait été présentée avec force fanfare : on allait voir ce qu’on allait voir, ah mais !
Déjà, je trouve que ça commençait mal avec une retouche de dernière minute de la BOP… Alors que, justement, les “autorités compétentes” (le WEC et l’ACO) avaient juré qu’elles n’y toucheraient pas, quelles respectaient les règles (qu’elles avaient mise en place !) et ainsi de suite… Et, bien sûr, au dernier moment : “ah, au fait, on a retouché la BOP afin que Peugeot évite le ridicule… ça vous la coupe, hein !”… Comme quoi, il ne faut jamais croire les dénégations des fameuses “autorités compétentes” (et s’est hélas vérifié de nombreuses fois à travers l’Histoire récente ou ancienne…).

Bon mais en dehors de ce regrettable ajustement, le plateau présenté était plutôt valable, non ?
Oui, dans une large mesure. On peut penser que le plateau des 24 heures 1998 et 1999 était encore plus alléchant mais les courses qui s’en sont suivies n’ont pas été à la hauteur de l’affiche… Comme quoi, bien souvent, le mieux est l’ennemi du bien. Donc, oui, la course promettait beaucoup et, soyons juste, elle a aussi beaucoup tenu !

L’image inévitable : la Ferrari devant la Toyota…

Je suis de près le championnat WEC 2023 (ainsi que les 24 heures de Daytona, chaque année) depuis le début (à Sebring) pour voir comment les forces en présence s’équilibrent et, effectivement, c’est la manche disputée au Mans qui a été la plus intéressante et de loin !
La course a été intéressante à suivre de bout en bout, voire même palpitante à certains moments.  Cependant, si on doit faire un reproche ou émettre un regret, c’est au niveau des procédures liées à la voiture de sécurité qu’il faut les placer…

Le problème de la safety car…

L’édition du Centenaire des 24 Heures du Mans a vu l’entrée en vigueur d’un nouveau système de voiture de sécurité. Le moins que l’on puisse dire, c’est que cet ensemble de nouvelles règles sont assez compliquées et, surtout prennent beaucoup trop de temps à être exécutées !

Trop longues, beaucoup trop longues les nouvelles procédures sous safety-car…

Voilà ce qu’en pensent certain des intéressés (source https://www.endurance-info.com/auto/article/107486-une-regle-de-safety-car-qui-divise) :

===

« La nouvelle règle de la voiture de sécurité ne nous semble pas correspondre à l’esprit du Mans, indique notamment Pascal Vasselon, directeur technique du Toyota Gazoo Racing, interrogé à ce sujet durant la semaine mancelle. Lorsque l’on regarde ce qui a fait la grandeur du Mans, c’est tout le contraire de ce genre d’artifice où, si on n’est pas bon aux arrêts aux stands, si on fait une erreur de stratégie, ce n’est pas grave parce que la voiture de sécurité va tout remettre en place. C’est assez grave au niveau de l’état d’esprit. C’est un grand pas vers l’américanisation du Mans et notre avis est que ce ne doit pas être le cas. Sinon, ce n’est plus Le Mans. »

Un avis clairement partagé par Philippe Sinault, Team Principal d’Alpine Elf Team. « En théorie, il n’y a pas besoin de cela. La règle est la règle. On ne doit pas avoir besoin de ces règles pour être dans le coup. « C’est pour les faibles. ». » a confié le Français à Endurance-Info.

Témoignage de Sébastien Bourdais dans AutoHebdo (Source https://www.autohebdo.fr/actualites/endurance/24-heures-du-mans/bourdais-rassure-par-le-niveau-de-la-cadillac-au-mans-en-2024-nous-pourrons-avoir-lambition-de-jouer-la-gagne.html) :

Le seul bémol dans tout ça, ce sont les procédures. Le Safety Car, je valide, mais il y a moyen de faire moins compliqué et plus rapide. Il y a trop de patience, il faudrait demander à certains de se presser un peu, et je pense principalement aux concurrents pour avoir deux ou trois tours de moins sous Safety Car. Mais le principal problème, ce sont les slow zones, les Full Course Yellow

Que faudrait-il pour résoudre ce problème ?

Parfois, juste un drapeau jaune, c’est suffisant. Il faut arrêter de vouloir tout contrôler parce qu’on se rend compte que nous sommes ultra-accidentogènes en réalité. On essaie de faire de la sécurité la priorité, mais les slow zones durent plus d’une minute et quand tu repars, les pneus sont froids. Ce serait bien de faire un petit temps mort et de regarder ce qu’on pourrait faire de mieux. Par moments, ça tue la course. Ça cause plus de problèmes que de solutions. J’aimerais vraiment que ce soit revu. Nous avons vu des accidents qui n’auraient pas eu lieu avec simplement un drapeau jaune.

===

Après les deux premières sorties de la safety-car qu’on peut qualifier de désastreuse (beaucoup-beaucoup trop long !!), la direction de course semble avoir compris son erreur puisque à partir du matin, les safety-cars sont restés garées et il n’y à eu que des slow-zones ou, au pire, des FCY. Pas l’idéal (voire les témoignages) mais quand même bien mieux que les safety-cars…

Beaucoup d’erreurs humaines, beaucoup trop ?

Cette édition s’est aussi caractérisée par le nombre inhabituel de sorties de piste, accrochages et accidents… Faut-il le regretter ?

La pluie, ça glisse les mecs !

Ma question peut paraitre bizarre (qui ne voudrait pas moins d’accidents, ne serait-ce que sur le plan de la sécurité ?) mais je m’explique : les voitures de course d’aujourd’hui sont devenues tellement fiables que même les courses d’endurance sont “à fond” du début à la fin… La différence se fait sur les arrêts aux stands et sur l’habileté des pilotes à éviter les erreurs (trafic, piste glissante, trop d’attaque, etc.). Et, en fait, c’est une bonne nouvelle !

Oui, j’insiste, que le facteur humain redevienne déterminant devrait nous rassurer : les ingénieurs travaillent, le législateur tente de suivre mais, au final, ce sont les pilotes qui font la différence… N’est-ce pas là l’essence même du sport-auto ?
Tous, nous voulons que Le Mans reste une course de pilotes sans que les ingénieurs prennent (trop) le dessus. Or, c’est justement ce que l’édition 2023 des 24 heures du Mans vient de nous montrer… Et il faudrait le regretter ?

La magie et la morsure du Mans…

Finissons cet article par deux notions bien connues des passionnés et qui participent fortement à faire des 24 heures du Mans une course mythique, peut-être bien LA plus grande course du monde (les américains ne seront jamais d’accord avec cela : pour eux, LA plus grande course du monde, ce sont les 500 miles d’Indianapolis et, effectivement, ça se discute…). Il s’agit de la “magie du Mans” et de la “morsure du Mans”. Explications.

La magie du Mans, c’est l’ambiance à bord des voitures lors des différentes phases de la course mais en particulier lors de la nuit. Il faut l’avoir vécu pour comprendre : même en simulation, même en Karting (les des 24 heures du Mans karting), cette ambiance, cette “magie du Mans” vous saute à la figure et vous marque à jamais. Quoi qu’il arrive après (bon résultat ou abandon), vous voulez revivre “ça”…

La morsure du Mans est douloureuse et inattendue. C’est quand on croit que tout est joué, plié, terminé que cette morsure est la plus profonde (demandez donc à Toyota : la morsure du Mans, ils connaissent eux !). C’est quand vous êtes arrogant et que vous pensez que “finalement, Le Mans, c’est facile” que les dieux des 24 heures vous envoient dans le mur en gloussant… Quand on s’est pris, ne serait-ce qu’une fois (sur une demi-douzaine de tentatives, je n’ai terminé les 24 heures du Mans en simulation que deux fois… donc, oui, j’en témoigne : la morsure du Mans existe bel et bien !), cette morsure, on respecte cette course, ça oui !

En 2016, dans le stand Toyota, l’état major hébété réalise ce que c’est que la morsure du Mans, eux qui croyait avoir déjà tout connu…

Cette “morsure du Mans”, c’est la façon qu’a cette course de choisir ses vainqueurs. Car tous les vrais connaisseurs le confirment : Le Mans est une course qui choisit ses vainqueurs, toujours.

Publié dans Sport-auto | Un commentaire

Mission : sauver le casque Premier “Trophy” !

Si vous lisez ce blog, peut-être savez-vous déjà que j’ai une vraie passion pour les casques moto !

Et, lors de ma revue en vidéo de tous mes casques, j’étais particulièrement critique sur l’intégral Premier Trophy que je trouvais très décevant, surtout au niveau de l’écran.

Le Premier Trophy avec mes pauvres tentatives pour enrayer les infiltrations d’air au de l’écran…

Prenant le taureau par les cornes (façon de parler…), je décidais de faire une dernière tentatives afin de “sauver” ce casque de l’oubli sur mes étagères !
Dans mon stock d’écran, j’en cherchais un qui puisse s’adapter correctement et, coup de chance, j’en ai trouvé un (rigide) qui avait pile les bonnes dimensions et les trous aux bons endroits.

Le Trophy avec son nouvel écran… Look préservé !

J’ai du mal à identifier à quel casque appartient cet écran (le Bell Star II ?) mais qu’importe, j’avais hâte de tester ce que donnais cette modification… J’ai pu rouler ce matin justement et là, miracle, cette modification s’avère très bénéfique vis-à-vis du défaut principal de ce casque : les infiltrations d’air au niveau de l’écran.

Les autres défauts sont toujours là mais, au moins, grâce à cet écran, ce casque est de nouveau utilisable, hourra !

Ceci dit, Premier aurait pu se bouger un peu sur cet aspect : si j’ai pu le faire, pourquoi pas eux ?

 

Publié dans casques moto | Laisser un commentaire

Là où l’IA pourrait vraiment être utile…

Pour commencer, je crois utile de rappeler ma position à propos du battage médiatique actuel (pour ne pas écrire “l’hystérie”…) sur l’IA (avec la dernière itération dite “générative”) : je fais partie des “septiques modérés” (oui c’est intéressant, non, ça ne va pas tout changer).

Ceci étant dit, je crois tout de même que cette nouvelle vague d’IA va nous être utile pour améliorer nos jeux vidéo actuels qui, disons-le, sont relativement médiocres sur le plan de l’IA, justement.

Lors d’une récente présentation de Nvidia, son PDG a expliqué ce que pourrait nous apporter les IA génératives au niveau des PNJ :

Nvidia a également présenté quelques exemples d’applications concrètes de l’IA générative. Dans le jeu vidéo, la société californienne va lancer une plateforme permettant aux développeurs de générer automatiquement des conversations ou des animations, notamment pour les personnages non jouables qui pourront ainsi être dotés de “personnalités réalistes qui évoluent”.

Cela parait trivial mais c’est assez important en fait, du moins, quand on s’intéresse aux jeux vidéo et aux simulations récréatives (c’est mon cas !). En effet, l’idéal théorique, c’est de jouer ou de rouler en ligne contre d’autres joueurs, d’autres vrais joueurs, des humains quoi… Mais, c’est seulement idéal en théorie car, en pratique, ces niveaux de jeu sont souvent (trop souvent) pollués par des crétins qui font n’importe quoi et gâchent votre expérience (quand ce n’est pas votre course dès le premier virage du premier tour, situation vécue trop souvent, hélas !).

Donc, pour éviter la foule mal éduquée, on se réfugie en mode “local” et on affronte des adversaires virtuels, des IA. Là aussi, le pire côtoie le meilleur : certaines simulations s’en tirent mieux que d’autres mais, d’une manière générale, on sent bien qu’il y a de la place pour une (grande) amélioration… Et c’est sans doute ce que les IA génératives peuvent nous apporter à terme (souvenez-vous : les évolutions importantes prennent du temps !).

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Quelques règles pour survivre à la hype…

En ce moment, cela n’a pu vous échapper, on vit une nouvelle vague de hype qui submerge tout à propos des fameuses “IA génératives”… Alors, que vous soyez enthousiaste ou sidéré (vis-à-vis de cette vague), peu importe. Ce qui compte, c’est de savoir comment gérer ce nouveau tsunami car il y en aura d’autres !

Je vous propose ici quelques règles simples que j’ai détaillé dans la vidéo qui illustre cet article :

  1. plus la vague (de hype) est haute et plus il est nécessaire de garder la tête froide et d’analyser rationnellement les données qui sont à notre disposition (tout en gardant en tête que ces données sont biaisées, forcément…).
  2. se souvenir que la hype présente une nouvelle technique toujours trop tôt par rapport à son niveau de maturité.
  3. garder en tête qu’il faut plusieurs phases (au moins deux, souvent plus) avant qu’une technique, quelle qu’elle soit, atteigne son vrai potentiel. De plus, la phase finale sera forcément moins ambitieuse que la phase initiale.
  4. enfin, il faut admettre qu’il y a une assez grande “mortalité” dans ce qui nous est présenté : entre les techniques qui n’ont pas tenues leurs promesses et celles qui n’étaient que du vent, il y a pas mal de déchets…

Bon, quelques explications supplémentaires dans la vidéo que voici :

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

Mes vidéos préférées issues de ma chaine YouTube

J’ai une chaine YouTube depuis 17 ans et j’ai publié 109 vidéos dessus. Bon, certaines ont évidemment ma préférence et c’est à une petite sélection que je vous invite sur cette page…

Cette vidéo est un teaser de mon documentaire sur la 917… Cela fait déjà 15 ans qu’elle est en ligne et c’est elle qui a le plus de vues de toute ma chaine !

Les 24 heures du Mans approchent, voilà un petit hommage où le Simracing tient sa place…

Un WE avec mon fils Val sur des motos, l’idéal !

Pour commencer l’année avec le sourire… Bon, c’était en 2017 mais rien n’a changé : ces images sont toujours autant roboratives !

Un drone permet de faire des belles images comme celles-ci…

On termine avec un peu de sport-auto, quand la F1 ressemblait à quelque chose…

 

Publié dans divers | Laisser un commentaire

Mes chroniques publiées sur Linkedin, compilation complète !

Voici des articles exclusifs que je n’avais publié que sur Linkedin (je crois, peut-être y a-t-il une ou deux exceptions…). Cela concerne pas mal de sujets divers mais je vous livre tout en vrac !

Bon, c’est tout de même par ordre chronologique, si ça peut aider…

Mes chroniques publiées sur Linkedin


La simulation, technique d’avenir, ô combien !

Publiée le 2 juin 2019 sur Linkedin

L’anticipation, sous-domaine de la science-fiction, joue son rôle quand elle permet de prévoir ce qui va nous arriver dans le futur. Dans le cas qui nous occupe ici, la question est centrée sur les applications de la simulation et leurs conséquences. Tout d’abord, il n’y a guère de doute que la simulation sera mise en œuvre.

Déjà, du côté scientifique, il y a beaucoup de justifications à le faire : pour modéliser les phénomènes naturels (tels que le climat et ainsi être en mesure de mieux prévoir son évolution ainsi que la météo à court terme) mais aussi et surtout pour modéliser les phénomènes sociaux (avec la nécessité de simuler les personnes jusqu’au niveau individuel le plus fin).

Aujourd’hui, de nombreux phénomènes sociaux sont considérés comme chaotiques, principalement par ignorance. Une fois simulés correctement, on pourra les étudier sous tous les angles et comprendre enfin la dynamique de chacun (si vous voulez optimiser l’évacuation d’un grand bâtiment, il vous faut connaitre à l’avance le comportement de la foule lors d’un mouvement de panique…).

Mais le domaine scientifique « pur » va être un champ d’application minoritaire de la simulation (contrairement à ce qui sera mis en avant pour justifier de la mettre en œuvre). Le domaine économique sera bien plus prolifique dans son utilisation des « simulis » !

Le domaine de la publicité, par exemple, sera un grand consommateur de situations simulées afin d’optimiser le message, le plan média, la fréquence de diffusion et ainsi de suite. On imagine bien que les politiciens, comme les publicitaires, vont également se jeter sur cet outil pour ajuster leurs discours en fonction de leurs cibles.

Tout cela parait évident une fois exposé correctement. Mais c’est dans le domaine de la « distraction » que le secteur économique va le plus avoir recours à la simulation, hé oui. En effet, regardez le succès actuel des différentes déclinaisons de ce qu’on appelle encore « les jeux vidéo » (voir à http://fr.wikipedia.org/wiki/Jeu_vidéo). Il suffit de regarder les chiffres pour se convaincre de l’importance croissante de ce secteur : l’industrie vidéoludique (c’est comme ça qu’on l’appelle selon Wikipédia…) génère actuellement un revenu plus important que celui du cinéma et ceci depuis 1997. En 2007, le revenu global approchait les 40 milliards de dollars. En 2012, le chiffre d’affaires mondial de l’industrie atteint 60 milliards de dollars selon le SNJV (Syndicat National du Jeu Vidéo). L’industrie vidéoludique serait ainsi la première industrie culturelle dans le monde. Le jeu le plus coûteux de l’histoire (fin 2013), GTA V, a coûté 270 millions de dollars (moitié production, moitié marketing) soit l’ordre de grandeur d’un blockbuster hollywoodien.

Donc, on a un moyen médiocre (pour dire le mieux) de se projeter dans un univers plus ou moins bien simulé (là encore, on reste gentil) et ça marche du tonnerre : des millions de gens (et pas que des jeunes) y passent un temps de plus en plus important tout en y dépensant une somme d’argent pas ridicule. Que se passera-t-il le jour où on pourra proposer une alternative autrement convaincante ?

Oui, vous m’avez bien compris, j’en reviens encore à la simulation, la vraie. Le jour où on pourra vous proposer une plongée en immersion totale dans les univers simulés (spécialisés au début, généralistes ensuite), vous allez voir que l’offre va faire recette immédiatement (et ça sera le cas de le dire : les succès financiers des jeux vidéo actuels paraitront bien pâles en comparaison !). Les gens vont se ruer vers ce nouveau « loisir » et les cas d’addiction vont se multiplier jusqu’à atteindre un seuil alarmant : le nombre d’individus qui vont préférer vivre une vie « plus ou moins scriptée » (en fonction de leurs préférences) dans les univers simulés va être surprenant. Tout du moins, ça sera surprenant à nos yeux d’aujourd’hui alors que ça paraitra banal quand ça sera possible. De la même façon qu’un honnête homme du XIXe siècle serait étonné de voir quelle est l’étendue actuelle de la consommation des substances addictives (y compris le sucre, les cigarettes, les médicaments, en plus des substances illégales comme les drogues dures).

Il n’est donc pas impossible (pour ne pas dire qu’il est probable) que l’usage des simulis soit le prochain grand problème de société à l’avenir. Voire même fera naître une autre catégorie de population : ceux qui vivent principalement en immersion (dans les simulis donc) et très peu (voire le moins possible) en dehors.

Bien entendu, cette situation ne va pas arriver du jour au lendemain. Tout d’abord, la mise au point de la « simulation totale » va prendre un certain temps (mais sans doute sera-t-elle là avant la singularité technologique qui reste un horizon hypothétique alors que la simulation totale est une perspective quasi certaine). Ensuite, les techniques d’immersion resteront compliquées et coûteuses pendant une période plus ou moins longue et, clairement, le transfert synaptique (si on continue à l’appeler ainsi) ne sera pas à la disposition de tout un chacun avant des décennies. Cependant, cela va finir par arriver et quand ça sera là, les digues vont céder et les masses vont s’y précipiter. Qui restera-t-il « à la surface » ?

Les deux extrémités, comme d’habitude : les plus pauvres qui n’auront pas les moyens de se payer une immersion (même brève) et les plus riches qui préféreront regarder tout cela de haut, tout en tirant les ficelles pour les plus malins d’entre eux.

L’avènement de la simulation aura quelques conséquences inattendues : disparation de la prostitution (tout du moins dans les pays riches, elle sera toujours effective dans les pays pauvres) et disparition des compétitions sportives. Ces disparitions seront limitées à leurs expressions physiques dans le monde « réel », car, bien sûr, compétitions et prostitution seront plus que jamais à la mode dans les simulis…

Pas besoin d’expliquer pourquoi la prostitution va être florissante dans les mondes virtuels, penchons-nous sur les raisons concernant les compétitions : facilités d’organisation, plus grande liberté des règles, diffusion « télévisée » à l’identique, réduction du danger et de ses conséquences, etc.

Encore que, pour ce dernier point, rien n’est moins sûr. On ignore encore (et pour cause !) quels seront les effets secondaires (ou encore, les effets réels, tout simplement) que pourraient avoir une blessure ou un traumatisme sur mon corps réel lorsque ces dommages arriveront à mon « avatar » en immersion… Peut-on vraiment séparer le corps de l’esprit ?

Voilà le type de « découvertes » que nous allons faire avec l’avènement de la simulation totale. Accrochez-vous, ça va secouer, car, comme disent les Anglais « there is always a surprise! » (il y a toujours une surprise).

PS) on constate que les simulis commencent à être mis en place par les industriels (à travers ce qu’on commence à appeler les “jumeaux numériques”). Les motoristes de l’aviation civile simulent le fonctionnement des moteurs équipant les flottes des compagnies aériennes en les alimentant avec les données réelles venant des vrais moteurs qui volent tous les jours.

Le but est de prévenir les pannes, d’anticiper les opérations de maintenance. Mais il est clair que, à l’avenir, ces simulations très techniques auront tout intérêt à être reliées à d’autres dans les domaines voisins : la météo afin de pouvoir y ajouter les données d’environnement et ainsi de suite. Une fois qu’on a cette image en tête, il est assez facile de se projeter la suite.

Et ce n’est que le début…


La technostructure est-elle en train de devenir autiste ?

Publiée le 18 septembre 2019 sur Linkedin

C’est la question qu’on peut se poser face au fossé qui est en train de se creuser entre les “gens normaux” et toutes les infrastructures dans lesquelles nous vivons et évoluons que j’ai pris l’habitude d’appeler la technostructure. En effet, on constate de plus en plus que le niveau de complexité augmente, que les réglementations s’accumulent, deviennent de plus en plus restrictive et qu’il est de plus en plus compliqué de les respecter, de les suivre ou même de les comprendre. En plus de cela, la numérisation croissante de nos interactions avec ses interlocuteurs (organisations ou sociétés), au lieu d’apporter les bénéfices espérés et promis produit de plus en plus de frustrations bien légitimes. En effet, on est de plus en plus souvent face à un mur, confrontés à des interfaces qui n’ont pas été pensées et qui n’ont pas été testé avec des “gens normaux” et qui vous imposent leur logique si tant est qu’elle soit compréhensible.

Et c’est moi qui dis cela !

Moi qui utilise des ordinateurs tous les jours depuis 1983… Moi qui suis à l’aise avec les systèmes techniques les plus divers, mais qui n’arrive plus à supporter l’absurde bureaucratie dans laquelle s’enfonce notre société.

Ce décalage de plus en plus fréquent et de plus en plus profond doit nous interroger. Jusqu’au cela va-t-il aller avant qu’un vrai craquement se produise ?

Va-t-on assister à un autre mouvement populaire de type “gilet jaune”, mais qui, cette fois, ne viendra pas des pauvres qui ne supportent plus d’être écrasés, mais des gens aisés qui ne supportent plus d’être oppressés par cette technostructure qui devient de plus en plus autiste.

À l’heure où l’on parle de plus en plus de relation client, sur le terrain, la situation est blême : le client, justement, a de plus en plus l’impression de ne plus être entendu, voire même de plus être respecté. Ce décalage ne peut plus durer, il va forcément déboucher sur quelque chose et j’ai bien peur que ce quelque chose ne soit pas souhaitable…


Pourquoi prédire un “hiver de l’IA” est contre-intuitif ?

Publiée le 7 janvier 2020.

Dans certains de mes écrits précédents, je reviens souvent sur une idée forte : l’IA, actuellement formidablement à la mode, va bientôt entrer dans une période moins florissante, un nouvel “hiver de l’IA” comme cette discipline en a déjà connu deux dans son passé. Pourtant, bien que les éléments qui indiquent ce prochain effondrement s’accumulent, le battage médiatique ne faiblit pas et continue à résonner positivement avec l’assentiment (aveugle ?) de la grande majorité des “analystes” de la tech. Pourquoi ?

Pour comprendre les forces qui sont à l’œuvre ici, je vous propose de nous pencher sur les mécanismes mentaux qui entretiennent cette croyance (l’IA, c’est l’avenir) en dépit des signaux qui indiquent le contraire.

Psychologie des foules

Prédire l’hiver de l’IA, c’est comme prédire un krach boursier : il est impossible d’indiquer avec précision quand cela se produira. Cependant, comme avant un krach boursier, on peut déjà observer des signes de l’effondrement imminent. Actuellement le “récit IA” trouve encore une résonance si forte qu’il est plus facile (pour le grand public) d’ignorer ces signaux et de continuer à croire cette belle histoire.

Pour comprendre la force du “récit IA”, il faut sortir du domaine de la tech pour passer dans le domaine de la psychologie sociale, de la psychologie des foules. Chaque nouveau convaincu renforce la conviction de l’ensemble avec des arguments du genre “un millions de personnes ne peuvent pas avoir tort, ne peuvent pas penser la même chose en même temps et se tromper” alors qu’on a des exemples par le passé qui montrent que le volume ne fait rien à l’affaire et qu’on peut avoir des foules qui ont des convictions (y compris très fortes comme dans le domaine religieux) qui ne reposent hélas sur rien. Dans le domaine de l’IA, il faut comprendre que chaque démonstration médiatique vient renforcer les autres. On est donc face à un effet cumulatif qui finit par ancrer une conviction en profondeur dans chacun de nous, on finit par s’habituer à “l’évidence” de telle ou telle affirmation, de telle ou telle hypothèse. Au bout d’un moment, elle n’est plus considérée comme une hypothèse, mais ça devient un fait (ça ne l’est pas), au moins dans la tête des gens. C’est ce mécanisme qui est à l’œuvre continuellement avec le battage médiatique autour de l’IA (et c’est pareil pour les autres modes).

Renforcement positif, forcément

Les membres du système médiatique vont, consciemment ou inconsciemment, appliquer un filtre de “renforcement” dans le choix des nouvelles qu’ils publient. Donc, dans un premier temps, ils vont plutôt publier des articles avec des éléments qui vont dans le sens d’une confirmation du phénomène en cours. Il faudrait le tarissement de cette source (celle qui confirme le phénomène) puis l’apparition d’une autre source (qui elle infirmerait la chose) qui irait dans l’autre sens (finalement, le phénomène “à la mode” n’est que vent, ça marche, etc.) et seulement si le flot de la seconde source se met à dépasser la première, on verrait le ton s’inverser. Et si on en arrive là, l’emballement médiatique reprend, mais dans l’autre sens.

Retournement de tendance, généralisée

Tout d’un coup, tous ces commentateurs qui disaient et répétaient “l’IA c’est l’avenir et ça va tout changer” vont se mettre à dire à l’unisson “finalement, c’est pas pour tout de suite, c’est limité, on a trop rêvé, etc.”. C’est un cycle qui se reproduit à l’identique depuis des décennies encore et encore. On a eu de nombreuses modes qui ont permis de l’illustrer (ce n’est d’ailleurs pas limité au domaine technique, on voit le même “cycle du hype” partout, y compris dans les domaines économiques et politiques). Ce n’est pas pour rien qu’en matière d’IA on parle de “printemps” et “d’hiver” parce que ça s’est déjà produit et l’on sait que ça va se produire à nouveau.

Une bulle médiatique, encore et toujours

Actuellement, nous avons tous les signes qui permettent d’identifier un prochain “hiver”, c’est-à-dire qu’on sait qu’on a accumulé tous les indices qui désignent une bulle, une bulle médiatique autour de l’IA qui se caractérise par “assez peu de signaux et beaucoup de bruits” (d’ailleurs, toutes les bulles médiatiques sont toujours basées sur un rapport signal/bruit complètement disproportionné !). La différence flagrante entre l’ampleur de l’écho donné aux réalisations spectaculaires (mais peu nombreuses) et le silence sur les réalisations ordinaires indiquent que ces dernières sont bien trop rares pour que la situation puisse être considérée comme “normale”. Donc, une mise en scène grandiose d’un côté et le désert de l’autre. On retrouve ce décalage aussi bien avec Watson d’IBM qu’avec Deepmind de Google. Dans ce dernier exemple, on va parler encore et toujours de sa formidable réussite dans le domaine du jeu vidéo et du jeu de Go, mais on va taire le fait que Deepmind n’arrive pas à trouver des débouchés pour ses logiciels en dehors de la “galaxie Google”. Pourquoi ce biais narratif ?

Eh bien parce que c’est plus facile et mieux reçu par la cible habituelle de ressasser quelque chose de connu que de proposer une vraie analyse, une analyse critique de la situation. Donc, on ne le fait pas sauf quand l’époque et l’atmosphère sont devenues favorables à un “AI bashing” qui, très vite, se généralise (emballement médiatique de fin de cycle). Ce décalage entre le grandiose de ce qui est mis en avant (AlphaZero et le jeu de Go) et le désert des réalisations plus modestes, mais concrètes peut être expliqué par le principe des retours décroissants qui est presque un effet de “miroir inversé” avec l’enflure médiatique qui elle va croissant.

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel !

Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité.

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

“il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité “

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire.

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas.

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite”… Voir à ce propos => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-1-la-maturation

Peu de sources, trop de diffuseurs

Mais cette confusion est inévitable, car liée à notre capacité de perceptions limitées et au fait qu’on aille toujours vers le plus facile. Et le plus facile, c’est de retenir les éléments qui correspondent à notre schéma de pensée (et d’éliminer les autres), auxquels on peut adhérer et avec lesquels on a “l’impression de comprendre” plutôt que de devoir reconsidérer ses filtres, faire une vraie analyse, se mettre à penser pour de vrai, à se lancer dans une analyse critique. Il est plus facile et confortable d’avaler des contenus qui, en fait, ne sont que des résumés (éventuellement de façon abusive sous couvert de vulgarisation) d’éléments lus ailleurs et regroupés en quelques copier-coller à faible valeur ajoutée, car mal compris et mal digérés.

La prochaine victime : l’informatique quantique

Le battage médiatique est constitué de ces redites reprises ad nauseam, car il y a très peu de sources et beaucoup de diffuseurs (comme il y a peu d’agences de presse et beaucoup de chaines de TV…). On voit ce mécanisme encore utilisé actuellement à propos de l’informatique quantique avec des promesses délirantes alors qu’on n’est qu’au tout début de ce domaine radicalement nouveau (voir plus à ce propos ici => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/linformatique-quantique-pour-bientot).

Je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse… Remettez en cause les analyses, y compris la mienne. La bonne attitude sur le plan intellectuel n’est pas de suivre le troupeau mais bien de tirer ses propres conclusions en fonction de votre contexte et de vos contraintes.


L’E-sport est en train de devenir un phénomène de société

Publiée le 20 janvier 2020 sur Linkedin

Avertissement – Je n’ai pas vraiment “rédigé” cet article : j’ai pris des éléments des différentes sources citées à la fin de cet article et je les ai ordonné de façon cohérente. Plus un travail d’édition (beaucoup de copier/coller, un peu de corrections et de reformulations) que de rédaction donc…

Dans l’e-sport, la progression des récompenses reflète la croissance de ce domaine. En 2013, à Sydney, la bourse était de $7000 pour le tournoi d’esport organisé à ce moment-là. Avance rapide jusqu’à aujourd’hui et l’on voit que ce même tournoi de Sydney offre désormais une bourse de $350 000 à se partager entre les participants, une inflation certaine !

L’e-sport est désormais de plus en plus reconnu comme une activité sportive, car il fait appel aux compétences personnelles des joueurs comme le réflexe, l’acuité visuelle, la précision, la stratégie ou la communication — des compétences utilisées dans des sports tels que les échecs, le sport automobile, le tir à l’arc ou les sports collectifs.

Des débuts timides puis fracassants

Les débuts de l’e-sport commencent dès 1990, entre autres grâce au jeu Quake. Ces premiers événements ne sont “que” des rassemblements de plusieurs dizaines de personnes. Ces derniers ramenaient leur propre ordinateur et s’affrontaient en LAN (Local Area Network). Puis avec la sortie d’autres jeux propices à l’e-sport, tels que Starcraft ou encore Trackmania, l’e-sport s’est diversifié sur plusieurs autres styles de jeu.

Les années 90 ont aussi vu l’essor des jeux de combat et des tireurs à la première personne (FPS). Les compétitions opposaient désormais joueur contre joueur au lieu des meilleurs scores. Cependant, c’était un titre de “stratégie en temps réel” qui allait littéralement changer la donne…

Sorti en 1998 pour PC, Starcraft avec son robuste mode multijoueur utilisait Internet pour jouer en ligne et en compétition. Il s’agissait d’un phénomène sans précédent en Corée du Sud. Les tournois Starcraft ont germé et les matchs ont été télévisés sur plusieurs stations. Les joueurs ont commencé à devenir pro, à former des équipes et à récolter des parrainages rémunérés avec des marques, avec des campagnes publicitaires. Ce fut la vraie naissance de l’esport.

La professionnalisation du jeu vidéo au sens large vient ensuite en 1997 avec la création de la Cyberathlete Professional League, revendiquant l’existence d’un système sportif dans lequel des équipes composées de joueurs, auxquelles viennent parfois s’ajouter des informateurs, managers, entraîneurs et sponsors s’entraînent régulièrement sur des jeux dans un but purement compétitif.

L’essor de l’e-sport

La compétition et les rencontres internationales se sont d’abord développées avec des FPS tels que Counter-Strike, entre autres. Mais le progrès du milieu compétitif suivait généralement celui des jeux vidéo : ainsi, en 2008, l’Electronic Sports World Cup a retenu de nouveaux jeux tels que Quake III Arena ou encore TrackMania Nations ESWC. Ainsi en élargissant son panel de jeux, l’e-sport avait davantage de chances de toucher un public plus large.

L’essor de l’e-sport a fait émerger de nouveaux métiers, celui de joueur professionnel ou bien de streamer (d’abord sur Twich, la plateforme pionnière en la matière et désormais sur YouTube). Avec cet élan rassemblant plusieurs millions de personnes, des acteurs majeurs s’intéressent à cette nouvelle discipline.

Mais c’est essentiellement en 2010 que l’on assiste à un véritable progrès dans le domaine compétitif avec l’ajout de jeux à l’e-sport tels que Hearthstone, StarCraft II, FIFA, les nouveaux volets de Call Of Duty et Counter-Strike, Dota 2 ou encore le très prisé League of Legends. De plus, le développement de la diffusion de ces rencontres grâce à des WebTV spécialisées dans ce domaine tels que MilleniumTV, OrigineTV, NetGaming, YouTube ou encore Twitch, a permis d’étendre l’influence de l’e-sport sur internet notamment. Ainsi, en 2014, on a recensé 89 millions de spectateurs (via ses plateformes) réguliers lors de compétitions de grande envergure et pas moins de 117 millions de spectateurs (toujours via ses plateformes) occasionnels.

Ce développement si rapide et efficace est également dû aux sponsors qui financent les rencontres et certaines équipes professionnelles ; on peut citer Intel ou AlienWare entre autres, qui organisent la majorité des rencontres en louant des salles et des stades entiers, en fournissant le matériel, ou encore en offrant la récompense à l’équipe gagnante.

Aujourd’hui, l’e-sport ne cesse d’attirer les amateurs et suscite même l’attention de nombreux journaux qui ne sont d’ordinaire pas spécialisés dans le domaine du jeu vidéo.

Et en France ?

En France, l’e-sport a commencé à faire parler de lui en 2010, avec le progrès des compétitions internationales.

On assiste en 2016 à la création de compétitions nationales telles que la e-ligue 1 sur la série FIFA, projet soutenu notamment par l’éditeur de jeux vidéo Electronic Arts.

Ainsi en 2016, l’e-sport en France a généré un revenu global de 22,4 millions de dollars d’après PayPal, et plus de 27 millions en 2017. L’hexagone est le troisième pays européen en termes d’audience pour l’e-Sport. En 2017, 37 millions de téléspectateurs en Europe regardaient régulièrement les compétitions. De leur côté, les Français étaient plus de 2 millions derrière leur écran. Un chiffre qui pourrait atteindre 2,8 millions en 2019. À titre comparatif, ces audiences sont équivalentes à des programmes télévisuels tels que les Césars ou encore les Victoires de la musique.

Le pays y voit une occasion de se développer dans un secteur en pleine expansion. Annoncée en 2018, la FFF (Fédération Française de Football) a décidé de lancer une équipe de France d’e-Sport.Toujours côté foot, le PSG s’est lancé dans l’E-sport en Octobre 2016 en s’associant avec Webedia, une entreprise spécialisée dans les médias en ligne.

De leurs côtés, les chaînes de télévision et les constructeurs s’activent aussi et y voient une opportunité grandissante. M6 a annoncé en février 2018 une participation minoritaire dans Glory4Gamers ou encore Renault qui a rejoint les rangs de Team Vitality en créant sa propre équipe « Renault Sport Team Vitality ».

La plupart des grands groupes médias français investissent aussi dans le secteur : Webedia en rachetant Oxent (développeur de l’e-Sport platform Tournament), Lagardère Sport avec Team Roccat, Vivendi avec Canal eSport Club.

Une ruée vers l’or au niveau mondial ?

L‘E-sport concerne aussi les jeux mobiles et ainsi Alphabet Inc, le conglomérat détenant Google et ses services, a investi 120 millions de dollars (en janvier 2018) dans une société chinoise, Chushou. C’est une société qui propose une plateforme de streaming de jeux mobiles, et plus particulièrement de jeux compétitifs. Cette dernière a déjà attiré plus de 8 millions de streamers. Leur objectif étant d’aider la plateforme à se développer en Chine et à l’international.

Les recettes de l’e-sport (850 millions de dollars en 2018, estimations) sont estimées à 10 milliards de dollars en 2030. En 2018, plus de 100 millions de dollars ont été distribués aux gagnants des compétitions. Ces chiffres peuvent paraître démentiels pour une discipline encore méconnue du grand public. Cependant, la finale mondiale du jeux-vidéos League of Legends a réussi à remplir un stade olympique, rassemblant ainsi plus de 40.000 personnes. Elle était aussi diffusée en direct et à réuni plus de 60 millions de spectateurs uniques.

Malgré des rémunérations de plus en plus faciles et importantes, les principaux revenus de la majorité des joueurs e-sport restent les plateformes de streamings (YouTube, Twitch) grâce aux dons ou aux publicités.

Certains acteurs déjà présents dans l’e-sport essayent de faciliter l’arrivée de cette discipline. Que ce soit un streamer qui sponsorise un joueur professionnel ou encore une chaîne de télévision qui ne diffuse que de l’E-sport.

L’e-sport étant une discipline naissante, certains points importants à son succès auprès du grand public posent encore problèmes. L’un de ce derniers est le nombre de d’événements organisés par différentes structures, de ce fait il peut y avoir plusieurs champions sur un seul et même jeu. C’est pour le moment le point faible de l’e-sport, il n’existe pas de structure officielle pour le représenter. C’est une des raisons pour lesquelles la fédération mondiale de Jeux Olympiques ne l’a pas encore accepté.

Malgré cela, l’OCA (Comité Olympique Asiatique) a annoncé sa volonté d’intégrer l’E-sport au programme des jeux asiatiques de 2022.

Toutes les disciplines sportives sont concernées ou presque !

On a déjà évoqué le foot et League of Legends qui sont deux piliers du développement de l’e-sport mais, bien sûr, d’autres secteurs sont aussi concernés même si certains prennent un peu le train en marche.

C’est le cas des sports-mécaniques où, en 2019, on a enfin vu un vrai décollage de la discipline. Que ce soit pour le MotoGP, Le Mans ou la Formule Un, des championnats officiels sont organisés et les vraies équipes y engagent des SimRacers super aiguisés. L’argent est au rendez-vous et cela aide à expliquer pourquoi après avoir tardé, le décollage n’en est que plus brutal.

Conclusion : les lignes sont en train de bouger

Il est incontestable que l’e-sport est en train de prendre sa place dans notre société des loisirs et du spectacle. Il est déjà possible de faire carrière, en tant que sportif professionnel, sans jamais aller sur le “vrai” terrain. La compétition est féroce et les meilleurs s’entraînent de façon “effrayante” (Marc Marquez qui est plutôt du genre à être un bosseur et un perfectionniste, a été étonné de voir l’engagement et la précision des meilleurs pilotes participants au championnat MotoGP en e-sport). La croissance est très forte car les sponsors pensent qu’ils ont enfin trouvé la recette magique pour toucher les “jeunes”… Du coup, l’argent coule à flot. Pour combien de temps ?

Alain Lefebvre – Janvier 2020

Sources utilisées pour cet article :

https://www.linkedin.com/pulse/exponential-esports-growth-from-7000-350000-australian-chris-smith/

https://www.geekslands.fr/item/1312-l-essor-de-l-e-sport-dans-le-monde/

https://www.forbes.fr/business/la-revolution-du-e-sport/

https://www.autoblog.com/2019/11/01/esport-racing-series-guide-history/

http://www.jeuxvideo.com/news/772751/google-investit-dans-l-esport-mobile-en-chine.htm

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

https://www.la-croix.com/Sport/Ce-sport-derange-monde-sportif-2017-05-12-1200846649

http://blogs.lecolededesign.com/veille/2018/01/11/lessor-de-le-sport/

https://www.lequipe.fr/Esport/Actualites/Esport-adrien-zerator-nougaret-sponsorise-un-joueur/864342

http://www.gameblog.fr/news/72810-es1-la-chaine-100-esport-a-une-nouvelle-date-de-lancement-et

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

http://www.lepoint.fr/sport/on-espere-que-l-e-sport-prendra-toute-sa-place-au-psg-10-01-2018-2185260_26.php


Les orphelins de leur passé numérique

Publiée sur Linkedin le 27 janvier 2020

C’est récemment que j’ai réalisé ça : on parle beaucoup de big data, de la prééminence de la donnée, y compris au niveau individuel, mais la réalité est tout autre… La réalité, c’est que de plus en plus de gens sont des « orphelins de leur passé numérique » !

J’ai compris cela en voulant migrer le contenu du téléphone de mon épouse, depuis son ancien iPhone qui commençait à accuser le poids des ans vers un Pixel 4 flambant neuf. Tout s’est bien passé et la procédure de migration conçue par Google (il y a même un adaptateur de prise USB pour faire face à tous les cas) est bien faite et efficace… sauf en ce qui concerne l’historique des conversations WhatsApp !

Je me suis penché sur le problème puis j’ai plongé dans ce trou noir et je dois avouer que j’ai eu du mal à en sortir… Rien ne fonctionne, ni même l’utilitaire dr.phone (payé 30 euros), il a fallu que je transfère à la main, morceau par morceau, l’historique de nos échanges afin qu’il ne soit pas perdu, qu’elle puisse le retrouver sur son nouveau téléphone tip-top. Si ça m’a pris tant d’efforts à moi, vous imaginez pour les gens « ordinaires » ?

En effet, en dépit des efforts des GAFAM, chaque migration, chaque passage d’un appareil à l’autre, chaque changement de logiciel et chaque changement de smartphone se passe mal, la plupart du temps : les procédures sont complexes, les gens sont peu enclins à les suivre et les bugs et situations inédites sont encore monnaie courante. Du coup, on a nouveau smartphone tout neuf oui, mais vide la plupart du temps… aie.

Or, nous avons tous des photos, des vidéos et des textes (voir des présentations) que nous voulons garder, absolument. Bien entendu, se pose d’abord un problème de place : les photos que nous prenons à l’occasion sont bien plus nombreuses qu’avant et elles pèsent plus lourd aussi. Même problème pour les vidéos et ainsi de suite (mais, bien sûr, c’est pour ces deux types de contenus que cet aspect se fait le plus sentir). Collectivement, nous produisons toujours plus de contenus chaque année, encore bien plus que ce qui a été produit jusque-là. Mais, de toute cette masse, quelle est la part qui est gâchée, perdue, inaccessible ?

Eh bien il s’avère quelle n’est pas négligeable. Dans cette ère du jetable, du plastique à usage unique, des smartphones qu’on remplace et déclasse pour un oui ou un non (en dépit de leur prix !), notre production numérique est difficile à traiter comme un bien qui est destiné à durer, à rester avec nous, à travers le temps, les âges, les générations.

Dans notre petite famille, nous avons un enregistreur vidéo (un Caméscope, c’est ainsi qu’on appelait cela il n’y a pas encore si longtemps) depuis 1990. Depuis, nous avons systématiquement converti et conservé précieusement ces enregistrements. Nous avons des serveurs Synology configurés en RAID pour cela et nous pratiquons des sauvegardes sur le mode 1-2-3 systématiquement et depuis des années (au passage, je recommande le service Backblaze…). Nous sommes parés pour les situations « normales », mais on ne sait jamais ce qui va menacer votre patrimoine de données, d’images, de vidéos… Nous tenons à ces images et à ces vidéos, nous considérons qu’elles sont une part de nous. Et nous nous apercevons qu’il est toujours plus difficile de les stocker, de les convertir, de les trier et ainsi de suite.

J’imagine que certains doivent avoir les mêmes difficultés que nous, mais que beaucoup d’autres renoncent à tous ces efforts. Nous entrons dans l’ère des orphelins du numérique où nous produisons beaucoup de données, mais où nous en perdons autant à chaque occasion.


Quand la réalité rejoint la fiction

Publiée sur Linkedin le 6 février 2020

Je viens de regarder un documentaire sur Arte : “Des robots et des hommes”. Un contenu sur la robotique, l’IA et les questions sociétales que ces sujets posent… Rien d’exceptionnel, mais j’ai pour habitude de regarder plus ou moins “tout” ce qui passe à ma portée sur ces sujets (et d’être souvent déçu par les banalités et les idées reçues qui y sont ressassées !).

Cependant, cette fois, une séquence a particulièrement retenu mon attention. À partir de 46:30; on y voit une jeune femme qui explique son quotidien au travail à Londres… Depuis dix ans, elle livre des colis (genre Uber Eats) en vélo et explique que depuis ses débuts, les choses ont bien changé : avant, elle avait un manager qu’elle voyait de temps en temps et, désormais, tout ce fait à travers une app, y compris les sanctions !

Voir à https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes/

Cette évolution déshumanisée m’a rappelé exactement le contexte d’un roman de SF écrit par Marshall Brain : Mana (voir à https://marshallbrain.com/manna1.htm).

Dans Mana, une chaîne de fast food remplace tous les managers par une application reliée aux employés par un casque audio où elle donne ses ordres. Les employés peuvent et doivent indiquer où ils en sont par un microphone intégré au casque audio. Les humains sont ainsi transformés en quasi-robots qui doivent obéir minute par minute à une application qui trace tout, n’oublie rien et sanctionne au moindre travers.

Il est assez saisissant de voir qu’on en est là, déjà. Et nul besoin d’une AI sophistiquée pour atteindre ce genre de résultat : il suffit d’un programme comme les plateformes de services telles qu’Uber et autres mettent en œuvre depuis des années. Les évolutions les plus radicales ne demandent pas forcément un saut technologique important, il suffit d’intégrer finement ce qui est déjà largement disponible…


Comment reconnaître une mode technique exagérée ?

Publiée sur Linkedin le 9 février 2020

En ce moment, les médias nous expliquent avec force que “l’informatique quantique”, c’est l’avenir et que ça va tout changer…

Les médias n’ont pas peur du ridicule, ils sont là pour faire de l’audience, à tout prix. Comme la nature, les médias ont horreur du vide. Quand la mode précédente commence à s’essouffler (au choix, la Blockchain, la voiture autonome ou encore l’IA), ils en cherchent une autre, n’importe quelle autre du moment que son contenu paraît sexy et accrocheur.

Car la propagande technique a ses règles qu’elle suit rigoureusement. Tout d’abord, pour vendre sa nouvelle mode, elle emploie toujours les mêmes arguments. Ils sont faciles à reconnaître et vous les connaissez déjà. C’est le fameux “c’est tellement important que ça va concerner tous les domaines applicatifs”… en clair, ça sera “tout pour tous”. Cette proposition est absurde et toujours démentie, mais elle joue son rôle. Celui d’allumer les signaux d’alerte dans l’esprit des lecteurs et donc d’attirer leur (faible) attention.

En effet, la grande majorité des gens n’analyse nullement ce qu’il voit passer, ils se contentent de réagir, nuance. Et pour déclencher cette réaction (émotionnelle plutôt que rationnelle, forcément), rien de tel qu’un argument massue s’appuyant sur la peur : tout va changer grâce/à cause de cette technologie, préparez-vous !

Dans le cas de l’informatique quantique, ce serait risible si ça n’était pas désolant de voir que les mêmes ficelles (grossières) sont utilisées encore et encore. Car, soyons sérieux, l’informatique quantique n’en est qu’à son tout début et ne va pas produire des résultats significatifs avant au moins une dizaine d’années. C’est comme si on extrayait un prématuré de sa couveuse en prétendant qu’il allait battre le record du 100 m… ridicule et dangereux.

Les technologies mises en lumière trop tôt souffrent de cette exposition médiatique prématurée. Certes, dans un premier temps, l’argent se met à couler à flots sur les quelques équipes de recherche concernées (notez bien, on parle ici d’équipes de recherche…), mais, quand la déception va arriver (et elle arrive toujours) ces crédits vont se tarir brutalement.

La technologie ainsi malmenée ne va pas disparaître, elle va continuer à évoluer lentement en mode discret, car c’est ainsi que cela fonctionne : les “révolutions en une nuit” mettent vingt ans à maturer discrètement. La biotech ou la nanotechnologie ont été des déceptions, car mises en avant trop tôt, bien trop tôt. Mais depuis qu’elles sont retournées dans l’obscurité, elles continuent à évoluer, à progresser, lentement mais sûrement. Un jour, elles reviendront sur le devant de la scène pour enfin produire leurs effets et changer la donne.

En attendant, apprenez à décoder la propagande et évitez de tomber dans les “pièges à gogos” qui sont continuellement renouvelés.


La discrimination du futur : entre les “pensants”​ et les “lobotomisés”​.

Publiée sur Linkedin le 19 février 2020

Il suffit de regarder la télé 5mn pour en être convaincu (surtout si vous ne l’aviez pas vu depuis longtemps) : les programmes tels qu’ils sont devenus aujourd’hui ne s’adressent qu’aux plus débiles d’entres nous (y compris et surtout les pubs qui atteignent désormais des sommets !).

Le vrai fossé, la vraie discrimination du futur n’est pas entre les races, les gros et les moins gros, les jeunes et les moins jeunes (j’en oublie forcément mais je vous laisse compléter la liste) mais entre ceux qui réfléchissent encore par eux-mêmes (que, par commodités, nous appellerons les “pensants” à partir d’ici) et qui sont forcément une minorité (de plus en plus infime, hélas) et ceux qui ont abdiqué leur cerveaux (ou ce qu’il en reste) et qui s’abreuvent de ces programmes (que ça soit à la TV, sur YouTube ou ailleurs, là encore je ne vais pas faire la liste, vous voyez l’idée). Nous appellerons les membres de cette majorité croissante (hélas), les lobotomisés (ce qui situe assez bien leur état).

Ce fossé existe déjà, il se creuse un peu plus tous les jours (les pensants sont de moins en moins nombreux, les lobotomisés sont de plus en plus débiles) mais ce n’est encore rien par rapport à ce qu’on risque de voir se concrétiser à l’avenir. En effet, imaginez le scénario suivant (qui, on va le voir, n’est même pas exagéré, ni sur le plan technique, ni sur le plan sociétal) : un ou plusieurs des GAFAM finissent par mettre au point et commercialiser des lunettes permettant d’obtenir une “réalité augmentée” permanente tout en restant discrètes (pas un gros machin façon masque de VR) et sachant resté connectées au réseau en toutes circonstances (grâce à la 5G, c’est pas si loin). Eh bien, je pense que ce dispositif (porté en permanence bien sûr) servira principalement aux lobotomisés afin de pouvoir se gaver de leurs “contenus favoris” tout au long de la journée. On peut même imaginer qu’il y aura deux versions de ces lunettes : une, assez coûteuse, où c’est vous qui choisirez ce qui s’affiche et une autre, bien moins cher car “sponsorisée” (par TF1 ou M6, au hasard) où vous n’aurez plus le choix des contenus qui s’affichent (et où, ô surprise, il y aura une tranche de pub supplémentaire…).

Une que ce scénario sera en cours de réalisation, nous pouvons dire adieu à la grande majorité de la population : ils seront perdus, inaccessibles et tout échange intelligible avec eux sera progressivement impossible.

J’exagère, vraiment ?


Toujours plus vite… vers quoi ?

Publiée sur Linkedin le 29 février 2020

Les apôtres de la modernité nous le répètent sans se lasser : tout va de plus en plus vite !

Faut-il les croire ?

Je vous l’avoue, j’ai une position tout à fait opposée : non, je ne pense pas que “tout va toujours plus vite” même et surtout le progrès technique !

J’ai même publié un livre à ce sujet qui démontre la stagnation des principales technologies à la mode. Sur Linkedin, je ne manque jamais de pointer les incohérences de cette nouvelle pensée unique tout comme les autres effets pervers de la propagande hi-tech (la fixation sur l’IA et/ou la Blockchain).

En vérité, à la place du “toujours plus vite”, ce que je constate, c’est plutôt un “toujours les mêmes défauts mais en plus grand nombre” !

Toujours plus de défaillances, d’impasses et de bugs dans la sphère numérique grandissante.

Soyons honnête et, pour le moment, la réalité de l’expérience utilisateur est plus souvent médiocre qu’idyllique dans le monde merveilleux de “la révolution digitale”… En effet, il suffit d’évoquer ces procédures qui passent par des successions de formulaires pour finalement échouer au dernier moment pour différentes raisons (dépassement du temps prévu, rupture réseau, données manquantes ou, le plus souvent, aucune raison évoquée mais un simple message “erreur, réessayer dès que possible” qui met en rage même le plus zen d’entres nous !), ces applications qui captent vos données mais ne vous permettent pas de migrer votre historique quand vous changez de smartphone, ces GPS qui vous font passer par des parcours soit-disant “optimisés” mais absurdes en pratique… dois-je continuer cette liste des (mauvais) exemples des ratés de la “révolution digitale” que nous subissons autant (voire plus que nous en profitons ?

Mais alors, comment expliquer cette unanimité dans vis-à-vis de cette pensée unique (tout va de plus en plus vite) ?

La réponse se trouve peut-être dans les volumes toujours croissants de ce qui nous est accessible…

X10 de contenus, dans tous les domaines

On en parle moins souvent que de l’accélération (supposée mais facile à réfuter) mais ce qui caractérise vraiment notre époque, c’est cette abondance dans les contenus et ce dans tous les domaines ou presque.

Il y a seulement vingt ans, le monde était très différent de celui d’aujourd’hui. Pas vraiment sur le plan du niveau technologique atteint (qui, j’insiste, stagne) mais bien sur le plan de la diversité de l’offre. Regardez autour de vous et vous constatez une incroyable abondance dans les contenus (de distractions puisque nous sommes dans la société des loisirs en plus d’être dans la société du spectacle, l’une étant la conséquence de l’autre d’ailleurs !) et les offres commerciales qui sont disponibles, le plus souvent à un prix abordable en plus.

Pour celles et ceux qui sont assez âgés pour s’en souvenir, on reste ébahis devant l’incroyable augmentation de l’offre accessible. On peut multiplier les exemples : qui peut encore compter le nombre de chaînes de télévision disponibles (inutile, aucune ne vaut la peine d’être regardée !) ?

Pareil pour les chaînes YouTube et les services en ligne. Je suis écrivain et j’ai pu constater que l’offre de livres sur Amazon avait littéralement explosé alors que les gens lisent moins… allez comprendre !

Oui, je pense vraiment que c’est l’abondance bien plus que la vitesse qui caractérise notre époque. Et, face à ce déferlement, chacun reste médusé. Pas étonnant que, faute d’analyse plus approfondie, on finit par “penser” que “tout va toujours plus vite”…


Nous sommes trop nombreux et ça nous entraîne sur une pente dont nous ne voulons pas…

Publiée sur Linkedin le 15 avril 2020

Oui, c’est un peu long comme titre et pourtant, c’est exactement cela… Tout d’abord, nous sommes clairement trop nombreux et, ensuite, cela a des conséquences : cette pente dont nous ne voulons pas et qui pourtant s’impose à nous et nous entraîne.

Pas besoin de trop revenir sur le “nous sommes trop nombreux” mais, si ça n’est pas déjà le cas, je vous conseille de lire ce petit récit que j’ai publié il y a plus d’un an (Un nouveau récit de fiction : « Les terribles trop »…). Une fois ceci posé, que constatons-nous ?

Notre nombre qui augmente en permanence conduit à toujours plus de densité. Cette densité a des conséquences en cascade, on peut le voir en ce moment d’urgence sanitaire mais ce qu’un aspect (même s’il est dramatique et actuellement proéminent). Car cette augmentation se paye avec d’autres croissances à tous les étages : plus d’impôts (lors de la “grippe de Honk Kong de 1969, la pression fiscale en France n’avait rien à voir avec son niveau de 2020…), plus de réglementations (et moins de libertés du coup) et plus de contraintes de toutes natures. Plus la population prend de la place, moins il y a de confort, de sécurité et de liberté pour tous, il faut bien le dire !

Or, en ce moment, ces “terribles trop” ne sont pas assez mentionnés, presque ignorés alors qu’ils sont vraiment à l’origine de nos problèmes (et pas seulement la crise actuelle qui, bien sûr, nous obnubile).


L’époque est favorable aux tartuffes

Publiée sur Linkedin le 20 avril 2020

En ces temps troublés, que voit-on ?

Des tartuffes de tout acabit qui tentent de faire passer des vessies pour des lanternes !

En effet, on ne compte plus les organismes de formations qui, auparavant, crachaient leur venin sur le E-learning et qui, aujourd’hui, le mettent en avant sans aucune vergogne… Pareil pour le télétravail, tous ces petits chefs qui n’en voulaient pas (surtout pour de mauvaises raisons) et qui tournent leurs vestes pour en vanter désormais les mérites…

Inutile de vous donner d’autres exemples, vous avez compris et vous pourriez citer d’autres imposteurs du même ordre. L’époque n’est pas à la vertu, elle est à celui qui se reniera le plus vite !


Le télétravail est une lentille grossissante !

Publiée sur Linkedin le 27 avril 2020

Les managers qui veulent à tout prix “fliquer” leurs collaborateurs qui travaillent à distance sont complètement “à côté de la plaque” : le télétravail agit en fait comme un révélateur. Celles et ceux qui étaient productifs au bureau le seront encore plus ailleurs, à distance, loin des contraintes paralysantes du “tout le monde au même endroit” (réunion chronophages, interruptions “sociales” constantes, etc.). En revanche, celles et ceux qui étaient performants pour “brasser de l’air” dans le contexte hautement social du bureau vont se retrouver fort dépourvus face à un écran, seul et sans public. C’est en cela que les situations de télétravail sont des révélateurs, des lentilles grossissantes qui permettent de départager les bons éléments productifs des “acteurs qui savent juste faire semblant” d’être de bons éléments.

Il en est de même pour le management. Celles et ceux qui insistent pour mettre en place ces dispositifs de surveillance sont du même acabit : conscients de leurs faiblesses en matière d’entraînement et de charisme, ils tentent de compenser en jouant les “petits chefs” et se transforment en “surveillants” car ils sont incapables de jouer pleinement leur rôle.


Ce que j’ai appris en 60 ans

Publiée sur Linkedin le 30 avril 2020

Hier, j’ai eu 60 ans. Je dois avouer que, quand j’avais la vingtaine, cela représentait pour moi un horizon si lointain qu’il paraissait tout à la fois inaccessible et complètement indésirable. Pour tout dire, je n’arrivais pas à me projeter “vieux”. Aujourd’hui bien sûr, j’ai une vision différente et je ne me vois toujours pas “vieux”.

Cependant, ce parcours qui s’est déroulé si vite, a eu le temps de m’apprendre une chose ou deux que je voudrais partager avec vous à travers cet article. Oh, je ne suis pas devenu un parangon de sagesse parce que j’ai atteint 60 ans mais laissons la modestie de côté pour tenter de transmettre ce que la vie m’a appris, jusqu’ici…

1- Apprendre

On ne cesse jamais d’apprendre et, surprise, c’est de plus en plus agréable, désirable même. S’il n’y a qu’une chose à apprendre aux jeunes, c’est ça : l’envie d’apprendre. Avec ça, vous êtes armé pour tous les défis.

2- Transmettre

C’est une pulsion qui s’impose à vous, l’âge venant. Ce que vous avez accumulé (et là, on ne parle pas de richesses mais de connaissances…), vous avez subitement envie de le transmettre, non, besoin de le transmettre. Pour que cela ne soit pas perdu ?

Peut-être, peu importe, la pulsion est là, il vous faut lui obéir.

3- Incertitude

Rien n’est sûr, surtout pas ce qui est annoncé comme certain. Attendez-vous à des déceptions si vous croyez celles et ceux qui vous annoncent des certitudes. Restez serein aussi, rien n’est sûr veut aussi dire que le pire n’est jamais certain… c’est déjà ça !

4- Amour, amitié

“Rien ne compense l’échec au foyer” me disait souvent un vieil ami… ô combien vrai !

Concentrez-vous sur l’essentiel : réussir à maintenir l’amour au sein de votre foyer. Cela semble évident, pourtant nombreux sont celles et ceux qui échouent en se perdant dans des objectifs divers qui ne sont PAS le but de la vie.

Si l’amour est important, ne négligez pas l’amitié qui est source (abondante) de bonnes surprises (et qui, souvent, dure plus longtemps…).

5- Lâcher prise

Je n’ai jamais rien achevé de bon en étant arc-bouté sur ma tâche. “Être à cran” ne vous aidera pas. Apprenez le lâcher prise, le plus tôt possible. D’abord parce que c’est long à maîtriser ensuite parce que ça sert longtemps.

6- Échecs, réussite

“Le succès, c’est d’aller d’échec en échec sans perdre son enthousiasme” (une citation célèbre attribuée à WINSTON CHURCHILL). Soyons clair, j’ai échoué très souvent, bien plus souvent même qu’il n’est confortable de l’avouer !

Mais échouer ne veut pas dire “se tromper”. Tous ces échecs m’ont apporté quelque chose, tous m’ont aidé à bâtir les quelques succès que j’ai pu achever. Sans les (nombreux) premiers, il n’y aurait pas eux les (quelques) seconds.

7- Rester positif

“Pourquoi s’inquiéter ?” dit le sage hindou… Il ne s’agit pas d’être positif à tout prix même au milieu des pires malheurs. Mais il suffit de se rendre compte que la beauté est partout (oui, vraiment partout, il faut juste chercher à la voir…) pour réaliser que nous avons le choix : nous plaindre (sans que cela fasse avancer quoi que ce soit) ou apprécier ce court séjour sur terre pour ce qu’il nous apporte.

8- Regard des autres

Ah si on pouvait se passer du regard des autres !

Mais on peut en fait. C’est lorsqu’on réalise finalement que le regard des autres ne vous apporte rien qu’on peut s’en libérer. Et cette liberté vous rend plus fort et plus heureux. C’est comme toute libération, il n’y a que le premier pas qui coûte…

9- Immuable

C’est comme les certitudes : rien n’est immuable. Riez quand vous entendez “pour toujours”. Aucune situation ne perdure, aucune domination n’est épargnée par le déclin, aucune position n’est acquise “pour toujours”. Libérez-vous de ce genre de boulet.

10- Sens de la vie

Ne cherchez pas le sens de la vie dans la philosophie ou dans l’ésotérisme, vivez-le à travers de profondes gratitudes : transmettre la connaissance, rayonner l’amour de vos proches, percevoir la beauté du monde, le voilà le sens de la vie.

Enfin, un dernier enseignement, très personnel cette fois : j’ai compris que je devais laisser une œuvre pour être tout à fait satisfait de mon passage dans ce monde. Cela paraît prétentieux ou trop ambitieux ou trop vain (c’est là où se libérer du regard des autres est utile…). Peu m’importe, c’est ma pulsion actuelle profonde. Peut-être cette “œuvre” restera inconnue, oubliée avant même d’être lue… peu importe, cela est mon moteur, ma motivation et mon devoir pour le temps qui me reste.


Haro sur le télétravail !

Publiée sur Linkedin le 11 juin 2020

Depuis le début du des confinement, on assiste à une véritable campagne de presse orchestrée contre le télétravail. On peut lire, ça et là, des articles résumant tous les inconvénients du télétravail, les témoignages des victimes (!) du télétravail, les inconvénients du télétravail qu’on a pu constater pendant la période de confinement et ainsi de suite.

En vérité tout cela ressemble fort à une ultime réaction de l’ancien monde face aux bouleversements récents du “nouveau monde” qui est en train de se mettre en place.

Il semble bien qu’une partie du management essaie de s’accrocher à ses anciennes prérogatives et fait tout ce qu’elle peut pour cela, y compris avoir recours à ce genre de campagne de le dénigrement. Cela indique surtout son degré d’affolement vis-à-vis de ce bouleversement que nous avons vécu tous ensemble. Car finalement, le télétravail est la seule bonne chose que l’on peut retirer des quelques mois de confinement que l’on vient de vivre en France.

Mais, comme ce mode de collaboration à distance semble insupportable à certains, rien de mieux que d’essayer de le disqualifier à travers des articles de pleurnicheur des nouvelles pratiques. Mais il n’y a pas que le management qui s’affole, c’est également le cas pour les “papillons de nuit” qui profitaient de leur présence au bureau pour brasser beaucoup d’air mais produire très peu. Avec l’avènement du télétravail, ce sont les premiers à être mis crûment devant leur inefficacité. Pour eux, il est clair qu’il vaudrait mieux revenir aux anciennes pratiques.

Cette ultime tentative de ces réactionnaires est bien la preuve, finalement, qu’il faut intégrer aussi largement que possible le travail à distance et affiner ce mode de collaboration sans présence physique. Qu’on le veuille ou non, qu’on l’apprécie ou pas, c’est un vrai progrès dans des pratiques professionnelles. Et tant pis pour les pleurnicheurs qui regrettent l’ancien monde car ils pouvaient l’exploiter et faire semblant de travailler sans trop se fatiguer.


Pour votre bien, restez à l’écart des modes techniques dans l’informatique…

Publiée sur Linkedin le 15 juin 2020

Je le répète à longueur de chroniques et d’ouvrages (à tel point que je pourrais passer pour un affreux rétrograde !) mais l’intérêt des organisations qui utilisent l’informatique n’est pas de suivre les modes imposées par les acteurs du marché qui, dans un bel ensemble, sont tous d’accord pour mettre en avant une nouvelle lubie tous les quatre ans.

Un exemple ? Pas de problème !

La transformation digitale était annoncée il y a quelques années comme une rupture majeure. Cloud, objets connectés, big data, intelligence artificielle et même les drones devaient devenir des technologies omniprésentes et tout révolutionner. En parallèle, de nouveaux entrants devaient s’imposer sur le marché avec leurs modèles d’affaires alternatifs et bousculer l’ordre établi, désintermédiant les acteurs historiques.

Dans la pratique, il y a bel et bien eu des ruptures sur certains secteurs d’activité comme Tesla dans l’automobile, Space X dans l’aérospatial, Revolut et N26 dans la banque de détail ou encore Netflix et Spotify, qui ont effectivement révolutionné l’industrie de l’Entertainment. Les GAFAM et BATX sont quant à eux devenus les premières capitalisations boursières et ont provoqué de profondes adaptations réglementaires sur le plan fiscal et en matière de protection des données personnelles, qui ont des répercussions sur l’ensemble des secteurs d’activité.

Mais il est clair que cette transformation digitale si elle a bien eu lieu dans quelques secteurs est loin d’avoir provoqué la rupture majeure tout azimut annoncée et répétée sur tous les tons.

En somme les ruptures annoncées se sont produites dans quelques cas emblématiques et mis en avant ad nauseam par les thuriféraires de la trop fameuse transformation digitale (elle aussi bien trop mise en avant !). Donc, on a généralisé quelques exemples exceptionnels en voulant faire croire qu’ils pouvaient s’appliquer à tous dans tous les domaines (ce qui n’était évidemment pas le cas, la suite l’a prouvé).

En réalité, c’est la même chose sur le plan technique : ce que les GAFAMs peuvent faire n’est pas forcément généralisable à toutes les organisations utilisant l’informatique (loin de là !). Un exemple éclairant avec l’IA : les GAFAMs ont tous su mettre en application le machine learning de façon spectaculaire mais, en dehors de ces cas extrêmes, c’est le désert !

On serait bien en mal de citer des organisations “ordinaires” ayant pu produire des résultats extraordinaires avec les dernières techniques de l’IA à la mode… Même IBM s’est planté en voulant commercialiser (trop tôt) son programme Watson auprès des intervenants du système de santé américain…

Et cette précaution ne se limite pas à l’IA, il en est de même pour quasiment tous les domaines à la mode !

Par charité, on évitera de poser les questions qui fâchent comme “mais où sont donc les voitures autonomes qu’on nous avait promises ?”.

Bref, vous l’aurez compris, les modes techniques sont toujours présentées trop tôt et vous avez intérêt à “laisser passer votre tour” afin d’en profiter une fois la maturité arrivée.


La prochaine ère de l’IT ? Une pause !

Publiée sur Linkedin le 18 juin 2020

N’en déplaise aux chantres de la “transformation digitale” (punaise, y en a vraiment marre d’utiliser cette expression !), la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment et c’est pas dommage !).

Non, la prochaine ère de l’IT, c’est de faire une pause, tout simplement.

Oui, notez bien la date et retenez que c’est moi qui vous l’annonce car, pour une fois, la prochaine mode, c’est de calmer tout cela et de se concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2-la loi de Moore est en train de s’effacer…


Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses (voir à https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in).

Je ne suis pas surpris puisque ça fait des années que je l’annonce (voir à http://www.alain-lefebvre.com/avenir-de-lia-lhypothese-85/). Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions peu à le dire. Maintenant que The Economist vient de publier ce dossier, le hype en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligé de me croire mais, en revanche, vous pouvez lire le dossier de The Economist fort bien fait…


Fin de partie pour la loi de Moore

Le NYT en parlait dès 2016 : la loi de Moore qui s’est vérifiée pendant des décennies est en train de s’effacer (lire à https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html).

En fait, c’est plus important qu’il n’y paraît car, qu’on le veuille ou non, qu’on y croit ou pas, les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage.

Gordon Moore, fondateur d’Intel, a observé en 1965 que le nombre de composants pouvant être gravés à la surface d’une tranche de silicium doublait à intervalles réguliers et le ferait dans un avenir prévisible – une idée connue sous le nom de loi de Moore. Credit Paul Sakuma/Associated Press

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé. Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus.

Voyons cet extrait de The Economist (source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). Il devrait savoir – pour entraîner son propre système «Openai Five», conçu pour battre les humains à «Defense of the Ancients 2», un jeu vidéo populaire, il a mis à l’échelle l’apprentissage automatique «à des niveaux sans précédent», exécutant des milliers de processus sans arrêt pendant plus de dix mois.

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de «Transformer», un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter «des millions de dollars» en consommation d’électricité.

===

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit. Vous voyez la collision des situations qui est en train de se dessiner ?

Bref, tout cela nous indique fortement qu’une pause est en train de s’installer. Il faut dire que la crise du Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… Tant mieux, qu’ils se recyclent sur autre chose.


Je veux aller vivre en Théorie

Publiée sur Linkedin le 29 juin 2020

Il est toujours très difficile d’avoir un discours contrariant dans le domaine technique parce que, d’une façon générale, le grand public a une perception “hystérique” de la réalité de l’évolution technique. Une perception déformée si le terme “hystérique” vous parait trop fort.

Que vous soyez craintif ou enthousiaste vis-à-vis des progrès techniques, dans les deux cas vous avez tort. La peur n’évite pas le danger et, si vous avez peur des évolutions techniques, peur de vous faire balayer (par Amazon ou par Uber), eh bien soyez sûr que ça arrivera. Car les évolutions techniques significatives finissent toujours par arriver et produisent des impacts importants. Simplement, ça prend toujours plus de temps qu’annoncé (principe de maturation toujours négligé ou sous-estimé).

Dans le même temps, si vous êtes trop enthousiaste en croyant que ces mêmes progrès techniques vont apporter et permettre, vous tendez le ressort de la déception cuisante qui, inévitablement, viendra. Pourquoi ?

Parce que, avouons-le, on est toujours déçu par la technologie et la vitesse de ses évolutions. Car la technologie requiert des investissements d’infrastructures pour sa mise en place, donc, des investissements importants (pensez à ce qui est en train d’être dépensé pour la mise en place de la 5G… et c’est la même chose tous les dix ans en matière de télécom).

Donc, quand on est face à des besoins de financements massifs, on est toujours obligé de “survendre” pour arriver à faire passer la pilule. Alors, forcément, le retour sur investissement va être long, ne va pas être aussi juteux que prévu et ainsi de suite.

En gros, la technologie ne nous décevrait jamais si tout se passait conformément à la théorie. Mais on sait bien que ce n’est pas le cas, jamais le cas. Comme le disait si justement Jean-Louis Gassée “je veux aller vivre en Théorie parce que tout se passe parfaitement en théorie”.

Mais en pratique, c’est autre chose : il y a des retards, il y a des imprévus, il y a des échecs, il y a des déceptions (voir le projet ITER par exemple). Gardez cela en tête la prochaine fois que vous devrez planifier un projet qui s’appuie sur une innovation technologique…


L’accélération est la nouvelle pensée unique (et c’est une connerie monumentale !).

Publiée sur Linkedin le 1er juillet 2020

On vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous le diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils se sont tellement persuadés que ce soit la vérité qu’ils se la répètent les uns les autres.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ?

Mais ça ne fonctionne pas toujours de la sorte. Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du soleil dans le ciel pour se rendre compte qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, pourtant à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux. Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement alors que la technologie est en train de ralentir.  Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira.

L’état de l’art, dans tous les domaines qui reposent sur la technologie, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on sur ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que la technologie est portée par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir.  C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et que cette solution est d’ordre technique.  Ainsi il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technologie vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu de la technologie. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie.

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) seront dans nos rues aussi rapidement qu’on nous dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi sûre.

Je peux parfois donner l’impression que je nie le progrès technique… Rien n’est plus faux !

Le problème essentiel vient de la façon dont les nouveautés techniques sont présentées au grand public. A chaque fois, la nouvelle technologie à la mode est accompagnée de promesses pharamineuses à grands coups d’adjectifs ronflants (“révolutionnaire” est le terme le plus souvent utilisé). Mais ça ne veut pas dire que c’est forcément un pétard mouillé pour autant. Internet, par exemple, n’a pas tenu toutes les promesses du temps de la bulle des dotcoms, mais il n’en n’a pas moins changé beaucoup de choses (depuis l’ecommerce qui a redéfinit nos pratiques de consommation jusqu’au cloud qui a redéfinit notre façon de gérer l’informatique). Au final, Internet peut être vu comme une déception seulement si vous avez cru à tous les bobards proclamés dans les années quatre-vingt-dix.

Je sais que la technique finit toujours par progresser, presque inexorablement et ce dans quasiment tous les domaines. Mais j’insiste, cette progression prend simplement plus de temps (toujours plus de temps !) que ce qui en est dit.

La technique ralentit, les retours décroissants sont partout et nous allons droit vers une déception majeure.

L’informatique semble être épargnée par cette stagnation mais c’est une apparence : seuls les capacités progressent (vitesse de traitement, affichage, stockage, taille des appareils et efficience électrique) mais pas les fonctionnalités qui restent très limitées. La meilleure preuve c’est que quand il y a une avancée dans ce domaine (IA avec les images ou la reconnaissance vocale), elle est mise en avant bruyamment !

Le progrès technique devrait être boosté en temps de guerre mais c’est l’inverse qui se produit : les militaires sont conservateurs et la recherche de l’innovation décisive est restée vaine lors des précédents conflits, seule la production de masse compte désormais.

Les programmes militaires sont comme ceux du médicaments : ils ralentissent inexorablement, pour un coût toujours plus élevé et sont donc moins nombreux à aboutir.

Dans le domaine spatiale aussi, les progrès sont très décevants (quasiment une absence de progrès en fait). SpaceX performe simplement en étant plus rationnel que les autres acteurs !

Il y a une grande différence entre un programme étudié et un programme opérationnel. Le nombre de projets étudiés et abandonnés est proprement vertigineux (ils sont très visibles dans les domaines spatial, nucléaire et militaire). Car la dernière marche est toujours la plus dure à gravir. Pour celles et ceux que les lois de l’évolution technique intéressent de plus près, j’ai listé celles-ci dans une série d’articles à voir à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-de-linformatique-introduction. Cela concerne surtout l’informatique (mon sujet de prédilection) mais c’est évidemment transposable et applicable aux autres domaines.

La propagande masque la réalité

La propagande est partout et masque la réalité. Deux exemples pour achever de s’en convaincre. Tout d’abord, un article paru sur “Siècle Digital” intitulé “Nos cellules souches squelettiques pourraient régénérer nos os”.

C’est une avancée scientifique importante qu’une équipe de chercheurs de Stanford vient de rapporter. Ils ont découvert les cellules souches squelettiques qui donnent naissance aux os, au cartilage et à l’os spongieux qui héberge la moelle osseuse. Cette découverte pourrait un jour aider les médecins à réparer ou à remplacer le cartilage des articulations et à guérir plus rapidement les os brisés. https://siecledigital.fr/2018/09/27/cellules-souches-squelettiques-aident-os-regenerer/

Et l’article continue sur le même ton avec des promesses faramineuses comme “Un jour, nous ne nous soucierons plus des effets du vieillissement”. Mais sur les étapes à franchir, les conditions pour confirmer cette découverte et un calendrier d’application, rien. L’annonce est jetée aux yeux du public comme si tout cela ne comptait pas et que cet avenir lumineux était déjà à notre porte !

Ensuite, cet autre article, toujours sur “Siècle Digital” :

Des chercheurs ont réussi à créer par hasard une enzyme capable de détruire du plastique. Une découverte qui pourrait contribuer à résoudre le problème de la pollution liée notamment aux bouteilles en plastiques. https://siecledigital.fr/2018/04/18/enzyme-mange-plastique/

Ce second exemple est encore plus pernicieux que le précédent car, cette fois, on sous-entend qu’on n’a même pas besoin de vraiment chercher des solutions : on va même les découvrir par accident !

Et comme toujours, aucune précision sur la mise en œuvre de cette découverte : comment va-t-on produire en masse cet enzyme ? quels seront les effets secondaires ? comment va-t-on collecter ces huit millions de tonnes de plastiques qui se retrouvent chaque année dans les océans ?

Pfuit, des détails tout cela !

Le solutionnisme est une impasse

Le “solutionnisme” frappe les esprits mais ça ne correspond à rien. Le nucléaire (gestion des déchets) est là pour nous montrer qu’il existe des problèmes sans solution et qu’il vaudrait mieux ne pas s’y engager dès le départ.

Les trois piliers de la techno-structure

Notre société repose sur trois piliers : 1- l’appétit de croissance, 2- la technologie omniprésente et 3- la propagande. Laissons de côté l’appétit de croissance déjà bien documenté par ailleurs. Ce dernier est le moteur de notre société, son apport énergétique. La machine est sa trajectoire, le spectacle est son ressenti.

Des grands penseurs du XXe siècle ont attiré notre attention sur les deux derniers piliers : Jacques Ellul pour la machine et Guy Debord pour la société du spectacle. Ellul est le premier à avoir compris que la société moderne était une société technicienne dirigée logiquement par des technocrates. Il explique dans ses livres que pour comprendre ce qu’est devenue notre civilisation, il est plus important de se pencher sur le rôle de la machine, son omniprésence et son infiltration continue que de répéter encore et encore la traditionnelle analyse marxiste sur le rôle du capitalisme…

(…) chaque progrès technique est destiné à résoudre un certain nombre de problèmes. Ou, plus exactement : en face d’un danger, d’une difficulté, (…) on trouve forcément la réponse technique adéquate. Ceci provient de ce que c’est le mouvement même de la technique, mais répond aussi à notre conviction profonde, générale dans les pays développés, que tout peut être ramené à des problèmes techniques.

Le mouvement est alors le suivant : en présence d’un problème social, politique, humain, économique, il faut l’analyser de telle façon qu’il devienne un problème technique (ou un ensemble de problèmes techniques) et à partir de ce moment-là, la technique est l’instrument adéquat pour trouver la solution.

(…) Le système technicien, exalté par la puissance informatique, a échappé définitivement à la volonté directionnelle de l’homme.

(…) La pratique intensive de la télévision anesthésie l’acte réflexif de la conscience et inhibe la parole. Elle fait de la parole un acte résiduel.

Jacques Ellul, dans “Le Bluff Technologique” 1989.

Ce qui compte, ce n’est pas ce qui est vrai, c’est ce qui en est dit !

Si la machine est omniprésente, c’est encore de manière assez subtile. Ce n’est pas le cas de la propagande qui elle, est très visible. C’est le troisième pilier si bien analysé par Guy Debord dans “La société du spectacle”. Dans le flot continue de la propagande, tout devient spectacle et la réalité ne compte plus. Peu importe ce qui est vrai, seul compte l’enrobage, le comment cela est présenté, nuance…

Plus on parle de transparence, moins on sait qui dirige quoi, qui manipule qui, et dans quel but. Guy Debord, dans “La Société du spectacle” (1967).

Ce que vivent les gens et ce qu’ils prennent pour de l’accélération, c’est en fait un abrutissement continu de “nouveautés” qui sont lancées dans le paysage médiatique comme autant d’étoiles filantes qui brillent furieusement pour s’éclipser aussi vite. Il n’y a aucun temps mort, à peine l’une disparaît qu’une autre prend sa place et attire à elle attention et commentaires.

Pas le temps de la réflexion

Le public n’a pas le temps de la réflexion avec un pareil pilonnage. Il est là, fasciné, sans comprendre la véritable portée et l’impact de la nouveauté présentée qu’aussitôt, une autre occupe la scène jusqu’à la prochaine. Peu importe que ces modes éphémères n’apportent ni progrès ni valeurs dans le court terme; peu importe qu’elles soient importantes ou négligeables dans le long terme, elles sont toutes présentées de la même façon.

Vous remarquerez (et ce n’est pas un hasard) que c’est la même technique de saturation qui est utilisée dans les domaines politiques et sociétaux. Cette loi de l’immédiateté et du bourrage de crâne permet de diriger les regards loin des vrais sujets et de noyer le poisson avec une efficacité avérée. Pourquoi donc la technostructure s’en passerait-elle ?

La technique est la nouvelle religion dans la mesure où il faut “croire” pour être “sauvé”. Du coup, elle a son dogme (tout est possible) et son clergé (tous les tenants de la hi-tech sans limites).

Une vérité indicible !

La vérité indicible (indicible, car elle remet en cause le dogme et, dans toutes religions, c’est le tabou absolu !), c’est qu’il n’y a pas d’accélération. Comment cela serait-il possible ?

Si tous les domaines techniques étaient en accélération continue, ils seraient tous capables depuis longtemps, de passer de la découverte à l’application sans plus aucun délai et il n’y a pas besoin d’être spécialiste pour observer que ce n’est évidemment pas le cas.

Ce que nous vivons actuellement est au contraire un ralentissement qui aboutit, au fil du temps, à une stagnation décourageante. Bien entendu, ce ralentissement et cette stagnation sont masqués par le bombardement médiatique qui fait en sorte de perpétuer l’illusion du progrès continu. On est quasiment dans la même situation que dans une longue guerre où la propagande s’efforce de maintenir le moral de la population en rabâchant que “la victoire est proche”, que “la lumière est au bout du tunnel”, que “l’ennemi est épuisé, son effondrement ne va plus tarder”.

La vérité est qu’il faut se débarrasser des illusions véhiculées par la propagande comme l’horizon fumeux des transhumanistes (si on était encore capable de raisonner sainement, de semblables affirmations feraient rire tout le monde !). Il faut savoir accorder du temps au temps et admettre que les progrès de la technique (les vrais progrès) en demandent beaucoup plus qu’on ne le voudrait. Les hommes aiment voir les résultats de leurs conquêtes. Seule cette rééducation va nous permettre d’évaluer sereinement et rationnellement les différents projets et nous permettre de choisir quels sont ceux qui méritent les allocations de ressources nécessaires. Mais la technostructure ne veut pas que vous soyez responsable de votre destin, ni dans le domaine technique ni dans les autres. C’est pourquoi elle préfère de loin vous faire gober des histoires merveilleuses à priori et incompréhensibles (et fausses) qui vous incitent à laisser à d’autres le poids des décisions impliquantes.


Nucléaire : parlons peu, parlons bien !

Publiée sur Linkedin le 6 juillet 2020

De nos jours, le principal problème c’est que trop de personnes parlent de ce qu’elles ne connaissent pas, vraiment pas. Et c’est particulièrement vrai en matière d’énergie nucléaire.

Pas d’avis autorisé

Je n’en suis pas un spécialiste, je ne peux donc donner un avis autorisé sur la question. En tant “qu’honnête homme” raisonnablement cultivé et instruit des choses techniques, je crois savoir que la production d’énergie s’appuyant sur des centrales à fission nucléaire présente des avantages indéniables mais aussi des (gros) inconvénients tout aussi indéniables. En tant que non-spécialiste, je ne peux donc pas trancher si les avantages l’emportent sur les inconvénients (même si j’ai mon idée là-dessus, je la garde prudemment pour moi…).

Contre-vérité ou bêtise crasse ?

En revanche, ce qui m’irrite profondément, c’est d’entendre encore et toujours les mêmes bêtises répétées avec une régularité déprimante sur le sujet. Pour illustrer mon propos, on va se contenter des deux affirmations qu’on entend tout le temps et qui sont simplement entièrement fausses (et c’est d’autant plus dommage de les entendre proférées par des interlocuteurs présentés comme des “spécialistes” par nos médias généralistes qui ne vérifient rien). Soit ces “spécialistes” ne sont pas compétents et c’est grave, soit ils mentent délibérément et c’est encore plus grave…

Voyons maintenant ces deux affirmations :

  1. le nucléaire ne rejette pas de gaz à effet de serre,
  2. le nucléaire contribue à l’indépendance énergétique nationale.

Le nucléaire et le gaz à effet de serre

Combien de fois avez-vous entendu cela ?

Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre, nous aide à tenir nos engagements…

Comment peut-on affirmer une chose pareille ?

Il suffit de regarder les immenses tours de condensations des centrales… Qu’en sort-il ?

De la vapeur d’eau. Or, la vapeur d’eau est le tout premier et le plus efficace des gaz à effet de serre, point. Ce n’est pas moi qui l’affirme et c’est facile à vérifier => https://fr.wikipedia.org/wiki/Gaz_%C3%A0_effet_de_serre

L’effet de serre naturel est principalement dû à la vapeur d’eau (pour 0,3 % en volume, soit 55 % de l’effet de serre) et aux nuages (17 % de l’effet de serre), soit environ 72 % dus à H2O et 28 % restants dus essentiellement au CO22. Il a porté la température moyenne, à la surface de la Terre, à +15 °C.

C’est tout de même pas difficile de se renseigner de nos jours. Il suffit de taper “gaz à effet de serre” dans Google pour avoir la réponse immédiatement. Donc, la prochaine fois que vous entendrez le fameux “Mais le nucléaire en revanche, comme il ne rejette aucun gaz à effet de serre…”, vous saurez que ce “spécialiste” est soit incompétent, soit malhonnête.

Le nucléaire et l’indépendance énergétique nationale

La seconde affirmation est encore plus délirante et encore moins supportable si c’était possible !

Qu’on m’explique en quoi importer du pétrole ou importer de l’uranium est différent (sur le plan de l’indépendance énergétique au moins) ?

Pas besoin d’aller plus loin, la France ne produit presque pas d’uranium (pas plus que de pétrole) et est obligée de l’importer (principalement d’Afrique), point.

Très peu d’interlocuteurs compétents

Vous l’aurez compris, on entend tout et surtout n’importe quoi sur tous les sujets mais surtout sur les sujets techniques. Les soit-disant spécialistes compétents sont vraiment rares et ceux qui sont honnêtes encore plus. Vous êtes prévenus.


Où est passé le terrorisme ?

Publiée sur Linkedin le 2 septembre 2020

Je pense que vous l’avez remarqué : le terrorisme a disparu !

Oui, enfin, ne vous réjouissez pas trop vite, il n’a pas vraiment disparu… Simplement, on en parle moins et ça, je suis sûr que vous l’aviez remarqué.

Il n’a pas vraiment disparu, les attentats déjoués existent (mais là, on en parle carrément pas et pour de bonnes raisons…), les attentats réussis aussi mais ils n’ont plus la couverture médiatique passée. Pourquoi donc ?

Eh bien tout simplement parce que notre technostructure (dont les médias font partie) a trouvé mieux pour faire peur aux gens : la crise sanitaire !

Ah ça, mon bon monsieur, quand on met la main sur un levier aussi efficace, on ne va pas se priver, vous pensez… D’où l’actuelle pantalonnade sur les masques aussi absurde que ridicule. On se retrouve dans la situation où l’on exige que les motards portent un masque même sous leur casque intégral… Vous imaginez d’expliquer cela à un enfant ?

Et ce n’est qu’un exemple, les situations ubuesques abondent. Mais ça ne va pas arrêter l’enthousiasme de la technostructure vis-à-vis de cette pression quotidienne disponible à volonté. Faudra-t-il un soulèvement populaire pour y mettre fin ?

Hum, je ne crois pas, non. Si jamais soulèvement populaire il y avait, un bon petit attentat bien sanglant suffirait à mettre tout le monde dans le rang… Vous voyez bien que le terrorisme n’a pas disparu, il est simplement tenu en réserve.


Compliqué, révolution, stratégique…

Publiée sur Linkedin le 17 septembre 2020

Ohlala, ça va être compliqué pour cet athlète… Le commentateur sportif est aux limites de son vocabulaire et on va l’excuser s’il confond “compliqué” avec “difficile”. Après tout, il n’est pas commentateur sportif pour rien (et il y a pire que de commenter l’athlétisme, il y a le football…).

Hélas, trois fois hélas, ce mésemploi de ce terme n’est pas limité à cette catégorie de journalistes, il est en train de se généraliser. Et ce n’est pas le seul glissement sémantique auquel nous assistons : révolution à la place de percée, stratégique à la place d’important et j’en passe, je ne cite ici que les plus courants. Ce n’est pas inhabituel dans une langue vivante qui, comme son nom l’indique, évolue continuellement. Certains termes sont sur employés, galvaudés, détournés… c’est ainsi, pourquoi s’en désoler ?

Eh bien sans doute parce que ces détournements reflètent une posture en faveur du spectaculaire, voire même de l’enflure. Il faut employer des mots qui choquent pour être écouté. Il faut utiliser des termes qui semblent sophistiqués pour être remarqué. D’où l’emploi de “stratégique” (issu du domaine militaire) à tort et à travers alors que “important” voire “primordiale” auraient tout aussi bien fait l’affaire. Avec le suremploi de “révolution”, c’est encore plus intéressant, car il s’agit là d’un contresens !

Ainsi, on va entendre parler de “révolution technologique” avec l’arrivée de la 5G alors que cette dernière ne fait rien à l’envers de la 4G, seulement la même chose avec des améliorations de performances à tous les étages… De façon intéressante, la 5G cristallise souvent l’emploi des deux termes en une même phrase, exemple : la 5G est une révolution technologique qu’il est stratégique d’embrasser.

Effectivement, vu sous cet angle, l’emploi correct de la langue française est bien compliqué… ou est-ce plutôt difficile ?


L’informatique est jugée sur ce qui ne fonctionne pas !

Publiée sur Linkedin le 28 septembre 2020

Que ce soit juste ou pas, il faut bien l’admettre, l’informatique des organisations est d’abord et avant tout jugée sur ce qui ne fonctionne pas, point.

On peut toujours rêver de mettre en place des avantages concurrentiels formidables, la réalité est plus prosaïque et elle vous rattrape vite : vos utilisateurs veulent que leurs applications fonctionnent, les bons jours comme les mauvais jours (surtout les mauvais jours en fait !).

Et le “bon” fonctionnement ne se limite pas à répondre présent lors d’une sollicitation technique (en clair, lorsqu’on demande la page d’accueil de l’intranet -par exemple-, celle-ci s’affiche dans un délai raisonnable), il faut aussi que la facilité d’utilisation soit au rendez-vous. Or, l’ergonomie de l’interface utilisateur est un point qui est toujours négligé. Combien de fois se retrouve-t-on sur la page d’une application où l’étape suivante est impossible à atteindre ou que les choix possibles sont trop confus pour être utilisables ?

Surtout aujourd’hui où l’on vous impose de plus en plus de faire toutes vos démarches en ligne (qu’elles soient administratives ou commerciales), le vécu utilisateur s’apparente trop souvent à un “parcours du combattant” qui est stressant et frustrant. Bref, vous l’aurez compris, l’informatique est critique et on a encore l’impression que les décideurs n’ont pas encore tout à fait intégré cette caractéristique majeure.

Pourtant, il n’y a pas besoin d’être un grand visionnaires pour s’apercevoir que, dans notre monde ultra technique, les choses qui ne fonctionnent pas sont plus la règle que l’exception… Que ce soit dans votre voiture (où l’électronique est de plus en plus présente, pas toujours pour le meilleur d’ailleurs, voir à Volkswagen Golf 8 : arrêt provisoire des livraisons à cause d’un bug) ou que ce soit dans votre usage personnel de votre smartphone (application qui déraillent, périphériques bluetooth non-reconnus, j’en passe et des pires…), on en vient à regretter l’époque où on se plaignait de son imprimante (ah, ça n’a pas changé… Why I Believe Printers Were Sent From Hell To Make Us Miserable) !

Bref, nous sommes passés d’une “civilisation de la peine” (où l’effort physique était prédominant) à une “civilisation de la panne” (où la machine qui est sensée nous soulager est trop souvent défaillante, voir « Civilisation de la panne » | Philippe Lestang, le blog). Les décideurs du domaine doivent donc se concentrer sur tous les aspects de la qualité informatique plutôt que d’essayer de coller à la dernière mode technique ou de courir (vainement) après un avantage concurrentiel qui sera (au mieux) bref et coûteux.

C’est ce que j’explique dans mon dernier livre “Vers l’informatique raisonnée” et je suis persuadé que ce recentrage sur la qualité est la tendance lourde de ces prochaines années.


Nos libertés nous sont retirées une à une…

Publiée sur Linkedin le 4 octobre 2020

La décision récente du président Macron d’abolir “l’école à la maison” a été applaudie par les zélotes de l’Education Nationale. Au vu de leurs résultats globaux, je les préférerais plus discrets…

Cette décision est justifiée, selon le président (si j’ai bien compris) parce que les islamistes radicaux (il y a des modérés ?) en profitent pour endoctriner leurs enfants (l’école coranique à domicile, carrément !). Comme toujours, ce sont les gens qui respectent les règles qui sont pénalisés par le comportement de ceux qui ne le font pas.

Soyez sûr que ça ne va rien changer du côté des islamistes : ils agissent dans des quartiers qui sont devenues des zones de non-droit où la Police n’ose plus aller (déjà, rien que cela est hallucinant) et donc, ils ne vont rien changer à leur façon de faire. Mais pour les autres, oui, ça va changer et pas en mieux.

Car, la plupart des français l’ignorait mais, jusque-là, nous avions le choix : mettre ses enfants à l’école (publique ou privé) ou assurer l’éducation soi-même. En effet, c’est l’instruction qui est (était) obligatoire, pas l’école, nuance. Et nous étions de plus en plus nombreux à profiter de cette liberté avec d’excellents résultats sur le plan académique. Nous avons pratiqué “l’éducation en famille” (l’autre nom pour “l’école à la maison”) dès la fin des années 90 et tous nos fils y sont passés pour des périodes plus ou moins longues selon leurs profils et leurs préférences. Nous avons toujours laissé le choix à nos fils pour leur plus grand bien.

Nous avons même mis notre expérience de cette pratique dans un livre “365 jours d’école à la maison” pour en fait profiter le plus grand nombre à l’époque où “l’éducation en famille” était encore peu connue et peu pratiquée. Aujourd’hui, nos fils sont grands et n’en ont plus besoin… est-ce une raison pour s’en détourner maintenant que cette pratique est interdite ?

On pourrait le faire, lâchement. On pourrait se dire “tant que cela ne m’affecte pas, le gouvernement peut bien faire ce qu’il veut”… Mais justement, je pense qu’il s’agit d’une occasion de relever la tête et de dire “non, ça suffit !”. Ce gouvernement, non content de gérer la crise sanitaire avec une incohérence rare (des masques inutiles aux masques obligatoires, allez comprendre !), le voilà qui progresse toujours plus dans la privation de nos libertés. Cela fait trop longtemps que ça dure, mesure après mesure et ce sont toujours les mêmes qui en pâtissent. Croyez-vous vraiment que cela va affecter les islamistes ?

Non mais en revanche, tous les parents qui avaient fait le choix de “l’éducation en famille” risquent de devenir des délinquants. Peu importe ce que vous en pensez, mais ce droit était tout à fait légitime et utile. Plusieurs fois, le gouvernement français avait déjà tenté de supprimer ce choix et, cette fois, grâce aux islamistes, il touche enfin au but.

Doit-on accepter un pareil arbitraire ?

Quand va-t-on enfin réagir face à la restriction de nos libertés ?

Un jour ou l’autre, VOUS serez concernés, inévitablement. Et, à ce moment-là, vous aussi direz “ça suffit !”.


La preuve concrète que les médias nous enfument…

Publiée sur Linkedin le 2 novembre 2020

L’affaire est simple et pourtant énorme : le 20 octobre dernier, Radio France a libéré une bombe qui aurait dû produire des effets dévastateurs… Et pourtant, rien, pas une retombée, pas une reprise. Les autres médias n’ont pas suivi, n’ont pas repris, la bombe a bien explosé mais dans un silence assourdissant comme on dit en pareil cas.

Et quelle était donc cette “bombe” qui aurait dû avoir des effets “énormes” ?

La voici : Présidentielle 1995 : quand le Conseil constitutionnel a manœuvré pour “sauver” le Président Chirac.

En clair, les “sages” du Conseil constitutionnel ont étouffé la fraude à l’élection présidentielle de 1995. Lisez le texte, tout est présenté, tout est expliqué. Roland Dumas en tête (lui-même s’y connaissant bien en fraudes et en manœuvres douteuses !), les sages ont décidé que, pour le bien de l’Etat, il valait mieux qu’ils ne jouent pas leur rôle, point. Je ne vais pas expliquer toute l’affaire, il vaut mieux lire le texte que j’ai mis en lien ci-dessus (ne faisons pas comme les ignorants sur Twitter qui réagissent simplement à la vue d’un titre !).

L’affaire est énorme parce que, justement, le Conseil constitutionnel est censé être l’ultime rempart contre les turpitudes de notre système. Et là, mis à l’épreuve, c’est une faillite totale. Comment après cela avoir confiance dans le système ?

Comment après cela croire que les élections présidentielles suivantes ont pu être “propres et sans tâche” ?

Dans le cadre d’un fonctionnement soi-disant démocratique, c’est gravissime. Pire, le silence des médias fait voler en éclat ce qui nous restait d’illusions sur le système. Car une affaire aussi énorme, aussi importante aurait dû provoquer un scandale retentissant, non ?

Ben non, justement. Le système se protège efficacement. Si ça n’est pas diffusé par les médias, ça n’existe pas. Voilà, c’est aussi simple que cela. Pensez-y la prochaine fois que vous penserez que les institutions démocratiques sont vertueuses, sont là pour nous protéger et que les médias, l’autre pouvoir, est présent pour renforcer toute cette construction à notre avantage.


Après le socialisme rampant voici le socialisme nocif !

Publiée sur Linkedin le 10 novembre 2020

Il suffit d’aller dans un supermarché, ces jours-ci, pour avoir une nouvelle démonstration que, décidément, on marche sur la tête en France…

Certains rayons sont “interdits” sous prétexte d’égalitarisme. Si certains commerçants ne peuvent pas vendre des chaussettes (ou autre biens “non-essentiels”), alors personne ne le peut !

Ah, bravo, bien joué, voilà un vrai progrès, voilà l’égalité qui est respectée !

Notre “génie français” nous permet d’être toujours en avance sur les autres nations. Nous avions déjà inventé le “socialisme rampant” (qui permet d’expliquer notre déclin de ces quarante dernières années) mais, cette fois, nous avons résolument franchi une étape de plus : nous venons d’inventer le “socialisme nocif” que les nostalgiques des pays de l’est doivent nous envier… Une vraie performance qui mériterait une qualification directe en demi-finale des championnats du Monde de la Connerie.

En vérité, nous donnant à voir à tout le monde le fond de la mentalité française la plus mesquine : si je ne peux pas l’avoir alors les autres doivent en être privés aussi… Minable, simplement minable.


Les médias ne sont plus que des chiens de garde de la ligne officielle

Publiée le 15 novembre 2020

On le voit en ce moment et c’est un spectacle édifiant : le tir de barrage contre le documentaire “Hold Up” est unanime et très significatif du rôle embrassé par tous les médias principaux… Ils sont les chiens de garde de la ligne officielle, point.

Ce n’est pas tout à fait nouveau, ça fait presque vingt ans que ça dure : depuis le 9/11, le débat est interdit, ne pas être complètement et aveuglément d’accord avec la ligne officielle est réprouvé, dénoncé, provoque poursuites médiatiques et ostracisme.

Dans le cas présent, il suffit de mettre l’étiquette “complotiste” pour que le sujet de la colère des médias soit aussitôt mis au ban de la société du spectacle, discrédité, moqué et rejeté. Un système où l’ostracisme est devenu la règle en dit beaucoup sur sa fragilité : désormais, aucune contestation n’est tolérée, comme dans le pire des régimes totalitaires. On sent bien un début de panique face à ce documentaire et rien que cela est assez parlant. Si le système était si sûr de sa position, pourquoi tant de haine et cette violence ?

Car oui, ce système est en train de devenir violent avec ses opposants. On a déjà vu avec surprise la violente réaction contre les gilets jaunes pendant les deux dernières années. On aimerait bien qu’une telle résolution martiale soit également mise en œuvre dans les fameuses “zones de non-droit” mais ça, il ne faut pas trop y compter.

Maintenant, ne me faites pas dire ce que je n’ai pas dit : le documentaire “Hold Up” n’est pas exempt de critiques. En particulier, j’ai été ébahi d’entendre les propos totalement délirant de Monique Pinçon-Charlot. Cette “sociologue” est coutumière de ce genre de délire et ne peut résister à chaque fois qu’on lui met un micro sous le nez…

Mais si Hold Up n’était qu’un ramassis de mensonges et d’idioties, pourquoi une réaction aussi forte et aussi unanime (à tel point qu’elle apparaît comme orchestrée…) ?

La vérité est que ce documentaire met quelques “points sur les i” et que ceux-ci sont particulièrement gênants, surtout pour les multiples conflits d’intérêts qui, eux aussi, en disent beaucoup sur la situation actuelle. C’est là tout l’intérêt de Hold Up et en réagissant de façon aussi disproportionnée, les médias n’ont fait qu’attiser la curiosité du public pour ce documentaire. C’est trop tard désormais pour “éteindre le feu”…


Les bonnes raisons d’être optimistes vis-à-vis de l’informatique !

Publiée sur Linkedin le 3 décembre 2020

Alors que ma vie professionnelle est déjà bien avancée, je ne peux que ressentir une forte reconnaissance pour ce secteur d’activité où, finalement, j’aurais accompli toute ma carrière.

En effet, on peut toujours critiquer tout ce qu’on veut mais il y a un moment où il faut savoir reconnaître les bonnes choses et vis-à-vis de l’informatique je ne peux qu’être subjugué devant le chemin parcouru et être très optimiste vis-à-vis de ce que nous promet le futur.

Encore aujourd’hui, je m’émerveille à chaque fois que j’ai l’occasion de participer à une vidéo conférence en constatant que ça fonctionne plutôt bien alors que je sais toutes les prouesses techniques qu’il a été nécessaire d’accomplir pour arriver à ce résultat. Pour les jeunes d’aujourd’hui tout cela fait partie du quotidien habituel et ne génère aucun ébahissement, c’est simplement normal. Pour moi en revanche, il s’agit d’un aboutissement d’années de lutte, d’espoir et de progrès qui se sont finalement concrétisés.

Même s’il m’arrive d’être critique vis-à-vis du battage médiatique en faveur de l’intelligence artificielle, j’utilise avec bonheur les assistants vocaux qui sont désormais à notre disposition presque partout et presque tout le temps et je pilote mon petit monde à la façon du capitaine Picard dans Star Trek lorsqu’il lançait son mot-clef “computer” et que la machine répondait par une note brève, attendant la suite, obéissante et omnisciente. Alexa (ou Siri ou Google Home) n’est pas encore tout à fait de ce niveau-là mais elle progresse en permanence.

Et tout cela sans oublier YouTube que j’utilise à chaque fois que je me demande comment faire telle ou telle tâche (travail manuel, bricolage). Qui aurait imaginé que YouTube deviendrait ainsi (entre autres) un auxiliaire du “do it yourself” ?

Et Netflix ?

Il y a vingt ans, nous rêvions de ne plus avoir à attendre l’arrivée des DVD dans la boîte à lettres (déjà envoyé par Netflix d’ailleurs)… Aujourd’hui, ce rêve est une réalité bien concrète et la “boite à films” fonctionne bien, même avec un accès (relativement) limité au réseau global… Encore une performance extraordinaire qui s’inscrit désormais dans une normalité banale.

Le fait que je sois en train de dicter cet article sur Gdocs (avec encore quelques inévitables corrections et travail d’édition) devrait nous permettre de mesurer le chemin parcouru par le “cloud computing”, dernier avatar en date de l’informatique.

Un chemin parcouru vertigineux et vivifiant

Quand j’ai commencé à travailler dans ce secteur au milieu des années 70, l’informatique centralisée rigide et monolithique était la règle générale et écrasante. Rares étaient les informaticiens qui considéraient la montée de la micro-informatique comme autre chose qu’un jouet pour ado attardé.

J’ai eu la chance de participer à plusieurs vagues techniques qui ont contribué à moderniser cette informatique “rustique”. Je dois dire que j’ai toujours trouvé ce métier passionnant et, quand la passion est là, c’est tout de même plus facile de l’assumer tous les jours. Je plains sincèrement tous ceux qui faisaient (et font encore) un boulot subit uniquement parce qu’il faut bien “manger et payer son loyer”. Avec l’informatique, je ne me suis jamais ennuyé même s’il m’est arrivé de passer par des moments difficiles (une fois, je suis resté 25 heures de suite -pas le choix, fallait que ça marche- pour résoudre un problème technique particulièrement retors mais je suis certain que nous avons tous ce genre d’anecdotes à évoquer !). Aujourd’hui, je n’ai pratiquement que des bons souvenirs à me rappeler et je ne peux qu’être profondément reconnaissant d’avoir fait partie de cette formidable aventure.

Quand j’ai commencé, les cartes perforées étaient encore omniprésentes et le fait de porter sur soi (oui, sur soi !) des capacités de traitements à faire rêver HAL 9000 (ne serait-ce que pour calculer vos efforts pendant votre sortie à vélo) était du ressort de la science-fiction très futuriste. Et pour qui a vécu les différentes versions de Windows et MacOS (depuis les années 80), comment ne pas être ravi de voir un Chromebook être opérationnel en seulement quelques secondes ?

Les héros sont des repères

“Même l’enfer a ses héros” dit l’un des personnages secondaires du film “La 9ème porte” (Polanski). Les héros de l’informatique sont nombreux et certains comme Steve Jobs sont très connus. Pour moi, il y en a un qui se détache de l’horizon et c’est Tim Bernes Lee, le co-inventeur du Web (avec Robert Cailliau). Pourquoi ?

Parce qu’il a eu le courage et la lucidité de résister aux spécialistes qui l’incitaient à centraliser la gestion des liens hypertextes afin d’éviter les erreurs 404 que nous connaissons tous. Avec le recul, on s’aperçoit que cet inconvénient est un prix minime à payer en contrepartie des immenses services qu’à rendu le Web et qu’il va continuer à rendre à l’avenir. Il est d’ailleurs fascinant de constater que le Web avec ses composants relativement rustiques est toujours aussi présent et aussi important dans notre informatique de tous les jours…

Pour moi, Tim Bernes Lee est le “James Watt” des temps modernes : un héros en apparence modeste mais qui eut un impact immense et durable sur l’évolution de la technique (la machine à vapeur pour Watt, le Web pour Bernes Lee).

Le futur est brillant car c’est vous qui allez le définir

On peut ainsi glorifier le passé mais c’est évidemment moins intéressant que de se pencher vers le futur et là, il y a également beaucoup de bonnes choses à venir. Il est évident que les 40 dernières années ont été fascinantes mais, selon moi, les 40 années à venir le seront tout autant.

Tout d’abord, il nous faut admettre que toutes les difficultés que nous affrontons aujourd’hui sont autant de pistes pour les progrès futurs. C’est comme cela que ça s’est passé hier et il y a de bonnes chances que ça recommence pour demain. C’est pour cela que je suis très optimiste sans pour autant être capable de prédire avec précision ce qui va être accompli dans les décennies à venir. Oui, je crois fermement qu’il y a encore plein de (bonnes) choses à faire et que les informaticiens ont encore un brillant avenir devant eux.

Non, les progrès qui vont être nécessairement arriver dans les domaines de la robotique et de l’IA (même si une “intelligence générale” n’est sans doute pas pour demain ni même pour après-demain) ne vont pas rendre inutile le personnel sur le terrain qui, avec son ingéniosité et sa capacité à s’accrocher à un problème jusqu’à trouver une solution satisfaisante, sera toujours indispensable.

Les métiers vont muter, c’est inévitable (où sont désormais les pupitreurs qui étaient si répandus quand j’ai commencé dans le domaine ?) et c’est tout l’enjeu d’une carrière bien menée : restez curieux, restez avides et vous resterez utiles (stay foolish, stay hungry…). Ne vous laissez pas enfermer dans une situation (trop) confortable qui va s’avérer être un piège au fur et à mesure des évolutions qui vont rebattre les cartes et changer la donne (c’est toujours ainsi, c’est la seule chose dont on peut être sûr).

L’informatique reste fascinante parce qu’elle est devenue accessible. Quand elle était centralisée et concentrée sur quelques mainframes, il était difficile d’y contribuer. La micro-informatique a changé cela en profondeur avec les conséquences que l’on sait. Les individus dans un garage ont pu lutter à armes quasiment égales avec les plus grands laboratoires. Un Linus Torvald ou un Larry Page sont des preuves vivantes de ce paradigme.

Aujourd’hui, à l’heure du Cloud Computing ou demain sous le signe de “l’informatique omniprésente” (pervasive computing), ce sera toujours aussi vrai et c’est une opportunité fantastique. Certes, il est désormais un peu tard pour développer l’app qui va réussir à faire son trou dans les app stores quasiment saturées. Mais peut-on imaginer que tous les jeux sont joués ?

Évidemment pas. En matière de confort de l’utilisateur et de facilité d’utilisation de cette informatique présente à tous les étages de nos vies connectées, tout reste à faire. Avec la progression des objets connectés tout autour de nous, il y a aussi énormément à faire.

Sans oublier la sécurité qui va devenir un enjeu majeur où tout le monde sera concerné (c’est déjà le cas mais tout le monde ne l’a pas encore compris…).

Le futur est brillant car il va être défini par vous. Je me réjouis d’avance d’être émerveillé par vos prouesses futures !


Faites du numérique qu’ils disaient !

Publiée sur Linkedin le 1er janvier 2021

Pendant cette année 2020, on a souvent entendu les bonnes âmes exhorter les petits commerçants à se mettre (enfin !) au numérique pour survivre… Comme si ouvrir un site marchand (car, bien souvent, “passer au numérique” n’est qu’une formule à la mode pour vendre sur le Web) était une tâche triviale et une assurance de succès !

En fait, ce n’est ni l’un ni l’autre, loin s’en faut. Tout d’abord, même si l’offre est abondante et relativement mature, elle demande quand même un minimum de compétences techniques pour la mettre en place. Ou alors, il faut abandonner toutes velléités d’indépendances et se résigner à rejoindre une grosse plateforme qui sont les vrais gagnantes de cette période.

Je ne fais pas qu’écrire sur l’évolution de l’informatique à travers les âges et les modes, je la pratique aussi avec assiduité !

L’eLearning et l’eCommerce, pas si facile !

Grâce à l’activité de mon épouse sur www.montessori.fr, j’ai pu explorer les arcanes du e Learning, des LMS et, on y vient, des difficultés à mettre en place un site marchand digne de ce nom. L’année dernière, j’ai mis en place l’extension Woocommerce sur notre site WordPress avec la passerelle Atos/Scelluis permettant de gérer le paiement par carte bancaire.

La mise en place de cette “chaîne de paiement” a demandé beaucoup d’efforts, d’allers et retours et aurait été impossible si je n’avais pas les compétences techniques nécessaires (arrêtons d’imaginer qu’employer WordPress et Woocommerce gomme instantanément tous les obstacles technique car ce n’est tout simplement pas vrai).

Bref, au bout de quelques semaines pénibles, tout ce bazar s’est enfin mis à fonctionner et nous avons pu encaisser nos paiements par carte comme des grands… Nous avons aussi pu constater la pauvreté du “back office” de notre banque qui, tenez-vous bien, ne permet pas d’afficher les paiements reçus autrement que par tranche de 40 jours (et estimez-vous heureux que ça marche ainsi, hein !). Tout cela respirait l’amateurisme et le mépris du client mais comment être surpris quand il s’agit du “glorieux secteur bancaire français que le monde entier nous envie”, n’est-ce pas ?

DSP2 remet tout en cause

Mais voilà, en matière d’informatique, quand ça marche, c’est toujours du provisoire !

Nos “amis” de Scellius nous ont informés qu’il fallait tout refaire à cause de la norme DSP2… Je l’avoue, je ne savais rien de DSP2 jusqu’à ce que Scellius nous explique la volonté de normalisation de l’Union Européenne (voir à https://fr.wikipedia.org/wiki/Directive_sur_les_services_de_paiement#La_Directive_sur_les_services_de_paiements_(DSP_2)) nous obligeait à migrer vers la nouvelle passerelle et donc de refaire tout le travail déjà péniblement accompli. Vouloir renforcer la sécurité des paiements en ligne, qui s’en plaindrait ?

Mais cela n’est pas sans conséquences sur les petits acteurs obligés (une fois de plus) de “faire de l’informatique” alors que ce n’est pas le cœur de leur activité. Ces évolutions perpétuelles, l’instabilité des logiciels et la complexité des solutions (j’insiste, même pour moi qui suis bien placé, je ne manque jamais de m’interroger sur “mais comment font les gens pour s’en sortir avec ça ?”) font que “se mettre au numérique” est facile à dire mais loin d’être facile à faire, surtout dans la durée.

J’ai conscience que ce “témoignage de terrain” n’a rien d’original et que je suis loin d’être le premier (ni le dernier !) à me plaindre cette situation mais en lisant la nouvelle “liste de tâches” imposée par Scelluis, j’ai senti qu’il fallait que je le rédige.

Par “solidarité sainte de l’artisanat” (comme dirait Brassens dans la chanson “Stances à un cambrioleur”) je souhaite bon courage à tous les “petits commerçants” qui vont se lancer dans cette périlleuse aventure : ne vous découragez pas les amis, ne croyez pas les bonnes paroles de ceux qui ne font jamais rien de concret, la route est longue et semée d’embûches, prenez votre temps et cheminez pas à pas.


Un autre discours est possible

Publiée sur Linkedin le 14 février 2021

Je crois qu’il est inutile de rappeler que nous traversons des temps difficiles : la crise sanitaire n’est pas terminée, la crise économique n’attendra pas longtemps avant de prendre le relais et ni l’espoir ni l’optimisme ne sont de mise pour le futur.

De plus, il suffit de regarder autour de soi pour constater un approfondissement des pires tendances de ces dernières années : les médias ne se contentent plus de diffuser des programmes abrutissants (de façon à mettre tous les auditeurs et spectateurs au même niveau, c’est-à-dire tout en bas), ils diffusent également la peur car l’émotion est devenu le moteur de l’opinion publique. Les soit-disant intellectuels sont également déprimants : ils se sont érigés en donneur de leçons méprisants afin de promouvoir les “avancées” les plus désolantes comme l’égalitarisme forcené ou un féminisme absurde (comme l’horrible “écriture inclusive”) où peu de femmes censées doivent pouvoir encore se reconnaître.

On touche le fond ?

Et pourtant, dans cette triste atmosphère, je vous le dis : il est encore possible et nécessaire de sortir de ce cercle vicieux. Les esprits éveillés sont encore nombreux. La montée de la médiocratie n’est pas inéluctable ni irrésistible. Nous devons réagir. Nous devons faire entendre nos voix.

Nous devons promouvoir la pensée éclairée, la culture universelle, la sagesse lucide et le plaisir de vivre. Chacun de vous a le devoir de s’exprimer et de le faire de façon positive.

Commençons ici

Ne laissons pas le terrain être occupé et exploité par les pires diffuseurs de tendances moroses et délétères. Commençons par cet espace. Linkedin peut devenir notre canal d’expression positive. Nous devons montrer qu’une autre voie est possible.

Je n’ai pas besoin de m’étendre, je sais que vous m’avez compris. Les discours les plus courts sont aussi les plus percutants. Disons “non à la médiocrité ambiante”, tous ensemble, enfin. Ainsi, nous déchirerons ce rideau grisâtre qui n’est qu’une fine pellicule vulnérable.

Nous donnerons un espoir à la jeunesse qui n’attend que cela. C’est notre pouvoir, c’est notre devoir.


Le problème avec Thinkerview

Publiée le 15 février 2021

Connaissez-vous la chaîne YouTube Thinkerview ?

Si oui, pas besoin de vous expliquer, sinon, allez voir à https://www.youtube.com/c/thinkerview/videos

Des interviews souvent passionnantes avec un décor neutre, toujours le même. Les personnalités interrogées sont souvent très pertinentes dans leur domaine et peuvent s’exprimer sans fard et sans contraintes (c’est un format long). J’écris “souvent” car j’aimerais bien que ça soit tout le temps le cas, justement. Oh, ce n’est pas le choix des interrogés qui est en cause. De Michel Onfray à Jean-Pierre Petit en passant par Arnaud Montebourg et Yanis Varoufakis (et j’en oublie forcément), nous avons droit à un panel d’experts talentueux et qui savent s’exprimer tout en restant accessibles, le problème n’est pas là. Mais alors, où est le problème ?

Eh bien il se situe au niveau de celui qui interroge. Faussement modeste, on ne le voit jamais mais on l’entend en revanche… trop. Au mieux, ça va donner des questions à rallonges et à tiroirs qui ressemblent à des examens de mémoire. Au pire, ça va être un interrogatoire où il manque que la contrainte physique pour ressembler à l’inquisition.

L’animateur de Thinkerview (qui préfère rester anonyme…) gâche le tableau en étant bien trop partial. Mielleux avec ses favoris et odieux avec ceux qui ne sont pas de son bord.

Un exemple qui illustre bien ce déséquilibre : l’interview de Laurent Obertone (diffusé en direct le 6 novembre 2018). Avec Obertone, pas de pitié, les couteaux sont sortis !

Laurent a eu bien du mérite à garder son calme face au déluge d’interruptions et de questions perfides.

On l’aura compris, notre “procureur” a choisi son camp : celui des bien-pensants-donneurs-de-leçons. Saura-t-on un jour calculer ce que cette engeance nocive aura coûté à la société en termes de reculs essentiels ?

Oui, les bien-pensants et le “politiquement correct” sont des maux qui gangrènent l’espace public depuis trop d’années. Ils censurent avec arrogance tout ce qui ne va pas dans leur sens et font semblant d’être en faveur du débat d’idées alors qu’ils ne supportent pas qu’on ne soient tous pas à genoux devant leur suffisance.

Si encore il s’agissait seulement d’un aveuglement intellectuel mais c’est pire : ces donneurs de leçons sont également les pires exemples de la loi de plomb “faites ce que je dis mais pas ce que je fais”.

Thinkerview aurait pu être un bon exemple de ces contenus qu’on aimerait mettre en avant. Mais l’adage se vérifie une fois de plus : il suffit d’une pomme pourrie pour gâcher le panier.


Incident OVH : un “avant” et un “après” dans l’évolution vers le cloud ?

Publiée sur Linkedin le 11 mars 2021

Inutile d’expliquer ce qui s’est passé dans la nuit du 10 mars : un (presque deux) datacenter d’OVH Cloud est parti en fumée (c’est le cas de le dire !)… Depuis, le débat fait rage sur la question des sauvegardes : certains disent que c’est de la responsabilité des clients alors que d’autres affirment (comme Louis Naugès) que c’est évidemment de la responsabilité de l’opérateur.

On ne va pas trancher ce débat ici et maintenant mais il est significatif de toutes les illusions qu’a engendrée la vague du cloud : tout d’un coup, l’informatique allait rimer avec “magique” alors qu’on était plutôt habitué à l’associer à “tragique”…

En revanche, ce que je crois c’est que cet incident ne va pas tout changer : l’évolution actuelle vers une informatique toute en ligne va se poursuivre. Mais tout comme les chaudières à vapeur (celles à “haute pression” du moins) explosaient de temps en temps à l’époque de la révolution industrielle, le chemin vers le cloud est également semé de quelques embûches et autres désillusions. C’est normal et même sain.

Si vous voulez que votre informatique en ligne soit tout le temps opérationnelle, quoi qu’il arrive, ne vous contentez pas de croire aux promesses de votre fournisseur mais prenez les choses en mains : mettez en place des redondances (oui, ça coûte cher), assurez-vous qu’il y ait des sauvegardes de faite (oui, c’est pénible) et que le personnel soit formé à mettre en place des plans de continuité d’exploitation (oui, c’est contraignant et complexe). L’exploitation, c’est comme la sécurité : c’est avant tout une histoire de personnel formé et motivé.


Avant, j’avais un avis sur tout…

Publiée le 17 mars 2021

Avant, quand j’étais un jeune con (c’était donc il y a un certain temps…), j’avais un avis sur tout, vraiment sur tout !

Et, bien sûr, j’imaginais que cet avis était pertinent, objectif et tout à fait sensé. Non, je n’imaginais pas en fait, je savais que j’avais raison, forcément raison.

Maintenant que je suis un vieux con, je ne suis plus aussi sûr de moi et mes avis sont désormais plus nuancés.

Comment cette évolution s’est-elle produite ?

Pourquoi suis-je désormais plus nuancé ?

Eh bien parce que je me suis aperçu qu’il y avait peu de cas où l’on pouvait avoir un avis définitif, surtout dans les domaines où l’on pas un spécialiste. Aujourd’hui, on assiste plutôt à l’évolution inverse : beaucoup de gens (plus en plus de gens en fait, les réseaux sociaux alimentent cette tendance…) émettent leur opinion bruyamment et même avec véhémence alors que les avis autorisés sont toujours aussi rares.

Il s’avère que cela porte un nom : L’effet Dunning-Kruger.

L’effet Dunning-Kruger, aussi appelé effet de surconfiance, est un biais cognitif par lequel les moins qualifiés dans un domaine surestiment leur compétence.

Je dois dire que, au contraire, ces dernières années m’ont fait comprendre que mes domaines de compétences étaient peu nombreux et, qu’en dehors d’eux, le mieux pour moi était de me taire. Ces vingt dernières années ont été ponctuées d’affaires à grand retentissement mais qui restent “indécidables” au final. Que ce soit le 9/11 en 2001 ou le MH370 en 2014 (pour ne prendre que ces deux exemples-là, bien connus de tous), les théories abondent, nombreux sont ceux qui se sont exprimés mais, en définitive, il est vraiment difficile d’avoir un avis tranché sur ces questions (si on essaye de rester honnête et objectif). C’est pour cela que je les présente comme “indécidables”…

De plus, il nous faut bien admettre que l’immense majorité d’entre nous se contentent de ce qu’il peut voir et lire dans les médias et sur Internet. Presque personne ne se donne la peine d’aller enquêter sur le terrain, d’interroger de vrais témoins et de faire un véritable travail d’investigation, faute de temps et de moyens, évidemment. Mais cette absence devrait nous inciter à plus de recul et de modération, surtout pour les domaines où nous ne sommes pas des spécialistes, j’insiste sur ce point.

Car, quand on est réellement compétent dans un secteur, que constate-t-on ?

Eh bien on voit avec consternation que les médias généralistes rapportent tout et n’importe quoi (surtout n’importe quoi) sur le secteur en question… Cela devrait nous inciter à plus d’humilité quand il s’agit d’une affaire qui ne se situe pas dans notre domaine d’expertise.


Notre histoire de l’informatique est unique et voilà pourquoi !

Publiée sur Linkedin le 14 avril 2021

C’est sans pudeur ni fausse modestie que je l’affirme : notre ouvrage sur l’histoire de l’informatique (“Cow-boys contre chemin de fer : que savez-vous des cinquante ans de l’histoire de l’informatique”, oui, c’est le titre complet !) est le meilleur livre en français sur le sujet !

Bien sûr, il existe tout de même quelques bons livres sur le sujet, mais ils sont surtout en anglais et écrits par des Américains. Les livres en français sont académiques et écrits par des universitaires pour d’autres universitaires… exhaustifs et barbants sont sans doute les qualificatifs les plus polis pour les désigner.

Dans le cas de notre ouvrage, au contraire, nous avons cherché à expliquer comment et pourquoi l’informatique a évolué pendant ces cinquante dernières années afin de devenir le système complexe et tentaculaire que nous connaissons et utilisons tous aujourd’hui. Et nous l’avons fait dans un ton décontracté et en interrogeant de multiples témoins, célèbres ou anonymes qui permettent de rentrer dans les détails des événements cruciaux.

Le résultat fait presque 500 pages (et encore, les illustrations sont “déportées” sur mon site web pour gagner de la place !) et permet de faire le tour de la question, pour ce qui est de l’informatique “moderne” au moins.

Informatique moderne ?

Pourquoi ce focus sur la partie “moderne” de l’histoire de l’informatique et quelle période cela recouvre-t-il ?

Commençons par répondre à la seconde question : notre ouvrage commence avec les années cinquante, au moment où l’ordinateur moderne (complètement électronique) naît aux USA. Nous poursuivons ensuite jusqu’en 2010 (pas plus loin, après c’est encore trop récent pour vraiment faire partie de l’histoire…).

Et nous avons éviter de remonter plus loin justement pour éviter de vous imposer encore une fois les poncifs sur Ada Lovelace et autres précurseurs lointains. Certains tiennent absolument à intégrer la machine de Pascal (la Pascaline de Blaise Pascal) dans l’histoire de l’informatique… Fort bien mais ce n’est pas notre démarche. Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXe siècle (et même des précédents), mais cela a déjà été fait de nombreuses fois. Notre but était plutôt de focaliser sur les cinquante dernières années de notre industrie afin d’en retracer les évolutions majeures et d’en comprendre les mécanismes.

Des cow-boys, en informatique ?

Dans cet ouvrage, nous parlerons de cow-boys pour parler d’entreprises, de personnes ou de pratiques qui ne s’embarrassent pas trop avec des procédures strictes ni pour demander une autorisation ou rechercher un consensus. Par opposition, les entreprises/personnes/pratiques “chemin de fer” suivent des procédures précises ainsi qu’un carnet de route défini à l’avance. Cette métaphore est bien évidemment tirée du Far West. Pour aller d’un endroit à un autre, un cow-boy n’a qu’à sauter sur son cheval (et aussi faire des provisions). Il peut changer d’itinéraire en cours de route si besoin est. Une compagnie de chemin de fer, par contre, doit d’abord poser des rails et pour cela planifier la construction de la voie ferrée, obtenir les accords nécessaires, etc. Comparée aux cow-boys, une entreprise de chemins de fer paraît beaucoup plus “sérieuse” et professionnelle — même si, techniquement, tous étaient des professionnels. Même de nos jours, l’expression “cow-boy” (se comporter comme un cow-boy) a une certaine connotation négative.

Dans le Far West, les chemins de fer ont peu à peu supplanté les cow-boys, les gens faisant transporter le bétail de plus en plus par le train. En informatique par contre, les chemins de fer ne supplantent pas toujours les cow-boys, comme nous allons le voir dans cet ouvrage.


Ce que nous apprend le Raptor sur notre présent

Publiée sur Linkedin le 14 mai 2021

J’avoue, je suis un fan de la chaîne YouTube du Raptor !

Si vous ne connaissez pas encore, c’est à découvrir d’urgence…

https://www.youtube.com/c/LeRaptor/videos

OK, c’est grôle mais est-ce que ça nous apprend quelque chose sur notre société et sur notre présent ?

Heureusement, oui et voici quoi…

La dernière en date… accrochez vous, c’est du lourd !

Dans ses vidéos fort bien faites (même si le montage est un peu nerveux et plein de références internes, c’est très travaillé, croyez-moi !), le Raptor expose sans pitié les travers répétés du gouvernement, des gauchistes, des féministes et des médias, le tout étant qualifié de “société des baltringues” (définition du terme “baltringue”, par ici). Honnêtement, on ne peut lui donner tort et si vous voulez un recensement précis des dérives absurdes de notre époque, la chaine du Raptor est une bonne source.

Tout cela est déjà intéressant mais il y a plus : ces contenus nous montrent, de façon incontestable, que les médias sont verrouillés dans une course (absurde) au “toujours plus”. Ayant favorisé les émissions les plus abrutissantes et les plus abêtissantes pendant des années (que dis-je, des décennies !), les médias généralistes principaux ne savent plus quoi faire pour continuer à retenir une audience qui s’effritent inexorablement. D’où la tendance à faire pire, encore et encore jusqu’à tomber à des niveaux que personnes ne pouvaient imaginer (hélas, la réalité dépasse toujours la fiction, c’est vérifié une fois de plus).

L’erreur serait de penser qu’il s’agit-là d’une exception (certes malheureuse), d’une aberration qui ne compte pas. Il n’en est rien. Si une Soveig Halloin peut exister et se produire ainsi, c’est parce que le système en place le permet et l’encourage (si on en juge par les applaudissements désolants qui suivent sa “performance”…).

Devant la nullité organisée du gouvernement et des médias, les vidéos du Raptor deviennent une source d’informations crédibles et raisonnables… Eh oui, on en est là.


La seconde crise du logiciel

Publiée sur Linkedin le 18 mai 2021

Cette seconde crise est très différente de la première. Il y a soixante ans, la première crise s’est déclarée quand on s’est rendu compte que le développement des logiciels devenait le goulot d’étranglement de la mise en place des systèmes. Aujourd’hui, cette nouvelle crise ne concerne pas la vitesse de développement, mais la fiabilité des systèmes qui repose sur une part croissante de logiciels.

Une première crise il y a 60 ans

Revenons rapidement sur les causes et les effets de ce qu’on a appelé “la crise du logiciel” dans les années 60 et 70.

Au début des années soixante et avec le lancement de chaque nouvelle machine, le logiciel système fourni par IBM pour accompagner ses ordinateurs augmentait — en taille — d’un facteur dix tous les cinq ans !

En conséquence de cette “enflure”, on a estimé que la part du coût de développement des logiciels de base est passée de 10% en 1960 à 40% en 1965 sur le total du coût de mise en œuvre d’un nouveau système…

C’est ainsi que s’est révélée la première “crise du logiciel” : le nombre d’installations de systèmes augmentait bien plus vite que le nombre de programmeurs formés, le logiciel devenait le  goulot d’étranglement principal qui menaçait de mettre fin à la croissance de cette industrie.

Une première crise qui dure encore

Cette crise ne s’est jamais vraiment tout à fait résorbée, mais le secteur a appris à vivre avec jusqu’à aujourd’hui. La liste d’attente pour les nouvelles applications a toujours été très (trop) longue dans toutes les organisations reposant sur l’informatique et c’est aussi la raison du développement du “shadow IT” : les départements lassés de devoir attendre leurs applications se sont souvent mis à les développer par eux-mêmes avec des outils NoCode.

Une nouvelle crise, tu es sûr ?

Aujourd’hui, tout le monde est en train de réaliser que le logiciel est un élément essentiel dans les systèmes modernes. Le premier à l’avoir affirmé est Marc Andreessen dans son célèbre article “le logiciel mange le monde” en 2011 (lire à Why Software Is Eating the World). Et, effectivement, tous les systèmes développés désormais contiennent systématiquement une part de logiciel, une part de plus en plus importante.

Après la version optimiste contenue dans l’article d’Andreessen, il est temps de passer à la version réaliste : le logiciel est de nouveau en crise parce que sa généralisation démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…), mais, cette fois, la nature même de ces bugs est différente.

La toujours délicate intégration de systèmes

En effet, il ne s’agit plus simplement d’ordinateurs isolés ou fonctionnant en réseau… Cette fois, on touche du doigt la limite induite par la toujours délicate intégration de systèmes. Pour commencer, ces logiciels s’exécutent dans des contextes où les tests et les corrections sont difficiles à réaliser à cause de la nature même des systèmes embarqués (allez donc traquer un bug qui ne se manifeste que dans certaines conditions d’un avion en plein vol…). Ensuite, les systèmes en question ne sont pas des éléments isolés (comme le sont les ordinateurs, qu’ils soient en réseau ou non), mais bien des éléments profondément dépendants des autres systèmes qui les entourent et les alimentent en données et mesures. Enfin, les organisations qui développent ces logiciels ne sont pas spécialisées en informatique, mais font cela en plus de leur domaine d’expertise habituel. Tout cela explique, au moins en partie, pourquoi ces bugs sont si fréquents, si bloquants et si difficiles (et coûteux !) à corriger.

Une situation qui est significative d’un nouveau contexte

J’écris “en partie” car je pense que cette situation est significative d’un nouveau contexte. Il ne s’agit pas d’un épiphénomène qui apparaît brusquement pour disparaître une fois qu’on en aura pris la mesure. Je crois au contraire que c’est juste le début de nos difficultés en la matière. Il est possible, voire probable, que ce type de logiciel ne soit jamais totalement fiabilisé (tout comme il reste toujours des bugs dans nos programmes habituels). Dans le secteur informatique, on s’est adapté à cette réalité souvent pénible, quelquefois douloureuse, mais qu’on sait inamovible. Dans les secteurs industriels cités, en revanche, je doute qu’on s’attendait à une telle non-fiabilité et qu’on n’ait pas encore réalisé qu’elle était quasi-impossible à améliorer radicalement.

La situation ne va donc pas s’améliorer, mais va empirer et le logiciel va devenir le facteur bloquant de l’évolution vers le toujours plus d’intégration et de fonctions intelligentes tout comme il a représenté le goulot d’étranglement des débuts de l’informatique.


Qui sont les conspirationnistes ?

Publiée sur Linkedin le 2 juin 2021

Il suffit d’écouter les médias quelques heures pour s’en convaincre : les conspirationnistes sont parmi nous !

Ils sont partout, ils sont dangereux, ne les écoutez pas, dénoncez-les !

Le statut de conspirationniste arrive vite, il suffit de dévier un tant soit peu de la ligne officielle et là, c’est terminé : vous êtes désigné, exclu, ostracisé. Et cela peut arriver à tout le monde, vraiment tout le monde. Un exemple ?

Facile, Luc Montagnier. Vous avez beau avoir été un grand personnage très en vue, adulé même (dame, c’est pas si souvent qu’on peut se targuer d’avoir un prix nobel de médecine, découvreur du SIDA quand même !), on vous fera tomber de votre piédestal sans pitié si, aidé par votre notoriété, il vous viendrait à l’idée de promouvoir des idées suspectes.

Or, justement, c’est ce qu’a fait Luc Montagnier au tout début de la crise sanitaire : en avril 2020, Luc Montagnier émet l’hypothèse que le coronavirus 2 du syndrome respiratoire aigu sévère à l’origine de la pandémie de Covid-19, est “sorti d’un laboratoire chinois avec de l’ADN de VIH”.

Aussitôt, c’est l’unanimité dans les médias : Montagnier est pointé du doigt, descendu plus bas que terre, ostracisé définitivement. Les plus indulgents expliquent que le grand scientifique est désormais gâteux… ça se comprend, vu son âge, n’est-ce pas ?

Mais il suffit d’écouter une interview récente de Luc Montagnier pour constater, passez-moi l’expression, qu’il a encore toute sa tête.

Bref, c’était clair : le virus à l’origine de la crise sanitaire que nous vivons tous depuis le début de 2020 est d’origine animale exclusivement et ceux qui disent autre chose doivent être réduit au silence, point. Exit Luc Montagnier, “on ne peut pas être et avoir été”…

Ce qui était vrai hier…

Et puis, depuis quelques semaines, une nouvelle musique se fait entendre. Finalement, peut-être que le virus se serait échappé du laboratoire P4 de Wuhan… peut-être bien après tout.

“Ah mais ça change tout” me direz-vous, “on va donc réhabiliter Luc Montagnier du coup, non ?”. Non. Si vous avez été catalogué conspirationniste, vous le restez, même si votre thèse devient possible voire probable. Et cela doit être ainsi si on veut que l’actuel terrorisme intellectuel continue de fonctionner.

Vous êtes prévenus : vous n’avez pas le droit de dévier de la ligne officielle. La ligne officielle, elle, peut varier en revanche… Mais ce n’est pas la même chose, ça reste la ligne officielle… respect.


Abrutissement et illusion, les deux pôles de notre technostructure

Publiée sur Linkedin le 15 juin 2021

En ce moment, difficile d’échapper au matraquage de la coupe d’europe de football… Difficile aussi d’imaginer un sport plus nul apprécié on ne sait pourquoi par la lie de l’humanité (qui prouve, en cet instant, qu’elle est devenue majoritaire !).

Nombreux sont ceux qui suivent les championnats de foot simplement “pour faire comme tout le monde” (n’oublions pas que la pulsion d’intégration est un puissant moteur à l’œuvre en permanence dans l’immense majorité des cas… On imagine les ravages dans le cas des “supporters” !).

Cela fait des décennies que ça dure : le peuple réclame du pain et des jeux, alors on lui donne de la nourriture industrielle et du football. Après tout, comment ne pas admettre que le peuple n’a que ce qu’il mérite ?

Les médias complices encouragent la tendance. Tout ce qui permet d’accentuer l’abrutissement général est bon pour eux. Et n’allez pas croire que c’est lié à la crise sanitaire (dont on nous fait croire qu’elle est en train de se terminer… plus dure sera la chute !).

Inutile d’insister sur le côté abrutissant de ces grandes manifestations populaires, il suffit de voir comment les médias se ruent sur l’affaire pour comprendre qu’on est bien face à un phénomène monté de toutes pièces et soigneusement entretenu afin de continuer à en récolter les fruits (une populace docile qui canalise son ressentiment sur “l’adversaire” au lieu de s’en prendre à ses bourreaux… chapeau l’artiste !).

L’illusion du savoir

Voyons maintenant l’autre versant de la manipulation : l’illusion. En effet, contrairement à ce que vous font croire les médias, il est difficile d’avoir un avis pertinent sur les questions techniques de notre temps (en revanche, avoir une opinion est toujours assez facile : il suffit de se laisser influencer par le torrent des médias et penser ensuite qu’il s’agit de votre propre déduction… mais peut-on encore parler de penser dans ce cas ?). Un exemple récent (juin 2021) l’illustre assez bien : la sortie d’un documentaire sur les éoliennes (Éoliennes : du rêve aux réalités) a illustré jusqu’à la caricature le semblant de débat qui fait rage dès qu’il s’agit d’un sujet à caractère technique.

Les partisans des éoliennes et leurs adversaires se sont affrontés sur le terrain des arrières-pensées (à qui profite le boom des éoliennes et, de l’autre côté, qui sont les lobbies qui ont financé ce documentaire et pourquoi ?) mais pas sur les vraies questions techniques qui elles ont été laissées de côté (“le public n’y comprend rien de toute façon !”).

Il faut bien l’admettre, les questions techniques demandent un vrai approfondissement avant de pouvoir émettre un avis éclairé, éviter les idées reçues et les non-sens les plus communs sur telle ou telle question. Le débit effarant des médias nous fait croire que nous sommes informés sur ces sujets mais rien n’est plus faux : ce que les médias déversent n’a quasiment aucune valeur car il s’agit le plus souvent des idées reçues les plus banales sur chaque domaine (exemple : le nucléaire n’émet aucun gaz à effet de serre…).

Pour aller au-delà de ce premier niveau d’ignorance (qui est en fait pire que la vraie ignorance puisque le public a l’impression de savoir alors qu’il ne sait rien…), il faut passer du temps et s’investir dans le domaine concerné. Cela demande des efforts et cela rend humble, tout le contraire de la tendance actuelle. En effet, la fausse connaissance est un biais désormais clairement identifié (car il apparaît de plus en plus fréquemment) et cela porte même un nom : l’effet Dunning-Kruger, aussi appelé effet de surconfiance.

Le citoyen de base n’a ni le temps ni l’envie de consacrer des mois d’étude avant d’émettre un avis sur un sujet. Les élus non plus d’ailleurs, c’est pour cela que dans notre société hyper-technicienne, les avis techniques sont pré-mâchés et pré-digérés par les intervenants qui y ont le plus d’intérêts afin que les décideurs n’aient plus qu’à signer, surtout si la question bénéficie d’un effet de mode qui aura été soigneusement lancé et entretenu par ces mêmes lobbies. On ne compte plus les domaines qui ont ainsi été traités de cette manière : médicaments, pesticides, énergie, défense, etc.

Donc, même si on tente de vous faire croire que l’homme moderne est bien au fait de son époque, laissez vos illusions : notre monde dominé par la technique est complexe et seuls les techniciens qui œuvrent au niveau de la conception et de la mise en place des systèmes en ont une compréhension réelle (et encore !)…

Abrutissement et illusion

C’est ainsi que fonctionne notre société désormais : d’un côté, on va abrutir le bon peuple avec des grandes messes au contenu vidé de sens. De l’autre, on va faire croire au pékin de base qu’il est informé sur les questions de notre temps et que son opinion a de la valeur. Les écrans de fumée sont efficaces, dormez tranquilles braves gens !


Le grand écart

Publiée sur Linkedin le 21 juin 2021

Deux peuples, un écart entre les deux qui s’agrandit, qui devient béant. Une incompréhension fondamentale les éloigne encore.

Pour ceux qui font partie des soumis, les rebelles sont simplement des râleurs qui se révoltent contre tout et pour un rien. Ce sont surtout des emmerdeurs qui retardent le retour vers un monde “normal”… S’il le faut, il faudra les forcer, point.

Pour ceux qui font partie de cette toute petite minorité de “rebelles”, c’est l’étourdissement. Comment se fait-il que cette majorité molle se laisse faire avec une telle facilité ?

Comment se fait-il qu’ils acceptent tous l’inacceptable encore et encore ?

Comment peuvent-ils réclamer l’accès à des vaccins sur lesquels on ne sait rien, où le recul est inexistant et dont l’efficacité est, au mieux douteuse, au pire carrément toxique ?

Voilà un peuple hébété, rendu passif et consentant par des années d’une télévision abrutissante et qui n’arrive plus à en décrocher. Voici des gens qui font preuve d’une discipline incroyable en portant des masques (inutiles) en toutes circonstances (y compris seuls dans leurs voitures !). Voilà une minorité qui n’abdique pas, qui réfléchit encore, qui n’accepte pas tout sans poser des questions (légitimes), qui discute et refuse tout de même face à des abus évidents et répétés. Voilà une minorité pointée du doigt qui, à elle seule, maintient l’honneur de l’humanité à bout de bras.

On a déjà vu cela dans le passé (De Gaulle lors de Juin 1940) mais je n’imaginais pas que cela été aussi dur à vivre, aussi lourd à porter. Comment avoir encore foi en mes semblables quand je constate qu’ils avalent des anneries qui ferait rire mon cheval si j’en avais un !

Je ne sais pas comment vous vivez cela mais moi, j’ai du mal. Si vous faites partie des soumis, j’imagine que ça va, vous avez confiance dans ce qu’on vous dit et vous pensez sans doute que ce cauchemar va bientôt se terminer. Si vous faites partie des rebelles (peu nombreux, rappel), vous savez que ce cauchemar commence à peine.

Courage, c’est la nuit qu’il est beau de croire à la lumière.


Le monde actuel a commencé avec le 9/11

Publiée le 2 septembre 2021

Vous vous souvenez du 9/11 ?

Non, le but de cet “article” n’est pas de polémiquer une fois de plus sur les causes, les mensonges et les non-dits de cet événement majeur (une très bonne récapitulation peut se lire à https://www.voltairenet.org/article213844.html), mais plutôt de se souvenir que notre monde actuel a effectivement commencé là, tout simplement.

Oui, songez-y, notre société a vraiment débuté avec cet événement et son traitement médiatique. Tout d’un coup, un fait avec des contours brumeux devenait indiscutable, c’est-à-dire qu’on ne devait PAS le discuter, sous aucun prétexte, d’aucune manière, point.

L’imprudent qui osait remettre en cause la doxa (même avec précaution) était aussitôt ridiculisé et ostracisé… ça ne vous rappelle rien ?

Nous sommes désormais dans un contexte sociétal où il faut croire. Il ne s’agit plus de débattre de faits, il faut simplement avaler la version officielle pour la ressortir le moment venu avec la plus parfaite exactitude, sinon gare !

Aujourd’hui, on vous traite de “complotistes” comme jadis on jetait l’anathème en vous traitant d’hérétique… rien n’a changé finalement. C’était bien la peine de se moquer des communistes et de leur rigidité mentale (souvenez-vous de la fameuse “ligne du parti”…) si c’était pour l’adopter aussi complètement quelques dizaines d’années après.

Je crois tout de même que le plus troublant dans cette “évolution”, c’est la proéminence de la “croyance” : croire en ceci, croire en cela, ne rien remettre en cause, tout admettre du moment que ça vient de l’autorité… assez surprenant non quand on songe qu’on est censé être en plein XXIème siècle ?

Finalement, le 9/11 a enfanté son lot de crises que nous avons encaissé sans broncher, crescendo : les subprimes de 2008, la crise sanitaire actuelle… Tout cela n’est possible qu’avec l’assentiment de la majorité. C’est bien pour cela que la “fabrique du consentement” est devenue la mission N°1 des médias.

Si nous voulons retrouver notre liberté (et d’abord et avant tout notre liberté de penser !), il faut nous libérer de cette entrave : n’écoutez plus les médias, plus du tout.


La loi du “mur de la complexité”

Publiée sur Linkedin le 26 novembre 2021

Le fameux télescope spatial James Webb (JWST pour James Webb Space Telescope) va enfin être lancé, bientôt… Enfin, si tout va bien !

Car, depuis les lointains débuts de ce successeur du non-moins fameux télescope Hubble, les retards et les surcoûts se sont multipliés dans des proportions ahurissantes !

Revenons d’abord sur la genèse de ce projet. En 1989, le directeur du Space Telescope Science Institute, le centre chargé des opérations du télescope spatial Hubble, initie une réflexion sur le télescope qui devra prendre la relève de celui-ci vers 2005 (2005 !).

Entretemps, le prix de cette merveille est passé de 500 millions de dollars en 1996 à 9,7 milliards de dollars. Et chaque jour de retard ajoute un million de dollars à la facture.

Ces retards, d’ailleurs, se poursuivent. La date de lancement prévue la plus récente est le 22 décembre. Il s’agit d’un report, annoncé le 22 novembre, du 18 décembre. Mais au moins, la “chose” est maintenant sur le site de lancement.

Hubble lui aussi avait coûté cher : le coût du projet a atteint 2 milliards de dollars en 1990 (au moment de sa mise en orbite), faisant du télescope Hubble l’instrument scientifique le plus coûteux de tous les temps… Jusqu’à ce que son successeur batte le record !

Il était initialement prévu que le télescope Hubble ait une durée de vie de quinze ans mais, à ce jour, il fonctionne toujours (soit déjà 31 ans de services opérationnels !). On ne peut qu’espérer que le JWST soit aussi endurant…

OK, tout cela est intéressant mais les retards et les surcoûts sont monnaie courante quand il s’agit de projets techniques sophistiqués, non ?

Justement, c’est bien là que je voudrais attirer votre attention : n’y aurait-il pas une limite à ce que nous pouvons encaisser comme complexité ?

EPR et F35, entre autres

Et les exemples qui vont dans ce sens se multiplient sans que nous semblions en prendre conscience. Je pense en particulier à l’EPR et au F35. C’est comme si la “loi des rendements décroissants” s’appliquait aussi à l’escalade de la complexité.

Tout se passe comme si on n’était incapable de comprendre que nos progrès croissants (et bien réels) dans la maitrise technique ne pouvaient pas forcément se traduire dans des mises en oeuvre toujours plus grandes, toujours plus complexes.

Prenons comme exemple les projets de développement des armes modernes. Non seulement les programmes d’armement sont de plus en plus coûteux, mais aussi, et surtout ils prennent de plus en plus de temps (ce qui explique d’ailleurs qu’ils demandent de plus en plus d’argent). Le “démonstrateur Rafale A” vole le 4 juillet 1986 et le programme est effectivement lancé le 26 janvier 1988. Les premiers exemplaires sont livrés à partir du 18 mai 2001 (armée de l’air) et entrent en service en 2002 dans la Marine, soit quinze ans de développement alors qu’il n’en avait fallu que huit pour les programmes précédents (Mirage F1 et Mirage 2000).

Ces délais à rallonge ne sont pas propres à l’aviation ni même au contexte français. Du côté des chars d’assaut, non seulement le char Leclerc a coûté bien plus cher que son prédécesseur l’AMX 30, mais il a également demandé beaucoup, beaucoup, beaucoup plus de temps pour être mis au point et surtout livré.

Du côté des Américains, c’est encore pire : les chasseurs à réaction dévorent toujours plus de budgets et demandent toujours plus de temps à être étudiés, construits et livrés aux unités opérationnelles. Dans ce domaine, les tout derniers programmes F22 et F35 frôlent la caricature dans des proportions énormes. Le F16 n’avait demandé que quatre ans pour être conçu alors que le F22 en réclama quinze !

Le programme F35 en particulier est une réponse au programme F22 qui était considéré trop coûteux. Le F35 devait apporter la solution en étant multirôles, c’est-à-dire le même avion pour les trois armes (Air Force, Navy et Marines).  Mais il s’est avéré que le cahier des charges était bien trop complexe pour arriver à combiner les exigences de l’Air Force, de la Navy et du corps des Marines en un seul appareil capable de satisfaire les spécificités si diverses de la gigantesque armée américaine. Résultat, le projet a été grevé par de multiples incompatibilités, a coûté bien plus cher que prévu et n’a toujours pas atteint un niveau opérationnel satisfaisant.

Bon, c’était effectivement relativement facile de montrer le sur-place des projets militaires (surtout avec le F35 qui est une cible facile vue que ses déboires sont permanents !), mais on va maintenant pointer un secteur où ce sur-place est bien moins connu : les médicaments.

Les médicaments sous perfusion !

Voilà encore un domaine exemplaire : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une “loi”, la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le nom Eroom est l’inverse de la loi de Moore bien connue dans le domaine des composants électroniques. Ce nom a été choisi afin de souligner l’effet miroir (inversé donc !) entre le milieu des médicaments et celui des composants.

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies (voir le schéma ci-dessous) est une bonne illustration de la loi des retours dégressifs.

Un secteur qui peine à trouver un second souffle

Tous les médicaments que nous utilisons aujourd’hui ont été découverts dans les années cinquante, à l’âge d’or des médicaments chimiques. Depuis, en dépit d’efforts colossaux, ce sont toujours les mêmes principes actifs qui sont déclinés à l’infini sous des packagings différents (à l’exemple de la molécule paracétamol vendue sous des dizaines d’appellations commerciales diverses), car les affaires restent les affaires, hein !

Autre exemple : une dose de Nusinersen, médicament moderne produit aux États-Unis pour soigner l’amyotrophie spinale [une maladie héréditaire qui atrophie les muscles], est vendue 70 000 euros. Son développement a duré dix ans et coûté plus d’un milliard de dollars.

Depuis 1980, aucune famille d’antibiotiques n’a vu le jour. Les nouveaux traitements ne sont que des modifications de composés connus.

Lisez Supériorité !

On pourrait ainsi multiplier les exemples, mais il me paraît plus intéressant de donner le mot de la fin à Arthur C. Clarke avec sa nouvelle “Supériorité” qui prouve que la guerre est une mauvaise période pour tenter d’innover et d’obtenir un avantage décisif.

“Supériorité” est une nouvelle de science-fiction de l’écrivain britannique Arthur C. Clarke, publiée pour la première fois en 1951. Elle décrit une course aux armements et montre comment le côté le plus avancé sur le plan technologique peut être vaincu, en dépit de sa supériorité apparente, par ses propres faiblesses organisationnelles et sa volonté de se débarrasser des anciennes technologies sans avoir complètement perfectionné la nouvelle. Pendant ce temps, l’ennemi construisait régulièrement un arsenal d’armes beaucoup plus important, certes plus primitif, mais surtout plus fiable. Cette histoire était au programme d’un cours de design industriel au Massachusetts Institute of Technology.

Source https://en.wikipedia.org/wiki/Superiority_(short_story).

Le mur de la complexité

Tout cela va peut-être finir par nous faire comprendre qu’il existe bien un mur de la complexité tout comme on admet l’existence du “mur du son” que l’aviation civile n’essaye même plus de franchir (car on connaît désormais les coûts et les conséquences techniques de la capacité supersonique). Ici, la bonne attitude est de savoir calibrer son ambition de façon à frôler ce nouveau mur sans risque de s’y fracasser (délais, surcoûts).

Tout cela, je l’ai déjà expliqué en long et en large dans mon livre récent “Le fait technique” mais le pré-bilan du JWST me donnait l’occasion d’enfoncer le clou une fois de plus !

Il faut donc privilégier les projets plus modestes (moins ambitieux) mais plus accessibles et plus faciles à mettre en place avec succès. Mais ce genre de leçon est-il compatible avec la mentalité du “toujours plus” propre à la psychologie humaine ?


Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Publiée sur Linkedin le 6 décembre 2021

Eh oui, comme le précise le titre de cet article, une période “extraordinaire” ne rime pas forcément avec “formidable”. Après tout, les guerres et les grandes catastrophes sont, elles aussi, des événements extraordinaires…

Une crise sanitaire ? Où ça ?

Bref, notre présent est dominé par les tenants et aboutissants de ce qu’il convient d’appeler la “crise sanitaire” mais qui est, en réalité, une crise de société très profonde. Durant ces derniers mois, nous avons constaté, souvent avec effarement, que beaucoup de règles qu’on croyait bien établies ont été balayées, oubliées, contredites et même interdites !

L’obligation de soigner, le débat contradictoire, la prudence scientifique, le droit à une pensée libre et le droit de l’exprimer, entre autres… Tout cela serait de l’histoire ancienne (jusqu’à ce qu’on nous explique que, en fait, ça n’a jamais existé…) face à une “urgence sanitaire” qui nous contraint à respecter des ordres absurdes et contradictoires, le tout sans broncher svp.

La réalité (et la brutalité) des faits oblige à reconnaître que nos gouvernants sont en guerre ouverte contre nous et, encore un élément extraordinaire, qu’une grande partie de la population (une large majorité) ne semble pas s’en rendre compte.

Ceci dit, avant d’aller plus loin sur ce triste présent, il faut se remémorer quelques épisodes d’un passé relativement récent pour s’apercevoir que nos gouvernants agissent contre nos intérêts depuis un certain temps déjà. Et s’ils le peuvent, c’est principalement grâce (ou à cause) de la passivité des gens. Passivité qui, de plus, est largement encouragée et entretenue, nous y reviendrons.

Une longue période de déceptions

Les vingt dernières années ont été lourdes de revers de toutes les sortes et d’amères déceptions. Que ce soit en France, au niveau européen ou américain, les gouvernants se sont évertués à nous mentir et à nous flouer, encore et encore. Et tout cela dans la plus parfaite impunité (pourquoi se priver après tout ?).

On pourrait revenir sur les attentats du 9/11 ou sur la conduite de la seconde guerre en Irak (ou ce qui s’est passé en Libye) mais je crois quand même que le plus marquant et le plus déplorable reste tout de même le traitement de la crise de 2008. Pour faire court, contentons-nous de rappeler qu’il s’agit d’une crise mondiale qui a été causée uniquement et entièrement par l’avidité sans borne des banquiers (une simplification, certes, mais nécessaire pour un article forcément limité). Les dégâts et les victimes ont été innombrables et qu’a-t-on fait ?

Eh bien, vous comprenez, on a sauvé les banquiers, hein… Il faut savoir respecter certaines priorités, n’est-ce pas ?

Selon moi, c’est vraiment là qu’on (nous, nous tous en tant que peuple) a perdu le contrôle et que les gouvernants ont réalisé qu’ils pouvaient tout se permettre, que ça passait sans problème. Depuis, les mensonges et les scandales (qui ont toujours existé, bien sûr) sont allés crescendo dans l’indifférence générale. Il y a bien des lanceurs d’alertes et des journalistes d’investigation mais qui les écoutent ?

Personne ou presque parce que la population est totalement anesthésiée. Et si c’était bien cela qu’on nous avait fait subir, une anesthésie générale ?

Et si tout cela était le résultat d’années de préparation ?

Personnellement, cela fait des années que je tente d’alerter sur la baisse générale du niveau intellectuel que je constate autour de moi et que je dénonce le rôle des médias dans cette affaire. J’ai toujours été frappé par l’absence de réaction face à ce phénomène, même de la part de ceux que j’estimais (encore) épargnés.

Donc, on peut s’étonner de la docilité des gens mais on peut aussi admettre que le travail de fond réalisé par les médias dans ce sens pendant ces dernières décennies a fini par porter ses fruits. En effet, comment nier que la promotion et la diffusion systématique des contenus les plus abrutissants soit en constante augmentation dans toutes les principales chaînes de TV et de radio ?

Auparavant, on avait des animateurs un peu beaufs (genre Patrick Sébastien) mais ça ne suffisait pas, il fallait aller à plusieurs crans au-dessus avec des animateurs carrément les plus vils (genre Cyril Hanouna). Les programmes de télé-réalités sont devenus tellement prisés que même les services comme Netflix ou Prime Vidéo en proposent !

Toute cette évolution négative (toujours abaisser le niveau, jamais le relever) a forcément produit des effets et on peut les constater en voyant nos ados se régaler des vidéos les plus débiles sur YouTube ou Tik-Tok. Si encore ce n’était visible que chez les ados mais tout le monde est touché, aucune tranche d’âge n’est épargnée, le mal est fait et il est généralisé.

Mais comme le labeur des médias ne suffisait pas tout à fait, nos bourreaux ont ajouté la force des algorithmes. On constate avec stupéfaction que Google (avec YouTube), Facebook et Linkedin censurent à tout va depuis quelques mois et avec une efficacité digne d’éloges. L’expression dissidente est étouffée avec une précision et une vitesse que l’ancien politburo soviétique n’aurait jamais pu espérer !

La crise sanitaire ou un test à (très) grande échelle

Ce que nous vivons depuis presque deux ans s’apparente de moins en moins à une crise sanitaire sérieuse à cause d’une épidémie foudroyante et super-dangereuse mais bien à une expérience de contrôle des populations (propagande, censure, coercition) dont les résultats dépassent les espérances les plus folles de ses promoteurs.

Comment imaginer qu’on allait pouvoir, si facilement, remplacer toutes les démarches scientifiques (qu’on croyait naïvement comme bien implantées… ah !) par des injonctions primaires de type “taisez-vous et croyez-nous”… et ça marche !

Comment pouvait-on imaginer qu’on allait pouvoir, si facilement, remplacer tous les débats contradictoires par l’ostracisme et le respect de la “ligne du parti” sans discussion d’aucune sorte ?

Ah ça si Staline et Mao sont en train de nous observer en ce moment, nul doute qu’ils doivent être en train d’applaudir avec admiration !

Un procès de Nuremberg, vous y croyez ?

On peut toujours espérer qu’on finira par organiser un méga-procès de Nuremberg de l’ère moderne où tous les truqueurs et tous leurs collabos serviles (journalistes et médecins qui ont marché dans cette combine toute honte bue) seront jugés, condamnés et punis de ce qu’ils viennent de nous faire subir (et ce n’est pas terminé, hélas) mais, franchement, j’y crois de moins en moins.

Tant que la bêtise et le conformisme à tout prix régneront, cette ambiance délétère continuera. Et, quelque part, je comprends ceux qui nous oppriment : pourquoi se priver, ce troupeau a choisi sa servitude, qu’il se fasse tondre puisqu’il est d’accord !

Le pire n’est jamais sûr

On dit que c’est la perte de l’espoir qui finit par tuer le naufragé… Et si c’était la perte de son âme qui égarait le peuple ?

Avec pour seuls horizons des distractions dépourvues de sens et une consommation exacerbée mais frustrante, les corrompus qui tentent de nous égarer ont presque réussi à nous perdre, effectivement. Mais tout espoir est-il perdu ?

Non, évidemment non. Même aux plus sombres heures de notre histoire, il y a toujours eu un sursaut qui nous a permis de repartir. Pour cela, l’engagement de la majorité n’est pas nécessaire. Il suffit à quelques-uns d’impulser le mouvement pour que le reste suive, tôt ou tard. La faible lumière de la résistance débouchera sur une aube glorieuse. Il faut y croire et agir car “c’est la nuit qu’il est beau de croire à la lumière”.


Un coupable de complaisance !

Publiée sur Linkedin le 11 décembre 2021

En ce moment, on entend une nouvelle petite musique qui montre que le vent est en train de tourner. Et vers quoi souffle le vent désormais ?

Eh bien, on s’est trouvé un coupable de complaisance qui arrange tout le monde. Il s’agit de Jean-François Delfraissy qui, en quelques semaines, est passé de respectable à gâteux.

Quelque part, je devrais me réjouir :  Jean-François Delfraissy ne fait pas exactement partie des personnes pour lesquelles j’ai de la sympathie. Mais le désigner à la vindicte populaire me paraît tout à fait en ligne avec les mensonges et manipulations donc on nous abreuve depuis le début de cette crise.

Le plus drôle si j’ose dire c’est que c’est Martin Blachier désigne désormais Jean-François Delfraissy comme le responsable de tous nos maux et comme incapable de conduire la politique crise sanitaire, comme s’il en avait été capable depuis le début !

En France, on est coutumier de l’emploi de ce coupable de complaisance, souvenez-vous de l’affaire du sang contaminé. Pas un seul politique n’a été sérieusement inquiété, bien sûr !

Que Delfraissy soit démis de ses fonctions et je ne vais certainement pas pleurer mais je considère qu’il ne doit pas être le seul à payer les pots cassés.  En effet, les coupables dans cette affaire sont nombreux. À commencer par Martin Blachier, justement, qui ne s’est pas privé de dire tout et son contraire depuis le début de sa présence médiatique dans le cadre de cette crise.

Mais soyons clair, Blachier et Delfraissy sont du menu fretin par rapport aux vrais responsables de cette situation calamiteuse.  En particulier j’aimerais bien réserver une place de choix pour notre ministre de la Santé, le formidable Olivier Véran.

On n’oubliera pas non plus tous ces journalistes serviles qui ont porté le message de ce gouvernement en guerre contre son propre peuple. Non, rassurez-vous, quand Delfraissy sera oublié depuis longtemps, nous, nous n’aurons rien oublié et rien pardonné.


La question principale : à quelle vitesse ce Metaverse va-t-il arriver ?

Publiée sur Linkedin le 12 décembre 2021

La question à laquelle on doit répondre aujourd’hui c’est surtout “à quelle vitesse ce Metaverse va-t-il arriver ?”. C’est la question principale tout simplement parce que c’est celle à laquelle on peut essayer de répondre, alors que l’autre question principale qu’on imagine assez facilement ce serait plutôt “à quoi va ressembler ce Metaverse qu’on nous annonce aujourd’hui ?”.

Donc, la question de la vitesse d’apparition reste bien la principale aujourd’hui tout simplement parce que c’est celle qui nous impose de réagir et de nous positionner vis-à-vis de ce nouveau phénomène décrit par tous comme étant structurant pour le futur de l’informatique au sens large (the next big thing).

Sur ce sujet, il y a donc deux écoles qui s’affrontent. Une qui prétend que cela va arriver vite, dès l’année prochaine ou presque. Et une autre qui dit que ça va être plus long, que ça va prendre des années avant d’avoir une concrétisation bien réelle c’est qui (et amusants de d’utiliser l’adjectif bien réel dans un domaine où tout est virtuel.

On peut aussi imaginer que les deux écoles de pensée ont raison dès le début puisque quelque chose va effectivement arriver relativement vite mais que la forme finale, la forme effective elle, prendra des années pour trouver son chemin, se concrétiser et rallier les utilisateurs massivement.

Ceux qui pensent que le Metaverse va se concrétiser rapidement mettent en avant l’exemple de Meta (la société, maison mère de Facebook) qui a investi lourdement et qui commence à présenter ses premières briques comme Horizon Worlds. Alors justement parlons-en de cette soit-disant première brique et, clairement, si ce n’était pas Meta qui était derrière cette réalisation, eh bien on serait simplement tordu de rire à la vue de cette première réalisation tant elle est grotesque et éloignée de ce qu’on pourrait imaginer pour un usage professionnel.

Que le Metaverse prenne des années pour se concrétiser et trouver sa forme finale n’est pas surprenant et n’est pas inédit dans l’histoire technique. Si on reprend l’histoire du web, celui-ci a beaucoup évolué entre sa première forme, qu’on peut situer en 1994, et celle qu’on connaît aujourd’hui.

Cette évolution s’est faite graduellement, avec des étapes importantes, comme au début des années 2000 avec le protocole Ajax mais, fondamentalement, dès le début, le web ressemblait déjà à ce qu’il est aujourd’hui. Pour le Metaverse en revanche, c’est beaucoup plus difficile de dire à quoi il va ressembler dès aujourd’hui. Car nous nous situons encore aujourd’hui dans la période qui ressemble à celle qui a précédé l’avènement du web et où l’on parlait encore des “autoroutes de l’information”. Sans que personne n’ait été capable de donner une définition claire est utilisable de ce que pourrait être ces fameuses autoroutes de l’information et à ce à quoi elles allaient servir.

Donc, laissons là pour le moment la question de “à quoi va ressembler le Metaverse” pour nous concentrer sur la rapidité éventuelle de son apparition.

Cette question de la rapidité de réalisation d’une innovation majeure m’intéresse particulièrement parce qu’elle est au centre de mon travail depuis des années. En effet, à travers des livres, des articles, des conférences et des webinaires, j’essaye d’expliquer que les innovations, les vraies innovations, les vraies ruptures, prennent du temps, beaucoup de temps, toujours plus de temps que ce qu’on est prêt à admettre.

Il est logique et naturel qu’on ait du mal évaluer correctement la durée nécessaire car tu nous pousse à croire que, pour reprendre une expression déjà très utilisée, “c’est déjà demain”. La propagande technique cherche continuellement à nous faire croire que tout va très vite et même notre enthousiasme naturel nous pousse à croire et même à désirer que, effectivement, ces progrès annoncés, nous allons pouvoir en tirer parti très rapidement.

Mais une analyse objective de la situation et de ses perspectives nous oblige à comprendre qu’il faudra des années d’efforts, d’essais et d’erreurs avant que la bonne forme du Metaverse puisse finalement apparaître et devenir disponible pour le plus grand nombre. Sans oublier, bien évidemment, les moyens nécessaires pour en profiter. Car rappelons que cet univers virtuel, pour le moment spéculatif, va demander des interfaces très spéciales afin de permettre et de renforcer l’immersion.

Bref, vous l’aurez compris, une fois de plus, je me situe fermement du côté de ceux qui vous disent que cela va prendre du temps et qu’il faut garder de s’enthousiasmer trop rapidement à propos de ce concept qui n’est encore, justement, qu’un concept.


Les fraudes hi-tech et ce qu’elles nous révèlent…

Publiée le 14 décembre 2021 sur Linkedin

Les utopies techniques ont de l’avenir

On peut s’escrimer à longueur d’articles et de livres (comme je l’ai fait dans mon ouvrage “le fait technique“) à expliquer le côté absurde des utopies techniques, ça restera vain. Tout d’abord parce que les biais cognitifs sont difficiles à surmonter, mais aussi parce que la propagande solutionniste a une “force de frappe” (avec la complicité des médias) bien plus importante que les commentateurs raisonnables qui tentent de faire la part des choses (et on a pu le mesurer douloureusement lors de la terrible crise sanitaire, où nous sommes restés englués de longs, très longs mois).

Donc, oui, les entités (gouvernements, entreprises, gourous autoproclamés, etc.) qui servent et qui se servent de la propagande technique vont continuer à mentir et à délirer impunément pendant longtemps puisque ça marche : audience et crédits pour eux, dénigrement pour les autres (les commentateurs raisonnables).

Si, comme je le prétends, la propagande technique excessive est toxique, c’est qu’elle devrait avoir des effets mesurables, non ?

Justement oui, et dans ce cadre, je vous propose d’évoquer les fraudes techniques qui se transforment inévitablement en scandales financiers retentissants. Non, il ne s’agit pas d’évoquer les bricolages minables d’un Madoff en 2001 ou les innombrables scandales politiques qu’on ne sait plus dénombrer tellement ils sont fréquents. Intéressons-nous plutôt à la recrudescence récente des fraudes hi-tech afin de comprendre ce qu’elles révèlent sur notre époque.

D’Enron à Wirecard

Les fraudes à grande échelle venant d’entreprises réputées ne sont pas un phénomène nouveau. Il y a eu l’énorme scandale Enron en 2001 (voir à https://fr.wikipedia.org/wiki/Enron) et bien d’autres auparavant, avec de très nombreux cas de comptes bidonnés (d’Oracle en 1991 à Worldcom en 2002, voir à https://fr.wikipedia.org/wiki/WorldCom). Plus proche de nous, il y a eu la surprenante affaire Wirecard en 2020 (voir à https://fr.wikipedia.org/wiki/Wirecard) qui a démontré que même les Allemands n’hésitaient pas à frauder quand l’occasion leur était donnée. Mais ça, on le sait depuis la gigantesque affaire du dieselgate de Volkwagen (voir à https://fr.wikipedia.org/wiki/Affaire_Volkswagen).

Puisqu’on évoque des peuples soi-disant vertueux, n’oublions pas nos amis japonais qui ne sont jamais les derniers à se retrouver honteux devant leurs malversations diverses : Toshiba en 2015, Mitsubishi Motors en 2016 et j’en oublie certainement plein d’autres !

Du côté de la hi-tech

Ce qui est nouveau, c’est le caractère technique des scandales récents (à part Wirecard et encore…). Il s’agit essentiellement de mensonges sur les performances techniques de produits mis en avant, pas sur le trucage des comptes comme avec l’affaire WeWork et autres ainsi qu’on en avait l’habitude.

Cette fois, il ne s’agit pas d’entrepreneurs trop optimistes sur leur capacité à vendre leur dernière trouvaille, il s’agit de la trouvaille elle-même qui n’est que du vent et ça, c’est (relativement) nouveau.

Ces dernières années et dans ce cadre, nous avons eu l’affaire de Theranos (avec Elizabeth Holmes, voir à https://korii.slate.fr/biz/vilains-du-net-theranos-elizabeth-holmes-scandale-silicon-valley-medecine-mensonge), celle de OneCoin avec la “crypto-queen” bulgare Ruja Ignatova (aujourd’hui toujours en fuite, voir à https://fr.wikipedia.org/wiki/OneCoin), les robots de livraison soi-disant autonomes de Kiwibots (voir à https://siecledigital.fr/2019/09/03/les-robots-kiwibots-etaient-pilotes-par-des-colombiens-sous-payes/) et enfin récemment Nikola Corp. (voir à https://www.novethic.fr/actualite/finance-durable/isr-rse/nikola-motor-l-autre-tesla-s-effondre-en-bourse-sur-fond-de-promesses-douteuses-149032.html) avec leurs camions électriques, mais, hélas, dépourvus de moteur (filmés en train de dévaler une colline, ça aide quand on n’a pas de moteur !!).

Revenons rapidement sur le cas Wirecard. Même s’il ne s’agit pas d’une fraude technique en soi, il y a tout de même une composante hi-tech dans cette affaire. Le PDG de Wirecard (Markus Braun) aimait mettre en avant le caractère innovant de son approche avec, disait-il, une utilisation intensive de logiciels IA de type machine learning… Bien entendu, quand son château de cartes s’est écroulé, son soi-disant recours au machine learning est apparu pour ce qu’il était : un rideau de fumée. Il n’y avait pas d’usage de l’IA à Wirecard autrement que dans les prétentions du PDG.

Fake it until you make it

Tout cela commence à faire beaucoup. Il semblerait que la pression permanente exercée sur les entrepreneurs les pousse de plus en plus à annoncer des résultats inatteignables et à faire semblant de les avoir atteints par tous les moyens (le fameux “fake it until you make it”, soit “faites semblant jusqu’à ce que vous y arriviez pour de bon”). Mais dans les cas que nous venons de lister, il semble que la perspective d’y arriver après avoir beaucoup essayé soit même absente…

Les individus nommés ici ont un comportement pour le moins étonnant : ils démarrent quelque chose d’où une personne sensée sait qu’elle ne pourra pas s’en sortir. C’est une chose de monter une gigantesque arnaque où l’on disparaît dans la nature après avoir plumé quelques pigeons (ou de nombreux pigeons, au choix), mais lorsque votre visage est affiché dans tous les magazines de business et que l’on vous présente comme le nouveau Steve Jobs au féminin (ça a été le cas pour Elizabeth Holmes), vous savez que vous n’aurez nulle part où vous cacher (encore que, Ruja Ignatova y est bien arrivé, elle !). Ces comportements quasi-suicidaires sont-ils de plus en plus fréquents ou est-ce l’évolution globale de notre société qui leur permet d’apparaître et de prospérer (au moins pour un temps) ?

Portrait type du menteur technologique

On se retrouve avec différents profils de menteurs techniques avec ces histoires. Voici une typologie dressée sur le tas :

– Nous avons tout d’abord le classique “Fake it ’till you make it” déjà évoqué : des entrepreneurs qui ont peut-être plus de pression ces temps-ci pour offrir des résultats spectaculaires et qui peuvent bidonner des résultats pour gagner du temps. Exemple type : Elon Musk qui aime beaucoup promettre, mais qui oublie rapidement ses promesses (sauf que Tesla a un vrai produit et est finalement devenu profitable). Ou même Bill Gates (qui a promis un BASIC pour l’Altaïr 8800 lors des débuts historiques de Microsoft alors qu’ils ne l’avaient pas encore écrit).

– Nous avons ensuite les modèles économiques bancals du style WeWork. Rien d’illégal dans la mesure où ça ne semble déranger personne (sauf que WeWork a fait perdre pas mal d’argent à pas mal de gens…).

– Nous avons aussi les traditionnels exploiteurs de buzz, comme toutes les compagnies soi-disant d’IA qui n’ont rien à faire avec l’IA sauf dans leur discours. Admettons néanmoins que cette forme de promotion suivie de la commercialisation de produits médiocres ait toujours existé.

– Et enfin (je l’ai gardé en dernier !), nous avons le redoutable “Fake it, period” (je fais semblant, point barre) : les véritables arnaques du style Theranos, OneCoin ou Nikola Corps. Peut-être bien que ces personnages hauts en couleur sont des cas cliniques qui ont toujours existé, mais qui, pas de chance (sauf pour eux), trouvent peut-être des investisseurs plus réceptifs ces temps-ci et c’est bien cela le problème.

Que peut-on en déduire ?

Comment expliquer que des pareils profils et des comportements du type “fake it, period” puissent faire illusion (au moins pour une période) dans notre contexte de capitalisme débridé ?

Il a certes la pression permanente sur les entrepreneurs pour annoncer du grandiose, mais il y a aussi des investisseurs qui sont prêts à croire n’importe quoi sans vraiment d’esprit critique et sans analyse sérieuse (surtout sur le plan technique) de ce qui leur est présenté : leur fameuse “due diligence” se résume trop à vérifier que les slides soient percutants et que le business plan soit alléchant, peu importe que tout cela soit tissé avec des liens éthérés.

Mais si encore il ne s’agissait que de financiers trop avides. Dans le cas de Nikola Corp., par exemple, il semble bien que General Motors se soit associée (dans tous les sens du terme) à cette start-up avec enthousiasme, mais sans vraiment vérifier ce qui leur était dit, y compris sur le plan technique qui est pourtant censé être leur point fort…

Les menteurs sont récompensés aux dépens des entrepreneurs honnêtes

Un tel laisser-aller a des conséquences catastrophiques pour tout le monde et d’abord pour ceux qui s’efforcent de rester honnêtes : ils sont refusés, repoussés, n’arrivent pas à attirer l’attention, car les menteurs pathologiques leur volent la vedette.

Avec une perversion endémique de ce type, on en arrive à encourager le mensonge et à décourager l’honnêteté. Qui sont les responsables ?

Tout d’abord les médias qui veulent toujours du sensationnel et ne peuvent se contenter d’améliorations incrémentales (alors que la technique évolue toujours pas à pas). Ensuite les financiers qui sont trop gourmands et qui vont plutôt se tourner vers ceux qui promettent la lune, peu importe que ça soit inaccessible puisqu’ils (les investisseurs des premiers tours) seront sortis du capital de la start-up au moment de l’introduction en bourse et avant que le scandale n’explose… le bon vieux “après moi le déluge” de Louis XV est toujours d’actualité.

Rien à attendre des médias

On le voit, les médias sont juste capables de relayer le hype du moment, sans aucune analyse ni vérification. Ce qui est important à retenir, ce sont les biais mentaux qu’il nous faut corriger sans cesse afin de garder une vision juste (ou, au moins, aussi juste que possible) de l’évolution technique à l’avenir. Répétons une fois de plus qu’il faut être patients à court terme et optimistes à long terme (un peu comme les investissements en bourse en fait !). Armés de ces principes, vous saurez faire le tri entre les modes sans fondements (ou mises en avant trop tôt) et les tendances solides.


La danse médiatique sans fin ni sens

Publiée sur Linkedin le 19 décembre 2021

La vague médiatique en faveur du tout nouveau métaverse nous apprend au moins une chose : la danse des médias ne s’arrête jamais, est continuellement renouvelée même quand la nouvelle musique n’est encore tout à fait composée ni que les danseurs soient capables d’exécuter les pas encore en cours de création…

En effet, la notion même de métaverse n’est pas encore claire que déjà les trompettes de la renommée sonnent et annoncent qu’il s’agit de la nouvelle grande affaire !

Peu importe que sa forme soit encore en définition, ni que son avènement soit encore lointain, la messe est dite, prosternez-vous, le métaverse est l’avenir, point.

Ici aussi, les rares esprits encore éveillés (une espèce rare pendant cette époque de folie collective…), auront remarqué qu’on disait aussi cela pour les récentes modes précédentes. Souvenez-vous, il y a quatre ans, c’était l’IA et la Blockchain qui devait tout redéfinir. Puis, quand la Blockchain a tardé à délivrer ses promesses (c’est toujours le cas d’ailleurs), le discours central de la propagande techno s’est recentré sur les cryptomonnaies et, dernièrement, sur les NFT.

On constate semblable mouvement du côté de l’IA qui est désormais moins mise en avant mais, rassurez-vous, la bulle médiatique a toujours du neuf en magasin : l’IA tarde à faire son big bang ?

Mais ce n’est pas grave puisque nous avons les ordinateurs quantiques qui eux, promettent de tout changer !

Peu importe que cette nouvelle informatique quantique soit encore à des années (à des décennies en fait…) de connaître un début de réalisation concrète, son triomphe certain est déjà proclamé. Et c’est ainsi encore et encore… Comment se fait-il que cette danse sans fin et sans sens ne nous ait pas déjà tous dégoûté ?

D’abord, il faut admettre que des forces puissantes sont à l’œuvre. D’un côté, nous avons l’industrie électronique/informatique qui a besoin d’attention (un peu) et de financements (beaucoup !). De l’autre, nous avons l’industrie médiatique qui a simplement besoin d’attention (beaucoup !). Ces deux-là ont forgé une alliance objective qui donne des résultats formidables depuis quarante ans. Donc, pas question de changer la recette, ma bonne dame !

Mais voilà, le processus s’est emballé et, désormais, la musique est déconnectée de la danse et plus personne n’y comprend rien. Aucune importance, le but n’est pas de faire comprendre, le but est simplement de faire admettre : voilà la nouvelle mode, adorez-la, point.

Vu comme cela, on comprend mieux les derniers développements qui affectent notre société. Car les techniques de ce bourrage de cranes techno sont désormais reprises par les autres pans de la propagande. Vae victis.


Avec le Web3, nouvel enfumage à l’horizon !

Publiée sur Linkedin le 7 janvier 2022

Le Web3 ? Qu’est-ce que c’est encore que ça ?

Eh bien, personne ne sait vraiment ce qu’est ou pourrait être le Web3 sinon qu’il n’a rien à voir avec le Web 3.0 mis en avant (sans succès) par Tim Berners Lee. En gros, les promoteurs du Web3 promettent un Web renouvelé et débarrassé de ses tares (comprendre la prééminence des GAFAM) grâce à un fonctionnement décentralisé s’appuyant sur des Blockchains…

Le problème avec cette promesse, c’est qu’elle repose sur des éléments très instables (les crypto-monnaies comme le Bitcoin) et très perfectibles (comme les blockchains justement !). Pas tout à fait le meilleur candidat possible pour faire vraiment mieux et plus équitable que le Web 2.0. L’argument principal des promoteurs du Web3 est qu’il sera décentralisé et, ainsi, échappera au contrôle des acteurs dominants… En fait, cet argument cache simplement leurs volontés de devenir les nouveaux acteurs dominants et de profiter de ce pouvoir pour se comporter en terrains conquis (je ne suis pas le seul à le dire, lisez donc cet article https://www.lemondeinformatique.fr/actualites/lire-web3-ou-la-chimere-de-l-internet-du-futur-85285).

Tous les acteurs ont un agenda

Tout cela m’évoque furieusement les années 90 où Oracle dénonçait les pratiques abusives d’IBM et incitait les clients à quitter big blue pour se réfugier au sein du “gentil rouge”… Aujourd’hui, je doute que les clients qui subissent les pratiques commerciales du “gentil rouge” puissent vraiment faire la différence avec le temps où il subissait le joug d’IBM !

Tous ses acteurs ont un agenda (tous !) : les gros veulent rester au sommet (Mark Zuckerberg veut se réinventer avec Meta pour ne pas chuter), les petits veulent y grimper pour admirer la vue… C’est l’éternel histoire du monde, ne vous laissez pas abuser par les promesses des promoteurs du Web3. Au lieu de raconter des histoires, je préférerais les voir s’occuper des performances lamentables des blockchains (et consommer moins d’énergie stupidement aussi pendant qu’on y est !), pour commencer avant de nous promettre de l’appliquer à tout le Web et toute l’informatique (il faut reconnaître cela : ces jeunes loups du Web3 sont ambitieux) !

Pour se convaincre que la Blockchain n’est pas encore à niveau pour se généraliser, il suffit de lire cet article : https://www.usenix.org/publications/loginonline/web3-fraud

Bref, on l’aura compris, le Web3 n’est pas l’avenir de l’informatique ni du Web mais une combine de plus pour recycler encore plus de crypto-monnaies bidons.


Il est temps de lire “Le monde sans fin”​

Publiée sur Linkedin le 3 février 2022

Le livre à lire en ce moment n’est certainement pas celui de telle ou tel candidat(e) à l’élection présidentielle (qui sont souvent des ouvrages d’une grande médiocrité), non.

En revanche, vous ne perdrez pas votre temps en vous penchant sur une BD, oui, une BD… Celle de Christophe Blain (Scénario, Dessin) et de Jean-Marc Jancovici (Scénario) : Le monde sans fin.

Cet ouvrage est volumineux (192 pages) mais se lit assez vite car il est très bien fait : pédagogique, amusant même et “right to the point” comme dirait Iso Yamura. On n’est pas forcément d’accord avec tout (je ne partage pas l’enthousiasme et l’optimisme de Jean-Marc Jancovici sur le nucléaire) mais il faut reconnaitre que ce livre met des gros points sur des gros i et c’était nécessaire. Ce n’est pas qu’un livre sur le climat, l’écologie ou même l’énergie, pas seulement. Selon moi, c’est l’ouvrage idéal pour mesurer ce qu’est devenue notre société moderne depuis qu’elle a embrassé le machinisme (l’utilisation des machines à tous les étages). Tout comme comme j’ai essayé de l’illustrer dans “Le Fait technique” (voir à http://www.alain-lefebvre.com/un-nouveau-livre-le-fait-technique/), Blain et Jancovici nous montrent (avec brio) sur quoi repose notre monde et comment il a évolué en deux cent ans.

Rien que pour cela, c’est un livre incontournable, surtout pour les enfants !

Je l’ai donné à lire à mon fils de 13 ans et son premier commentaire a été “hé, c’est bien mieux que la SVT !” (SVT : sciences de la vie et de la Terre, une matière scolaire actuelle). Donc, je vous recommande ce livre sans restriction : c’est bon pour toute la famille !

Alors, bien sûr, ce livre interroge sur notre avenir : continuer à faire semblant (greenwashing, croissance verte et autres balivernes) va nous envoyer droit dans le mur et cela va occasionner des dégâts, des victimes, beaucoup de douleurs… Alors, comment éviter cela et trouver une issue acceptable ?

Le livre offre quelques pistes et c’est déjà pas mal. La principale serait de passer à une génération de responsables conscients des enjeux et prêts à faire des vrais efforts, pas seulement des discours… On les cherche encore !


Ce grand embrasement qui vient

Publiée sur Linkedin le 12 mai 2022

Lorsque j’ai rédigé et publié mon livre “Cette révolte qui ne viendra pas”, c’était d’abord pour répondre et démentir le texte “cette insurrection qui vient” dont les arguments ne m’avaient pas convaincu. Dans “Révolte”, j’explique que l’insurrection est quasiment impossible du fait du verrouillage du système par les médias et par le faible niveau général de la population (que la technostructure cherche toujours à abaisser avec une efficacité certaine !).

Je n’ai toujours pas changé d’avis : des embryons de révolte même modeste le mouvement des gilets jaunes sont combattus par le pouvoir en place avec une violence disproportionnée (et délibérée) afin de décourager explicitement toute amorce de tentative dans ce domaine.

Mais je pense que les conditions sont en train de changer et qu’elles vont déboucher sur ce que j’appelle “le grand embrasement”. Alors, attention, je n’emploi pas les termes “révoltes” et “insurrections” dans ce cas précis : révolte et/ou insurrection suppose que le groupe à sa tête a un minimum de projet politique en réserve (même très flou) en cas de succès.

Là, ça ne sera pas le cas, pas du tout. Le grand embrasement sera un déchaînement de violence aveugle et sans discernement qui affectera tout le monde sans distinction. Ce n’est pas un scénario souhaitable, loin s’en faut mais à force de tuer dans l’œuf tous les mouvements de protestation légitime, on aboutira à ce dénouement malheureux.

Imaginez ce qui se passe en ce moment au Sri Lanka mais puissance dix et dans notre contrée… Gagné, voilà à quoi va ressembler le grand embrasement !

OK, c’est pas terrible mais comment en être certain ?

On ne peut pas en être certain, “le pire n’est jamais sûr” comme le dit fort justement un dicton populaire mais nous avons une série de signaux faibles qui montre que les choses sont en train d’évoluer, que des craquements se font entendre et que cela annonce des conséquences sinistres.

Mais quels sont ses signaux faibles annonciateurs de la catastrophe ?

Eh bien ils sont divers, éparpillés et pas toujours faciles à comprendre et à relier mais ils ont tous un point commun important : le rejet de la technostructure dans son ensemble. Et ce rejet va se transformer en une haine qu’il sera impossible d’endiguer, d’où le terme d’embrasement.

Quelques exemples : des tours de communications 5G incendiées, des câbles de fibres optiques sabotés ou des étudiants fraîchement diplômés qui rejettent le jeu de dupes que leur propose le système (voir à https://youtu.be/SUOVOC2Kd50 ça vaut le coup de les entendre : “Plus de courage en 7 minutes que les 5 dernières années de politique française”). Ces exemples peuvent vous sembler anecdotiques et peu importants. Détrompez-vous, ils sont les signes extérieurs, et encore timides, d’une colère qui va croissante. Cette colère enfle, se répand et elle est jus-ti-fiée. La technostructure abandonne le peuple à son triste sort et le peuple va finir par se rebiffer. Cela ne va pas se produire d’une façon organisée et encore moins raisonnable mais cela va arriver.

On le voit partout : services publics qui désertent, déserts médicaux, formalités en ligne obligatoires, règles administratives qui changent sans cesse et se complexifient jusqu’à l’absurde et même répression vexatoire (comment prendre autrement ces radars placés vicieusement pour faire du chiffre ?).

Boris Vian avait dit “le devoir de chaque citoyen français et de trouver le fonctionnaire qui s’occupe de son cas et de l’égorger”… J’ai peur que cette prédiction finisse par devenir une terrible réalité !

Cette technostructure arrogante et déconnectée semble vouloir tout faire pour pousser les gens à bout et c’est effectivement ce qui est en train de se produire. Cela va encore prendre du temps avant l’explosion finale. Combien ?

Je ne sais pas, le timing est toujours la prévision la plus difficile à produire mais je suis désormais persuadé que ça arrivera et ce n’est pas une bonne nouvelle, pour personne.


Comment disparaît une mode technique -Web3- et pourquoi c’est totalement justifié dans le cas présent

Publiée sur Linkedin le 24 juin 2022

Aussi incroyable que cela puisse paraître mais en dépit de tout ce qu’on a pu apprendre à leurs sujets, le Metaverse et le Web3 sont encore des termes à la mode aujourd’hui. Le cas du Metaverse est facile à régler (c’est trop tôt, faut lui laisser du temps, point). En revanche, le “phénomène” du Web3 est tellement délirant qu’il mérite qu’on s’y penche.

Commençons par revenir sur la mécanique des modes techniques…

D’où venons-nous ?

La propagande tech ne s’arrête jamais !

Il y a dix ans, la mode était sur les apps mobiles, il y a cinq ans sur l’IA et ainsi de suite.

Que s’est-il passé depuis ?

Les mobiles apps se sont généralisées effectivement donc ça ne pouvait plus être un “sujet de mode”, point barre.

L’IA a pris le relais avec des effets démos spectaculaires (et ici, “l’effet démo” a vraiment joué à fond !) mais on s’est progressivement aperçus que ces avancées (bien réelles et importantes) n’étaient pas faciles à généraliser. Il y a eu quelques tentatives de commercialisation à grande échelle (IBM surtout et Google dans une moindre mesure ou plus discrètement au moins) mais qui se sont toutes soldées par des échecs retentissants. Les seules à avoir vraiment bénéficiées de “l’effet IA” se sont les startups qui ont collé cette étiquette à leur business plan afin de lever de l’argent plus facilement (avec au moins 40% de fake complet, le tout attesté par des études sérieuses).

Donc on est resté longtemps dans le domaine de la “promesse pour très bientôt” mais ça, ça ne tient pas dix ans : on est désormais dans la phase où l’IA n’est plus vraiment un sujet chaud mais seulement un sujet d’arrière-plan dont on sent bien qu’il reviendra à un moment sur le devant de la scène (mais quand ?).

Que s’est-il passé ensuite ?

La nature a horreur du vide et la propagande tech aussi !

La crypto était déjà plus ou moins à la mode depuis 2018 quand la valeur du Bitcoin passait certains seuils. Puis, les NFT sont apparus suivis par la vente de Beeple qui a été comme un coup de tonnerre dans un ciel bleu…

À partir de là, les médias se sont emparés du phénomène qui s’est un peu détaché du statut de “truc bizarre et risqué compris seulement par les geeks” pour prendre des allures plus intéressantes d’une possible “nouvelle ruée vers l’or” déjà plus alléchante.

Mais la vraie bascule est arrivée avec le “moment Meta” quand Zuck s’est lancé dans la course au Metaverse comme Kennedy dans la course vers la lune (aux débuts des années soixante).

Le moment Meta – stupeur et incompréhension !

L’annonce de Facebook devenant Meta a représenté un événement majeur dont on a pas encore mesuré toutes les conséquences. Mais cela a certainement propulsé du jour au lendemain un nouveau buzzword : le Metaverse !

La propagande s’en emparé, les médias s’en sont emparés, les consultants, les analystes et les commentateurs s’en sont emparés mais également les petits malins comprenant que c’était désormais une étiquette qui faisait vendre (comme avec l’IA)…

Stupeur d’abord car c’était effectivement une perspective nouvelle (même si elle a des racines culturelles profondes) et formidable qui s’ouvrait (passer de “je surfe le web” à “je suis dans l’Internet”, c’est quand même quelque chose !).

Incompréhension car, comme toujours, la dimension temporelle a été volontairement oubliée. Zuck n’a jamais promis le Metaverse pour demain ou alors, c’est un “demain lointain” (voire vraiment lointain).

Souvenons-nous que quand Kennedy lança la course vers la Lune, il se donnait un horizon à presque dix ans… Le pari a été tenu mais de justesse !

Le Web3 pointe le bout de son nez

Suite au succès (relatif et en trompe-l’oeil) des NFT, les petits malins de la crypto se sont dit que le moment était bon pour, à leur tour, pousser leur concept disruptif et ce fut l’entrée en scène du Web3.

On est donc passé d’une situation où la propagande tech commençait à manquer de sujets (l’IA s’usait un peu) à un quasi trop plein avec Metaverse et Web3 en même temps !

Le nouveau cocktail a bien fonctionné et certains se sont même convaincu que l’un n’allait pas sans l’autre (rien n’est plus faux mais passons). La propagande est contente, elle a de nouveau du “grain à moudre” et s’en donne à coeur joie !

Ce qui ne va pas avec le Metaverse…

Ici, c’est simple : il y a un décalage bien trop grand entre les attentes et le temps qui va être nécessaire pour que le concept commence à produire quelques résultats significatifs. Et ce décalage ne se chiffre pas en mois mais en années voire en décennies… rédhibitoire !

Le fait que tous les imposteurs (comme The Sandbox) se soient emparés du mot-clé ne change rien à la rupture qui s’annonce inéluctable : arrivera un moment où le buzzword ne fera plus recette car sa concrétisation aura trop tardée, point (quand ? En septembre 2022, en même temps que l’effondrement de la crypto).

Ce qui ne va pas avec le Web3

Ici, c’est pire car rien ne va droit avec le web3 !

Rappelons que le Web3 n’est pas un vrai concept mais plutôt un habillage habile autour de la crypto pour justifier et inciter à consommer toujours plus de crypto afin de profiter d’une chimérique et jamais atteinte “décentralisation” (entre autres promesses).

Le Web3 est un écran de fumée qui, évidemment, n’a pas résisté à l’épreuve du temps : toutes les promesses (toutes !) de la crypto, de la blockchain, des NFT, de la DeFi, des smart-contract et des DAO se sont toutes avérées être des espoirs déçus dans le meilleur des cas ou des mensonges grossiers le plus souvent. Pas une seule promesse ou espoir dans ce domaine n’a été contredit par l’épreuve du temps et des tests concrets sur le terrain (comme ces soit-disant blockchain capables de proposer des meilleurs performances que les traditionnelles Bitcoin ou Ethereum et qui se sont effondrées systématiquement dès qu’on a tenté de les solliciter de façon un peu sérieuse… sic transit gloria mundi!).

Nous avons eu assez de démonstrations édifiantes, il est temps d’admettre que le Web3 n’est pas autre chose qu’une façade vite faite, mal faite pour la crypto qui, après tout, n’est elle qu’un piège à gogos avides et crédules (ces gens croient dur comme comme fer à la théorie du “plus grand imbécile” -il y en aura toujours un autre pour payer plus cher que moi ce que je viens d’acheter- sans réaliser que les prochains “plus grands imbéciles”, c’est justement eux !).

Mais si tout cela n’était qu’écran de fumée et piège à gogos, ce ne serait pas encore trop grave. Car il y a pire !

La crypto sert aussi les intérêts des pires criminels du moment. En effet, sans le Bitcoin, le ransomware serait une activité moins facile à “monétiser”. Pièges à gogos et ransomware, c’est tout ?

Non, il faut aussi ajouter le blanchiment d’argent (encore une activité criminelle) au “palmarès” de la crypto => Binance accusé d’avoir blanchi plus de 2 milliards de dollars.

N’en jetez plus, la coupe est pleine !

Quand je vois qu’il y a encore des articles qui paraissent en ce moment pour déclarer que le Web3 est “la prochaine évolution du Web” et que c’est une “révolution”, je me demande si on partage les mêmes sources…

Pourtant, rien n’est caché et il suffit d’aller sur https://web3isgoinggreat.com/ pour mesurer l’ampleur nocive du soi-disant phénomène révolutionnaire. Et on le sait depuis un moment en plus !

Il suffit de regarder et d’écouter cette vidéo (Line goes up- the real problem with NFTs) pour comprendre à quoi on a affaire :

Cette vidéo est très complète et très dense (et très exacte !), il n’est donc pas inutile de la visionner plusieurs fois… pour bien comprendre tous les tenants et aboutissants de cette fraude (car, une fois qu’on a compris, autant appeler les choses par leur nom, non ?).

Bref, on l’aura compris, le Web3 est concept bancal, frauduleux et qui ne résistera pas au prochain crash majeur de la crypto qui devrait arriver lors de l’automne 2022. On est déjà) entré dans le “crypto-winter” mais ce n’est encore rien par rapport à ce qui va arriver à la rentrée : cette fois, l’effondrement sera massif, les “valeurs” du Bitcoin et de l’Ether vont reculer de plusieurs années et la remontée qui s’ensuivra sera longue. De quoi calmer pour un bon moment tous les espoirs d’une “ruée vers l’or” qui n’a jamais existé que pour quelques “happy few” qui ont habillement provoqué ce battage et en ont profité (et eux seuls, des noms ? Facile, Andreessen-Horowitz par exemple).

Du crypto-winter au crypto-crash

A partir de là, Le Web3 quittera pour de bon la catégorie “buzzword” pour rejoindre les poubelles de l’histoire comme un terme infamant qui aura marqué plus qu’une déception : une manipulation mensongère de bout en bout (tout comme Terranos ou Nikolas Motors).

Attention, la crypto ne va PAS disparaître pour autant même après avoir pris une grosse claque (et oui, ça va être une très grosse claque !). Il y a trop de gens (malfaisants) qui ont intérêt à ce que ça continue, même sur un mode mineur. Les criminels du ransomware vont simplement demander plus de Bitcoin pour compenser la baisse du cours, tout simplement.

Et ensuite, que va-t-il se passer ?

Eh bien, comme d’habitude : ces modes déchues (Web3 et Metaverse) vont être remplacées par d’autres et tout continuera. La propagande va débiter ses promesses absurdes sur un nouvel horizon radieux et il se trouvera toujours assez de monde pour vouloir y croire.

Pour ce qui est du Metaverse, ça reviendra (éventuellement sous un autre nom d’ailleurs) car ici le fond est bien réel mais comme ça réclame du temps, il faudra juste être patient.


Crypto : de la bulle spéculative à la bulle d’illusions !

Publiée sur Linkedin le 28 juillet 2022

Si vous suivez l’actualité des cryptomonnaies en ce moment, vous avez pu constater une curieuse distorsion de la réalité : alors que nous sommes entrés dans une phase qu’on peut qualifier “d’hiver de la crypto” où ce domaine va enfin sortir (mais pas sans dégâts) de sa spirale spéculative pour aller vers une grosse correction (dans tous les sens du terme !), on voit encore passer des titres d’articles du genre “le web3 est une trop belle opportunité pour la laisser passer…”. Je dois dire que ce genre de titre m’irritait déjà il y a six mois mais aujourd’hui, comment est-il encore possible d’écrire cela ?

Je me dis que, forcément, l’auteur de l’article ne vit pas dans le même monde que moi, qu’il n’a pas accès aux mêmes sources ou alors, qu’il est prisonnier d’une boucle temporelle qui lui impose six mois de retard par rapport à nous… ça ne peut être que cela, non ?

Ce n’est pas moi qui ait inventé l’expression “crypto winter” (https://cryptoweek.fr/crypto-winter-2022-quand-bitcoin-sera-t-il-en-bas), les pros du domaine sont déjà capables d’en identifier plusieurs (hiver) et de dire fièrement “celui-là est moins terrible qu’en 2017”…

Récapitulatif d’une descente aux enfers…

Pour comprendre l’écart entre la situation actuelle et les illusions du dernier carré des fans de crypto, il faut revenir (brièvement) sur les épisodes précédents (voir aussi https://www.linkedin.com/pulse/comment-dispara%C3%AEt-une-mode-technique-web3-et-cest-dans-lefebvre/), accrochez-vous, ça va secouer !

  • Le 13 février 2022, quatre agences de cryptographie ont acheté des publicités du Super Bowl : Coinbase, FTX, eToro et Crypto.com. Coinbase est devenue l’une des applications les plus téléchargées après la diffusion de leur publicité. On peut dire que c’est l’instant précis du sommet qui précède le déclin…
  • Le 4 avril, Bitmex est devenue la première agence de cryptographie à annoncer des licenciements, licenciant 25 % de ses employés.
  • Le 3 mai, la Réserve fédérale a relevé les taux d’intérêt de 0,5 %, déclenchant une large liquidation sur le marché. En huit jours, Bitcoin a chuté de 27% à un peu plus de 29 000 dollars et Ether a chuté de 33,5% à environ 1 960 dollars. Le NASDAQ a chuté de 12,5 % au cours des cinq jours suivant l’annonce.
  • Le 9 mai 2022, les jetons Luna ont fait la une des journaux après que l’UST a commencé à casser son ancrage au dollar américain. Au cours de la semaine suivante, le prix de l’UST a plongé à 10 cents, tandis que Luna est tombé à “pratiquement zéro”, contre un sommet historique de 119,51 $. Avant le crash, Luna était l’une des dix plus grandes cryptomonnaies du marché. L’effondrement a anéanti près de 45 milliards de dollars de capitalisation boursière en une semaine.
  • Le 10 mai, Coinbase, avec des actions en baisse de près de 80 % par rapport à leur sommet, a annoncé qu’en cas de faillite, les gens perdraient leurs fonds. Le PDG a annoncé plus tard qu’ils ne couraient aucun risque de faillite.
  • Le 13 mai, Terraform Labs a temporairement interrompu la blockchain Terra en réponse à la baisse des prix de l’UST et de la Luna. Malgré les tentatives de la société pour stabiliser UST et Luna via ses réserves de bitcoins et d’autres crypto-monnaies de la Luna Foundation Guard, l’arrimage 1:1 de l’UST à l’USD ne s’est pas matérialisé. Au 16 mai 2022, les analystes de la blockchain affirment que l’utilisation des réserves de bitcoins de LFG reste encore largement incertaine.
  • Le 12 juin, Celsius Network, un échange cryptographique, a annoncé l’arrêt de tous les retraits et transferts. Le Bitcoin a chuté de 15% le lendemain à près de 22 500 dollars et Ether est tombé à 1 200 dollars. Une vague de licenciements d’autres agences de cryptographie a accompagné cela, notamment de Crypto.com et Coinbase.
  • Le 13 juin 2022, le stablecoin algorithmique de Tron, USDD, a perdu son ancrage au dollar américain.
  • Le 17 juin, Bitcoin est tombé en dessous de 20 000 dollars pour la première fois depuis décembre 2020 et Ether est tombé en dessous de 1 000 dollars pour la première fois depuis janvier 2021.
  • Le 17 juin, Babel Finance, un prêteur crypto basé à Hong Kong, a gelé les retraits.
  • Le 23 juin, CoinFlex a suspendu les retraits après qu’une contrepartie, qu’elle a nommée plus tard Roger Ver, a rencontré des problèmes de liquidité et n’a pas remboursé un appel de marge stable de 47 millions de dollars.
  • Le 27 juin, Three Arrows Capital, un fonds spéculatif de cryptomonnaies, a fait défaut sur un prêt de 670 millions de dollars de Voyager Digital, un courtier en cryptomonnaies.
  • Le 30 juin, FTX a annoncé qu’elle pourrait acquérir BlockFi, une entreprise de cryptographie qui avait licencié 20 % de son personnel.
  • À la fin du mois de juin, de nombreuses agences de cryptographie ont commencé à repenser leurs dépenses alors que leurs fonds commençaient à diminuer.
  • Le 2 juillet, Three Arrows Capital a déclaré faillite.
  • Le 4 juillet, Vauld, un prêteur de crypto basé à Singapour soutenu par Coinbase et Peter Thiel, a interrompu les retraits et les échanges sur sa plateforme.
  • Le 5 juillet, eToro a mis fin à son accord de société d’acquisition à vocation spéciale (SPAC) et a licencié 6 % de ses effectifs.
  • Le 5 juillet, le courtier en cryptographie Voyager Digital a déposé son bilan en vertu du chapitre 11.
  • Le 6 juillet, Genesis Trading a révélé qu’elle avait été exposée dans la faillite de Three Arrows Capital.
  • Le 8 juillet, Blockchain.com a annoncé à ses actionnaires qu’elle faisait face à une perte potentielle de 270 millions de dollars sur les prêts accordés à Three Arrows Capital.
  • Le 11 juillet, il a été annoncé que les mineurs de crypto au Texas avaient temporairement fermé leurs portes car une vague de chaleur intense a mis à rude épreuve le réseau énergétique.
  • Le 11 juillet, le Conseil de stabilité financière (FSB) a déclaré que la crypto “doit faire l’objet d’une réglementation et d’une surveillance efficaces proportionnelles aux risques qu’elles posent”.
  • Le 12 juillet, un dossier déposé auprès du tribunal américain des faillites du sud de New York par des avocats représentant les créanciers de Three Arrows Capital a déclaré que la localisation actuelle des fondateurs de la société était inconnue.
  • Le 14 juillet, Celcius Network a déclaré faillite.
  • Le 19 juillet, SkyBridge Capital a gelé les retraits.
  • Le 20 juillet, Vauld a déposé une demande de protection contre les créanciers, l’équivalent de la faillite aux États-Unis.
  • Le 20 juillet, Zipmex, une bourse d’Asie du Sud-Est, a gelé les retraits.
  • Le 25 juillet, Coinbase a fait l’objet d’une enquête de la SEC pour avoir potentiellement menti à ses clients. Cela a entraîné une baisse de 21 % de leur stock le lendemain.
  • En juillet 2022, Bitcoin et Ether étaient en baisse de plus de 60 % par rapport à leur pic.

Source : https://en.wikipedia.org/wiki/Cryptocurrency_bubble#2020%E2%80%932021_boom_and_2021%E2%80%932022_crash

Vous avez tout lu ? Bravo !

Vers le bain de sang !

Bon, que le Bitcoin ou l’Ether (l’Ether est le nom du coin qui est basée sur la blockchain Ethereum) connaissent des variations de leurs cours, rien de plus normal : ce sont les éléments principaux de cette bulle spéculative, c’est donc dans l’ordre des choses. Que des start-up spécialisées fassent faillite à cause de ces variations, c’est tout à fait normal également. Mais que des plateformes “d’échanges” gèlent les transactions et empêchent les retraits des clients, voilà qui est déjà plus significatif, non ?

Cela prouve tout simplement et sans aucune ambiguïté que les acteurs de ce “marché” sont entrés en mode “panique” : le sauve qui peut général est décrété et personne de sérieux dans le milieu croit que la phase finale du crash puisse encore être évitée.

Ces derniers mois, nous avons franchi successivement les paliers de -20% puis -50% (les paliers habituels quand une bulle spéculative est en train d’exploser… ce qui peut prendre des mois, voir les bulles précédentes…), reste le dernier, à -80% qui lui est vraiment synonyme de “bain de sang”.

Les baleines sont pressées

Le franchissement de ce palier est prévu entre septembre et octobre de cette année et les “baleines” (c’est ainsi que l’on surnomme les gros détenteurs de crypto… ceux qui, depuis le début, manipulent le marché à leur seul profit) savent que le compteur tourne et qu’il faut sortir du marché (vendre leur crypto) maintenant !

C’est pour cela que la propagande évoque des rebonds et des hivers finalement pas si terribles : il faut entretenir l’illusion que cette crise n’est pas si grave et que le meilleur est encore à venir. Le dernier chapitre du battage médiatique met un fort accent sur les cycles, que maintenant c’est le moment de construire sagement sans bruit : “bear market is a time to build”…

Il suffit que les baleines arrivent à convaincre un lot suffisant de “crédules/avides” (le dernier lot des “plus grands imbéciles”, également appelée “théorie du plus grand fou” ou “théorie du survivant”) pour sortir du marché sans trop de casse. Et je constate que c’est en train de marcher. Et que c’est pour cela qu’on voit autant d’articles sur les cryptomonnaies en ce moment : la propagande tente de relancer la machine une dernière fois (pour faciliter la sortie du marché des baleines… après, advienne que pourra !). C’est un discours simple mais bien ciblé qui glorifie les “believers”, ceux qui tiennent bon et qui sont encore des “holders” (des idiots utiles plutôt…).

Une bulle d’illusions, ça existe !

Nous sommes passés d’une bulle spéculative à une bulle d’illusions : ceux qui prétendent encore que la “crypto c’est super” ou que le “web3 c’est l’avenir” sont soit profondément malhonnêtes, soit profondément idiots. Je penche plutôt pour la seconde solution (les malhonnêtes existent mais ils sont moins nombreux) : le dernier carré des fans de crypto est en plein déni de réalité. Attendons le bain de sang afin de voir s’ils sont toujours dans l’enthousiasme…

La crypto va rester

Même un palier à -80% ne va pas “tuer” la crypto (ne serait-ce que pour permettre aux pirates de faire payer leurs ransomwares !) : certains coins vont disparaître (il y en a trop pour qu’il en soit autrement) mais le Bitcoin et l’Ether sont là pour rester, même à des niveaux historiquement bas. Puis, ils vont remonter, progressivement et une nouvelle bulle spéculative va se former. Cela peut prendre deux ans ou plus mais c’est ainsi que ça se passe, hélas.

Épilogue : les leçons qu’on peut/doit tirer de tout cela…

Tout d’abord, il nous faut admettre une bonne fois pour toute que la propagande technique existe, qu’elle s’est emparée des médias et tente (avec un certain succès, voire même un succès certain !) de nous imposer des modes (et peu importe son contenu technique, réel ou supposé) tous les deux/trois ans.

Ensuite, il faut reconnaître que cette mode technique, qui reposait sur peu de choses (le web3) et dont toutes les promesses ont été systématiquement démontées, a tout de même réussie à s’imposer et à occuper une bonne partie de l’espace médiatique avec des “experts” nous expliquant régulièrement et très sérieusement pourquoi nous devions accepter que cette nouveauté fragile et mal assemblée représentait l’avenir de l’informatique sans l’ombre d’un doute.

Nous devons donc nous interroger sur notre crédulité ou, au moins, sur le poids que fait peser la propagande sur les canaux d’informations techniques qui n’en sont presque plus. En effet, comment continuer à considérer que ces canaux ont la moindre crédibilité sur le plan technique puisqu’ils se sont évertués pendant deux ans à nous faire prendre des vessies pour des lanternes ?

Enfin, les leçons du passé ne servent pas à grand-chose. Sinon, comment comprendre qu’il ait fallu tant de temps pour reconnaître ce qu’était le web3 : une bulle spéculative de plus. Pourtant, des bulles spéculatives, on en a vu passer et, à chaque fois, tout le monde a dit “plus jamais ça !” (vous avez remarqué combien cette expression “plus jamais ça” n’atteint jamais son but ?). On savait les caractéristiques d’une bulle, il était facile d’appliquer les critères sur la nouvelle venue et pourtant, rien ou presque. Seuls quelques rares témoins ont dénoncé la situation, les autres ont préféré croire que, cette fois, “to the moon” était une promesse solide et non pas un piège à gogos.

Notre crise sanitaire à nous

Finalement, nous aussi nous avons eu notre “crise sanitaire” dans notre domaine hi-tech !

Avec quasiment le même cirque comme le défilé des faux-experts racontant n’importe quoi mais étant écoutés religieusement. Où tous les comportements sains qui auraient évité cet égarement ont sauté, les uns après les autres : bon sens, discernement, intelligence et scepticisme raisonné. Au lieu du bon sens on a eu l’avidité crédule, au lieu du discernement on a eu l’aveuglement enthousiaste, au lieu de l’intelligence on a eu la folie de la “ruée vers l’or” et au lieu du scepticisme raisonné on a eu le dogmatisme indiscutable de “c’est l’avenir, admettez-le”.

Cet épisode met aussi en exergue nos comportements humains (trop humain !) les moins reluisants : on préfère les gains rapides et faciles à l’effort de longue durée, on préfère écouter les marchands de promesses, même s’ils sont délirants, plutôt que d’entendre les avertissements des (vrais) experts modérés et prudents. Enfin, on préfère l’illusion souriante à la dure réalité même quand les faits sont sous notre nez. Triste et significatif à la fois.

Cette crise de la hi-tech n’est pas terminée et va encore causer des dégâts. Cet épilogue est sévère mais il est juste : la débâcle du web3 ne va épargner personne, tout le monde va y perdre quelque chose (et ce n’est pas forcément de l’argent), l’espoir, la fois dans l’évolution technique, la réputation de sérieux des uns et des autres et ainsi de suite.

Le fact-checking se pratique peu dans le domaine technique mais si l’épisode web3 doit servir à quelque chose, ça doit être au moins à cela : vérifiez, vérifiez, vérifiez.


L’illusion d’un “grand soir” des protocoles du web 3

Publiée sur Linkedin le 3 août 2022

Article rédigé en collaboration avec Pascal Blachier.

Suite à https://www.linkedin.com/pulse/crypto-de-la-bulle-sp%C3%A9culative-%C3%A0-dillusions-alain-lefebvre/, il manquait un complément… le voici !

Certains laissent entendre qu’un jour ce serait le “grand soir” de l’avènement d’un web 3 immersif et bienveillant grâce à l’interopérabilité de tous les codes sources de 3DS – et des GAFAM, tant qu’on y est – qui renonceraient à leur pouvoir et leurs modèles économique miraculeusement parce qu’ils auraient atteint la grâce de l’éveil vers un état supérieur de conscience !

Croire en cela, c’est avoir la foi en la techno et la toute puissance de l’intelligence humaine sans tenir compte de ce qui s’est effectivement passé pendant les quarante dernières années de l’évolution de l’informatique !

Le mouvement open source, le bon exemple…

Il y a eu quelques cas où des protocoles et des standards ouverts et transparents ont effectivement triomphé et ça s’appelle communément le mouvement open source (pour simplifier). Précisons évidemment que, pendant sa “marche triomphale”, le mouvement open source n’a jamais bénéficié d’un coup de pouce des grands acteurs de l’époque qui auraient bénévolement abandonné tel ou tel pan des éléments qui aidaient à leur domination…

C’est même clairement l’inverse puisque tous les codes open source qui se sont avérés plus novateurs ou efficaces que les codes propriétaires ont été pillés sans aucun scrupules et constituent aujourd’hui le cœur des principaux systèmes. Cela va du noyau aux IHM, en passant par les piles TCP/IP, les compilateurs, interpréteurs et environnements de développement. A tel point qu’aujourd’hui, les mêmes personnes travaillent simultanément ou successivement sur des codes ouverts et des codes propriétaires, des codes libres et des codes commerciaux, pour des entreprises privées ou des ONG.

Ni indépendant, ni décentralisé !

La vérité actuelle est bien moins rose que ce que veulent la présenter les (quelques) promoteurs du web 3 qui restent encore actifs : le web 3, tel qu’il fonctionne actuellement, n’est ni indépendant ni décentralisé, eh oui !

Pour réaliser combien cette affirmation (le web 3 est décentralisé et indépendant) ne résiste pas à l’examen, il faut entrer un peu dans la technique… Suivez-moi, ça va bien se passer !

La nécessité de passer par des APIs

Le web 3 n’est pas décentralisé. Et ce n’est pas nous qui le disons !

Étant donné que la plupart des ordinateurs personnels n’exécutent pas de nœud Bitcoin et ne conservent donc pas une copie complète de la blockchain localement, ils ont besoin d’un autre moyen d’accéder aux données des “grands livres” (les différentes blockchain : Bitcoin, Ethereum, etc.). Cet “autre moyen”, ce sont les interfaces de programmation d’applications (API) : des bibliothèques de code spécialisé qui offrent des raccourcis pratiques pour extraire des données d’une blockchain donnée.

Infura et Alchemy sont les deux principaux fournisseurs de ces API, comme le souligne Moxie Marlinspike. Les soi-disant “applications décentralisées” (les fameuses dApps), comme Mirror, OpenSea et Zora, s’appuient sur ces systèmes pour récupérer les données des blockchains publiques (via des appels d’API). Ce sont ni plus ni moins que des intermédiaires.

Fire the middleman!

Une fois de plus, on nous rejoue la chanson du Web qui va supprimer les intermédiaires (cette fois, ce serait le web 3 dans ce rôle fumeux) et cette promesse ne fait que dissimuler un changement d’intermédiaires… Comme à chaque fois.

Cette dépendance aux API d’Infura ou d’Alchemy est générale. Elle se vérifie pour la plupart des sites qui vous demandent de vous connecter avec un bouton “connecter votre portefeuille” par opposition à un nom d’utilisateur et un mot de passe, et pour les portefeuilles en ligne comme MetaMask, qui existent à la fois en tant que sites web dédiés et extensions complémentaires pour les navigateurs Internet. Ils fonctionnent tous sur le web 2 auquel nous sommes déjà habitués.

Décentralisé, vraiment ?

Ensuite, sur la question de la soi-disant décentralisation du web 3, on peut dire sans exagérer que le mensonge est grossier. Le web 3 commence avec toute notre infrastructure existante. On a donc toujours besoin du routage et du DNS, on a toujours besoin d’un serveur (qu’il soit dans le cloud ou pas), on a toujours besoin de stockage et on a toujours un calcul distribué entre le navigateur et le serveur. On n’a donc déjà supprimé aucun des gardiens du système distribué conventionnel, ce qui montre que les affirmations d’une décentralisation sans gardiens sont fausses, tout simplement.

Roll back ou hard fork ?

Enfin, quand vous lisez sans cesse que tout ce qui est dans la blockchain (sans préciser de quelle blockchain il s’agit, le plus souvent…) est inaltérable, sachez que c’est faux et qu’Ethereum en a fait la démonstration éclatante en procédant à un “roll back” en 2019 (les fans d’Ethereum préfère parler de “hard fork” pour cette opération mais ça revient au même)… Pas mal pour un système qui est censé resté immuable quoi qu’il arrive !

Un enfumage comme rarement !

Alors si tout ceci est vrai, pourquoi ce battage médiatique en faveur du web 3 ?

Parce que c’est l’aveuglement habituel qui accompagne une “ruée vers l’or”. Peu importe que cet or soit faux ou absent, le mot d’ordre est lancé et il enflamme le peu de cerveau qui reste aux gogos.

Dans son état actuel (c’est-à-dire s’appuyant sur Ethereum), le web 3 est une escroquerie, un édifice technologique qui est plus qu’inutile comme le découvrira rapidement toute personne qui tentera de déployer une application réelle. On est toujours dans la chimère des rêves surexploités sur la technologie blockchain, perpétuellement à la recherche du problème de demain pour justifier un investissement aujourd’hui (le paradoxe habituel de la solution à la recherche de son problème). C’est le discours traditionnel des charlatans, sauf que cette fois-ci, il est poussé par les plus grands investisseurs du monde qui ont de gros sacs de jetons (NFT et crypto monnaies) à placer. D’où le claironnage d’une nouvelle ruée vers l’or…

Profitons-en pour tordre le cou à une autre idée reçue aussi absurde que risible : Les promoteurs du web 3 ne veulent pas “rendre le pouvoir au peuple”, ils le veulent simplement pour eux !

Ces nouveaux entrants ambitieux rêvent de remplacer les GAFAM dans leur position dominante et c’est ainsi depuis des décennies. Quelquefois, ils vont jusqu’à l’avouer comme Nikil Viswanathan, le patron d’Alchemy qui dit “en tant qu’entreprise, j’aimerais avoir des points de verrouillages propriétaires”… Il n’y a que les naïfs et les doux rêveurs pour croire que le web 3 va être la libération tant attendue.

Décentralisé ne veut pas dire gratuit !

Un autre problème récurrent avec le web 3 et tout ce qui est soi-disant “décentralisé” : la question des coûts n’est jamais abordée, comme si tout cela était gratuit bien sûr !

Un exemple : IPFS (le système de fichiers distribués). Le stockage a un coût mais, bizarrement, ce n’est jamais abordé par les promoteurs des dApps comme si ce n’était pas important. Pourtant, si un nœud IPFS est hébergé sur AWS (par exemple), je doute fort que ça soit gratuitement… En revanche, quand vous devez payer des “gas fee” (lors d’une transaction en Bitcoin ou en Ether), vous vous rendez compte que tout cela (toute cette plomberie soi-disant décentralisée) coûte fort cher en plus d’être très lent !

Tous ceux qui mettent en avant le web 3 en disant “c’est l’avenir et ça va tout changer” (affirmation classique) sont soit incompétents (et c’est grave) soit malhonnêtes (et c’est encore plus grave !). Que quiconque puisse considérer cela comme l’épine dorsale informatique d’un nouvel Internet mondial est plus que risible.

La combo qui fonctionne à tous les coups : ignorance+fainéantise !

Il est frappant de voir tomber une à une toutes les défenses de bon sens, de pertinence et d’efficacité. Elles s’effondrent devant les assauts des marchands qui exploitent le combo “ignorance+fainéantise” activable dans chaque être humain (l’arnaque la plus récente, celle de “Crypto Gouv” est très significative de l’efficacité de cette combo…). On pourrait même trouver des liens entre le mythe du progrès permanent, la startup nation, l’orgueil et l’égoïsme. Les cavaliers de l’apocalypse appelés par les péchés capitaux. Biblique.

En effet, on retombe rapidement dans nos malheurs du moment. Et la fabrique du consentement a bien fonctionné pour nous inculquer les fausses certitudes du zéro papier, puis du dématérialisé (puisque c’est numérique, pas de support physique), puis du tout gratuit (forcément, puisque c’est virtuel). Alors qu’en fait c’est tout le contraire à la fois en termes physiques (voir les rapports du Shift Project) et en termes de pouvoir et de libertés (voir par exemple les alertes de la Quadrature du Net).

Après avoir observé les quelques décennies de vie du Léviathan informatique, fils de la fée électricité et de l’algèbre, nous nous garderons bien de prédire l’avenir avec certitude.

En ce qui concerne la blockchain, qui présente indéniablement toutes les caractéristiques d’une technologie de rupture, après la hype, la consécration ultime serait celle de la généralisation des usages. Et pour l’instant, le Gartner constate que cela ne sert vraiment que pour le trading de cryptomonnaie. Ce qui n’est assurément pas un progrès de la civilisation…

Le web 3 annonce une crise de l’informatique…

Il ne restera sans doute pas grand-chose du web 3 sinon un avertissement : comme un soir d’été, les nuages noirs s’accumulent annonçant l’orage qui vient…

En ce moment, nous vivons une période de “plateaux” qui est en train de durer. Le marché informatique n’est pas habitué à ça, il est habitué à la croissance à deux chiffres. Or, tout se combine pour provoquer ce ralentissement, un gros ralentissement. Même la loi de Moore qui a été fidèlement respectée pendant toutes ces décennies nous fait faux-bond désormais, c’est la panique !

En conséquence, le marché tout entier, comme un seul homme, est prêt à tout pour retrouver cette chère croissance dont il est devenu dépendant. Et si c’est sous la forme du web 3, pourquoi pas, hein !

Le web 3 s’est dégonflé ? Vite, il faut mettre autre chose en avant : réalité augmentée (RA), réalité virtuelle (RV), n’importe quoi du moment que les gens se mettent à acheter, massivement.

Ici, le mot-clé est massivement. Les précédentes phases de croissance ont été des mouvements de forte croissance : le boom du PC, la vague du smartphone, ça représentait de sacrés volumes !

Et, comme le disait fort justement Scott McNealy (l’un des fondateurs de Sun Microsystems) : “volume is everything” (il en savait quelque chose puisqu’il avait constaté que les PC avaient supplanté ses chères stations Sun en dépit de leur infériorité technique). Un peu comme Staline avait dit “le Vatican, combien de divisions ?”, le volume compte plus que la sophistication technique.

Or la RA et la RV en dehors du fait que, oui, c’est l’avenir (ou, du moins, un des aspects de l’avenir), non, ce ne sont sans doute pas des marchés de masse comme l’ont été le PC puis le smartphone avant eux…

La crise est donc en train de se mettre en place au grand dam des responsables qui appellent à grands cris l’arrivée de la “next big thing” (ici, on l’aura compris, le mot qui compte est “big”) afin de relancer les ventes. Vu ainsi, le web 3 n’est qu’un épiphénomène d’un mouvement plus souterrain mais plus puissant : le mode plateau nous apporte une crise (dans notre domaine hi-tech) comme on n’en a pas eu depuis les années 80…


La “next big thing” attendue par le marché… N’aura pas lieu !

Publiée sur Linkedin le 30 août 2022

Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).

Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).

La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.

Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.

La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?

Une phase dite de plateau

Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !

Un tabouret à 3 pieds !

La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !

Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).

Des volumes impressionnants

Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.

Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…

En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !

Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.

Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !

Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.

Les progrès de l’électronique, locomotive cachée de tout le reste !

En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.

Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.

Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.

Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la “mode” des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.

Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !

Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas :  début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.

De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

Le plateau s’exprime partout

Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet “atterrissage” se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.

Le mode plateau est déjà une réalité

On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.

Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.

Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?

Les candidats pressentis sont à côté de la plaque !

Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…

Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !

Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.

Une crise profonde (et durable ?)

Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.

Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.

Le retour au monde d’avant : une chimère ?

Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.

Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !

Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !

Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.

Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.

Une nouvelle ère

Il y a et il y aura de nombreuses “next things” (VR, wearables, etc.), mais pas de “next big thing” avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !

Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.

La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.

Publié dans La terrible vérité | Laisser un commentaire