Les L4G, l’infocentre et le développement d’applications… Un vaste sujet ! Ici, la première partie : les L4G et les AGL jusqu’à la fin des années 80. La seconde partie concernera la prise en compte des interfaces graphiques (principalement Windows en fait) et du développement en réseau (le modèle client-serveur).
Soyons clairs, Apple, Google et une bonne partie des fournisseurs tech (aussi bien logiciel que matériel) se moque de nous ((pardon my french mais il faut bien le dire !)…
J’ai déjà pointé des articles qui nous montrent qu’il faut agir pour reprendre nos droits et nos libertés à ces géants qui abusent de plus en plus de leur position dominante. Et il s’avère qu’il y a un mouvement pour cela : “le droit à la réparation” (the right to repair movement). Il faut y adhérer, maintenant !
Tactiques hostiles de la part des constructeurs et des éditeurs
Apple est le leader dans les comportements hostiles (oui, hostile, il n’y pas d’autre mot pour qualifier leurs choix techniques) vis-à-vis des ses utilisateurs. Les exemples sont nombreux et désormais bien documentés. Google suit de près avec les récentes évolutions de YouTube. Pas besoin de vous faire un dessin, vous avez compris.
Cette vidéo résume bien cette situation scandaleuse !
On a assez subit, il est temps d’agir…
Cet épisode 13 porte sur les bases de données et plus particulièrement sur l’essor du modèle relationnel appliqué aux SGBD (les SGBDR donc).
On s’aperçoit que l’histoire de l’évolution technique est souvent un éternel recommencement. En effet, les bases de données débutent par des fichiers ISAM. Puis apparaissent les vrais premiers SGBD (IDS, IMS, IDMS, etc.). Enfin, le modèle relationnel s’impose et, avec lui, le respect des propriétés ACID. Enfin, on voit arriver les SGBD NoSQL pour lesquels le respect des principes ACID n’est pas assuré de façon stricte, comme au début…
J’ai découvert SQLPage dernièrement en faisant une recherche sur Google sur le thème de CFML. Je dois dire que je suis très enthousiaste vis-à-vis de ce projet open source car il correspond exactement à ce que je voulais et je dirais même à ce dont je rêvais et voilà que ça se matérialise sous mes yeux et que je peux le télécharger (depuis https://sql.ophir.dev/) et l’essayer dans la foulée !
La page d’accueil du site du projet
De quoi s’agit-il en fait ?
SQLPage est un “Serveur d’applications Web open source low-code” (faut pas voir peur de ce jargon technique car le mot d’ordre de SQLPage est avant tout la sim-pli-ci-té…) qui permet de créer des applications Web sans effort avec uniquement des compétences SQL.
SQLPage transforme vos requêtes SQL en de superbes sites Web. SQLPage est un outil qui vous permet de créer des sites Web en utilisant uniquement des requêtes SQL (mais oui !). Vous écrivez des fichiers texte simples contenant des requêtes SQL, SQLPage les exécute sur votre base de données et affiche les résultats sous forme de site Web, page par page.
Vous pouvez afficher les informations que vous sélectionnez dans votre base de données dans des listes, des tableaux, des graphiques, des cartes, des formulaires et de nombreux autres composants d’interface utilisateur. Mais vous pouvez également insérer, mettre à jour et supprimer (tout cela via des requêtes “Select”, “insert”, “update” ou “delete” habituelles du SQL) des données de votre base de données à l’aide de SQLPage et ainsi créer une application Web complète.
Techniquement, c’est juste un bon vieux serveur web
Les principes derrière SQLPage ne sont pas très éloignés de ceux qui ont alimenté les débuts d’Internet. Comme PHP (lors de ses débuts), SQLPage reçoit simplement une requête, trouve le fichier à exécuter, l’exécute et renvoie une page Web que le navigateur doit afficher.
SQLPage est un serveur web écrit dans un langage de programmation rapide : Rust. SQLPage est extrêmement simple à utiliser : vous téléchargez un seul fichier exécutable, écrivez un fichier .sql (par page HTML désiré) et le tour est joué.
Lorsque SQLPage reçoit une requête avec une URL se terminant par .sql, il trouve le fichier SQL correspondant, l’exécute sur la base de données (s’il y a des données à récupérer ou à écrire), en lui transmettant les informations de la requête Web en tant que paramètres d’instruction SQL de manière sécurisée. Lorsque la base de données commence à renvoyer des lignes pour la requête, SQLPage fait correspondre chaque élément d’information de la ligne à un paramètre du modèle d’un composant prédéfini (c’est ainsi que SQLPage gère la présentation dans les pages HTML résultantes) et renvoie le résultat au navigateur de l’utilisateur.
L’architecture de SQLPage en une image…
Voilà pour les aspects techniques, de manière très simplifiée, évidemment !
Si vous en voulez plus et une démonstration live, c’est facile : il suffit de regarder la vidéo réalisée par Ophir Lojkine (c’est le développeur qui est à l’origine de ce projet génial) sur YouTube…
Oui, la vidéo est en anglais mais facile à comprendre (Ophir s’exprime encore mieux en français, j’en témoigne !). Et en voici une autre (également en anglais) :
La simplicité est clé
Ceci dit et j’insiste sur ce point, tout cela est possible de manière vraiment simple. La simplicité, c’est vraiment la clé et ce qui distingue SQLPage des autres solutions en la matière. OK, c’est simple, on a compris… Mais peux-tu nous montrer à quoi ressemble ce fameux code ?
Car voir sur pièce, c’est mieux… Mais pas de problème monseigneur, tout de suite monseigneur ! Voici deux pages d’exemples de code SQLPage :
Le code et le résultat !
Comme on peut s’en rendre compte, c’est simple et lisible. Et encore, j’ai pris ici une page bien fournie, la grande majorité des pages .sql sont bien plus frugales que cela.
Le retour de la simplicité au premier plan
Selon moi, SQLPage serait un signe du retour de la simplicité dans un contexte où c’est trop souvent le “toujours plus” qui triomphe. C’est d’ailleurs tout à fait fascinant de constater que l’évolution technique en matière de programmation oscille continuellement entre simplicité et sophistication. Des solutions techniques apparaissent, elles sont d’abord simples (comme les toutes premières versions de ColdFusion des frères Allaire au milieu des années 90 ou PHP lors de ces débuts) pour ensuite dériver et devenir plus complexes, moins “lisibles”, plus difficiles à mettre en œuvre… Mais capables de gérer des problèmes plus complexes, aussi…
Il y a toujours un compromis et des choix à faire entre les solutions techniques “larges & profondes” qui permettent de résoudre des problèmes complexes et les solutions techniques plus simples, mais moins adaptées à la réalisation de développements sophistiqués. Sur cette échelle SQLPage se situe quelque part entre Airtable et PHP.
L’expérience (positive) du “no code”
Dernièrement, on a connu les tendances du Low Code/no code dans les outils de développement intégrés et j’en ai parlé largement dans cette chronique. Je suis un utilisateur assidu de Airtable et j’en suis très satisfait la plupart du temps. Cependant, j’aimerais bien pouvoir aller plus loin avec Airtable dans certains cas, écrire mes propres requêtes en SQL par exemple… Mais, avec ce genre d’outil, si ce n’est pas prévu au départ, c’est simplement impossible. Et si demain Airtable disparaît (ou se met à évoluer d’une façon qui ne me convient pas ou même triple ses tarifs !), eh bien tout mon “investissement” dans cet outil sera perdu, encore heureux si j’arrive à sauvegarder mes données à temps !
C’est là où SQLPage offre une alternative intéressante, pour moi en tout cas. Cet outil définit une nouvelle catégorie à lui tout seul : celle du code simple. OK, il faut coder, tout coder de A à Z mais ça reste dans un langage standard (le SQL existe depuis les années 70 !) et avec une syntaxe sans surprise. Et, croyez-le ou non mais il existe toute une frange d’utilisateurs qui attendaient précisément une solution de cet acabit.
Moins c’est plus…
Il y a une tendance bizarre dans notre domaine à rejeter la simplicité et ne pas comprendre que, très souvent, “moins c’est plus et plus, c’est moins finalement…”. Ici, il faut comprendre “plus” comme “trop”. Trop de fonctionnalités, trop de sophistication, trop de trucs différents à apprendre et ainsi de suite. Ce n’est d’ailleurs pas propre aux environnements de développement, c’est pareil dans les applications de bureautique : la dernière version d’Excel (par exemple) est capable de faire plein de trucs que vous n’utiliserez jamais et si, par hasard, vous vous retrouviez avec la version 95 d’Excel (celle diffusée avec le bundle d’Office95 en 1995, justement, à l’occasion du lancement de Windows 95… Oui, tout cela ne nous rajeunit pas, certes), vous ne seriez ni dérouté ni limité (à moins d’être un consultant qui raffole des macros Excel trop compliquées !).
Le “pourquoi faire simple quand on peut faire compliqué” (et la facturation qui va avec !) est un raisonnement bien trop répandu dans le milieu informatique et depuis trop longtemps.
Bien évidemment, les développeurs “top gun” vont trouver SQLPage trop simple, pas pour eux, je dirais même “indigne d’eux et de leur niveau technique stratosphérique” (OK, je me moque un peu là) mais, ça tombe bien, ce n’est justement pas pour eux qu’Ophir s’est lancé dans ce projet mais pour des gens comme moi. Mais justement, quand et pourquoi s’est-il lancé dans cette “quête” ?
Génèse du projet SQLPage
Il y a quelques années, Ophir avait des amis qui commençaient à travailler dans des sociétés de conseils et ils lui racontaient comment ils s’échinaient à tenter d’améliorer les processus des organisations clientes. Pour ce faire, ils employaient beaucoup d’Excel avec des formules et macros compliquées !
Voyant cela, Ophir réplique que tous ces efforts seraient bien plus efficaces en recourant à du vrai coding et non pas à triturer Excel dans tous les sens. Mais, en réponse, il constata une grosse réticence vis-à-vis du code informatique alors que les formules et macros Excel étaient, en réalité, bien compliquées que du code, surtout pour ce qui était de l’accès à une ou des bases de données.
Cette réticence s’expliquait facilement : ses amis étaient effrayés par l’apprentissage nécessaire avant d’arriver à se débrouiller avec SQL, HTML, Python et j’en passe…
Ophir se fit donc la réflexion qu’Il faudrait arriver à faire tout cela mais avec un seul langage (au lieu de tout cet empilement hétérogène. Ainsi l’apprentissage serait grandement simplifié et les réticences s’évanouissaient. D’accord mais quels étaient les langages à éliminer en premier lieu ?
Après pas mal de “jus de cerveau”, la réponse s’imposa d’elle-même : virer tous les langages procéduraux pour ne garder que la déclaration des données à afficher dans l’interface. Et, dans cette perspective simplifiée, un et un seul langage s’imposait vraiment : le vénérable, omniprésent et bien connu SQL !
Créé en 1974, normalisé en 1986, SQL, le langage d’interrogation des bases de données relationnelles a traversé les époques informatiques, s’est adapté à toutes formes de bases de données (pas seulement le sacro-saint modèle relationnel) et demeure –50 ans après sa naissance– toujours aussi incontournable.
Après la crise covid
Ophir a mené cette réflexion initiale en 2022 après la crise covid.
Le but de ce nouveau projet serait de pouvoir écrire des applications Web mais sans avoir à écrire de HTML et sans avoir à écrire de logique, uniquement l’accès au données et aux composants d’affichage.
Le projet est officiellement lancé en août 2022 où on peut voir le tout premier “commit” sur GitHub :
Commit sur GitHub
La toute première présentation du projet (qui, au tout début, s’appelait “SQL Site”… Mais suite à un conflit de nom existant, fut renommé rapidement en SQLPage) a eu lieu sur Hackernews puis sur Linuxfr.
Sur Hackernews
Sur LinuxFR
Un accueil initial accompagné d’un certain scepticisme…
Le projet reçut un relatif bon accueil mais certains sceptiques dénigrèrent un peu l’intention, surtout parmi les plus techniques : ça leur paraissait tiré par les cheveux et pas assez ambitieux ou trop rustique selon les cas. Ces débuts mitigés ne sont pas complètement surprenants car beaucoup préfèrent critiquer que de faire… De plus, un projet axé sur la simplicité est presque une provocation pour les techniciens qui croient vivre par la technique et pour la technique !
Ophir ne se décourage pas et met en place le site web du projet (lui même écrit en SQLPage d’ailleurs) apparaît fin 2022. La popularité du site monte progressivement grâce aux moteurs de recherche (c’est mon cas, c’est comme cela que j’ai découvert ce projet !) et le projet commence à trouver son allure de croisière grâce à des vrais utilisateurs qui s’emparent de ce potentiel bienvenu.
Des utilisateurs réels sont apparus et ont développé des vrais app.
Pour illustrer l’entrée en scène des vrais utilisateurs, ceux qui transforment effectivement une idée en projet, commençons par de l’exotisme et transportons-nous en Afrique du Sud. Là, nous trouvons un certain William Cronje qui travaille dans le call center d’une entreprise de transport qui s’est dotée d’une grosse base de données qui permet de stocker les données des capteurs dont sont bardés les camions de l’entreprise. Des capteurs à tous les étages… mais pour quoi faire ?
Eh bien, il y a les usages évidents, genre surveiller la température du fourgon des camions frigorifiques mais il y a aussi les usages moins habituels et propres au contexte de l’Afrique du Sud… Ainsi, on trouve des capteurs pour assurer le tracking de camions afin de pouvoir déclencher des interventions rapides avec des équipes armées (carrément !) pour récupérer le camion lorsque ce dernier est victime d’une attaque (fréquente à ce qu’il parait !). La base de données, c’est bien mais avec des applications au-dessus afin d’en tirer le plein potentiel, c’est mieux !
Le chef de William repère SQLPage et lui propose de le tester. A la suite de ce test (positif), il a développé une demi-douzaine d’applis basées sur SQLPage.
Donc après ces premiers retours d’expériences, Ophir s’est dit “il y a bien quelque chose, surtout du côté des utilisateurs peu techniques”. Puis au tour des archéologues de s’emparer de SQLPage (un projet raconté en long et en large ici). Il y a aussi eu un directeur de collège dans le sud de la France qui s’est emparé de SQLPage pour le suivi de ses élèves handicapés. La mayonnaise commence effectivement à prendre du côté des low-techs et c’est bien la cible qu’il faut viser car il y a déjà pléthore pour ceux qui veulent toujours plus de sophistication…
Voici un aperçu de l’application développée par David, le principal du collège évoqué plus haut.
Rester dans la simplicité est un combat !
Ophir est conscient que la maîtrise de l’évolution de son projet ne va pas être facile. Rester dans les fondamentaux de SQLPage veut dire aussi résister à ceux qui en demandent toujours plus : étendre les fonctions, étendre les capacités et ainsi de suite. Il suffit de voir la teneur des discussions à ce propos sur GitHub, ce sont toujours les plus “tech” qui s’expriment en premier, haut et fort. Ce n’est pas un reproche, c’est une constatation. Et d’ailleurs, c’est normal. L’utilisateur de base, celui qui est juste à l’aise pour manipuler Airtable (par exemple), son premier réflexe n’est pas de créer son compte sur GitHub (si même il sait de quoi il s’agit !).
Ceci dit, lors de l’échange récent par visio que j’ai eu avec Ophir, il m’est apparu qu’il avait une vision claire et, je dirais même saine, de l’avenir de son projet. Il n’est pas fermé à l’extension des capacités de SQPage mais en prenant en compte des SGBD pas encore traité par exemple. Ou en permettant l’utilisations simultanée de plusieurs sources de données au sein d’une même application (exemple : j’accède à des données en lecture sur une base hébergée par MySQL et, ensuite, je procède à une mise à jour de données stockées dans PostgreSQL ou autres). Et, sur le plan de l’accessibilité, Ophir et Alexis Rouge Carrassat (l’ami d’Ophir et contributeur émérite du projet) sont en train de travailler à une offre cloud qui éviterait à des utilisateurs de base comme moi de se heurter au mur de la configuration qui semble “peanuts” au pro de la ligne de commande mais n’est pas si facile à contourner quand vous n’êtes pas familier avec le maniement de la “ligne de commande”, justement.
Conclusion, vers un avenir radieux ?
Vous l’aurez compris, je suis très enthousiaste vis-à-vis de ce projet et j’espère bien qu’il va connaître le succès, une large audience et évoluer dans le bon sens. Un avenir radieux quoi…
Mais j’ai aussi suffisamment d’expérience pour savoir que ce n’est pas gagné d’avance, quelles que soient les qualités de ce projet. En effet, ce n’est qu’un (relativement) nouveau projet open source comme il y en a plein tout le temps. Et la grande majorité ne décolle pas, rappel !
Il faudra donc un peu de chance à SQLPage. Mais j’y crois et je suis prêt à parier que ça sera le cas. Je vous encourage à tester SQLPage et à me faire part de vos expériences en commentaires.
Comme d’habitude, le décollage initial des réseaux locaux se fait au PARC de Xerox. Ensuite, le standard Ethernet a fait son trou et cette évolution lente et parfois cahotique s’est finalisée lors de la décennie 90 avec l’effacement de Novell Netware, la montée de Windows NT et la généralisation de TCP/IP.
Tout d’abord parce que j’ai une nouvelle illustration de cette fameuse “échelle Lefebvre” réalisée par mon fils Val ainsi que des nouveaux exemples. Ensuite parce que ce sujet méconnu mérité toujours une répétition. En effet, dans ce monde d’illusions et de médiocrité, même la technique et son évolution est travestie par des fausses idées reproduites tellement souvent que la plupart des gens y croient dur comme fer alors que c’est faux, tout simplement (si ça vous rappelle quelque chose, vous êtes sur la bonne voie !).
J’ai promis une nouvelle illustration, la voilà (en taille réduite, elle sera en grande taille à la fin de ce post) :
La nouvelle illustration signée Valentin Lefebvre !
Et des nouveaux exemple, les voilà :
Le disque laser vient de loin… C’est bien rappelé dans cette vidéo.
Cette innovation excitante n’est pas pour tout de suite : nous sommes au premier échelon, celui des dix ans nécessaire pour passer de la découverte aux premières application, remember !
Bien, on peut y aller maintenant !
========================
Introduction
Faire des prévisions en matière technique est difficile. Nous sommes toujours trop optimistes sur le court terme et trop pessimistes sur le long terme. Mais même si nous parvenions à corriger cela, nous avons toujours du mal à admettre que les paliers de l’évolution technique se mesurent en décennies plutôt qu’en années. Cet article explique pourquoi et vous propose une échelle de mesure afin de mieux évaluer les durées en termes de maturité (et donc de succès car il n’y a que les techniques matures qui rencontrent l’adhésion de leurs cibles).
Le quoi et le quand
En matière de prévisions techniques, il y a principalement deux dimensions : le “quoi” et le “quand”. Dire le “quoi” est relativement facile si on connait le domaine concerné mais se contenter de cela, ce n’est pas très utile… C’est comme de prévoir que la bourse va monter (ou baisser) sans être capable de préciser quand, sur quelle durée et, enfin, sur quelles valeurs. En revanche, dire le “quand” est beaucoup plus difficile mais c’est seulement en répondant sur les deux dimensions que les prévisions techniques peuvent être utiles.
Pendant ma carrière, j’ai toujours été plutôt bon pour prévoir les évolutions techniques dans mon domaine (l’informatique) mais pas aussi performant pour préciser à quelle vitesse elles allaient se produire et quand ces évolutions seraient enfin disponibles sur le marché (ce qui est très différent d’une démo dans un labo…). A ma grande surprise, ces évolutions se sont toujours avérées plus lentes que prévu et, en conséquence, leur maturité arrive bien plus tard qu’espéré.
J’ai fini par en faire un principe (le principe de maturité) et j’ai communiqué à ce sujet aussi souvent que possible. Quand je proclamais qu’il fallait au moins dix ans entre une découverte et sa première application pratique, je n’étais jamais cru. Et pourtant, j’étais encore trop optimiste, trop pressé.
Un aveuglement qui s’explique
Cet aveuglement envers ce “principe de maturité” vient principalement de la propagande technique (oui, il existe une “propagande technique”, nous y reviendrons !) qui affirme sur tous les tons que “tout s’accélère, tout va de plus en plus vite”…
Admettons mais, alors, comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse, comme je l’affirme et explique dans mon livre “La crise de l’IT des années 2020“) ?
En effet, en ce moment et depuis quelques années, quasiment tous les observateurs (qui ne sont pas forcément des spécialistes et encore moins des experts) vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.
Tout va plus vite, n’est-ce pas ?
En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?
C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.
La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ?
Mais ça ne fonctionne pas toujours de la sorte : y croire et s’en persuader ne produit pas pour autant une réalité concrète sur le terrain.
Ne pas confondre perception et réalité
Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.
Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…
Tout nous pousse à croire que le progrès technique s’accélère, même la publicité tente d’en faire la démonstration !
La phase de maturation est systématiquement masquée
L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !
Mais, pendant ces trente ans, personne n’en parlait.
Ce croquis, qui fait inévitablement penser aux smartphones actuels, remonte en réalité à 1988…
S’il y a accélération, il y a aussi ralentissement…
Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !
Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?
Tout le problème de la perception de l’accélération est résumé dans ce graphique : le grand public ne voit que la seconde phase et perçoit donc une accélération, car la longue et lente maturation est complètement ignorée.
L’état de l’art : ne pas croire la propagande !
L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?
C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?
À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi, il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.
Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie.
Extrapoler à partir du passé
Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine. C’est le principe des cygnes noirs : ce qui est prévu et qui semble évident n’arrivent pas souvent alors que ce qui est imprévisible et semble très improbable (pour ne pas dire impossible) arrive plutôt deux fois qu’une et l’Histoire est remplie de “cygnes noirs” qui confirment ce principe.
Les grands principes de l’évolution : la maturation
Le principe que nous allons détailler ici concerne le délai, le temps nécessaire pour qu’une innovation soit convertie en un produit, soit mise au point puis trouve enfin son marché et sa forme finale. La perception habituelle est que tout va de plus en plus vite, trop vite même parfois. Mais ne confondons pas perception avec réalité, car, contrairement à ce qu’on croit, il y a un délai incompressible entre l’apparition d’une technique, sa transformation en produit et son impact réel sur notre quotidien et nos habitudes.
Si l’évolution technique continuait à progresser à la vitesse que l’on a connue au XIXe siècle, il n’existerait plus aujourd’hui de délai entre une découverte et sa mise en application. Voici quelques exemples puisés dans les technologies de l’époque, aux États-Unis : il a fallu attendre soixante-dix ans pour que le téléphone bénéficie à 50% de la population américaine et trente-neuf ans pour que la télévision par câble atteigne ce taux, alors que seulement onze ans ont été nécessaires pour la radio… L’apogée est atteint avec le microprocesseur pour lequel, entre la première réalisation de Marcian Hoff et Federico Faggin en 1969 et sa diffusion massive via le micro-ordinateur en 1977, il s’écoule moins de dix ans. Personne n’a fait mieux depuis la fin des années soixante-dix.
Un délai incompressible
Une décennie, le voilà notre délai incompressible, le « time to market » cher aux industriels. Vérifiez, depuis le début des années soixante-dix, il faut au moins une dizaine d’années pour qu’une véritable innovation technique commence à trouver un marché (10 ans entre les premiers ordiphones WAP et l’iPhone) et à toucher un public. Et il faut au moins encore autant de temps pour qu’elle devienne incontournable (encore 10 ans entre le premier iPhone et la suprématie des plateformes comme Deliveroo ou Uber). Une génération est nécessaire pour changer les habitudes des utilisateurs et qu’ils adoptent des innovations dans leur quotidien (c’est comme pour l’aviation commerciale, elle existe depuis quelques dizaines d’années, mais n’est réellement à la disposition des masses que depuis peu).
Il est donc juste de dire que les évolutions significatives sont lentes et relativement peu fréquentes. En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard, normalisé (exemple : le concept de smartphone avec sa forme en brique qui est maintenant un standard bien installé et reconnu). Et l’histoire montre que ce processus prend souvent au moins vingt ans…
Vingt ans de délai pour les grands succès
Il a fallu vingt ans pour que les interfaces graphiques commencent à se populariser. Les premières recherches de Xerox datent des années 1970 et le succès de Windows 3.0 n’arrive que dans les années 1990. Il a fallu également vingt ans pour que le SGBDR se généralise entre les premiers travaux de recherches d’IBM et le succès d’un Oracle. Dix ans pour que les écrans à matrices actives concrétisent le rêve de l’écran plat à haute définition. Une dizaine d’années aussi pour le début de généralisation des réseaux locaux alors qu’on leur prédisait un avenir fulgurant. Et dix ans encore pour que France Télécom se décide à diffuser Numéris (avant l’ADSL…) à des tarifs acceptables !
Plus loin de nous, il a fallu près de trente ans (au XIXème siècle) pour que le moteur thermique (successeur de la machine à vapeur) passe d’une base très simple (alimenté au gaz, cycle deux temps, double effet, rendement faible) à sa forme finale et efficace (carburant liquide dérivé du pétrole, cycle à quatre temps, rendement acceptable).
Le délai incompressible (dix ans) combine plusieurs facteurs :
Il faut du temps pour finaliser la mise au point (difficulté toujours minorée, mais la réalité est tenace et se rappelle au souvenir des optimistes à ce moment-là…).
Il faut du temps pour passer du discours technologique (c’est supérieur parce que…) au discours applicatif (cela va vous servir à…).
Il faut du temps pour que la cible visée se reconnaisse (ça va me servir à…)
Il faut du temps pour que les clients se familiarisent avant de généraliser (la plupart ont déjà essuyé des plâtres trop frais et n’ont plus envie de jouer les pilotes d’essai !).
La masse critique
Les évolutions les plus marquantes et les plus structurantes restent discrètes jusqu’à leurs percées. Un progrès n’apparaît pas spontanément (comme l’a résumé de façon géniale Ernest Hemingway à propos de “comment se retrouve-t-on ruiné après avoir été riche ?” : “progressivement et puis brutalement” –Gradually, then suddenly-), il est le fruit d’une lente maturation qui s’étale souvent sur une décennie (voire plus). Reprenons l’exemple d’Internet qui est très significatif sur ce plan…
Une croissance silencieuse
Pendant presque quinze ans, l’Internet a progressé discrètement, mais pas secrètement. Pourtant, personne n’en parlait. Il aura fallu l’émergence du Web en 1993-1994 pour que la croissance bondisse soudainement vers le ciel, à la surprise générale. La signification de ce phénomène est simple : les emballements de demain sont en préparation aujourd’hui, sous nos yeux. Il suffit donc de repérer les techniques prometteuses qui progressent régulièrement, sans accident de parcours, pour mettre le doigt sur les succès d’avenir.
Un emballement bénéfique
Il faut qu’il y ait un enthousiasme flagrant pour que l’emballement surgisse, c’est l’engouement des passionnés et adopteurs précoces qui le déclenche. Un exemple : l’Apple // a été l’amorce de la fusée “micro-informatique”. Pour que les deux Steve décollent (Steve Jobs n’a plus besoin d’être cité mais il ne faudrait pas oublier Steve Wozniak qui a été essentiel pour la partie technique de cette aventure…), il a fallu des efforts longs et soutenus de toute une génération de fervents adeptes, depuis les ingénieurs d’Intel, jusqu’aux concepteurs de CP/M, sans oublier les promoteurs du Basic, même si l’Apple// ne reposait sur aucun de ces trois composants !
Le phénomène d’emballement est comparable à la réaction en chaîne qui suit la réunion de la masse critique : il est à la limite du contrôlable. On l’a vu cette année avec l’emballement provoqué par ChatGPT qui aura mis au moins dix mois avant de se calmer. Ce phénomène est pourtant nécessaire afin d’assurer un retentissement suffisant à la nouvelle technique pour que sa diffusion ait véritablement des effets sur notre quotidien. Sans cela, la technique est confinée à une relative confidentialité qui interdit les impacts à grande échelle.
Attention à la fenêtre de lancement
Le non-respect du principe de la masse critique (attendre qu’une technique soit dans sa configuration favorable et qu’elle ait commencé à rassembler une bonne dynamique, le fameux momentum cher aux Américains) est fréquent dans l’informatique, car les grands acteurs sont trop avides de nouveautés spectaculaires pour se montrer patients. Pourtant, on peut tuer une technique prometteuse en la révélant trop tôt à l’appétit du public (comme on l’a fait avec les disques magnéto-optiques). Il existe donc une période de temps limitée pendant laquelle une technique doit faire ses preuves et fournir des exemples concrets de son utilité et de sa maturité. Cette période dure entre dix-huit et trente mois, pas au-delà. Cet obstacle est d’autant plus redoutable que l’attente est importante. Si l’accompagnement médiatique d’une nouvelle technique est exagéré, alors il s’ensuit un inévitable mouvement de balancier, tout aussi exagéré, pour sanctionner la légitime désillusion du public…
Car celui-ci n’est pas patient, l’hystérie de la découverte enthousiaste se transforme vite en déconvenue qui débouche sur un rejet immérité et prématuré (exemple : le flop des premiers casques de VR dans les années 90). La déception est souvent fatale (mais pas toujours), car elle influence le non-renouvellement des crédits, encore nécessaires pour parfaire la mise au point de la technique en devenir. C’est ce type “d’accident de parcours” qui est arrivé à l’intelligence artificielle à la fin des années quatre-vingt et qui faillit lui être fatal.
Le poids des infrastructures
S’il faut plus ou moins une décennie pour franchir toutes ces étapes et commencer la diffusion d’une invention, il en faut environ le triple pour atteindre le seuil de généralisation. Le temps nécessaire à une technique pour atteindre ce stade dépend aussi de ce qu’il réclame; les inventions nécessitant une infrastructure lourde sont forcément plus lentes à impacter leur marché.
Comme je sais que je ne suis jamais cru du premier coup quand j’évoque les délais des évolutions techniques, j’ai rassemblé ici quelques exemples qui montrent que de nombreuses découvertes que nous estimions proches de nous remontent en fait à bien plus loin dans le passé… Suivez le guide !
Quelques exemples incontestables
Les premiers composants électroniques remontent au début du XXe siècle : 1904 pour le tube diode (Fleming) et 1906 pour le tube triode (Lee De Forest). La découverte de la supraconductivité remonte à 1911 (découverte par Heike Kamerlingh Onnes).
L’électrocardiogramme est inventé en 1901 par Wilhem Einthoven. Et c’est Hans Berger qui invente l’électroencéphalogramme en 1924.
Le premier robot d’assemblage (Unimate de la société américaine Universal Automation) est installé dès 1962 sur une chaîne de production de General Motors. Plus de 60 ans après les premiers robots dans l’usine GM, Elon Musk a voulu nous faire croire que ses chaînes de montage robotisées (dans les usines Tesla) sont révolutionnaires…
L’échographie est mise au point pour la première fois en 1955 par Inge Edler. Le stimulateur cardiaque (le fameux pacemaker) est inventé en 1958 par le docteur Ake Senning.
Richard Feynman a le concept de la nanotechnologie dès décembre 1959 (bien avant de pouvoir commencer à l’expérimenter).
Le premier appareil photo numérique à CCD (charge coupled device) est développé dans les laboratoires Bell dès 1971 (eh oui !). En 1975, Steve Sasson développe un autre appareil à base de CCD avec une résolution de 10000 pixels (il ne peut prendre que des photos en noir & blanc et demande 23 secondes pour capturer une image ensuite enregistrée sur une K7… l’appareil pèse 3,6 kg). Ensuite, RCA propose un appareil CCD capable de prendre des photos couleur en 1983.
C’est à la fin des années 1940 qu’une petite manufacture de produits photographiques de Rochester (New York) du nom de Haloid décide d’exploiter l’invention faite dix ans plus tôt par Chester Carlson, la xérographie (terme qui vient du grec xeros -sec- et graphein -écriture-). La conception du premier photocopieur, le XeroX Model A, et le succès des modèles suivants amènent la compagnie à changer son nom en 1958 pour Haloid Xerox, puis le 18 avril 1961, devenant simplement Xerox.
XeroX Model A, 1949.
La première imprimante informatique à laser vient de Xerox aussi en 1971 (la 9700, un monstre capable de cracher 120 pages à la minute).
Canon en développe une version plus réduite en 1975 et HP commercialise sa première Laserjet en 1984 juste avant la Laserwriter d’Apple en 1985.
L’invention du téléphone mobile est attribuée au docteur Martin Cooper (Motorola) en 1973. Mais Motorola met encore dix ans avant d’en commercialiser un premier modèle : le Dynatac 8000.
L’empilement vertueux, mécanisme magique
Encore une fois, tous ces exemples sont là pour vous rappeler que l’innovation suit un chemin long et chaotique qui finit par déboucher, grâce à l’empilement vertueux. L’accumulation de petits pas finit par permettre d’atteindre un “effet de seuil” où le progrès franchit un palier et se révèle dans toute sa puissance.
Même si cette position (réfuter l’accélération continue du progrès technique) paraît contre-intuitive, je constate que je ne suis pas le seul à le dire et à l’écrire… Voici une petite sélection d’articles (plus un livre) qui vont dans ce sens !
Le livre de Fredrik Erixon et Björn Weigel dans “The Innovation Illusion- How So Little Is Created by So Many Working So Hard”, paru en 2016.
Un préambule long mais nécessaire
Revenons donc, après ce long préambule, à cette fameuse “échelle Lefebvre” évoquée dans le titre de cet article ?
Cette “échelle” comporte quatre échelons :
Dix ans, c’est le délais incompressible : de la découverte aux premières applications.
Vingt ans, c’est pour arriver au grand-public.
Trente ans, c’est pour atteindre la maturité finale.
Cinquante ans, c’est pour savoir que ça va en prendre encore cinquante !
En peu de mots, on peut résumer cette échelle ainsi : les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. 10, +10 (20), +10 (30).
La nouvelle illustration signée Valentin Lefebvre !
Les exemples qui permettent de confirmer cette échelle sont nombreux et j’en ai déjà listé quelques-uns dans ce document. Ajoutons donc des exemples supplémentaires pour illustrer le dernier échelon : 50 ans, la frontière de l’illusion…
La frontière de l’illusion
Le premier exemple est bien connu (projet ITER), il s’agit de la fusion nucléaire contrôlée. Aujourd’hui, on le sait : la fusion nucléaire est un espoir ténu et très lointain (on parle désormais de 2070… comme pour confirmer la blague récurrente à propos de la fusion : “ça fait cinquante ans qu’on nous dit que ça sera prêt dans cinquante ans” !
L’autre exemple, c’est l’IA (la fameuse, trop fameuse “intelligence artificielle” !). Le concept initial remonte aux années cinquante et, aujourd’hui, après de nombreuses étapes plus ou moins spectaculaires, on est toujours loin du but défini par les pionniers : atteindre le niveau dit “d’intelligence générale”. Déjà, il faudrait s’entendre sur ce que ce “but” recouvre réellement mais on sait déjà que ça va prendre encore des décennies (j’insiste sur le pluriel ici…) avant de s’en approcher. Certes, alors que quasiment tout le monde a été hypnotisé par l’irruption de ChatGPT en 2023, il paraît téméraire d’affirmer qu’on est encore loin du but… Et pourtant, les vrais spécialistes (j’insiste sur “vrais” ici) nous le confirment : le chemin sera encore long, tortueux et semé de déceptions.
Conclusion
On constate qu’on n’est pas armés mentalement pour accepter que les évolutions techniques soient aussi longues, prennent autant de temps et demandent autant d’étapes. On a toujours tendance à croire que ça fait irruption brusquement parce que, justement, on n’a pas vu toute la phase de préparation. Il est difficile pour le grand public d’admettre que les percées demandent dix ans pour aboutir, dix ans de plus pour produire des effets mesurables et encore dix ans pour se généraliser. Sur ce plan-là, on va continuer à croire aux “révolutions en une nuit” alors qu’elles ont toutes demandé vingt ans de préparation…
On aura beau dire et expliquer, les gens sont toujours persuadés que tout va de plus en plus vite. Tout simplement parce que dans leur vie à eux, ils ont de plus en plus de mal à gérer un monde qui est complexe et qui se complexifie de façon croissante. Donc cette notion de saturation est assimilée à de l’accélération alors que ça n’a rien à voir parce qu’on l’a vu, tout est cyclique. Et ses cycles s’enchaînent avec, successivement, des phases d’accélération et des phases de ralentissement. Le problème c’est que même pendant les phases de ralentissement, on a tout de même l’impression d’être toujours dans un monde qui va de plus en plus vite donc cet écart entre la perception et la réalité est voué à persister.
Allez, on va de nouveau évoquer les simulations de course auto qui nous occupe : Le Mans Ultimate (LMU), Automobilista 2 (AMS2), Forza et ce qui pourrait venir à la suite.
Je commence par vous avouer que, de temps en temps, je vais refaire un tour sur d’autres simulations qui ne sont pas dans cette liste, genre Assetto Corsa Competizione (ACC) ou Raceroom voire iRacing. de ces trois-là, c’est iRacing que je connais le mieux car je l’ai beaucoup pratiqué “dans le temps” (pendant au moins une dizaine d’années, j’ai même participé aux 500 Miles d’Indy et les 24 Heures de Daytona organisé par iRacing et, globalement, j’en tire un assez bon souvenir).
Donc, j’ai roulé un peu sur ACC et je me suis vite arrêté : vraiment pas pour moi ce truc. De temps en temps, ici et là, je peux lire des critiques sur AMS2 que j’ai du mal à comprendre, genre “c’est trop arcade” ou “c’est trop facile” ou d’autres encore moins articulées… J’ai du mal à comprendre mais j’accepte car ça m’arrive aussi sur les autres titres. Donc, je ne vais pas écrire “ACC est une sous-merde” mais simplement “vraiment pas pour moi ce truc”. Récemment, j’ai reçu une clé afin de pouvoir tester Rennsport et j’ai donc installé le bazar (qui se lance via le Epic Games Launcher, j’aurais préféré que ça soit disponible sur Steam mais bon, on fait avec…). Et sur Rennsport, je vais dire comme pour ACC : “vraiment pas pour moi ce truc”. Dans ce dernier cas, je voudrais ajouter que je ne comprend pas le positionnement de ce titre : qui est visé ? pourquoi faire (que du online ?) ? encore du GT3 ?
Ceci dit, il faut prendre tout cela avec recul et modération : l’avis que j’exprime sur tel ou tel titre n’est que mon opinion en fonction de ma configuration, de mes attentes et de mes habitudes, rien plus, rien de moins. Modifiez la config et les habitudes, vous aurez un autre avis…
Bref, voyons nos titres phares dans le désordre…
J’en avais déjà dit beaucoup dans ce post récent :
Avec le temps qui passe, Forza se révèle de plus en plus comme une déception globale. Le mode online est infréquentable car il semble que ce soit le rdv préféré de tous les abrutis. Le mode carrière est vide ce qui est un vrai problème car la motivation à rouler avec ce titre tombe vite à zéro en dehors d’une incitation qui ressemble à quelque chose. Donc, je vous fait ici une promesse, celle de ne plus parler de Forza à moins d’avoir quelque chose de (vraiment) positif à en dire !
LMU, en attente de la sauvegarde
Pour ce qui est de LMU, je constate que je suis loin d’être le seul à souffrir de stuttering (bégaiement d’affichage) ce qui prouve (s’il en était besoin) que le jeu est loin d’être optimisé.
Ceci dit, je suis persuadé que cette simulation prendra son envol (au moins pour moi) à partir du moment où on pourra enregistrer sa course au cours d’une session afin de la reprendre plus tard quand bon vous semble (et encore mieux si on peut le faire en mode partage -à plusieurs donc- mais ne rêvons pas trop svp). Et puis, puisqu’on en est aux souhaits débridés, demandons aussi une bonne et franche optimisation, hein !
AMS2, voilà la 1.6 et les mods
AMS2 évolue à son rythme ou plutôt celui de la petite équipe de Reiza. La version 1.6 va bientôt être disponible (au plus tard à la fin de cet été si on en croit les rumeurs…, voir à https://www.overtake.gg/news/automobilista-2-upcoming-content-previewed-collaboration-with-multiplayer-platforms.2219/) mais il y a plus à dire qu’une simple évolution de version. Selon moi, le titre phare de Reiza est en train de changer de dimension car des équipes de moddeurs sérieux proposent des mods très achevées qui réhaussent de beaucoup l’intérêt de cette simulation dans son ensemble. Je veux prendre comme exemple la toute récente version 2.2 du mod Indycar 2023 (voir à https://www.overtake.gg/news/automobilista-2-indycar-2023-mod-receives-major-update.2196/). Avec ce mod, c’est quasiment comme si on avait à disposition une simulation dédiée au championnat Indycar sauf que, effectivement, il manque encore quelques tracés (aussi bien routiers qu’ovals).
N’oublions pas que c’est grâce aux mods que rFactor, rFactor2 ou Assetto Corsa ont décollé pour de bon.
Voici notre épisode 11 qui est consacré à l’apparition et l’avénement de l’interface graphique jusqu’à sa généralisation qui a pris, croyez-le ou non, trente ans !
Il vient d’un écrivain avec qui j’ai échangé dernièrement. Je n’approuve pas (loin de là !) toutes ces prises de position (exemple horrible : il est en faveur de l’écriture inclusive, un crime pour un auteur !!!) mais je dois dire que ce message m’a touché : ce qu’il décrit est effectivement en train de se passer (et même de s’accentuer, voir Google par exemple).
======
Il faut absolument revoir « All the President’s Men » pour se rendre compte le scandale qu’était le fait d’installer des micros-espions en 1972. Scandale qui aboutira à la démission de Nixon alors que, depuis Edward Snowden, nous trouvons normal de nous balader tous en permanence avec des micros et caméras-espionnes partout.
Edward Snowden pensait choquer le monde avec ses révélations. Nous nous sommes contentés de hausser les épaules en trouvant cela « normal ».
======
Alors, on a le choix : résister (même juste un peu, Firefox au lieu de Chrome par exemple) ou se laisser couler.
À l’occasion des 24 Heures du Mans, il semble que nos différentes simulations ce soient un peu réveillées. En tout cas des mises à jour sont là où sont annoncées et je vous propose aujourd’hui de passer en revue la situation en ce qui concerne Forza, Le Mans Ultimate (LMU) et Automobilista2 (AMS2), ce sera déjà pas mal.
La question de la maturité.
Il est particulièrement intéressant de constater qu’il faut du temps, beaucoup de temps, laisser passer quelques mois avant de véritablement pouvoir juger un titre. Par exemple, il y a quelques mois je vous ai proposé des revues de Forza et de LMU au moment de leur sortie et, dans ces analyses, j’étais assez positif parce que, à mon avis, il y a toujours un bien favorable vis-à-vis de la nouveauté, c’est comme ça. Aujourd’hui avec plusieurs mois de recul on est mieux placé je m’en rends compte pour vraiment avoir un avis réfléchi sur le titre en question. D’abord on y a passé beaucoup de temps et, ensuite, on a pu constater son évolution avec les mises à jour successives. Et tout cela accumulé, fait que l’avis initial exprimé dans l’enthousiasme du début peut-être revu, voir complètement annulé, par quelques mois de pratique. On en est là aujourd’hui et c’est l’usure du temps qui est le meilleur juge de la qualité d’une simulation ou d’un film ou d’un livre.
Pour vous permettre de juger sur pièces, je vous ai remis ci-dessous les liens vers mes avis récents sur les titres en questions…
Commençons par LMU. je ne vous cache pas que j’ai été très déçu par le contenu de la dernière mise à jour. Principalement parce que la fonction que j’attends, c’est l’enregistrement des courses que ce soit en mode coopératif ou non. Mais si on veut faire des courses d’endurance, c’est-à-dire des courses longues, il faut qu’on puisse enregistrer sa session afin d’y revenir parce que, soyons honnête,s on a pas 6, 8 ou 10h ou plus encore à consacrer non-stop à une session de Sim Racing. C’est le bon sens même.
Donc le fait que cette fonction ne faisait pas partie de cette mise à jour, c’était pour moi une grosse déception. De plus, je constate que les problèmes inhérents à LMU sont toujours les mêmes. La simulation demande encore beaucoup d’optimisation afin de pouvoir tourner correctement et, pour le moment, sur des configurations qui ne sont pas au dernier cri, eh bien soyons clairs : c’est tout juste roulable (et c’est encore pire sous la pluie !). En particulier mon système est victime de “bégaiement d’affichage”, c’est ce que les Anglo-Saxons appellent le stuttering. J’ai beaucoup cherché pour résoudre ce problème qui rendait LMU complètement inutilisable et j’ai fini par trouver que, dans les options graphiques, il fallait passer de full screen à borderless et que ce simple changement avait de grandes conséquences positives. Ceci dit, aujourd’hui les problèmes restent à peu près les mêmes à savoir que les temps de chargement des circuits sont toujours terriblement longs et que les IA sont capables de vous percuter un freinage et ça je trouve ça complètement insupportable. C’est quelque chose qui ne m’arrive simplement jamais avec AMS2 et c’est à vous dégoûter de rouler avec LMU.
Conclusion (provisoire !) sur LMU
Il y a quand même des choses positives qui arrivent avec la dernière mise à jour. Le radar de bord, par exemple, est bien fait et très utile. Je ne peux pas en dire autant des ralentis qui, c’est évident, demandent encore du travail pour être finalisés (et sont aussi longs que les circuits à charger !!).
Pour moi le problème principal de LMU ce n’est pas le contenu. Le fait d’avoir le plateau intégral 2003 et tous les circuits de la saison 2003 me suffisent complètement. Bien entendu, avoir l’équivalent pour la saison 2024 serait un plus et l’équipe de développement travaille déjà dans ce sens puisque la dernière mise à jour permettait d’avoir les livrées 2024 ainsi que la BMW LMDh. C’est bien, c’est positif mais ce n’est pas là que j’attends les progrès. Selon moi, le domaine où est LMU doit vraiment progresser afin de réaliser son potentiel (qui est grand à mon avis) c’est dans la complétude des fonctions essentielles ainsi que dans l’optimisation du titre afin d’améliorer la fluidité de l’affichage, même sur les PC qui ne sont pas du dernier cri.
Au tour d’AMS2
Pour ce qui est d’AMS2, on attend la mise à jour de la 1.6 qui promet beaucoup (avec, entre autres, le circuit de Road Atlanta) mais qui se fait attendre. Bien jour, il faudra vérifier l’ampleur et le gain (ou la régression) apportés par cette nouvelle version.
AMS2 reste ma simulation préférée car c’est la plus agréable à rouler, la plus complète et la plus mature (pas de gros bug à déplorer et une bonne optimisation). AMS2 n’est pas encore appréciée comme elle le devrait et je suis toujours surpris d’entendre des YouTubeurs la qualifier de “simcade, intéressante mais pas rigoureuse”… Souvent, je me demande si on parle des mêmes titres !
Certes, AMS2 est plus permissive qu’iRacing mais les autres aussi (iRacing est vraiment punitive sur tous les plans…). Cependant, je pense que cela fait partie d’un certain snobisme de critiquer (voire de mépriser) AMS2 tout simplement parce que cette simulation a des origines modestes (mais ces récentes évolutions montre combien elle a évolué) et qu’elle utilise le madness engine issu de PCARS2… Et, là aussi, il faut souligner que Reiza fait un travail formidable pour tirer parti de ce madness engine en prenant le temps de faire les choses correctement.
Cependant tout n’est pas parfait avec AMS2, loin s’en faut !
D’abord, je trouve que Reiza se disperse trop en voulant adresser toutes les catégories ou presque : je préférerais que le studio se concentre sur ses points forts, à savoir les contenus historiques et l’endurance, point.
Ensuite, j’aimerais que les nouvelles fonctionnalités soient finalisées une bonne fois pour toutes avant de passer à autre chose. Par exemple, les drapeaux ne sont toujours pas là et le fonctionnement des feux de signalisation qui sont en bord de piste (comme sur le circuit du Mans par exemple) est encore et toujours inachevé.
Donc, sur AMS2, je reste positif et j’encourage à découvrir cette simulation mais je reste attentif et critique sur les points faibles qui, forcément, existent.
Finissons par Forza
Avec ce titre, je vais être plus sévère. C’est là où on se rend compte que le recul est indispensable pour juger un titre car, lors de sa découverte, j’étais plutôt positif. Mais, clairement, ça n’a pas duré…
En effet, voici un titre qui a vite montré ses limites avec un mode carrière très creux (et où on est obligé de piloter des voitures sans intérêt : à quoi bon rouler en Golf, je vous le demande ?) et des courses online infréquentables (parce que beaucoup trop de pilotes se croient tout permis), plus un mode “course libre” très limité (pas moyen d’avoir des qualifs, la place sur la grille est toujours au milieu…).
Alors, la mise à jour (la 9ème) de cette semaine peut-elle changer la donne ?
Non, ce serait trop demander mais on voudrait croire dans les progrès annoncés. Cependant, on trouve toujours les temps de chargements trop longs, les pénalités distribuées au petit bonheur (et pas toujours justifiées) et les ralentis qui ne fonctionnent toujours pas (pour moi en tout cas).
Bon, cette mise à jour est centrée sur l’endurance (avec Sebring comme nouveau tracé) mais tempérez votre enthousiasme car, pour Forza, des courses d’endurance, ce sont des manches de 30 à 45 mn maximum… Ouais, ça calme !
Bref, faut pas trop en demander à Forza et surtout pas le comparer à LMU ou à AMS2…
C’est difficile de trouver son idéal même avec l’offre du marché actuelle qui est plutôt riche. pour mémoire, je vous renvoi vers les trois articles que j’ai déjà rédigé sur ce sujet :
Je vous propose de faire un point avant le vrai début des 24 Heures du Mans (bon il y a quand même eu la séance de journée test ce dimanche qui nous a déjà donné quelques indications mais en vérité ça commence mercredi pour les choses sérieuses). Et cette année l’incertitude n’a jamais été aussi grande au vu du plateau incroyable qui est réuni pour cette édition.
Un plateau jamais vu !
14 grands constructeurs engagés cette année : c’est du jamais vu dans l’histoire des 24h du Mans !
Dans le désordre, on peut citer : Aston-Martin (seulement en GT3LM), Alpine (Seulement en Hypercar), BMW (en Hypercar et GT3LM), Cadillac (Hypercar), Chevrolet (GT3LM), Ferrari (en Hypercar et GT3LM), Ford (seulement en GT3LM), McLaren (seulement en GT3LM), Lamborghini (en Hypercar et GT3LM), Peugeot (seulement en Hypercar), Porsche (en Hypercar et GT3LM) et enfin Toyota (en Hypercar et GT3LM).
A ce plateau déjà énorme, il faut ajouter les LMP2 (100% Oreca) et l’Isotta-Fraschini, une hypercar de plus (mais pas aussi compétitive que celles des “gros”…).
Se baser sur les résultats en WEC ?
Pour avoir une idée des forces en présence et de la compétitivité des uns par rapport aux autres on peut déjà se baser sur les trois premières manches du championnat WEC qui ont déjà eu lieu. Mais d’une part les 24 Heures du Mans sont une course à part et d’autre part les résultats et les comportements des concurrents pendant les trois premières manches ne sont pas forcément significatifs. En effet, bien souvent, les concurrents ne révèlent leur vraie force qu’à l’occasion des 24 Heures du Mans qui, plus que jamais, représente l’enjeu principal de toute la saison d’endurance. Le fait de ne pas révéler son vrai potentiel lors des premières manches est une pratique bien connue dans le sport auto que les Américains appellent “sand bagging”, c’est-à-dire faire du “bac à sable”. L’année dernière, par exemple, Toyota avait bien performé lors des premières manches et, du coup, la BOP ne leur avait pas été favorable pour les 24 Heures du Mans. Je pense que, cette fois, les Japonais ont bien compris la leçon et ils ont bien fait attention d’être de ne pas être en pointe pendant les premières manches pour ne pas être pénalisés au moment du rendez-vous Manceau. Ceci dit, il est quand même de plus en plus difficile de dissimuler son vrai potentiel aux autorités car désormais tout est terriblement surveillé. Les voitures sont même dotées de capteurs qui permettent de mesurer la puissance délivrée, le couple du moteur et ainsi de suite, tout un tas de paramètres qui sont examinés à la loupe par les autorités sportives qui déterminent la fameuse BOP. Mais même si c’est plus difficile qu’avant, je pense qu’il y a quand même un élément d’incertitude important avant que ne démarre l’épreuve des 24 Heures du Mans pour de bon.
Je me lance !
Cependant, je vais quand même me livrer au risque des pronostics même si c’est un exercice hautement aléatoire et dont les résultats produisent plus de ridicule que de gloire. Donc pour moi, le favori de ces 24 Heures du Mans 2024, c’est clairement Toyota. Même si l’équipe japonaise n’a pas été en pointe lors de ces trois premières manches, si on excepte Imola où ils ont carrément remporté la victoire (fruit des circonstance et de leur excellence tactique), je pense que le désir de revanche des Japonais et de toute l’équipe Toyota est très fort, suite à ce qui s’est passé lors de l’édition précédente. Et cet élément à lui seul peut-être en mesure de faire pencher la balance et d’emporter la décision, en tout cas c’est mon opinion.
Le Mans Live, où ?
L’autre question, c’est “comment suivre cette édition des 24h du Mans dans les meilleures conditions” ?
Ces dernières années, je me suis contenté de suivre cette épreuve à travers Eurosport qui fait un direct quasiment intégral. Mais, problème, je ne supporte plus les niaiseries et les commentaires lamentables des journalistes de cette chaine (s’ils pouvaient se contenter de laisser parler les pilotes comme Paul Belmondo, toujours pertinent et mesuré, ça serait parfait mais, hélas, faut toujours qu’ils la ramènent !). J’ai donc pris l’abonnement WEC qui est très complet et très bien fait.
Cette fois, je vous propose une rapide récapitulation des épisodes précédents mais, surtout, avec à chaque fois, les enseignements à en tirer… Et il y a de quoi faire !
Comment IBM a voulu reprendre la main sur le marché de la micro, se débarrasser des cloneurs et assoir définitivement la primauté des mainframes par un “coup d’état” soigneusement préparé et a échoué, complétement et définitivement ! Après cela, IBM n’a plus jamais été considéré comme le N°1 naturel de l’informatique… Plus haut vous montez et dure sera la chûte !
Je viens de terminer “L’engagement”, un livre d’Arnaud Monteboug.
La couverture du livre en question…
Pour commencer, je dois avouer que je lis rarement des livres politiques. La plupart du temps, ces derniers se caractérisent par une grande médiocrité et la médiocrité, c’est ce que j’essaie d’éviter (!).
En plus de cela, je ne connaissais pas vraiment Arnaud Montebourg. Bien entendu, je me souvenais qu’il avait été ministre et qu’il militait en faveur du “made in France” mais c’était à peu près tout. Circonstances aggravantes je me rappelais quand même qu’il était socialiste et qu’il avait siégé au gouvernement de François Hollande (rien que cela suffisant à avoir les plus grandes réserves vis-à-vis du personnage et de ses livres…).
Mais il se trouve qu’un de mes fils m’avait incité à lire ce livre qu’il avait même laissé à la maison au format papier pour que je tienne ma promesse. J’ai donc fini par ouvrir cet ouvrage et je dois dire que je l’ai pratiquement lu d’une traite (pas tout à fait mais en tout cas une lecture vraiment suivie).
Le positif dans cet ouvrage c’est à la fois le ton qui semble honnête de l’auteur voire même authentique par moment et la peinture précise de ces années quand il était ministre. C’est bien rédigé et dans un bon français : c’est en train de devenir rare et c’est donc à souligner. Arnaud Montebourg nous décrit François Hollande dans toute sa grande médiocrité, sa lâcheté, sa paresse, ses compromissions, sa tendance au confort, etc. C’est une description au vitriol mais qui, à mon avis, est tout à fait méritée.
C’est assez vertigineux de constater à quel point on était tombé (bas) avec ce gouvernement Hollande et à quel point on est en arrivé aujourd’hui pour (presque) le regretter. On est passé d’un Flamby incapable et ridicule à un sale type nocif et hostile vis-à-vis du peuple français. On est en droit de se demander combien d’étapes on va devoir encore subir dans cette descente infernale, dans ce déclin abominable avant qu’enfin la France connaissent un sursaut.
Autre point à mettre au crédit d’Arnaud Montebourg c’est sa lucidité vis-à-vis des Américains qui sont de moins en moins nos alliés et de plus en plus nos adversaires d’une façon qui est de plus en plus avérée, visible et inquiétante.
Rassurez-vous, je ne suis pas en train de devenir un “fan de Montebourg pur sucre” car j’ai tout de même réussi à garder ma lucidité même si j’ai apprécié son livre. Et cette lucidité m’oblige à constater que même si l’auteur est sincère, il n’en est pas moins coupable d’une naïveté confondante. En effet, comment a-t-il pu se laisser rouler dans la farine par des individus comme Hollande ou Valls, qui sont d’une médiocrité poisseuse. Clairement, cela nous indique qu’Arnaud Montebourg avait quand même une grosse faille dans sa cuirasse d’animal politique et ça explique sans doute pourquoi il a fini par sortir du jeu, même s’il a toujours la tentation de vouloir y revenir quoi qu’il en dise.
Pour conclure, il s’agit d’un ouvrage que je vous recommande de lire si on s’intéresse au sujet de la mondialisation de la désindustrialisation et des affaires comme Alstom ou ArcelorMittal. Sur ce sujet, les descriptions de l’auteur sont édifiantes et utiles.
Je pense que c’est pour septembre/octobre de cette année mais je ne peux pas en être sûr et certain…
Pour vous aider à vous faire une idée sur la question, j’ai rassemblé ici deux vidéos intéressantes et significatives ainsi que deux article en français, quand même !
La face cachée d’OpenAI par Jérôme Marin
Et aussi: La presse divisée face à l’IA – Nouvel accord de licence pour Reddit
Soheil a toujours quelque chose d’intéressant à raconter, surtout quand il parle de lui, de sa carrière et de ses expériences, passées et récentes… à déguster !
Nous continuons à explorer la vague de la micro-informatique. Après le lancement de l’IBM PC (1981), le marché connait une croissance explosive et les premiers vrais compatibles apparaissent rapidement. En 1983, c’est Compaq qui s’impose comme le nouvel acteur à suivre car il propose des produits innovants, solides et rapides… L’antagonisme entre IBM et Compaq va aller croissant jusqu’au premier PC équipé du processeur Intel 80386 proposé en premier par… Compaq !
Dans cette épisode, je vous invite à revenir sur un jalon majeur de l’histoire de la micro-informatique et même de l’informatique dans son ensemble : le lancement de l’IBM PC qui devint presque tout de suite le standard incontesté de toute cette nouvelle vague (bien aidé par Lotus 1-2-3).
Nous approchons à grands pas des prochaines 24 heures du Mans mais, avant cela, il y a un autre rendez-vous prestigieux qui va se produire : l’Indy 500 sur le brickyard !
Je suis très fan de cette course qui est souvent captivante à suivre et c’est incontestablement une des plus grandes courses du monde (même si le Mans a tout de même ma préférence tout au sommet !). En conséquence, j’aime bien participer à cette course lors des organisations online sur iRacing (voir ici et aussi là) ou autres comme je l’ai fait quelquefois (mais sans jamais gagner : terminer une épreuve aussi piègeuse est déjà pas mal…).
Cette fois, j’ai décidé de refaire cette course mais en offline et sur un mod vintage… Peut-être vous souvenez-vous de ce mod fabuleux sur Rfactor, “Gasoline Alley” où vous pouvait piloter des roadster à moteur avant ?
Le mode “Gasoline alley” qui est disponible pour rFactor 1 & 2.
Eh bien, un mod de ce genre vient d’apparaitre sur AMS2 !
1964 est une années spéciale pour l’Indy 500 car c’est la dernière fois qu’un Roadster à moteur avant s’impose sur le brickyard (dès l’année suivante, c’est Clark qui gagne sur Lotus et en 1966, c’est au tour de Hill sur Lola, toutes les deux à moteur central… fin des dinosaures !).
La Watson-Offenhauser de Parnelli Jones, victorieuse de l’édition 1963 et 1964 (!) des 500 miles d’Indianapolis.
Ce mod tombe donc à point pour revivre cette période un peu oubliée où le brickyard ne pouvait être avalé à fond absolu et où il fallait s’occuper de son bolide avec le volant dans les virages (même quand on prend à fond avec les monoplaces modernes, ça ne veut pas dire que l’Indy 500 est devenu facile !).
Hélas, après quelques tests, j’ai pu m’apercevoir que ce n’était pas jouable car les arrêts ravitaillements sont très longs (alors que ceux des IA sont normaux…). Dommage car le comportement des voiture est extra, encore mieux que Gasoline Alley.
Encore une fois, je ne veux pas critiquer gratuitement ce mod mais je sais que ce genre de test est nécessaire car il faut un certain temps avant qu’un mod soit complètement au point et utilisable dans différentes conditions… Ceci dit, je suis tout de même content d’avoir pu rouler avec ce voitures sur ce circuit car c’est une expérience rafraichissante qui nous permet de voir qu’aller vite avec ces voitures, c’était pas de la tarte !
J’ai donc utilisé les Formula USA 2023 sur le Brickyard (contenu standard sur cette version AMS2, pas des mods donc) car ça, je sais que c’est une combo qui ne pose pas de problème. Je suis seulement le 22ème temps aux qualifs mais ça ne m’inquiète pas car je suis content des réglages de ma voiture qui est facile à piloter.
Paré pour 200 tours ?
Je sais d’avance que ça va être long et difficile et qu’il faut durer, survivre avant tout !
Très bon départ, je suis 16ème au premier tour et 15ème au second. Au 14ème tour, après être remonté en 10ème position, j’ai décidé d’attendre attaché à ce bon wagon (je peux voir la tête de la course à plus ou moins une seconde). Ma voiture va super-bien et je suis en confiance, faut juste se méfier du déventage à l’entrée des virages 1 et 3, surtout le virage 3 qui est (de loin !) le plus difficile des 4…
1er arrêt ravitaillement au 33ème tour alors que je suis 9ème (après m’être accroché avec un attardé, peu de dégâts). Je change les 4 pneus et je repars 29ème mais après que la vague des ravito soit terminée, je retrouve ma 10ème place au 36ème tour.
Tout allait bien mais j’avais du mal à doubler les attardés que notre groupe rejoignait de plus en plus nombreux. Et, bien sûr, j’en ai fait un poil trop : accrochage avec un attardé et j’ai eu droit au “baiser du mur” au 44ème et, cette fois, il y avait un peu dégâts. J’ai pu continuer mais la voiture était plus lente (je ne pouvais plus passer la 5ème) et donc, je perdais des places, une à une. Je décidais quand même de poursuivre ainsi mais de faire tout réparer à mon prochain arrêt ravitaillement. Mais, alors que j’étais tombé à la 15ème place (normal à cette allure), j’ai eu le message “coolant leak” (fuite de liquide de refroidissement) et là, j’ai compris que je devais m’arrêter sans tarder pour ne pas casser le moteur… Arrêt au 48ème tour et ça dure 1’30”, je repars 31ème (avec au mins deux tours de retard sur les premiers) et sous FCY (Full course Yellow, tout le monde au ralentit derrière la safety car…) mais, au moins, avec une voiture toute neuve !
Une fois le FCY enlevé, j’ai pu prendre la tête de mon groupe et tenter de refaire mon retard (c’est beau l’espoir !) mais, au 58ème tour, victime de mon enthousiasme et pressé de remonter au classement, j’ai oublié toutes mes bonnes résolutions du départ et j’ai remis ma voiture dans le mur en étant trop optimiste au virage N°3 et cette fois, c’est pour de bon : ailerons et suspension out, c’est terminé…
Ouais, c’est comme cela : c’est dur l’Indy 500 !
Juste un détail. Pour ceux qui pensent que les grands ovales américains, c’est pas vraiment du pilotage… Eh bien une fois de plus, je suis obligé de les contredire. Par exemple à Indianapolis on peut s’imaginer que les quatre virages sont identiques mais rien n’est plus faux on aborde pas du tout les virages 1 et 3 comme on enroule les virages 2 et 4. Ces deux derniers sont bien plus facile que les deux autres et c’est à ce niveau-là que la plupart des dépassements s’effectue tout simplement parce que on est un poil moins rapide que dans les virages 1 et 3. Alors, moins rapide, c’est relatif car à ces vitesses là ça reste quand même super vite. Et c’est justement la vitesse qui amplifie tout à Indianapolis : c’est parce qu’on va très vite, au-delà de 350 km heure, que la moindre petite différence entre les virages et tout de suite vu et ressenti. Et c’est pour ça que le pilotage est si difficile sur la durée d’une course, surtout une course longue comme les 500 Miles.
Dans cet épisode, on revient sur les vrais débuts de la vague “micro-informatique” avec CP/M, l’Apple II et le TRS80 plus la notion de “killer app” si importante…
Avec mes fils, nous avions envie de (re)faire une course d’endurance ensemble depuis longtemps. Nous avions fait une course de 6 heures l’année dernière, il était temps de monter au cran supérieur : une course de douze heures dans le cadre somptueux du grand circuit du Mans sur Automobilista 2 (AMS2) qui, au risque de me répéter, est bien la meilleure simulation du moment. Bien entendu, nous avons aussi l’ambition de refaire une course de 24 heures, comme j’en ai déjà fait avec Val dans les années 2000 puis 2010. Mais ça, ça se prépare sérieusement d’où cette étape à douze heures, histoire de continuer la “formation” de Justin, 15 ans (qui est déjà plus rapide que moi dans la plupart des situations !).
On se fixe de consacrer la journée de vendredi à cette course et, le jeudi 9 mai, nous avons juste fait les derniers ajustements de préparation : validation du choix de la LMDH par Val (32 ans), mise en place du système audio par Justin (le pilote a un casque audio sur les oreilles mais un microphone et un autre casque audio lui sont reliés… ainsi, on peut parler au pilote et on peut également entendre ce qu’il entend : bruits moteurs, Crew Chief qui commente et ainsi de suite) et test de ce système avec moi. Ce système audio s’est avéré très utile car il nous a permis d’échanger avec le pilote pendant qu’il roulait et d’entendre la même chose que lui et ainsi de savoir où il en était, ce qu’en disait Crew Chief afin de prendre les bonnes décisions si nécessaire.
De plus Justin et moi, nous avons roulé avec le plein et les pneus durs afin de valider cette configuration pour la course (finalement, on utilisera plutôt les pneus médium)… Nous avons décidé de rouler avec la Cadillac parce que, suite à mes tests, je trouvais qu’elle était un poil plus facile que la Porsche 963 et puis, j’avoue, j’aime pas la BMW LMDH (sans pouvoir expliquer pourquoi, question de ressenti…).
La veille au soir, nous avons décidé de faire des double-relais pour chacun tout au long des douze heures. Val va faire les qualifs afin de se familiariser avec l’interface de choix techniques (carburant à embarquer, changement de pneus ou pas, réparation à effectuer, etc.) pour les relais.
Pendant ces tests, nous avons roulé avec 31 adversaires IA dans les catégories suivantes : LMDH, GT3 gen2, LMP2 (mod de Thunderflash) et DPI afin d’avoir un plateau plus varié que simplement plein de LDMH et de GT3…
Nous avons opté pour une course de 12 heures (c’est déjà pas mal !) avec le temps accéléré deux fois (x2) afin de simuler un cycle complet de 24 heures. Nous avons choisi de régler les IA à 95%. On pouvait sans doute mettre plus mais on a pensé que c’était bien à ce niveau… Pour ce qui est du circuit, le grand circuit du Mans dans toute sa splendeur et dans une version toute récente.
J’ai défini quatre segments météo distincts (afin d’avoir un peu de brume au lever du soleil) mais pas de pluie au programme. En roulant, je me suis dit aussi que, la prochaine fois, on optera pour le pare-brise qui se salit afin de renforcer encore le réalisme. Ceci dit, en matière de réalisme, il faut savoir se contenter d’une balance bien équilibrée afin d’être capable de la supporter pendant douze heures…
On aurait aussi pu faire cette course avec LMU (Le Mans Ultimate) mais j’estime qu’à ce stade du développement de LMU, la fiabilité est encore très discutable (j’ai eu de nombreuses mauvaises expériences dans ce cadre et ce assez rapidement, pas au bout d’une heure !!).
Le matin (vendredi 10) avant le départ de la course
Le matin avant le grand rendez-vous, nous avons fait un peu de roulage par Justin et moi sur la Cadillac pour tester les pneus médium (qu’on va finalement retenir). Val prend le volant pour les qualifs après que je lui ai montré comment se servir de l’interface avec les stands. Pendant les qualifs, Val est coaché par Justin via le système audio afin d’affiner le choix des trajectoires et des points de freinage.
Mais, mauvaise nouvelle : je m’aperçois que la voiture ne ravitaille pas en essence !
Le temps qu’on comprenne qu’il s’agit simplement d’une option mal positionnée, il est déjà 10h00, l’heure prévue pour notre départ. Donc, alors que Val avait signé la pôle lors des qualifs, je suis obligé de relancer, de supprimer les qualifs et de partir (puisque c’est moi qui est prévu pour prendre le départ) au milieu des autres LMDH (en 6ème position).
Un bel effet de soleil levant
Justin attend dans les stands avant de pouvoir repartir !
Justin au volant, je suis derrière avec le second casque audio sur les oreilles…
Le tableau de la victoire finale !
Le capot de la Cadillac se salissait au fur et à mesure…
Départ à 10h10.
Comme tout se cumule, je me retrouve à devoir faire le tour de formation (encore un oubli dans les options mais j’en profite pour vérifier mes “choix de stand” afin que le prochain arrêt soit conforme à mes intentions) et, enfin, le drapeau vert nous libère !
Je reste 6ème deux/trois tours puis remonte en 3ème position et prend finalement la tête au 6ème tour. Le reste de mon relais se passe bien, arrêt au 12ème tour, je garde mes pneus médium à peine entamés et repars second. Pas pour longtemps car je retrouve la tête le tour d’après (arrêt du leader). Bon début donc. Seul souci : Crew Chief m’a prévenu que nous avons un début de dommage aux freins et j’essaye donc de les épargner en freinant un poil plus tôt.
Les LMP2 ne sont pas restées longtemps en piste : elles sont toutes arrêtées aux stands juste après le premier ravitaillement !
C’est sans doute un bug de ce mod qui ne gère pas correctement cet aspect pourtant essentiel des courses d’endurance… Eh oui, c’est pas facile de mettre bien au point un mod !
N’allez surtout pas croire que je critique gratuitement le travail de Thunderflash, tout au contraire. Je voudrais en profiter pour le remercier ici et maintenant de son travail. C’est grâce à lui et à d’autres qu’AMS2 est en train de prendre une autre dimension grâce à l’ajout des mods (voitures supplémentaires mais aussi circuits inédits). C’était à moi de tester complètement ce mod LMP2 avant de décider de l’inclure dans notre événement. Je ne l’ai pas fait et je dois ne m’en prendre qu’à moi, point.
Ce premier relais est l’occasion de savourer le ressenti sur AMS2 et de saisir combien cette simulation est aboutie désormais. Non seulement l’aspiration est sensible dans les lignes droites mais on sent également que la voiture est “déventée” lorsqu’on en suit deux ou trois dans les enchaînements de la nouvelle section et ça oblige à adapter son pilotage pour ne pas se retrouver “dans le mur” bêtement… Ces LMDH sont très réussies et je crois que j’aimerais juste que le son des voitures soit plus accentué (du niveau de LMH qui, sans conteste, est la meilleure simulation sur ce point précis, on s’en rend compte quand on peut entendre les retransmissions en caméra embarquée comme ce week-end pour les 6 heures de Spa, la troisième manche du WEC).
Au tour de Val
Je m’arrête de nouveau aux 22ème tour et passe le relais à Val. Bien qu’il conserve lui aussi les pneus médium qui tiennent bien le coup, son arrêt est plus long que prévu (plus de deux minutes) car l’équipe répare les freins. Val repart en 5ème position. Val est vite remonté en tête mais Crew Chief a de nouveau alerté sur des problèmes de freins. Nous prenons la décision de réparer tout au prochain arrêt. Le premier arrêt de Val (au 34ème tour) est très long, comme prévu : 2’50” !
Il repart 9ème du coup mais avec une voiture quasi-neuve (pneus changé aussi)… Second arrêt de Val au 45ème tour (remonté en 5ème place), Justin prend le relais et repart en 8ème position. Nous avons un tour de retard sur le leader et il reste 9h14 de course…
Justin remonte
Au 50ème tour, Justin est déjà remonté en 3ème position dans le tour du leader. Il passe second au 54ème tour peu avant de devoir s’arrêter et même reprend la tête brièvement avant de ravitailler au 55ème tour. Il repart 5ème, juste dans les roues du 4ème et recommence sa remontée. Le crépuscule tombe déjà sur le circuit…
Il passe second au 59ème tour avec une vingtaine de secondes de retard sur le premier. Il prend la tête au 60ème tour suite à l’arrêt ravitaillement du leader. Toujours nos soucis de freinage : Crew Chief nous demande de faire un stop pour les fixer. Je prend le relais au 67ème tour en gardant les pneus médiums qui ont déjà deux relais dans les roues… En pleine nuit.
Un relais difficile, très difficile !
J’ai été obligé de m’arrêter au tour 75ème tour pour changer les pneus et réparer les freins car la voiture était devenue très dure à piloter : peu de grip (pneus), presque plus de frein !
J’avais du mal à la garder sur la piste et j’étais de plus en plus lent. Je suis tout de même allé au bout de mon relais mais c’était carrément pénible et je me traîne à la fin avec une voiture carrément rétive (très peu de freins au Mans sur une LMDH, ça ne le fait pas !). Je n’arrivais même plus à doubler les DPI, il était temps de s’arrêter…
Je perds 3’15” et repart 8ème mais la voiture est transfigurée et je peux de nouveau attaquer. Quelle différence et quel plaisir !
La nuit n’est pas gênante et la voiture performe à son max : ma remontée est donc relativement facile.
Quand je rends la voiture pour Val au 88ème tour, nous sommes de nouveau en seconde position.
Val enroule
Il repart en troisième position. Val enroule son relais en seconde position à 20 secondes du leader. Arrêt (carburant) de Val dans le 99ème tour pour son relais. Il reprend la tête au 105ème tour (arrêt aux stands du leader).
Val s’arrête à la fin du 110ème tour pour ravitailler mais Crew Chief nous signale que les freins sont out (les disques passent du rouge au bleu très vite, signe certain du problème, on commence à être habitués !) et vont devoir être réparés : un arrêt long en perspective… Arrêt de 2’54” et Justin repart 6ème.
Le jour se lève
Au 120ème tour, Justin prend la seconde place et le jour commence à se lever, tout doucement (avec des traces de brume sur le circuit, ça fait très le Mans…) !
Arrêt carburant pour Justin à la fin du 121ème tour. Seulement 42 secondes d’arrêt, Justin conserve la seconde place. Arrêt carburant de Justin au 133ème tour (alors en tête), je prend la suite en gardant ses pneus (médiums). Le soleil est désormais bien visible sur l’horizon mais il y a encore des brumes ça et là.
Tout-droit à Arnage
Je repars en tête mais, au milieu de mon relais alors que tout va bien sur la voiture, je fais un tout-droit à Arnage (en voulant doubler une GT3) et j’abîme mon capot avant (le décalage du capot par rapport à sa position normale est bien visible depuis le cockpit). Avec cette “nouvelle configuration” (!), je perds en vitesse de pointe mais pas trop en tenue de route.
C’est le genre d’erreur qu’on veut à tout prix éviter et le type même de situation sur laquelle j’ai insisté auprès de Justin et Val et c’est moi qui commet l’erreur, sans aucune circonstance atténuante… La morsure du Mans fait mal quand on la subit !
Je fais tout réparer lors de mon arrêt au 143ème tour. Arrêt de 2’50, je repars en 4ème position. Après cet arrêt, la voiture était de nouveau parfaite et j’ai pu battre mon meilleur tour (3’33”0). Plein soleil, plus de brume.
J’ai repris la tête au 147ème tour et me suis arrêté au 155ème tour : arrêt court, carburant seulement.
Bon relais de Val sous le soleil
Val prend le volant et repart en tête. Bon relais pour Val qui a un bon rythme (quelques tours en 3’31’xxx). Arrêt carburant seul, au 165 tours, 40 secondes d’attente et Val repart en tête pour son dernier relais. Il s’arrête au 176ème tour pour carburant seul (toujours en tête). 40 secondes d’arrêt et Justin repart toujours en tête. Plus que 1h09 de course, c’est Justin qui va donc finir notre course.
Justin termine la course et sauve le résultat !
Justin a fait la même erreur que moi en voulant garder les pneus du dernier relais de Val : ils ne semblaient pas trop usés mais, en fait, le grip en est diminué (et peut-être que l’arrêt où les pneus ont le temps de refroidir joue aussi) et cela affecte la performance de la voiture.
Justin décide de s’arrêter au bout de quelques tours, en concertation avec moi (au 180ème tour), car la voiture a peu de grip et les freins qui faiblissent de nouveau. Il vaut mieux qu’il dispose d’une voiture au top pour pouvoir attaquer si ça s’avérait nécessaire.
Cet arrêt a duré 2’43” et Justin repart en première position (avec seulement 31 secondes d’avance sur le second) pour encore 47 minutes de course. Pour économiser le carburant et d’éviter de devoir s’arrêter de nouveau, Justin est passé à la carburation à “normale” plutôt que “riche” (la position “pauvre” est également disponible au cas où ça ne suffirait pas). Justin perd un peu de vitesse de pointe mais c’est une perte limitée. On y a cru un moment mais les calculs que je fais et refais sont sans appel : à ce rythme de consommation (même un peu réduite) et avec le temps qui reste, ça ne passe pas…
Finalement, un “splash & dash” (j’ai calculé qu’il fallait au moins 20 litres mais on se décide pour 35 litres afin d’avoir une marge de sécurité) s’est avéré nécessaire et Justin s’arrête au tour 186 alors qu’il reste 24 minutes de course. Il repart après 14 secondes d’arrêt (rapide au moins ce “splash & dash”) et reste en tête (avec 38 secondes d’avance sur le second, l’écart est resté stable par la suite). Justin maîtrise la situation et pilote de façon sûre, on se met à y croire…
L’arrivée est au bout de cet effort collectif et c’est avec un certain soulagement qu’on voit le temps s’écouler jusqu’à arriver à zéro. La ligne franchie en souplesse, c’est fait, c’est à nous !
Nous avons terminé en tête avec 52 secondes d’avance (194 tours en tout) au bout de ces douze heures palpitantes de bout en bout !
Analyse d’après course
La question la plus évidente est forcément “pourquoi avons-nous eu ces problèmes de freins répétés ?”… en effet !
Nous avons été obligés de réparer les freins au moins 4 ou 5 fois… en douze heures, ça fait quand même beaucoup !
Etait-ce parce que les écopes de refroidissement n’étaient pas assez ouvertes (mais, dans ce cas, Crew chief te préviens tout de suite que “tes températures de frein sont bien trop hautes, mon pote” avec sa verve coutumière… Ou bien était-ce parce que nous avions un pilotage trop agressif ?
Tout au long de la course, nous avons tenté, avec plus ou moins de soin plus ou moins de constance, de gérer le problème et d’atténuer le phénomène. Déjà, nous avons rajouté du frein sur le train arrière (à plusieurs reprises) pour moins solliciter les freins avant mais sans que la balance soit trop impactée car cela influence beaucoup le comportement de la voiture, en particulier pour le grand droite en montée qui marque l’entrée de la nouvelle section après Arnage…
Mais il faut bien admettre que rien de ce que nous avons tenté n’a vraiment eu d’effet. Il faudra que je mène des tests pour en avoir le cœur net. La gestion des dommages mécaniques est de plus en plus fine sur AMS2 et c’est super tant qu’on en est pas victime !
Par exemple, on peut endommager le moteur en rétrogradant trop vite à la volée (voir le casser en une fois en loupant un changement de vitesse avec la boite en H, genre enclencher la seconde au lieu de la quatrième en pleine accélération !) et on peut même avoir une fuite du liquide de refroidissement (“coolant leak”, avec les conséquences qu’on imagine…) si on frotte trop le bas de caisse sur les vibreurs !
Là encore, on est confronté aux contradictions de notre quête du réalisme qui doit tout de même rester dans le cadre d’un gameplay acceptable… qui voudrait d’une voiture qui ne démarre pas parce qu’on a loupé une étape dans une procédure trop compliquée ?
On aurait pu (on aurait dû ?) mettre les IA à un niveau plus élevé mais, après réflexion, c’était quand même bien ainsi (même si certains d’entre vous vont penser “tu parles d’une perf, à 95%, c’était trop facile !”… à ceux-là je vais juste répondre “roulez pendant douze heures et on en reparle…”).
Bilan sur AMS2
AMS2 a tenu l’épreuve sans flancher un seul instant ni même avec une baisse de FPS ou des aberrations visuelles pendant la nuit… chapeau !
Cependant, on peut quand même émettre quelques critiques. Tout d’abord, les feux de signalisation (présents tout autour du grand circuit du Mans) n’ont quasiment servi à rien : feu vert clignotant pendant le départ et plus rien après !
Pas de drapeau bleu lors des dépassements des attardés, pas de drapeau jaune pour signaler les incidents, rien. C’est vraiment dommage surtout si on compare à LMU qui est elle irréprochable sur ce point (mais critiquable sur bien d’autres). Au niveau des incidents également, on n’en a pas vu alors que la course durait douze heures tout de même !
Pendant les essais, j’ai pu voir au moins un tête à queue d’une DPI à la chicane Dunlop… Mais ça reste trop peu. Attention, je ne demande pas une “crash fest” mais un peu plus d’animation. Ceci dit, des incidents, il y en a peut-être eu mais pas devant nous et le Mans est un grand circuit…
Donc, en dépit de ces quelques critiques (on en veut toujours plus !), le bilan est largement positif : AMS2 permet de mener des longues courses d’endurance en se faisant oublier. C’est important et rassurant, merci Reiza !
Voilà déjà le cinquième épisode… Dans cet épisode, nous allons retracer les débuts de la Silicon Valley et la naissance du microprocesseur mais pas seulement : il ne faudrait pas oublier le rôle joué par les périphériques de stockage (disquettes et disques durs) et nous évoquerons le parcours d’Alan Shugart dans ce domaine…
Vous avez peut-être déjà vu ces images, au moins en partie, dans d’autres documentaires sur le sujet. Mais les voilà réunies dans un film entier assez long qui romantise un peu le “formula one circus” de cette époque. La musique et le cadrage sont aussi typiquement “années 70” !
Voici déjà le 4ème épisode de notre série sur une histoire de l’informatique moderne !
Pour cet épisode, je vous propose de détailler les étapes importantes qui ont achevé de consacrer le logiciel comme élément déterminant du développement de l’informatique. En fait, cette histoire est toujours d’actualité et il est encore aujourd’hui nécessaire de répéter encore et toujours que le matériel n’apporte que des capacités qui ne sont rien, ne servent à rien s’il n’y a pas du logiciel pour exploiter et transformer ces capacités en applications… CQFD.
Cette fois, j’ai mis un peu plus de temps car j’ai été malade, tout simplement !
Cela peut même s’entendre (un peu) lors de l’enregistrement car je tousse de temps à autres… Mais j’ai quand même pu l’achever et je vous le propose aujourd’hui : l’épisode 3 sur l’ère des constructeurs.
Dans cet épisode trois, j’évoque Seymour Cray et, si vous voulez en savoir plus sur l’histoire de CDC et de Cray Research, je recommande d’aller voir cette vidéo fort bien faite : These Computers Changed the World.
ON trouve de tout sur YouTube mais il faut savoir chercher…
Aujourd’hui, je vous propose deux vidéos longues et rares centrées sur le challenge Can-Am. La première balaye la première période de 1966 à 1973 alors que la seconde nous donne un aperçu de la seconde période, la saison 1981 où les formidables voitures n’étaient plus que des F5000 avec des carrosseries enveloppantes (mais cette période est rarement traitée, d’où son intérêt.
== Nouveau, j’ai regroupé tous les épisodes en cours (et à venir) sur cette page ! ==
C’est un projet qui me tient à coeur depuis un bon moment… Réaliser un documentaire vidéos sur l’histoire de l’informatique moderne, un peu comme je l’avais fait il y a longtemps sur la Porsche 917…
Je n’avais pas envie d’attendre aussi longtemps avant de vous proposer quelque chose sur ce sujet passionnant. J’ai donc longuement muri ce projet avant de me lancer. Tout d’abord, définir la forme (des slides illustrés avec mon commentaire en voix-off). Pareil sur le fond : pas question de revenir une fois de plus (une fois de trop) sur Babagge et autres antiquités poussiéreuses, on doit se concentrer sur la période moderne de l’histoire de l’informatique, point !
Voici les trois premiers épisodes (l’intro plus épisodes 1 & 2). Chaque épisode me demande une grosse semaine de travail et j’imagine que je vais devoir faire au moins une dizaine d’épisodes (voire plus en fait, je ne sais pas trop à ce stade). Je vous proposerais donc les épisodes sur ce blog au fur et à mesure de leur production. Commençons par le commencement, voici les trois premiers, j’espère qu’ils vont vous intéresser !
Depuis la trop fameuse “crise sanitaire” qui était, en réalité, une “expérience sociale d’obéissance à grande échelle” (relisez ces mots, ils sont lourdement significatifs…) comme le souligne le rapport récent publié par le CNRS (je n’invente rien, hélas, allez le lire !), nous vivons dans un déferlement de propagande qui rappelle des heures sombres des deux premières mondiales (avec toutes les exagérations, les dramatisations et, disons-le, les mensonges qui accompagnent inévitablement les opérations de propagandes, quel qu’en soit le camp d’origine).
Nous avons pu constater que les médias sociaux comme YouTube, Facebook, Twitter et Linkedin (pour ne nommer que ceux-ci) ont pratiqué et pratiquent encore (sauf pour Twitter depuis qu’il est devenu X) une censure à grande échelle, arbitraire (oui, je sais, c’est le propre de la censure mais je crois nécessaire d’insister) et impitoyable. On pouvait penser que, du côté des médias de “divertissement” cela serait différent. Eh bien, je viens de réaliser qu’il n’en était rien et que Netflix fait partie de la bande sans aucun complexe.
En effet, il suffit de regarder le documentaire “Turning Point : l’arme nucléaire et la guerre froide” pour s’en rendre compte. J’ai rarement pu voir un contenu aussi dégoulinant de propagande que ce truc…
Pour s’en convaincre, il suffit de regarder qui est interrogé : le clown Volodymyr Zelensky et l’horrible Condoleezza Rice (j’espérais bien ne plus jamais revoir cette harpie…). Je vais vous résumer rapidement ce “documentaire”, ça vous évitera un visionnage pénible : la guerre froide a commencé à cause des Russes a heureusement été gagnée par ces nobles américains et c’est l’affreux Poutine (souvenons-nous que Poutine, c’est le diable… un petit rappel toujours utile) qui l’a réenclencha en envahissant l’Ukraine, point final.
Si, à ce stade, il n’y a rien qui vous dérange dans cette simplification historique express… Hé bien, je ne peux rien pour vous et vous vous êtes trompé de blog.
Dans quelques mois, il y aura de nouveau des élections présidentielles aux USA… et c’est un rematch Trump-Biden !
Trump, encore ?
Cassons le suspense tout de suite : Trump va être élu, largement. En fait, il serait plus exact d’écrire qu’il va être réélu… Comment puis-je en être convaincu ?
Eh bien, c’est simple, si les démocrates persistent à vouloir aligner Biden de nouveau, c’est sûr, ils vont perdre. On pourrait remplacer Biden par Kamala Harris (la VP actuelle) par exemple, mais ce serait encore pire vu la popularité (méritée) de cette dernière. Les démocrates veulent se tirer un balle dans le pied mais pas à ce point !
Cependant, difficile de faire pire que Biden (merci pour la guerre en Ukraine, Joe !) et Trump, au moins, ne provoque pas de nouvelle guerre quand il est au pouvoir…
Maintenant que la montée de Trump apparaît comme inéluctable, les médias “bien-pensants” s’affolent : “Trump est un monstre”, “Trump est le diable” et j’en passe… Bizarre, je pensais que c’était Poutine qui était “LE” diable… Il y en aurait deux finalement ?
En effet, le 7 avril 1964 (je suis en retard de quelques jours !), IBM annonce enfin le système 360, la gamme 360 et c’est un événement énorme !
Revenons sur cet épisode, il le mérite bien…
Situation chaotique chez IBM
Au début des années soixante, IBM est dans une situation délicate. En effet, son activité informatique commence à vraiment prendre de l’ampleur (chez IBM, le chiffre d’affaires généré par les ordinateurs dépassa celui des tabulatrices mécanographiques en 1962), mais la situation est chaotique : en effet, IBM ne produit pas moins de sept modèles d’ordinateurs différents en 1960. Ce fractionnement de l’offre vient de la politique commerciale qui consiste à adresser chaque marché séparément, à les traiter comme des niches distinctes.
De plus, avant 1960, les connaissances des besoins, des modes d’utilisation, des technologies et de leur évolution future n’étaient pas suffisantes pour définir des standards qui auraient pu servir de base à une famille d’ordinateurs universels compatibles. Et IBM a toujours encouragé la concurrence interne en matière de développement. La politique commerciale d’IBM a toujours été de coller au plus près de chaque marché, mais sa politique technique a toujours été de le faire avec le moins de matériels différents possibles (ce qu’elle n’a pas toujours été capable de faire d’ailleurs).
IBM, un géant éparpillé !
Sur le plan industriel, IBM ne tirait alors aucun bénéfice de sa taille puisque chaque type de machine était assemblé avec des composants différents. Pas moins de 2 500 circuits électroniques distincts sont fabriqués cette année-là (en 1960) pour ces ordinateurs, tous différents et qui n’ont presque rien en commun. Idem pour les périphériques.
La division ordinateurs d’IBM de cette époque ressemblait à une fédération de PME, chacune travaillant dans son coin avec ses propres équipes (tout était dupliqué : études, fabrication, marketing et même forces de vente !) sans aucune coordination ni même l’embryon d’une politique commune.
Non seulement le problème était bien présent au niveau matériel, mais il était encore plus aigu au niveau logiciel : la prolifération des lignes d’ordinateurs avait engendré la multiplication des combinaisons logicielles associées. Les équipes de programmeurs d’IBM étaient submergées par la nécessité d’écrire et de réécrire les systèmes d’exploitation et les applications pour les différentes familles de systèmes et il paraissait clair qu’à brève échéance, cette situation n’était pas tenable.
À côté de cela, la division mécanographique était bien mature et alignée sur la série 400 qui satisfaisait l’ensemble des clients. La rationalisation de la production de la série 400 avait réduit les coûts à un point tel qu’IBM n’avait plus vraiment de concurrence sur le marché des machines de bureau à cartes perforées.
La question de la migration fragilise la position de “Big Blue”
Le problème du fractionnement des gammes de systèmes touchait aussi les clients. Les ordinateurs ciblaient leurs niches de façon si étroite qu’il n’était pas possible d’étendre les capacités d’un système plus que d’un facteur deux. Donc, quand une société avait besoin d’accroître son système informatique au-delà de cette limite, elle n’avait pas d’autre choix que de changer de type de machine. Mais, bien sûr, ce passage d’une gamme à l’autre impliquait forcément la réécriture des applications (toutes !) précédemment développées…
Cette migration coûtait souvent aussi cher sinon plus que le nouvel ordinateur. Et si les clients devaient changer de système complètement, ils pouvaient tout aussi bien changer de fournisseur sans augmenter l’impact négatif puisque tout était à refaire de toute façon… La direction d’IBM comprit bien qu’il y avait là un danger potentiel à tous les niveaux qu’il fallait adresser au plus vite. La solution : le concept de famille de systèmes compatibles.
Le défi d’un “système universel”…
Tous ces éléments poussaient IBM à adopter le concept d’une famille de systèmes compatibles au plus tôt. Mais, dans le cas d’IBM, c’était un challenge encore plus considérable que pour ses concurrents. Tout d’abord à cause du large spectre représenté par les clients de la compagnie. Un système “universel” devait convenir et s’adapter à toutes les tailles et à tous les secteurs.
Un vrai défi tant sur le plan matériel (une gamme étendue était nécessaire, mais cela concernait aussi les périphériques qui devaient être communs à toute la gamme de systèmes) que sur le plan logiciel (tous les logiciels devaient être capables de tourner sans aucune modification de la plus petite machine au plus gros mainframe… Sinon, le concept de famille compatible n’avait pas de sens). Ensuite parce que le fractionnement des systèmes au sein d’IBM avait aussi entraîné un fractionnement des intérêts… Des baronnies s’étaient créées et il y avait beaucoup de résistances au sein même de la compagnie pour faire “tomber les murs” et travailler enfin ensemble.
Un groupe de travail pour sortir de l’impasse : le SPREAD
En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera finalement englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Un projet secret et de grande ampleur
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : cinq milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 ! Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré, mais la nouvelle “salle blanche” allait demander plus de $450 pour la même surface !), mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.
IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un “quitte ou double” pour la compagnie, mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 1963, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ? La première option était spectaculaire et assurait un impact maximum, mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était la meilleure vente de Big Blue à ce moment-là) ! Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…
L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 (déjà évoqué dans le chapitre un) qui avait pour particularité d’être entièrement compatible avec l’IBM 1401. Le H200 était entièrement compatible avec le 1401, mais en utilisant une électronique plus avancée, Honeywell obtint un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique ! L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
Le H200 d’Honeywell…
Une ultime hésitation avant le grand saut
En dépit de l’effort titanesque effectué par la compagnie sur le “new product line” (“la nouvelle ligne de produits”, nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à “mettre le paquet” sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs (les journalistes parlèrent du “projet Manhattan de l’informatique” pour qualifier le projet 360 qui, il est vrai, représentait le plus gros investissement privé de l’Histoire !).
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle comprenait 40 modèles de périphériques, dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail, mais bien un ajout intelligent permettant à la base installée de “glisser” en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Une des brochures vantant l’IBM 360
Pari risqué, pari gagné !
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de cinq milliards de dollars, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme “l’ordinateur fait par IBM qui a fait IBM” et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant trente ans et a défini l’architecture de base des mainframes jusque dans les années 2000 !
Thomas Watson jr posant devant le 360…
Avancée mais pas trop…
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du système 360 résidait dans son système d’exploitation, OS/360, dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai), mais, de toute façon, le traitement par lots représentait encore probablement plus de 95% de l’informatique de l’époque !
Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre (The Mythical Man-Month) toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.
Fred Brooks en conférence…
Loi de Brooks : ajouter plus de programmeurs à un projet en retard ne fera que le retarder plus encore…
Ce quasi-fiasco a été très documenté (et pas seulement dans le livre de Brooks), car c’était la première “horror-story” qui concernait le logiciel, une “matière” encore relativement nouvelle à cette époque.
Mais comme le développement de ce projet avait tout de même coûté fort cher, IBM entendait bien rentabiliser un maximum cette opération et pour cela, il n’était pas encore question de miniaturiser les machines ni de faire profiter les clients des formidables avancées réalisées lors de ces années de progrès rapides. En effet, comparé à l’IBM 650 (mis sur le marché en 1954), le 360/30 arrivé dix ans plus tard avait 66 fois plus de mémoire et fonctionnait 43 fois plus vite. Le coût relatif à l’exécution d’une instruction avait diminué d’un facteur 40… Pourtant, les ordinateurs de Big Blue étaient tout de même devenus plus chers : en 1955, un mois de location d’un 650 coûtait $3500 alors qu’en 1965, un mois de location d’un 360/30 revenait à $7000… Mais l’immense majorité des clients n’était pas capable de faire cette comparaison et réclamait toujours plus de puissance, pas des petites machines moins chères.
Abonnez-vous à notre liste d’e-mailing et obtenez des astuces intéressantes et les mises à jour dans votre boîte e-mail.
Merci pour votre abonnement.
Quelque chose s’est mal passé.
nous respectons votre vie privée et prenons au sérieux sa protection
Ce site web utilise des cookies pour améliorer votre expérience. Nous pensons que vous êtes OK avec ça mais vous pouvez aussi rejeter cela...AccepterRejeterEn savoir plus
Politique de confidentialité
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.