Un test (rapide) de la nouvelle version de Project Motor Racing 1.5.0.5

Depuis sa sortie calamiteuse, Project Motor Racing (PMR) multiplie les mises à jour mais sans réussir à vraiment remonter la pente. Il faut dire qu’il y a beaucoup à faire tant la déception a été à la hauteur des attentes… Est-ce à dire qu’il s’agit d’une cause perdue ?

Pas forcément. Rappelez-vous de « No Man’s Sky« … La sortie en 2016 avait été très mauvaise mais, au fil des années, le titre a su se corriger et devenir très apprécié. PMR peut-il suivre le même chemin ?

Eh bien, très clairement, il reste encore beaucoup-beaucoup d’efforts à faire et la route va être longue, très longue. Hier, l’éditeur de PMR a proposé la version 1.5.05 avec une liste de modifications et de correction longue comme le bras… Et, bien sûr, j’ai testé cela.

Direction Daytona avec une Jaguar Group C. Et j’ai pas eu besoin de beaucoup de temps pour me rendre compte qu’on était encore loin d’une version « agréable ». Certes, il y a quelques progrès (le contraire serait vraiment inquiétant) comme le triple-écrans désormais supporté mais la liste de ce qui ne va pas est toujours bien trop longue.
Tiens, justement, commençons par le triple-écrans : le rétro virtuel n’est pas réglable. Donc, s’il est situé sur votre écran de droite (c’est le cas pour moi), tant pis pour vous !

Le bip n’est toujours pas géré (le bip, c’est le coup de gaz entre chaque rapport au rétrogradage). Les puristes vont me dire « t’as qu’à faire le talon-pointe, feignasse ! ». Merci pour le « feignasse » au passage mais il est clair que pour une simulation « grand-public », obliger à ce genre de manipulation est pour le moins bizarre. Mais il y a pire !
En effet, lorsqu’on accélère, le bruit du moteur semble bridé, comme s’il ne pouvait pas délivrer sa puissance, surtout dans les derniers rapports. J’ai noté que le traction-control (TC) se déclenchait presque tout le temps (ce qui est pour le moins bizarre à Daytona en 4ème ou en 5ème !!). Peut-être que le TC est trop intrusif,  supprimons-le… Aucun effet, toujours ce bruit bridé.

J’ai voulu tester une autre voiture : la Porsche 992 Cup à Donnington : le moteur semble mieux se comporter mais là, c’est le FFB qui déconne grave. Surprise, je n’arrive plus à trouver le réglage du FFB !!

C’est un des trucs gênants de PMR : les menus ne sont pas consistants et des détails de ce goût-là change d’une mise à jour à l’autre… Je vais vous la faire court : pas de miracle à attendre de cette 1.5.0.5. Le pilotage n’est pas agréable, les FPS sont limitées, l’impression générale est médiocre (au mieux). Bref, ça donne pas envie !

Il va falloir attendre encore et sans doute beaucoup à mon humble avis.

Les drapeaux jaunes sur AMS2, enfin !

Le contraste avec la toute dernière version d’AMS2 est criant !

Bonne nouvelle, le fonctionnement des drapeaux (et en particulier du drapeau jaune) semble enfin en net progrès. Bien sûr, cela demande encore pas mal de tests avant de pouvoir affirmer que cette lacune « historique » d’AMS2 est enfin comblée mais, franchement, ça semble en bonne voie.

Reste plus qu’a proposer l’enregistrement de sessions et le mode carrière et ça sera (presque) parfait…

Publié dans Sports mécaniques virtuels | Laisser un commentaire

La baisse du niveau est devenue une évidence…

Cela fait des années que j’en parle : le niveau intellectuel général s’effondre (dire qu’il baisse est trop modéré !).

Quand je disais cela il y a dix, quinze ans, je ne rencontrais que scepticisme (oh, Lefebvre, il exagère !). Désormais, hélas, c’est devenu une évidence.

Baisse du niveau, une preuve de plus…

J’ai plein d’autres articles sur le même sujet sur ce blog mais, aujourd’hui, je voudrais vous soumettre un texte rédigé en 2009 par un ami. Dans ce texte, cet ami avec « le cerveau en marche« ,

===

Qui n’a jamais entendu quelque chose du genre « Ah de mon temps c’était autre chose… » ou « Dans le temps ça ne se passait pas comme ça » etc. Depuis des siècles, peut être même depuis toujours les hommes regrettent d’une certaine façon le passé. Et de tous temps, ils pensaient que c’était « mieux avant ». Poussé à l’extrême on traite alors les gens de « réactionnaires » ! On les désigne comme des nuisibles à tout changement et donc comme des gens néfastes. Le progrès technique mais aussi « moral » et législatif est défini de nos jours comme indiscutable pour amener l’homme vers la plénitude et l’harmonie.

Mais qui peut dire de nos jours que nous sommes sur le bon chemin ? Qui peut dire que nos « progrès » actuels et notre société actuelle vont dans le bon sens ? Très franchement je crois que personne de censée ne peut penser que nous sommes sur la bonne voie.

                Nous constatons aujourd’hui cet état de fait : le niveau général est en baisse, voire en chute libre… Là où auparavant on notait des discordances entre générations éloignées, entendons par là quinze vingt ans d’écarts, on a maintenant un écart significatif entre des générations très proches, de l’ordre de cinq ans d’écart !

Là est la grande nouveauté, la terrible nouveauté dans la baisse générale de niveau. On peut comparer cela à un immense tourbillon, et là on entre au cœur du tourbillon, là où tout s’accélère. La question est de savoir si nous avons encore la force de se sortir de la spirale.

                Quand on pense baisse de niveau, on a immédiatement en tête le plus visible, ce qui saute aux yeux en premier lieu : l’éducation. En effet, comment peut on encore affirmer que l’éducation nationale, en France et à l’étranger, est efficiente ?

Chaque année les diplômes sont de plus en plus bradés, les taux de réussite battent des records, laissant imaginer que les élèves actuels (incapables d’écrire trois mots sans faute) sont meilleurs que leurs ainés ? C’est un secret de polichinelle que de dire que le baccalauréat ne sanctionne de nos jours que les élèves les plus en difficulté, on tire tout l’enseignement vers le bas. Au nom de pseudo études psychologiques sur l’enfant, avec en point d’orgue de ne surtout pas traumatiser les gosses : ne plus les noter ! Seulement les évaluer, sans sanction de résultats, pour ne pas les éduquer dans l’échec… Mais comment ces enfants feront plus tard pour évoluer dans la vie sans avoir été plus jeunes confrontés à la réalité, à savoir : parfois on est bons et on mérite une bonne note, parfois on passe à côté et c’est l’échec.

En France, les gouvernements successifs ont voulu réformer l’éducation, avec comme objectif de faire baisser le taux de chômage des jeunes. On a d’abord inventé des filières secondaires, techniques, professionnelles, en y envoyant les plus mauvais élèves. On sortait alors des bacheliers « techniques » ou « pros » mais ces filières étaient clairement des voies réservées au mauvais. Très peu d’élèves se retrouvaient dans ces filières par conviction ou envie. On a donc créer au fil du temps des sous bac, même si c’est bien évidemment interdit de raisonner comme cela par les biens pensants, qui ont amené des tas de jeunes à des niveaux scolaires faibles, pour occuper des emplois « bas de gamme ». Toute cette masse de bacheliers « seconde zone » ont entrainé une baisse irrémédiable des bacs généraux. Mon exemple personnel est simple : arrivé en seconde, les bacheliers scientifiques étaient à 65% de réussite. Trois ans plus tard, ma génération était à 85% de réussite (et croyez moi nous n’étions pas du tout meilleurs ! seulement on était parfois notés sur 24 au lieu de 20…). Quelques années plus tard, le bac était à des taux quasi « parfaits » : + de 90% de réussite…

                Comment penser que cette évolution des taux est le reflet d’une amélioration du niveau plutôt que d’une baisse de la qualité intrinsèque des diplômes ?

La baisse de niveau ne se limite pas aux grandes classes, dès les petites sections c’est un fait établi. Pour preuve, une étude menée par les services de l’éducation nationale entre 1987 et 2007 (http://media.education.gouv.fr/file/2008/23/9/NI0838_41239.pdf), montre que le niveau d’orthographe et de calcul en CM2 (sortie de primaire) a baissé, et le plus fortement entre 97 et 2007. En fait, le fait marquant est qu’en 2007, 21% des élèves sont au niveau des 10% les plus faibles de 1987. Voilà une illustration du nivellement par le bas du niveau des petits écoliers en France.

                Pour certaines personnes cette baisse de niveau n’a rien de dramatique, elle est le résultat normal de la « massification » des bacheliers, des lycéens etc… Et pour eux il est préférable de casser les élites en laissant le niveau baisser pour finalement sur un plan global, avoir plus de « diplômés ». Cette vision peut être défendue et avoir ses vertus, mais à condition de ne surtout pas sombrer à un niveau de compétences si faible qu’il annule l’intérêt même du diplôme. Dans la même optique, certains n’ont rien contre la perte d’un français convenable dans la bouche de nos jeunes, pour faire émerger un français « parlé » un peu à l’image de l’anglais américain. Pour ma part je ne suis pas du tout de cet avis. J’estime qu’il est nécessaire de garder comme base de notre culture une langue cohérente, avec des règles et des structures précises.

                La baisse de niveau ne se limite pas à la seule scolarité. En élargissant juste un peu le spectre de l’éducation nationale, on arrive à l’éducation parentale. Et là on arrive sur des notions de politesse élémentaire, et de respect. Là encore, que de chemin parcouru dans le mauvais sens !

Qui prend les transports en commun sait à quel point les valeurs basiques de politesse et de respect sont aujourd’hui réduites à néant. Passons sur le cas des jeunes (de 10 à 20 ans) qui multiplient tellement les actes à la limite de l’incivisme qu’il parait complètement illusoire de pouvoir aujourd’hui inverser la tendance pour s’attarder aux gens plus âgés, plus « mûrs » aurait on envie de dire… Là on trouve des comportements absolument incroyables. Un exemple très simple est le fait de laisser sortir quelqu’un (d’un ascenseur, d’un autobus etc) avant de rentrer soi-même. Cela paraît normal pour quiconque a reçu une éducation minimum et pourtant ce simple geste de politesse est quasiment inexistant de nos jours. Les gens se foncent les uns dans les autres dans une sorte de compétition …

D’où peut venir cette forme d’irrespect ? En fait il s’agit tout simplement des conséquences normales de l’exemple lamentable qui est aujourd’hui donné via les médias. Y a-t-il encore de la place pour le respect et la politesse au niveau télévisuel, sportif et même politique ? On peut vraiment se poser la question… L’exemple donné aux jeunes générations est affligeant. Du fameux coup de tête de Zidane (mille fois excusé), aux lamentables gesticulations politico-médiatique de nos soit disant dirigeants (voir le débat sur la chaîne publique France2 le 4 juin 2009…), en passant par la presse « people » qui encense de pseudos vedettes issues d’usines marketing grand public ou encore des rappeurs au langage très courtois…, on a face à nous un ensemble de comportements diffusés à grande échelle qui est inacceptable et dérangeant.

Et que dire du citoyen numéro actuel et qui représente la France… Souvenez-vous du salon de l’agriculture…

                Les « élites » de part un comportement proche des citoyens lambda (qu’ils revendiquent en plus) entraîne de façon évidente toute la population à multiplier et à rendre normal des comportements autrefois fustigés. Encore une fois, sans vouloir être réactionnaire, vieux jeu ou je ne sais quoi, n’est il pas nécessaire dans une communauté, dans une société qui rassemble des millions d’individus, d’avoir une souche de règles et de « reflexes » garantissant un respect mutuel ?

                Une élite loin du peuple agace, mais une élite qui se met au niveau du peuple casse de nombreux codes nécessaires malheureusement.

Baisse du niveau scolaire, éducatif et moral.

Que manque-t-il pour compléter le tableau ?

Tout simplement une baisse dans tous les domaines. Pèle mêle : architecture, industriel, alimentaire.

Architecture ? Oui, qui n’a pas vu fleurir dans sa ville des bâtiments affreux, inadéquate, voire dangereux ?

Poussés par des contraintes de coûts, des contraintes structurelles (appels d’offres ciblés par exemple), des querelles politiques, les administrations en arrivent bien souvent à privilégier tel ou tel plan d’architecte pour d’obscures raisons et qui ensuite se heurtent à l’incompréhension générale au vue du travail fini. Je prends l’exemple de travaux concernant l’hôpital. Un bâtiment en arc de cercle, idéal pour l’aménagement… Des structures « décoratives » en métal habillent la plupart des façades (le coût ?). A une époque il me semble qu’on allait plutôt à l’essentiel, des bâtiments simples, pratiques, solides et discrets. 

===

Ce texte est un inachevé, mon ami le reconnait d’ailleurs mais je pense qu’il est digne de vous être communiqué. Rappelons que ce texte date de 2009… Depuis, peut-on vraiment dire que les éléments que mon ami détaille ont vraiment évolué vers le mieux ?

Je pense qu’on est tous d’accord pour dire que non, les choses ne se sont pas améliorées. Tout au contraire, cela a empiré et souvent gravement. Il va falloir encore descendre avant de pouvoir enfin remonter.
Courage les amis, « c’est la nuit qu’il est beau de croire à la lumière » (Edmond Rostand, Cyrano de Bergerac – 1897).

Publié dans Ce blog | Laisser un commentaire

Automobilista 2 version 1.6.9.2 ou la politique des petits pas

Reiza vient de sortir sa version 1.6.9.2 de son titre Automobilista 2 (AMS2). Il s’agit là d’un ensemble de corrections plus ou moins mineures et de quelques contenus qui complètent ceux qu’on avait déjà.

Si c’est peu de choses, pourquoi en parler ?

Parce que, justement, c’est la bonne démarche pour améliorer, peaufiner un logiciel, que ce soit un jeu vidéo ou autre chose, peu importe : il faut du temps et un travail patient, acharné et rigoureux afin d’aboutir à un programme mature et performant.

Et c’est tout le contraire d’une approche « big bang » où on annonce des merveilles mais on sort vite fait/mal fait un titre pas terminé, bâclé, instable et tant pis pour les gogos qui y ont crus… Oui, je fais référence à PMR mais il y a d’autres (mauvais) exemples, hélas.

Donc, je suis particulièrement content de voir que Reiza ne cède pas à la facilité et prend son temps pour sortir une 1.7 qui fera la différence et finira d’établir AMS2 comme l’une des meilleures simulations du moment.

En attendant, les équipes de Reiza travaillent et pas à pas (la fameuse « politique des petits pas » !) améliore AMS2 dans tous les compartiments. Par exemple, l’affichage graphique est déjà bon et, en plus, il consomme peu de ressources (pas besoin d’avoir le dernier PC de la mort qui tue !). Mais ils ne se contente pas de cela et propose désormais une option appelée TAA. L’option graphique TAA (Temporal Anti-Aliasing) est une technique utilisée dans les jeux vidéo et les applications 3D pour améliorer la qualité visuelle en réduisant les effets d’aliasing (les contours crénelés ou « escalier » qui apparaissent sur les bords des objets). Comparé à d’autres techniques comme le MSAA (Multi-Sample Anti-Aliasing), le TAA est moins exigeant pour le GPU.

Sur ces deux images, ont peu distinguer ce qu’apporte le TAA : rien de renversant mais du mieux quand même (surtout sur la végétation).

L’attitude « je suis patient et je progresse pas à pas » doit aussi être valable pour nous tous !

Un exemple : cette semaine, j’ai fini par régler un problème que j’avais depuis longtemps et qui m’irritait constamment… Quand je lâchais le volant de mon simulateur (un Fanatec CSL) pour ne le tenir que d’une main, j’avais alors des oscillations rapides et très gênantes. J’avais tout essayé pour supprimer ou même simplement réduire ces vibrations handicapantes mais sans résultat. Et puis, j’ai essayé le fichier de personnalisation du FFB proposé par Danielkarts et là, miracle, plus rien !

Non seulement le FFB est meilleur (un peu meilleur mais on prend !) et, en plus, les oscillations ont disparues, même si je lâche le volant des deux mains (en ligne droite bien sûr !), un vrai progrès !

Sur mon simulateur, j’essaye d’appliquer cette méthode : patience ET détermination. Les problèmes finissent toujours par se régler si on accepte d’y passer un peu de temps et si on accepte d’attendre (le lâcher prise !) que la solution vienne d’elle-même. Pareil pour les évolutions : privilégiez le pas à pas ^lutôt que de vouloir tout changer d’un coup (c’est pour cela que je garde mon « vieux » Fanatec CSL car il me donne satisfaction… Pourquoi changer, uniquement pour se conformer à la mode actuelle du « direct drive » ?

Non, il faut savoir raison garder et prendre les choses une à une.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Enfin un nouveau livre : la déception informatique !

Je n’avais pas publié de nouveau livre depuis novembre 2023 (oui, le dernier en date est Dr Miracle – saison 1972…) !

Bon, je n’étais pas resté inactif en 2024 et 2025 puisque j’avais publié mon « Histoire de l’informatique moderne en vidéo » (33 épisodes quand même…).

Mais là, cette période est enfin terminée car voici un nouvel ouvrage : La déception informatique… De quoi s’agit-il ?

Justement, j’ai préparé une petit vidéo de présentation pour vous éclairer à ce propos :

Ce livre est déjà disponible sur Amazon, que ce soit en version Kindle ou papier. Mais ce n’est pas tout !

En effet, vous pouvez aussi l’avoir gratuitement et le télécharger en version Epub ou en version PDF… C’est y pas beautiful ?

Publié dans Informatique, Mes livres | 2 commentaires

Hydrogène : la grande désillusion ?

Il y a trois/quatre ans, je dois avouer que la mode en faveur de l’hydrogène (l’hydrogène pour ceci, hydrogène pour cela, l’hydrogène nous sauvera tous !) m’énervait prodigieusement !

Il semble que, désormais, cette mode (absurde) soit enfin derrière nous.

https://france3-regions.franceinfo.fr/centre-val-de-loire/hydrogene-la-grande-desillusion-en-l-espace-de-quelques-mois-les-abandons-de-projets-se-multiplient-3124186.html

https://www.bienpublic.com/economie/2025/12/19/on-abandonne-l-hydrogene-francois-rebsamen-acte-la-fin-d-un-projet-pharaonique

https://www.caradisiac.com/stellantis-abandonne-brutalement-l-hydrogene-216844.htm

Je ne suis pas surpris puisque voilà ce que j’en disais dans mon livre « le fait technique » :

====

La folie de “l’hydrogène vert” !

En ce moment, c’est la folie en faveur de l’hydrogène « vert » : la propagande technique, jamais avare d’une nouvelle mode, aussi absurde soit-elle s’est trouvé un nouvel idéal et c’est l’hydrogène. Oui, l’hydrogène est la solution, l’hydrogène va nous sauver, l’hydrogène est le nouvel horizon vers lequel tout converge, alléluia !

Cela ne vous aura pas échappé : l’hydrogène est devenu une priorité absolue dans toute politique de transition énergétique. Les grands industriels multiplient les communiqués de presse à ce propos : l’hydrogène est désigné comme un nouvel eldorado.

Pourquoi un tel enthousiasme ? Tout simplement parce que les gouvernements ont donné le signal de la ruée vers l’hydrogène en ouvrant largement la bourse aux subventions en tous genres. Les montants annoncés au second semestre 2020, pour la décennie entière, sont de taille : l’Allemagne et les Pays-Bas ont calibré leur plan à 9 milliards d’euros, l’Espagne à 8 milliards, le petit Portugal à 7 milliards, et la France à 7,2 milliards.

Mardi 25 mai 2021, le géant chinois Sinopec prenait la relève en dévoilant un projet de centrale d’hydrogène vert basée à Ordos en Mongolie.

Un exemple parmi cent pour illustrer cette “ruée vers l’or” (un or issu des fonds publics surtout…)  : McPhy Energy a révélé récemment que sa “gigafactory” d’une capacité de 1 gigawatt se situerait à Belfort. Cette usine vouée à fabriquer des électrolyseurs de grande taille, permettant de produire de l’hydrogène d’origine renouvelable par électrolyse de l’eau, coûtera entre 30 et 40 millions d’euros, partiellement financés par des fonds publics (le communiqué de McPhy Energy comporte d’ailleurs les commentaires de deux ministres de Bercy : Bruno Le Maire pour l’Économie et Agnès Pannier-Runacher pour l’Industrie), dans le cadre d’un mécanisme européen visant à déplafonner les aides d’État (source : Les Échos).

En théorie, c’est merveilleux

Cet enthousiasme est-il vraiment appuyé sur des données scientifiques sûres ?

En théorie, oui. Avec 92% de la masse des atomes connus, c’est tout simplement l’élément (H) le plus abondant de l’univers. Aujourd’hui, il est utilisé principalement dans la production d’ammoniac ou le raffinage de produits pétroliers et de carburants (demandez à la société Air Liquide qui en est un des principaux producteurs). La production actuelle culmine à 74 millions de tonnes, qui ne pèsent pas lourd face aux promesses futures. La combustion de la forme moléculaire de l’hydrogène H2 produit 3 fois plus d’énergie que l’essence à poids égal. Plus important encore : cette combustion ne produit que de l’eau… Une énergie abondante et non polluante, c’est le rêve !

En pratique, un peu moins…

Comme d’habitude, la propagande met en avant des éléments très exagérés pour ne pas dire honteusement déformés. Mais comme le grand public n’a aucune culture technique (alors que nous vivons dans une société où la technique domine tout !), ça passe. Car, en face des espoirs d’un hydrogène solution miracle à tous nos problèmes énergétiques, les freins sont tout aussi importants. L’hydrogène est difficile à stocker et à transporter. De plus, seulement 5% de l’hydrogène produit est réellement décarboné, la production s’appuyant encore aujourd’hui à 95% sur l’utilisation de ressources fossiles polluantes. On voit qu’on est encore loin, très loin d’un hydrogène “vert” comme on nous le promet…

L’hydrogène, pour quoi faire ?

Pour comprendre pourquoi l’usage de l’hydrogène comme énergie relève de l’utopie, voyons d’abord quels sont les principaux usages mis en avant par la propagande technique actuelle.

En premier lieu, il y a les transports. En effet, difficile d’imaginer qu’un avion de ligne puisse être propulsé par des moteurs électriques, mais en y brûlant de l’hydrogène, pourquoi pas… Seulement, quand on pense “transports”, on pense tout de suite à notre chère automobile, forcément !

Là, l’hydrogène est positionné en sauveur : il permettra de conserver la mobilité individuelle tout en réduisant drastiquement la pollution. Génial non ?

Les avantages sont nombreux et séduisants : aucune pollution à l’usage, un plein en moins de cinq minutes et pas les prises de tête de l’électrique à batterie pour trouver une borne fonctionnelle, avant de patienter 20 minutes pour récupérer de quoi faire Lyon-Valence (exemples vécus !).

L’hydrogène pourrait aussi servir de carburant “vert” pour les locomotives, les bateaux et les camions. Ensuite, l’autre grand usage proposé réside dans le stockage d’énergie. En effet, les énergies alternatives présentent un gros défaut : elles sont intermittentes. En clair, le vent ne souffle pas forcément pile au moment où l’on a besoin de produire de l’électricité avec une éolienne. Pas besoin de l’expliquer pour le solaire, c’est encore plus évident (surtout la nuit !). Le raisonnement est donc le suivant : puisqu’on produit de l’énergie avec l’éolien et le solaire, mais pas forcément au bon moment, stockons-là pour en disposer quand on en aura besoin… ça paraît tout simple. Le hic c’est que, justement, ce n’est pas un problème simple à traiter.

Comment stocker l’énergie ?

On a d’abord pensé à stocker l’électricité produite dans des batteries. Mais il en faut beaucoup, elles sont coûteuses, elles sont difficiles à recycler et elles ont une durée de vie limitée. De plus, l’électricité stockée ne reste pas dans les batteries indéfiniment… Même sans tirer dessus, la batterie se vide, petit à petit, inexorablement. Bref, même si les batteries progressent de plus en plus depuis quelques années, ce n’est pas un moyen durable de stocker l’énergie intermittente. Il faut trouver autre chose et de nombreuses start-up proposent des solutions techniques diverses. Cela va des volants inertiels aux stations de transfert d’énergie par pompage (STEP) qui utilisent la gravité de l’eau sans oublier les tours qui empilent des blocs de béton. Cela ressemble au catalogue des inventions du concours Lépine, mais c’est très sérieux en fait (enfin, pas toutes les solutions proposées tout de même !). En revanche, ne vous attendez pas à des rendements très élevés…

Le problème du rendement énergétique

Je ne vais pas vous assommer avec les lois de la thermodynamique et du principe de Carnot… Il suffit d’admettre que, lors d’une transformation ou conversion, toute l’énergie entrante n’est pas transformée en énergie souhaitée à la sortie, il y a des pertes et le rendement est toujours inférieur à 100%. En gros, quand on utilise de l’électricité pour réaliser l’électrolyse de l’eau (par exemple), 100% de l’énergie utilisée ne va pas pouvoir produire 100% d’équivalent en hydrogène à l’issue de ce processus. On sait que le rendement énergétique de l’électrolyse de l’eau peut varier de manière importante. La gamme de rendements varie de 50 à 70%. Donc, si vous utilisez 100 KW d’électricité pour pomper l’eau d’une rivière et la faire monter dans un bassin en hauteur, faire le contraire (laisser tomber cette eau sur une turbine afin de générer de l’électricité) ne va PAS vous restituer 100 KW, mais seulement 70 (certains dispositifs promettent mieux que cela, mais restons sur une base de 30% de perte à chaque transformation, ça sera plus raisonnable), dans le meilleur des cas.

Pour en revenir à l’utilisation de l’hydrogène pour les transports (et l’automobile en premier lieu), quand bien même l’opérateur se servirait d’énergie renouvelable (hydroélectrique, éolien, photovoltaïque), il y a cette équation simple : pour produire de l’hydrogène, on se sert de l’électricité du réseau. Une fois l’hydrogène produit, il est injecté dans une pile à combustible pour produire à nouveau… de l’électricité. Le problème, c’est que toutes ces opérations ruinent le rendement de la chaîne (rappel : il y a des pertes à chaque étape). N’aurait-il pas été plus judicieux de se servir directement de l’électricité du réseau au départ pour « l’injecter » directement dans un véhicule électrique à batterie, ou bien dans d’autres secteurs ?

En termes de rendement global de la chaîne, il y a clairement mieux que l’hydrogène…

Un scénario catastrophe pour l’hydrogène

Certains promettent que l’hydrogène va être “tout pour tous”, mais généraliser cet usage au transport automobile (par exemple) va se révéler plus difficile qu’annoncé. Voici un scénario imaginé par le site Leonard (source https://leonard.vinci.com/la-ruee-vers-lhydrogene/) :

Elon Musk, qui déclarait dès 2014 que les piles à combustible sont “stupides”, peut jubiler. Les grands constructeurs automobiles ont finalement favorisé la batterie classique – dont les rendements ont progressé bien plus rapidement – à la pile à combustible. Les 280 milliards de dollars qu’il aurait fallu mobiliser pour faire passer l’hydrogène à l’échelle dans la mobilité  (estimation de l’Hydrogen Council en 2017) sont loin d’être atteints. Les coûts faramineux d’installation des pompes à hydrogène ont découragé les collectivités.

Il faut compter autour de 500 millions de yens (3,9 millions d’euros) par unité, soit quatre fois plus que pour la construction d’un distributeur à gaz. Même si les autorités vont largement subventionner les travaux (jusqu’à 80% à Tokyo !), les industriels risquent de réfléchir à deux fois avant de se lancer dans la construction d’un nouveau réseau parallèle aux stations classiques, qui quadrillent déjà bien le territoire. Une station d’hydrogène requiert des lieux de stockage, des machines pour compresser, refroidir et liquéfier le gaz à -40°C pour faire le plein.

Le prix des véhicules (une Toyota Mirai coûte 80 000€ en 2019) a refroidi les ardeurs des consommateurs. Dans l’opinion publique, les technologies liées à l’hydrogène restent confidentielles ou dangereuses. L’explosion d’une pompe en Norvège en 2019 a freiné pour un temps les livraisons de véhicules équipés. L’hydrogène pourrait ajouter son nom à la longue liste des succès technologiques soldés en échecs commerciaux.

On le voit, le site Leonard se situe plutôt à contre-courant de l’euphorie ambiante sur l’hydrogène. Mais, en creusant bien, on trouve de plus en plus de ces “voix discordantes” qui tempèrent les espoirs en un “hydrogène-solution-universelle” : “Les carburants à base d’hydrogène en tant que solution climatique universelle pourraient être un peu des fausses promesses. Bien qu’ils soient merveilleusement polyvalents, il ne faut pas s’attendre à ce qu’ils remplacent largement les combustibles fossiles. Les carburants à base d’hydrogène seront probablement rares et non compétitifs pendant au moins une autre décennie” déclare Falko Ueckerdt, l’auteur principal d’une étude sur les usages de l’hydrogène réalisée par le Potsdam Institute for Climate Impact Research.

Source https://www.pik-potsdam.de/en/news/latest-news/hydrogen-instead-of-electrification-potentials-and-risks-for-climate-targets

Quelques voix commencent à s’élever…

Dans le concert de louanges vis-à-vis de l’hydrogène, il y a tout de même quelques “avis autorisés” comme celui d’Elon Musk qu’on vient d’évoquer (encore que, le PDG de Tesla peut être soupçonné de ne pas être objectif lui qui joue à fond le pari de la voiture électrique alimentée par des batteries…) ou d’Herbert Diess, PDG de Volkswagen qui sont plus que sceptiques. Dans un billet de blog en 2019 (sources https://www.volkswagenag.com/en/news/stories/2019/08/hydrogen-or-battery–that-is-the-question.html#), Volkswagen détaillait déjà sa position par rapport à la voiture à hydrogène : avec les voitures électriques alimentées par batterie, seuls 8% de l’énergie sont perdus pendant le transport avant que l’électricité ne soit stockée dans les batteries des véhicules. Lorsque l’énergie électrique utilisée pour entraîner le moteur électrique est convertie, 18% supplémentaires sont perdus. Cela confère à la voiture électrique à batterie un niveau d’efficacité compris entre 70 et 80%, selon le modèle.

Avec la voiture électrique à hydrogène, les pertes sont nettement plus importantes : 45% de l’énergie est déjà perdue lors de la production d’hydrogène par électrolyse. Sur ces 55% restants de l’énergie d’origine, 25% supplémentaires sont perdus lorsque l’hydrogène est converti en électricité dans le véhicule. Cela signifie que la voiture électrique fonctionnant à l’hydrogène n’atteint qu’un rendement compris entre 25 et 35%, selon le modèle.

Citant une étude du cabinet de conseil Horváth & Partners, Volkswagen estime que le coût global pour le consommateur serait de 2 à 7 euros les 100 kilomètres pour la voiture électrique, contre 9 à 12 pour la voiture à hydrogène.

Des éléments objectifs qui disent non…

Le dilemme est là : plus souvent vous faites des transformations (passer d’une forme d’énergie à une autre) et moins le rendement final est bon. Or, dans le cas de l’hydrogène, vous êtes obligés de procéder à ces transformations, car il s’agit d’un élément qu’il faut produire, qu’on ne récolte pas à l’état naturel sur la Terre (pas de mine et peu de poches d’hydrogène dans la nature sauf au fond des océans sous certaines conditions…).

Il existe deux manières de produire de l’hydrogène : soit en utilisant un sous-produit de l’industrie pétrolière (99% de la production d’hydrogène actuelle, mais inacceptable dans le contexte tant vanté de la “transition énergétique”), soit en réalisant l’hydrolyse de l’eau (H2O) en utilisant de l’électricité (1% de la production d’hydrogène actuelle, car cela coûte très cher) pour séparer les deux atomes d’hydrogène de l’atome d’oxygène. Ce type d’hydrogène quand il est produit avec l’aide d’énergie renouvelable est appelé “hydrogène vert”. Actuellement “l’hydrogène vert” est commercialisé à 15 € le kg (par Air Liquide). Avec 1kg, une voiture à hydrogène parcourt environ 100 km, je vous laisse faire le calcul pour situer le niveau du problème…

De plus, l’hydrogène est un gaz qui est difficile à stocker, car ses atomes sont tellement petits et légers qu’ils se faufilent partout et il nécessite d’importants moyens techniques pour le stocker à température basse et à très haute pression. Le prix de stockage et de transport de l’hydrogène sont beaucoup plus élevés que celui du gaz de ville ou du diesel. Par exemple, pour faire un trajet de 600 km en voiture, il faut un réservoir de 40 kg de gasoil, mais il faut un réservoir de 250 kg d’hydrogène (c’est surtout l’enveloppe qui coûte cher et pèse très lourd pour maintenir l’hydrogène à 700 Bars, soit la pression qu’on retrouve à 7 000 m sous les mers). Donc, ce réservoir lourd et coûteux perd entre 1% et 5% de son contenu tous les jours… pas terrible !

Sans oublier que l’hydrogène est un produit explosif dont la manipulation exige des précautions très particulières que seule l’industrie maîtrise pour le moment. Quand on se rappelle combien les voitures utilisant le GPL ont été rapidement bannies des parkings souterrains pour cause de dangerosité, on se dit que la généralisation de l’hydrogène pour l’automobile va être vraiment difficile.

Récapitulons les inconvénients de l’hydrogène : difficile à produire (surtout s’il doit être “vert”…), difficile à stocker (et à conserver !), difficile à ravitailler (car dangereux)… N’en jetez plus !

On peut donc l’oublier pour la voiture individuelle. Tout simplement parce que, sur une voiture, la place manque, et le(s) réservoir(s) se doivent d’être compacts. Il faut donc comprimer fortement l’hydrogène, y compris dans son transport et son stockage. Et tout ceci consomme à nouveau de l’énergie. Les réservoirs d’un navire, ou bien d’un camion sont plus grands et nécessitent moins de compression et donc moins d’énergie en amont. Le bilan est ainsi amélioré. Citons à nouveau l’étude de VW : l’hydrogène ne pourra être utilisé que dans des niches, dans les camions et les bus, et sur de longues distances. Le poids de la batterie, l’autonomie et le temps de ravitaillement jouent ici un rôle décisif. Il augmente considérablement avec l’augmentation de la capacité, ce qui rend les batteries inintéressantes, même pour les camions. En outre, les stations-service de camions existantes pourraient être converties en un réseau de stations-service d’hydrogène avec un effort gérable en raison de leur nombre plus faible.

L’hydrogène pour les « gros », donc, et les batteries pour les transports individuels.

Difficile dans ces conditions de comprendre pourquoi il y a un tel enthousiasme pour cette nouvelle mode (à part l’effet d’aubaine des plans gouvernementaux… ceci explique cela). Je ne suis pas en train de dire que l’hydrogène ne sera jamais utilisé comme énergie dans l’avenir, simplement que ça va prendre plus de temps et d’efforts qu’annoncé, comme toujours.

===

Pour finir, une petite synthèse compliéée par Perplexity…

Plusieurs articles et rapports récents commentent le recul ou l’abandon de projets hydrogène en France et en Europe, en insistant surtout sur le coût, les échecs industriels et le manque d’efficacité énergétique.h2-mobile+2

Articles sur des projets abandonnés

  • Dijon Métropole a officiellement renoncé à ses bus à hydrogène après la faillite du constructeur Van Hool et du fournisseur d’électrolyseur McPhy, la collectivité se réorientant vers l’électrique et les biocarburants.h2-mobile

  • En Bretagne, le projet Armor Hydrogène a été stoppé après le retrait de l’opérateur Valorem, ce qui illustre les difficultés de montage économique et industriel des grands projets de production d’hydrogène vert.latribune

Analyses critiques en presse généraliste

  • Le Figaro détaille la série d’abandons de projets d’hydrogène vert en France depuis 2024 (faillite de McPhy, arrêt du programme piles à combustible chez Stellantis) et parle d’objectifs « irréalistes » pour la filière au vu des coûts et des retards.lefigaro

  • Le magazine Epsiloon consacre un dossier intitulé « Hydrogène, la fin d’un rêve industriel » qui insiste sur le coût très élevé pour les industriels et collectivités, entre investissements de départ et prix du kilo d’hydrogène bas carbone.epsiloon

Rapports institutionnels et études

  • La Cour des comptes française publie un rapport très sévère sur la stratégie nationale hydrogène, dénonçant des objectifs de capacités électrolytiques jugés irréalistes, des aides publiques mal ciblées et un coût global pouvant atteindre 9,6 à 13 milliards d’euros d’ici 2030.techniques-ingenieur+1

  • Le site de vulgarisation luxembourgeois Science.lu met en avant la faible efficacité énergétique de l’hydrogène vert par rapport à l’usage direct de l’électricité, ce qui rend d’autres solutions souvent plus efficaces et moins coûteuses en électricité renouvelable.science

Tribunes et prises de position sceptiques

  • L’association des Climato-réalistes publie un article « L’hydrogène vert, une fausse bonne idée » qui souligne le besoin colossal d’électricité bas carbone pour décarboner les usages actuels, les coûts très supérieurs au gaz naturel et les pertes sur l’ensemble du cycle de vie.climato-realistes

  • Un article d’Autoplus explique que plusieurs constructeurs (Daimler Truck, Stellantis) stoppent ou reportent leurs programmes hydrogène, en raison d’une efficacité énergétique et de coûts jugés défavorables face au véhicule électrique à batterie.autoplus

Synthèses prospectives

  • Le cabinet de conseil Alcimed décrit un futur de l’hydrogène vert « entre doutes et opportunités », pointant le manque de compétitivité, la pression des importations extra‑européennes et les incertitudes réglementaires comme facteurs de remise en cause de nombreux projets.alcimed

  1. https://www.h2-mobile.fr/actus/dijon-metropole-abandonne-bus-hydrogene/
  2. https://www.techniques-ingenieur.fr/actualite/articles/hydrogene-vert-la-cour-des-comptes-critique-severement-la-strategie-francaise-147279/
  3. https://www.lefigaro.fr/societes/manque-d-argent-public-objectifs-irrealistes-comment-l-hydrogene-vert-souffre-des-incoherences-politiques-francaises-20251024
  4. https://www.latribune.fr/article/regions/bretagne/10729002157719/hydrogene-vert-malgre-l-abandon-d-armor-hydrogene-la-bretagne-maintient-sa-feuille-de-route
  5. https://www.epsiloon.com/tous-les-numeros/n55/hydrogene_la_fin_d_un_reve_industriel/
  6. https://www.ccomptes.fr/sites/default/files/2025-06/20250605-S2025-0104-Soutien-developpement-hydrogene-decarbone_0.pdf
  7. https://www.science.lu/fr/decarbonation/protection-du-climat-quelles-fonctions-peut-remplir-lhydrogene-quelles-sont-ses-limites
  8. https://www.climato-realistes.fr/lhydrogene-verte-une-fausse-bonne-idee/
  9. https://www.autoplus.fr/environnement/voiture-a-hydrogene/plus-un-reve-quune-realite-labandon-de-ce-type-de-motorisation-se-profile-selon-un-expert-1393031.html
  10. https://www.alcimed.com/fr/insights/hydrogene-vert/
Publié dans Ce blog | Laisser un commentaire

Reiza nous offre son Noël : la version 1.6.9 d’Automobilista 2 !

J’ai pas encore eu le temps de la tester mais voilà une bonne façon de finir l’année en beauté : la 1.6.9 d’AMS2 est disponible !

Pas de grande révolution avec cette version mais voici enfin les trois générations de NASCAR (que j’avais déjà évoqué ici) disponibles et c’est bien !

ams2-nascar-gen2.jpg

ams2-pocono.jpg

automobilista-2-nascar-80s.jpg

Mais, encore plus important pour moi, nous allons enfin avoir les drapeaux jaunes !

Bon, faut tester pour voir si la promesse est tenue et donc cette lacune (criante) enfin comblée mais c’est vraiment ce que j’aime dans la démarche de Reiza : avancer pas à pas et perfectionner « à bas bruit » AMS2 version après version… Bravo les gars.

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Après le bilan de l’année en SimRacing, voici MON bilan de l’année en SimRacing !

Dans un article précédent, j’établissais un bilan de l’année écoulée en ce qui concerne le domaine du SimRacing.

Actualités et bilan de l’année 2025 pour le SimRacing

Déjà, ce sujet est (de loin avec l’informatique, 11 articles pour cette année) celui pour lequel j’écris le plus 18 articles publiés en 2025.

L’année dernière, je vous avais déjà proposé ce type de récap…

Un bilan d’un an de SimRacing…

Cette fois, je vais faire plus concis et plus direct !

Le bilan Steam 2024

Le bilan Steam 2025

Le trio de tête reste presque identique sauf que Forza Motorsport a été remplacé par rFactor2 que je pratique encore occasionnellement.

Voici les heures cumulées des principales simulations que je pratique :

  • Automobilista 2 (AMS2) : 1459h (1197h en 2024)
  • Autmobilista 2 Beta : 177h (137h en 2024)
  • Assetto Corsa : 292h (284h en 2024)
  • Assetto Corsa EVO : 4h
  • Assetto Corsa Rally :
  • Le Mans Ultimate (LMU) : 272h (176h en 2024)
  • Nascar 25 : 13,5h
  • Heat 5 : 28h
  • rFactor 2 : 749h (708h en 2024)
  • Project Motor Racing (PMR) : 6,8h

En face de cette énumération comptable, quelques constatations : la seule simulation sur laquelle je passe vraiment du temps, c’est AMS2, point. Le reste a droit à quelques miettes. LMU progresse plus qu’Assetto Corsa et rFactor2 réunies… C’est dire !

Pour les plus récentes (AC EVO, Rally et PMR), ce n’est pas encore très significatif et c’est normal.

Je ne fais pratiquement que du offline (je roule contre les IA qui ne font pas chier et ne me reprochent rien quand je fais une erreur). Cette année, je crois que n’ai participé qu’à deux courses online (toute les deux sur LMU) et la seconde, c’est cet après-midi : une course de GT3 au Mans, qualifié 4, je termine second (sur 21). Pas grâce à ma vitesse mais juste de par ma volonté de rester sur la piste et de ne pas faire trop d’erreurs…

Les dernières actualités…

PMR et AC Rally viennent d’avoir des mises à jour alors, bien sûr, j’ai regardé ce que ça donne… Pour AC Rally, c’est toujours aussi beau et on de la neige désormais. En revanche, le triple-screen, c’est pas encore tout à fait cela.

Pour ce qui est de PMR, le radar est arrivé mais, désormais, je ne trouve plus où on peut régler le FFB (j’ai finalement trouvé mais, franchement, c’est mal foutu !) et le réglage du FOV a aussi disparu… ça ressemble un peu à « un pas en avant, deux pas en arrière » !

Publié dans Sports mécaniques virtuels | 2 commentaires

Sans doute le langage informatique le plus répandu (et donc, le plus influant) : COBOL, le vieux cheval sous-estimé !

Voici de nouveau (et là aussi !) un extrait que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

Cette fois, on se penche sur la saga du langage COBOL, un vétéran injustement sous-estimé mais qui a eu une trajectoire majeure dans notre histoire…

===

En mai 1959, le Pentagone accueille à Washington une réunion qui changera l’informatique d’entreprise pour les décennies à venir. Charles A. Phillips, à la tête du Data Systems Research Staff, rassemble une cinquantaine de personnes  : militaires, fonctionnaires, consultants et ingénieurs des plus grands fabricants d’ordinateurs. Chaque fabricant de l’époque a son propre langage, ses propres machines. Un programme écrit pour un IBM ne fonctionne pas sur un UNIVAC. Comment mutualiser les efforts dans un secteur où les applications administratives commencent à proliférer ?

De cette rencontre naît le CODASYL, un comité chargé de réfléchir aux langages informatiques. Un groupe plus restreint, le « comité court terme », reçoit la mission d’analyser les points forts et les faiblesses des compilateurs existants, principalement AIMACO (sa variante militaire), FLOW-MATIC (l’œuvre de Grace Hopper chez Remington-Rand), et COMTRAN (un projet d’IBM très théorique).

Personne ne s’attendait à ce que ce comité accouche d’un nouveau langage. Pourtant, en novembre 1959, six personnes s’enferment pendant deux semaines et en sortent avec les spécifications d’un langage qu’ils nomment COBOL  : Common Business Oriented Language. Ce document, finalisé en avril 1960, allait bien au-delà d’une simple synthèse des langages existants.

Efemerides de Tecnologia: 28 de mayo (1959) se crea CODASYL. Los ...

Grace Hopper est celle qui porte l’uniforme (c’est un amiral de la Navy!).

Le choix technique du COBOL reposait sur sa structure en quatre divisions  : IDENTIFICATION pour les informations du programme, ENVIRONMENT pour décrire l’environnement d’exécution, DATA pour structurer les données, et PROCEDURE pour les instructions. La syntaxe se rapprochait de phrases en anglais, rendant le code lisible y compris pour des non-spécialistes. Les noms de variables pouvaient compter jusqu’à 30 caractères, une nouveauté qui permettait d’utiliser des noms clairs et compréhensibles plutôt que des abréviations illisibles.

Le moment de vérité survint les 6 et 7 décembre 1960 lors d’une démonstration publique  : un même programme COBOL s’exécuta correctement sur deux machines radicalement différentes, un RCA 501 et un UNIVAC II. Pour la première fois, la portabilité du code informatique devenait réalité.

Meet Grace Hopper, the Pioneering Computer Scientist Who Helped Invent ...

Toujours Grace Hopper…

Les premières années de COBOL furent marquées par plusieurs évolutions  : COBOL-61, COBOL-61 Extended, puis COBOL-65. La normalisation ANSI arriva en 1968, suivie par d’autres normes en 1974 et 1985. La compatibilité ascendante, garantissant que les anciens programmes continueraient à fonctionner, est une caractéristique remarquable qui fut maintenue.

Le gouvernement américain avait l’exigence que tout ordinateur vendu ou loué aux administrations devait disposer d’un compilateur COBOL, et ce fut un des facteurs de succès de COBOL. Cette décision força les constructeurs à développer leurs propres compilateurs, propulsant COBOL au rang de standard incontournable dans l’informatique de gestion.

On pourrait questionner la longévité extraordinaire de ce langage né comme une solution temporaire, que plusieurs éléments expliquent. D’abord sa relative simplicité le rendait accessible aux programmeurs non académiques qui formaient le gros des équipes informatiques des entreprises. Sa lisibilité facilitait la maintenance des applications. Son orientation vers le traitement des données administratives correspondait parfaitement aux besoins du secteur tertiaire.

Face au bug de l’an 2000, le monde découvrit avec stupeur l’omniprésence de COBOL dans les rouages de l’économie. Les estimations vertigineuses montrèrent que sur les 300 milliards de lignes de code en production mondiale en 1997, environ 240 milliards étaient écrites en COBOL. Plus de 95% des données financières et d’assurance transitaient par ces programmes.

Contre toute logique apparente, COBOL traversa le cap de l’an 2000 sans perdre son importance. En 1999, plus de 50% des nouvelles applications critiques étaient encore développées dans ce langage, face à l’émergence de Java. Les projections pour 2004-2005 estimaient que 15% des nouvelles applications (5 milliards de lignes) seraient en COBOL, tandis que 80% des applications déployées constitueraient des extensions à des programmes COBOL existants.

Cette résistance inattendue trouve sa source dans les caractéristiques techniques du langage  : pas de pointeurs, des types de données élémentaires, une description détaillée des fichiers et des sorties d’impression. Ces limitations, qui pourraient sembler handicapantes pour des applications scientifiques, sont en réalité des atouts pour les applications de gestion en réduisant les risques d’erreurs catastrophiques.

Dans notre monde obsédé par l’innovation perpétuelle, parfois la simplicité et la stabilité l’emportent sur la sophistication. Un langage jugé dépassé par les informaticiens depuis les années 1970 continue de faire tourner les systèmes financiers mondiaux au XXIe siècle, démontrant que l’élégance théorique n’est pas toujours gage de pertinence pratique.

=========

« Dans notre monde obsédé par l’innovation perpétuelle, parfois la simplicité et la stabilité l’emportent sur la sophistication »… Je suis 100% d’accord !

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique | Laisser un commentaire

Le tout premier disque dur : l’IBM 350 Ramac, une histoire mémorable !

Voici de nouveau un extrait que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

Cette fois, on se penche sur la création du tout premier disque dur, maillon indispensable de la technique utilisée pour créer l’informatique moderne…

====

IBM 350 RAMAC

Le 6 mai 1955, IBM dévoile sans tapage une avancée technique qui changera à jamais notre rapport aux données. Dans un laboratoire de San José, une équipe d’ingénieurs vient de créer le premier disque dur de l’histoire. Cet appareil au nom peu évocateur pour le grand public, l’IBM 350 RAMAC (Random Access Method of Accounting and Control), marque le début d’une nouvelle ère dans le stockage numérique.

Tout commence trois ans plus tôt. En janvier 1952, W. Wallace McDowell contacte Reynold B. Johnson, un ancien professeur reconverti chez IBM. La direction souhaite établir un petit laboratoire sur la côte Ouest américaine, loin des habitudes et structures de l’Est. Johnson reçoit carte blanche pour monter une équipe limitée à 50 personnes. Sa mission consistait à explorer des voies techniques différentes, notamment l’impression sans impact et la réduction des données.

Johnson ne perd pas de temps. En quelques semaines, il loue un bâtiment vide à San José, lance le recrutement et débute les travaux. Louis D. Stevens, envoyé temporairement pour l’aider, sera finalement son bras droit technique. Dès juillet 1952, le laboratoire fonctionne avec une trentaine de collaborateurs. L’atmosphère y est particulière, façonnée par trois règles établies par Johnson  : comprendre sa machine et son usage, connaître tous les projets en cours dans le laboratoire, et toujours donner priorité à l’aide entre collègues.

Le projet qui aboutira au RAMAC s’appelle au départ « Source Recording ». Son objectif est simplement de transformer des données alphanumériques en format lisible par machine, alors que les options de stockage se comptent sur les doigts d’une main  : cartes perforées, bandes magnétiques et, plus marginalement, tambours magnétiques. Ces supports présentent tous des limitations, rendant les processeurs souvent inactifs pendant la recherche d’information.

À l’automne 1952, l’équipe s’intéresse aux « fichiers bac » de cartes perforées très répandus dans les entreprises. Ces grands casiers rectangulaires contiennent des cartes classées par numéro de client ou d’article. Les employés y fouillent manuellement pour produire factures et bons de livraison, un processus lent et sujet aux erreurs.

Après avoir exploré diverses pistes, Johnson prend en janvier 1953 une décision audacieuse qui suscite l’incrédulité  : concentrer tous les efforts sur les disques magnétiques. Un ingénieur lui prédit un échec cuisant, et le projet hérite du surnom moqueur de « trancheuse à saucisson ».

Les problèmes techniques semblent insurmontables. Maintenir un écart microscopique entre la tête de lecture et la surface tournante, créer des surfaces parfaitement planes, développer un revêtement magnétique fiable… La liste paraît sans fin. L’équipe teste différents matériaux  : aluminium, laiton, verre, plastiques, magnésium. Les disques en aluminium se déforment à grande vitesse. La solution vient finalement de stratifiés d’aluminium compressés et chauffés au-delà du point de recuit. Le revêtement magnétique pose un autre casse-tête. Jake Hagopian trouve une méthode artisanale  : verser le revêtement sur la face interne d’un disque en rotation rapide. Bill Crooks l’améliore en filtrant la solution à travers du nylon et en utilisant… des gobelets en papier pour les mesures. Cette technique rudimentaire sera utilisée pendant un an avant d’être automatisée. Norman Vogel résout quant à lui le problème de la tête de lecture-écriture. Il conçoit un système qui rétracte la tête pendant le mouvement entre les disques, avec trois mini-pistons pneumatiques pour contrôler la position.

Le 10 février 1954, le premier transfert d’information entre cartes et disques est réussi. Le prototype ressemble à une machine abracadabrante, mais l’équipe persévère. Une refonte complète aboutit au Modèle II, avec comme innovation le passage à un axe vertical pour les disques, facilitant leur remplacement et laissant plus d’espace pour les mécanismes d’accès.

Le 10 janvier 1955, moins de trois ans après la création du laboratoire, le premier Modèle II du RAMAC 350 est présenté avec succès. Le système est commercialisé en septembre 1956, intégré au système IBM 305 RAMAC qui comprend processeur, lecteur de cartes et imprimante.

Father of the world’s first commercial computer disk drive’ Reynold B. (Rey) Johnson, stands outside the IBM 305 RAMAC in 1960 (Image credit: IBM).

Les caractéristiques du RAMAC 350 étaient sans précédent. Cinquante disques de 61 cm tournant à 1 200 tr/min, un débit de 100 000 bits par seconde, une capacité totale de 5 millions de caractères. La densité atteignait 2 000 bits par pouce carré, avec un temps d’accès moyen de 600 millisecondes. Pour mesurer le chemin parcouru, l’IBM 3380 des années 1980 utilisait neuf disques de 35,5 cm tournant à 3 600 tr/min, avec un débit de 24 millions de bits par seconde et une capacité de 1,25 milliard d’octets. Le coût de location mensuel par mégaoctet chuta de 130 dollars pour le RAMAC 350 à environ un dollar pour le 3380.

L’arrivée du RAMAC 350 a bouleversé notre rapport aux données. Pour la première fois, l’information devenait directement accessible sans manipulation physique préalable. Cette rupture technologique a rendu possibles les applications informatiques interactives  : réservations aériennes, gestion des stocks, services bancaires automatisés, contrôle des vols spatiaux, traitement de texte…

Cette innovation, née dans un modeste laboratoire californien, a lancé une industrie du stockage générant des milliards de dollars, et stimulé le développement des processeurs rapides et des services informatiques. En 1984, l’American Society of Mechanical Engineers reconnaît officiellement le RAMAC 350 comme jalon historique international, saluant son rôle dans l’évolution du génie mécanique et son influence sur la société du XXe siècle.

Le RAMAC marque la naissance véritable de l’ère numérique où nous vivons aujourd’hui, où l’accès instantané à l’information est devenu si naturel que nous en oublions parfois le miracle technologique qu’il représente.

Publié dans Anecdotes IT, Informatique, Livre histoire de l'informatique | Laisser un commentaire

Actualités et bilan de l’année 2025 pour le SimRacing

L’actualité du SimRacing a été intense en cette fin d’année !
Il est temps de récapituler et d’en faire un bilan.

Pour mémoire, voilà ce que je disais sur le sujet il y a un an :

Un bilan d’un an de SimRacing…

PMR loupe son entrée sur scène

Tout d’abord, nous avons eu le lancement très attendue de Project Motor Racing (PMR) qui a clairement déçu lors de sa sortie… Comme on dit « vous n’avez jamais une seconde chance de faire une bonne première impression ! ». Et dans le cas de PMR, cette première impression a été mauvaise, même avec la meilleure volonté du monde.

J’en ai parlé brièvement à sa sortie :

Project Motor Racing (PMR) : toutes premières impressions

Et, depuis, les correctifs ont commencé à sortir (mais peu de progrès apportés) et, pour finir, le studio en charge de PMR vient d’annoncer des licenciements !

Cela n’augure rien de bon et même s’il faut laisser du temps à cette simulation pour qu’elle puisse éventuellement remonter la pente, une scénario façon « No Man Skies » parait hors de portée… Only tine will tell.

Rennsport est sorti en version 1 à peu près au même moment mais je n’ai même pas pris la peine de le tester : pour moi, ce titre est un ratage majeur et il faut l’oublier.

Assetto Corsa Rally disponible en accès anticipé

Un bref (premier) essai d’Assetto Corsa Rally

Assetto Corsa Rally a fait une entrée remarquée. Révélé seulement quelques semaines auparavant lors de la SimRacing Expo 2025 fin octobre, AC Rally a été une agréable surprise en cette fin d’année. Je n’apprécie pas trop le rallye et donc, mon avis à ce propos est à prendre avec des pincettes mais il semble quand même que ce lancement soit une réussite (il n’y pas que des ratages finalement !).

EA Sports fait l’impasse sur F1 26 pendant un an

L’information la plus importante, en dehors des trois sorties de novembre, concerne la série de jeux F1 d’EA Sports. Depuis que Codemasters a commencé à développer la série en 2009, un nouvel opus est sorti chaque année – mais cette tradition prendra fin en 2026.

Au lieu de créer F1 26, EA Sports a annoncé qu’il n’y aurait pas de nouvel épisode. L’attention se porte désormais sur F1 27, « afin d’anticiper l’avenir et de préparer la suite », selon Lee Mather, directeur créatif senior.

Bon, je ne vais pas en faire une crise vu qu’il y a longtemps que je n’essaye même plus les dernières versions de ce titre qui, selon moi, a régulièrement décliné d’année en année (depuis celle de 2020, au moins !), mettant l’accent sur des futilités (pour ne pas dire des débilités !) plutôt que d’améliorer les sensations au volant qui en ont toujours (plus que jamais même !) bien besoin !

Le Mans Ultimate 1.2 : améliorations pas à pas

Studio 397 vient de rendre disponible sa 1.2. Comme je l’ai déjà dit auparavant, je ne suis pas intéressé par l’ELMS et donc, je n’achète pas les DLC qui y sont liés. Et, dans ce titre, seule l’expérience « Le Mans » m’intéresse…

24h du Mans sur LMU en full et en solo en 33 jours !

Cependant, je dois dire que la màj 1.2 apporte des progrès notables au niveau de la sensation au volant : c’est pas encore du niveau d’AMS2 (selon moi) mais c’est incontestablement mieux. Alors, certains vont dire « ouais, c’est pas grand-chose comme différence ! » et c’est vrai mais c’est pourtant bien ainsi qu’il faut procéder : l’échec spectaculaire de PMR prouve qu’il n’y pas de raccourcis possibles, que la maturation d’un titre prend des années et qu’il faut prendre son temps ou prendre le risque de se planter, voilà, c’est dit !

D’autant qu’il ne faut pas oublier que LMU s’appuie sur l’exxpérience et une partie du code de rFactor2 (qui lui remonte à 2013… excusez du peu !). Eh oui, il faut des années pour peaufiner un logiciel quel qu’il soit et c’est valable aussi pour les simulations…

LMU organise son premier événement en ligne de 24 heures
Pour clôturer le mois de novembre, LMU a organisé un nouvel événement de test en ligne. Pour la première fois dans l’histoire du jeu, il s’agissait d’une compétition de 24 heures, se déroulant logiquement au Mans.

Tout ne s’est pas déroulé sans accroc, une panne de serveur ayant perturbé l’une des sessions. L’équipe de Studio 397 a toutefois tiré des enseignements de ces problèmes. Un communiqué publié après l’événement a révélé que les développeurs travaillaient déjà à la résolution du problème et que le prochain événement de 24 heures est prévu pour janvier.

Studio397 reprend du poil de la bête car ils commencent à dire qu’ils envisagent de développer une suite à rFactor2 (qui serait donc, logiquement, rFactor3).

Assetto Corsa EVO : enfin quelques progrès mais un bilan globalement mitigé

AC EVO est également sortie en 0.4 et beaucoup ont salué une évolution enfin positive et enfin marquante. Je n’irais pas jusque-là !
Tout d’abord, oui, le titre est enfin utilisable mais je n’ai pas réussi à configurer le triple-screen (et pour un titre de cette catégorie, c’est le comble !) et cela a beaucoup limité mon envie de rouler avec… Mon avis sur AC EVO ne change pas beaucoup : il faut lui laisser du temps et on verra, dans un an (ou plus !).

J’ai pu lire ça et là que AS EVO était même moins bien qu’Assetto Corsa premier du nom. Sur le plan strictement factuel, c’est au moins en partie vrai mais, encore une fois, le premier AC a eu le temps de se bonifier sans pour autant combler toutes ses lacunes (pas de départ lancé par exemple, pas de jour/nuit ni de pluie) ni corriger tous ses défauts (les IA sont simplement nulles). Donc, il ne faudra pas que la déception compréhensible (si on attendait beaucoup de AC EVO) nous conduise à magnifier Assetto Corsa au-delà de ce qu’il est vraiment : un titre intéressant à cause de ses nombreuses modes et c’est -presque- tout.

Et les autres titres ?

Rien de nouveau à dire sur Forza Motorsport qui est maintenant dans un état de mort-vivant (ça donne pas envie d’y retourner, hein !). Globalement, ce titre a quand même été une monumentale déception après ce qui nous avait été promis… Là encore, ça s’est mal terminé : ventes en berne et licenciements (qui a dit « bien fait ! » ?).

On a aussi eu la sortie de Nascar 25

Nascar 25 sur PC, premières impressions

Mon avis sur ce titre n’a pas changé : plein de défauts et de lacunes mais, mais… Les courses sont super-prenantes !!

La preuve, j’ai déjà bouclé un championnat complet (niveau Arca, que j’ai remporté mais pas facilement car j’ai survolé certaines épreuves et j’étais aux fraises sur d’autres…). Donc, on va voir si les améliorations suivent ou si ça reste un truc moyen mais jouable.

Et, justement, on a eu un premier correctif dernièrement !
J’ai testé et je suis positif : c’est mieux. C’est mieux sur deux points : tout d’abord, graphiquement, il n’y a plus le défaut des « voitures qui volent » (les voitures qui vous précédaient étaient légèrement au-dessus de la piste… bof !). Ensuite, les sensations au volant se sont améliorées et les voitures sont un poil plus difficiles à tenir (les pneus s’usent un peu plus vite aussi, il me semble). Bref, tout cela va dans le bon sens et c’est encourageant.

Cependant, il est clair que Nascar 25 est basé sur les précédentes versions de Nascar Heat (ce qui n’est pas forcément un défaut : souvenez-vous qu’il faut du temps pour faire maturer un logiciel…) et donc, ce ne sera jamais une vraie simulation (il y a iRacing pour cela).

Finissons ce tour d’horizon par mon titre préféré : Automobilista 2 (AMS2, oui, encore et toujours !).

AMS2 : l’exemple à suivre

Reiza continue à faire progresser AMS2 régulièrement et dans le bon sens. La version 1.6.8 nous a apporté les voitures de Le Mans 2005 (avec le tracé dans sa version 2005)  et c’est un vrai bonheur à piloter !

Le Mans 2005 sur Automobilista 2, non ? Si !

Et ça ne va pas s’arrêter là car je pense que, prochainement (avant la fin de l’année ?), nous allons avoir les trois générations de Nascar avec Pocono… Là aussi, ça promet vraiment !

AMS2 1.6.7 ou le charme discret de la maturité

Après, en 2026, nous devrions avoir la 1.7 qui va apporter une refonte de la physique (dynamique des voitures)… Nous verrons bien mais j’ai confiance dans l’approche de Reiza : progresser pas à pas, sans big bang, sans esbroufe. Attention, tout n’est pas parfait dans AMS2 et je m’en fait l’écho à chaque fois : manque les drapeaux jaunes (un comble !) et l’enregistrement des sessions (ils y travaillent parait-il…). Je trouve aussi que l’équipe se disperse en terme de contenus : j’aurais préféré qu’ils complètent les classes existantes plutôt que d’en ajouter de nouvelles (comme les voitures DIRT qui, selon moi, n’apportent rien). Mais l’échec (provisoire ?) de PMR montre que l’attitude modeste mais obstinée de Reiza porte ses fruits, avec le temps…

Bilan 2025 : entre euphorie et inquiétude

D’un côté on a une offre de marché qui se bonifie progressivement (LMU, AMS2) et de l’autre, on a eu des flops spectaculaires !

On constate que la « niche » du Simracing excite les convoitises mais que les nouveaux entrants ne s’y prennent pas très bien. Laissons de côté le cas de Rennsport (sachez que je ne traite pas les cas pathologiques…) mais le big bang raté de PMR est très inquiétant.

Après la tragi-comédie de Forza Motorsport, ça commence à faire beaucoup…

Heureusement, il y a de l’espoir avec des initiatives modestes mais intéressantes comme l’annonce toute récente de « Grand Pro Circuit », une sorte de « Microprose Grand Prix » (1991 par l’inoubliable Geoff Crammond) mais remis au goût du jour (ou presque : les graphismes semblent un peu un ton en dessous mais ça aussi, ça peut être une bonne nouvelle : pas de « Unreal Engine » qui étouffe le jeu et met votre PC à genoux !).

On va surveiller cela avec intérêt.

Publié dans Sports mécaniques virtuels | Un commentaire

Histoire de l’informatique : la saga britannique dans les années 50 & 60

Voici quelques extraits savoureux que je découvre en lisant « EPOCH – Une histoire de l’informatique » de Stéphane Fosse. Même moi, j’apprends beaucoup en lisant cet ouvrage qui représente un travail énorme et soigné !

J’ai choisi ici la saga britannique et peu connue des ordinateurs Ferranti et Lyons.

======

Ferranti Mark I

Durant l’hiver 1951, l’Université de Manchester reçoit des mains de la société Ferranti une machine qui va changer la donne : le Mark I. Ce calculateur électronique britannique devance de quelques mois l’UNIVAC I américain et s’inscrit dans l’histoire comme le premier ordinateur commercialisé. Cette aventure technique n’aurait jamais vu le jour sans l’intuition de Sir Ben Lockspeiser. Ce haut fonctionnaire du ministère britannique de l’Approvisionnement avait saisi l’importance de relier la recherche universitaire au monde industriel.

En réalité, cette machine prolonge les travaux de F.C. Williams et Tom Kilburn. Ces chercheurs avaient déjà conçu un prototype fonctionnel à l’Université de Manchester. Le gouvernement britannique, désireux de valoriser cette avancée, confie à l’entreprise Ferranti la tâche de transformer l’expérimental en commercial. Si l’architecture générale est fidèle à l’original, les ingénieurs de Ferranti y ajoutent leur touche : un jeu d’instructions revu, des registres d’index supplémentaires (les fameux B-lines) et des fonctions inédites comme un générateur de nombres aléatoires.

La mémoire du Mark I reflète les contraintes technologiques de l’époque. D’un côté, une mémoire électronique construite autour des tubes Williams, rapide mais limitée à 20 480 bits. De l’autre, un tambour magnétique plus lent mais avec 655 360 bits répartis sur 256 pistes de 2 560 bits, double système annonçant l’architecture hiérarchique des mémoires modernes.

Programmer le Mark I relevait presque de l’épreuve initiatique. Alan Turing, figure légendaire du calcul et alors chercheur à Manchester, rédige le premier manuel de cette machine. Son approche consiste en du code machine sans fioritures, sans concessions aux limites cognitives humaines. À Cambridge, pendant ce temps, David Wheeler avait créé pour l’EDSAC un assembleur rudimentaire mais combien plus accessible. Deux visions s’opposaient.

The Ferranti Mark 1 Gallery (Digital 60)

The Ferranti Mark 1 Gallery (Digital 60)

L’interface avec le monde extérieur passait par des bandes perforées à cinq trous. Le flux d’entrée atteignait 400 caractères par seconde grâce au lecteur photoélectrique conçu par Ferranti. En sortie, une perforatrice plus modeste (33 caractères par seconde) et une imprimante télétype traduisaient les résultats des calculs. Un haut-parleur complétait le dispositif, alertant l’opérateur par des signaux sonores quand son attention devenait nécessaire.

Les mathématiciens furent parmi les premiers à s’emparer de cette puissance de calcul inédite. Ils l’utilisèrent pour explorer les nombres de Mersenne ou tester des aspects de l’hypothèse de Riemann. Les physiciens s’en servirent pour des calculs de tracé de rayons en optique. La vitesse de traitement des données ouvrait des possibilités nouvelles pour la recherche, malgré une fiabilité qui laissait parfois à désirer.

L’aventure commerciale du Mark I raconte aussi les difficultés de l’industrie informatique britannique. De 1951 à 1957, neuf exemplaires seulement trouvèrent preneurs : sept Mark I Star et deux Mark I. L’étroitesse du marché britannique limitait les perspectives de croissance. Quand IBM débarqua au Royaume-Uni avec son modèle de location, la concurrence devint féroce pour les constructeurs locaux.

L’histoire du Mark I se lit aussi à travers les relations complexes entre Ferranti et les organismes gouvernementaux, notamment la National Research Development Corporation (NRDC). Le financement public a certes rendu possible cette aventure, mais les négociations souvent tendues entre Ferranti et la NRDC ont parfois ralenti le projet. Sir Vincent de Ferranti défendait âprement les intérêts de son entreprise familiale, cherchant à minimiser les risques financiers dans cette aventure incertaine.

Le contraste entre le potentiel technique britannique et sa concrétisation commerciale saute aux yeux dans les statistiques : en 1960, le Royaume-Uni comptait 240 ordinateurs en fonction, contre 5 400 aux États-Unis. Pourtant, le Ferranti Mark I occupe une place à part dans le panthéon informatique. Sa mémoire à plusieurs niveaux, son système d’index et son architecture générale ont façonné la conception des ordinateurs qui ont suivi. Premier calculateur commercial, il matérialise ce moment où la recherche universitaire rencontre la production industrielle.

Cette expérience a aussi réorienté la trajectoire de Ferranti. Face aux réalités économiques, l’entreprise a progressivement abandonné le marché des grands systèmes pour se concentrer sur les applications militaires, les mini-ordinateurs puis les microprocesseurs. En 1963, Ferranti quittait définitivement le secteur des ordinateurs centraux.

LEO I

Au milieu du XXe siècle, J. Lyons & Co dominait le marché alimentaire au Royaume-Uni. Issue des idées visionnaires de la famille Salmon-Gluckstein à la fin du XIXe, cette entreprise gérait un réseau tentaculaire de salons de thé élégants, restaurants populaires et boulangeries industrielles à travers tout le pays.

Contrairement aux autres sociétés, Lyons cultivait une atmosphère propice à l’innovation technique. La raison en était simple : chaque jour, des milliers de transactions modestes s’accumulaient, chacune générant une marge infime. La survie financière exigeait donc une rigueur presque maniaque dans la gestion administrative. Cette particularité avait poussé les dirigeants à recruter dès 1923 un mathématicien de Cambridge, John Simmons, capable d’apporter une dimension scientifique à leurs méthodes de travail.

Au printemps 1947, deux cadres de l’entreprise, Oliver Standingford et Raymond Thompson, s’envolèrent vers l’Amérique. Leur mission initiale concernait l’étude d’équipements de bureau modernes, mais ils tombèrent par hasard sur des informations concernant l’ENIAC. Ces gigantesques machines de calcul, alors cantonnées aux laboratoires scientifiques, éveillèrent leur curiosité. Ils pressentirent que ces calculs automatisés pourraient transformer radicalement la bureaucratie de Lyons.

Leur intuition les conduisit jusqu’à l’université de Cambridge, où Maurice Wilkes travaillait sur l’EDSAC. À leur retour, ils rédigèrent un rapport audacieux. Non contents de suggérer l’adoption de l’informatique pour leur entreprise, ils proposèrent que Lyons fabrique sa propre machine. Cette idée, qui semblerait aujourd’hui absurde pour une société alimentaire, s’inscrivait parfaitement dans la philosophie d’indépendance technique de l’entreprise, habituée à concevoir ses propres outils industriels.

La direction valida le projet et déboursa 3 000 livres sterling pour soutenir les travaux de Wilkes, s’assurant en échange une assistance technique précieuse. Pour mener à bien cette aventure, l’entreprise embaucha le Dr John Pinkerton, un brillant ingénieur recommandé par Wilkes. David Caminer, responsable des systèmes chez Lyons, reçut la tâche de développer les applications et méthodes de programmation adaptées aux besoins spécifiques de l’entreprise.

La construction du LEO I (Lyons Electronic Office) commença en 1949. Ce colosse occupait plus de 450 mètres carrés et fonctionnait grâce à environ 6 000 tubes à vide répartis dans 21 armoires métalliques imposantes. Bien que basé sur l’architecture de l’EDSAC, LEO I intégrait des modifications substantielles pour traiter efficacement les données commerciales. Les ingénieurs accordèrent une attention particulière aux systèmes d’entrée-sortie, combinant cartes perforées et bandes de papier pour l’alimentation en données, complétées par des imprimantes et perforateurs pour la restitution des résultats.

LEO - The world's first 'Electronic Office' - Archives of IT

LEO – The world’s first ‘Electronic Office’ – Archives of IT

Le 29 novembre 1951, LEO I accomplit sa première tâche régulière, l’évaluation hebdomadaire de la production des boulangeries Lyons. Ce programme analysait les chiffres de fabrication de pains, gâteaux et tartes provenant de douze sites différents. Il calculait automatiquement la valorisation en intégrant le coût des matières premières, les salaires et les frais indirects. Aucun ordinateur n’avait jamais effectué pareille tâche de gestion auparavant.

Ce premier succès encouragea l’équipe à développer d’autres applications : gestion des stocks, calcul des meilleurs mélanges de thé, organisation des livraisons aux différents points de vente, facturation automatisée. Un nouveau cap fut franchi le 12 février 1954, lorsque LEO I traita la paie de 1 670 employés des boulangeries, produisant directement les chèques de salaire sans système de secours.

Les prouesses de cette machine attirèrent bientôt l’attention d’organisations extérieures. Le service météorologique britannique l’utilisa pour ses prévisions, l’administration fiscale pour calculer ses barèmes d’imposition, et British Railways pour déterminer les distances entre toutes ses gares. Le succès de ces prestations poussa Lyons à créer en 1954 une filiale spécialisée, LEO Computers Limited, pour commercialiser cette technologie.

Cette histoire raconte un curieux paradoxe : pendant que les fabricants traditionnels d’équipements de bureau et les géants de l’électronique hésitaient, une chaîne de restaurants et de salons de thé créait le premier ordinateur pour une application commerciale viable au monde. LEO I fonctionna jusqu’en janvier 1965, avant de céder sa place aux modèles plus performants LEO II et LEO III qui équipèrent de nombreuses entreprises et administrations britanniques.

La saga LEO se poursuivit à travers une série de fusions industrielles : d’abord avec English Electric en 1963, puis avec d’autres sociétés pour former International Computers Limited en 1968. Le dernier LEO III s’éteignit discrètement en 1981 dans les locaux de la poste britannique.

67673 LEO III Computer room and tape decks - Photograph - Computing History

67673 LEO III Computer room and tape decks – Photograph – Computing History

====

Fascinant, non ?

Publié dans Anecdotes IT, Livre histoire de l'informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Allez, avouez, vous aussi, vous détestez Noël (oui, encore une fois) !

Certaines années, je remet en avant cette chronique qui date de 2001 (ah quand même !).

Il n’est jamais trop tard pour cracher sur Noël !

Allez, avouez, vous aussi vous détestez Noël !

Et également, l’extraordinaire « Santaland Diaries » de David Sedaris. Régalez-vous, c’est Noël (Lefebvre, vous devriez avoir honte !)…

C’est un récit assez connu aux USA qui nous vient du formidable David Sedaris. Je vous invite, vraiment, à écouter son journal ci-dessous : son expérience en tant qu’Elfe à Macy. Si vous comprenez l’anglais, il FAUT écouter cette histoire… ça, vraiment ça, c’est Noël… Triste.

Publié dans La terrible vérité | Laisser un commentaire

« Les cons ou pourquoi sont-ils si nombreux » et autres chroniques qui n’ont pas pris une ride !

Je suis en train de relire mes chroniques de la « Terrible Vérité » (que j’ai publié dans un livre à retrouver ici). Je constate que ces chroniques, la plupart rédigées au début des années 2000 (déjà plus de vingt ans, incroyable ce que le temps file vite !!), n’ont pas pris une ride et sont toujours valables.

Je voudrais en profiter pour mettre en avant deux chroniques particulièrement chères à mon coeur :

Mort aux cons, il était temps de le dire !

Pourquoi nous sommes tous des misanthropes (mais si !)…

Publié dans La terrible vérité | Laisser un commentaire

Les retours décroissants : les faits sont têtus, même pour l’IA !

Voici une traduction en français le tout dernier article de Gary Marcus (vous pouvez retrouver la version originale ici). Après cette traduction, j’ai ajouté mon grain de sel à propos des retours décroissants…

==============

Gaspiller mille milliards de dollars est une chose terrible.

La communauté de l’apprentissage automatique prend enfin conscience de la folie ambiante, mais le détour de ces dernières années a été coûteux.

Gary Marcus – 27 Novembre 2025

Dernières nouvelles du célèbre chercheur en apprentissage automatique Ilya Sutskever :

Voici un autre résumé d’une interview récente de Sutskever qui fait grand bruit, un peu plus technique. En substance, Sutskever affirme que la mise à l’échelle (l’amélioration de l’IA grâce à un plus grand nombre de puces et de données ou « scaling ») atteint ses limites et que de nouvelles techniques sont nécessaires ; il se dit même ouvert aux techniques neurosymboliques et à l’innéité. Il ne prévoit clairement pas un avenir radieux pour les modèles de langage purement volumineux.

Sutskever a également déclaré : « Ce qui me semble le plus fondamental, c’est que ces modèles généralisent beaucoup moins bien que les gens. Et c’est flagrant. Cela me paraît être un point fondamental. »

Certaines de ces informations pourraient surprendre une grande partie de la communauté de l’apprentissage automatique ; elles peuvent paraître étonnantes venant de Sutskever, figure emblématique de l’apprentissage profond, qui a notamment contribué à l’article fondamental de 2012 démontrant l’impact considérable des GPU sur l’amélioration pratique de l’apprentissage profond, fondement des modèles linéaires. Il est également cofondateur d’OpenAI et considéré par beaucoup comme son chercheur principal jusqu’à son départ suite à une tentative infructueuse d’évincer Sam Altman.

Mais rien de ce qu’a dit Sutskever ne devrait surprendre, surtout pas les lecteurs de ce Substack, ni ceux qui me suivent depuis des années. En réalité, tout cela figurait déjà dans mon article de 2018, antérieur à GPT, intitulé «  Deep learning: A Critical Appraisal », où je plaidais pour des approches neurosymboliques en complément des réseaux de neurones (comme le fait désormais Sutskever), pour des contraintes plus innées (c’est-à-dire intégrées plutôt qu’acquises) (ce que Sutskever appelle les « nouvelles contraintes inductives »), et/ou dans mon évaluation de 2022, «  Deep learning is a wall », des LLM, où j’affirmais explicitement que les lois d’échelle de Kaplan atteindraient un point de saturation (comme Sutskever vient de le faire), et que les problèmes d’hallucinations, de vérité, de généralisation et de raisonnement persisteraient même avec l’augmentation de la taille des modèles, des points que Sutskever vient en grande partie de reconnaître.

Subbarao Kambhampati, quant à lui, défend depuis des années les limites de la planification avec les LLM . Emily Bender affirme depuis longtemps qu’une focalisation excessive sur les LLM « absorbe toute l’énergie » au détriment d’autres approches de recherche. L’ article d’Apple sur le raisonnement, injustement rejeté, a mis en lumière les problèmes de généralisation ; un autre article, intitulé «  Le raisonnement par chaîne de pensée des LLM : un mirage ? Une analyse de la distribution des données », a porté un coup fatal au raisonnement et à la généralisation des LLM.

Rien de ce qu’a dit Sutskever ne devrait surprendre. Alexia Jolicoeur-Martineau, chercheuse en apprentissage automatique chez Samsung, a bien résumé la situation mardi sur X, suite à la diffusion de l’interview de Sutskever :

Bien sûr, rien n’est joué d’avance. Peut-être qu’une simple augmentation de la capacité de calcul (ajout de données et de puissance de calcul sans modifications architecturales fondamentales) résoudra comme par magie le problème que des chercheurs tels que Sutskever, LeCun, Sutton, Chollet et moi-même ne croyons plus possible.

Et les investisseurs pourraient bien rechigner à se défaire de cette habitude. Comme Phil Libin l’a judicieusement prédit l’an dernier, c’est la mise à l’échelle – et non la génération de nouvelles idées – que les investisseurs maîtrisent le mieux.

Il ne s’agit pas seulement du fait que les investisseurs en capital-risque maîtrisent mieux le développement d’entreprises que l’invention de nouvelles idées ; pour ceux qui ont tant façonné ce secteur, le développement, même en cas d’échec, a été une aubaine : un moyen d’empocher leurs 2 % de frais de gestion en investissant l’argent d’autrui dans des paris qui paraissaient plausibles mais qui étaient en réalité colossaux, les rendant riches quoi qu’il arrive. Certes, les investisseurs en capital-risque s’enrichissent encore davantage si les investissements sont fructueux, c’est certain. Mais ils sont couverts dans tous les cas ; même si tout s’effondre, les investisseurs eux-mêmes deviendront riches grâce aux seuls frais de gestion. (Ce sont leurs clients, comme les fonds de pension, qui en subiront les conséquences). Les investisseurs en capital-risque pourraient donc continuer à soutenir l’engouement pour les masters en droit, du moins pour un temps.

Mais admettons, pour les besoins de la démonstration, que Sutskever et nous autres ayons raison, que l’IA générale n’émergera jamais directement des masters en droit, que ces derniers ont, dans une certaine mesure, atteint leurs limites et que nous avons effectivement besoin de nouvelles idées.

La question qui se pose alors est la suivante : quel a été le coût pour le domaine et la société du fait qu’il ait fallu si longtemps au courant dominant de l’apprentissage automatique pour comprendre ce que certains d’entre nous, y compris la quasi-totalité de la communauté de l’IA neurosymbolique, disions depuis des années ?

La première et la plus évidente des réponses est l’argent, que j’estime, à la louche, à environ mille milliards de dollars, dont une grande partie est consacrée aux puces Nvidia et aux salaires faramineux. (Zuckerberg aurait apparemment embauché des experts en apprentissage automatique avec des salaires de 100 millions de dollars par an).

D’après les calculs d’Ed Zitron, « les géants de la tech ont besoin de 2 000 milliards de dollars de revenus liés à l’IA d’ici 2030, faute de quoi leurs investissements auront été vains ». Si Sutskever et moi avons raison concernant les limites des masters en apprentissage automatique (LLM), la seule façon d’atteindre ces 2 000 milliards de dollars est d’inventer de nouvelles idées.

Si la définition de la folie est de faire la même chose encore et encore en espérant des résultats différents, les investissements de mille milliards de dollars dans des expériences toujours plus coûteuses visant à atteindre l’IA générale pourraient bien être une folie au plus haut point.

En première approximation, toutes les grandes entreprises technologiques, d’OpenAI à Google en passant par Meta, xAI, Anthropic et plusieurs entreprises chinoises, continuent de répéter la même expérience : construire des LLM toujours plus grands dans l’espoir d’atteindre l’AGI.

Cela n’a jamais fonctionné. Chaque nouveau modèle, plus grand et plus coûteux, apporte des améliorations mesurables, mais les gains semblent diminuer (c’est ce que Sutskever affirme à propos des lois de Kaplan ) et aucune de ces expériences n’a résolu les problèmes fondamentaux liés aux hallucinations, à la généralisation, à la planification et au raisonnement, comme Sutskever le reconnaît désormais lui aussi.

Mais il ne s’agit pas seulement de la perte potentielle d’un billion de dollars, voire plus, mais aussi des dommages collatéraux considérables qui pourraient affecter le reste de la société, tant sur le plan économique qu’autrement (par exemple, en raison de l’ impact négatif des masters en droit sur l’enseignement supérieur ). Comme l’écrivait Rogé Karma dans un article récent de The Atlantic : «  L’économie américaine tout entière repose sur la promesse de gains de productivité qui semblent encore bien loin de se concrétiser. »

À vrai dire, personne ne sait avec certitude quelle serait l’ampleur des conséquences. Si l’IA basée sur les technologies LLM ne répondait pas aux attentes et perdait de la valeur, qui en subirait les conséquences ? Uniquement les « commanditaires », comme les fonds de pension qui ont confié leur argent à des sociétés de capital-risque ? Ou les répercussions seraient-elles bien plus vastes ? Les banques pourraient-elles sombrer, dans une crise de liquidités similaire à celle de 2008, obligeant peut-être les contribuables à les renflouer ? Dans le pire des cas, l’impact d’une bulle de l’IA qui éclate pourrait être immense. (La consommation, largement alimentée par les personnes fortunées qui ont subi un revers boursier, pourrait également chuter, ce qui risquerait de provoquer une récession.)

Même la Maison Blanche a fait part de ses inquiétudes à ce sujet. Comme l’a déclaré David Sacks, le responsable de l’IA et des cryptomonnaies à la Maison Blanche, en début de semaine, en se référant à une analyse du Wall Street Journal : « Les investissements liés à l’IA représentent la moitié de la croissance du PIB. Un renversement de tendance risquerait de provoquer une récession. »

Extrait de l’article de Karma dans The Atlantic :

La prospérité que GenAI était censée apporter ne s’est guère concrétisée, si ce n’est par la hausse de leurs cours boursiers. (Nvidia fait exception, fournissant les composants essentiels – des puces de pointe – que les autres géants du secteur s’arrachent.) Comme le rapporte le Wall Street Journal , Alphabet, Amazon, Meta et Microsoft ont vu leur flux de trésorerie disponible diminuer de 30 % ces deux dernières années. Selon une estimation , Meta, Amazon, Microsoft, Google et Tesla auront dépensé collectivement 560 milliards de dollars en investissements liés à l’IA d’ici la fin de l’année, depuis début 2024, pour un chiffre d’affaires de seulement 35 milliards de dollars. OpenAI et Anthropic génèrent des revenus importants et connaissent une croissance rapide, mais restent encore loin du compte . Quasiment rentables, leurs valorisations respectives – environ 300 milliards et 183 milliards de dollars , et en constante augmentation – sont bien supérieures à leurs revenus actuels. (OpenAI prévoit un chiffre d’affaires d’environ 13 milliards de dollars cette année ; Anthropic , entre 2 et 4 milliards de dollars.) Les investisseurs misent gros sur la perspective de profits records grâce à ces dépenses. Si cette perspective s’avère erronée, ils pourraient se ruer sur les marchés, provoquant une correction brutale et importante.

L’éclatement de la bulle Internet a été grave, mais n’a pas déclenché de crise. Un éclatement de la bulle de l’IA pourrait avoir des conséquences différentes. Les investissements liés à l’IA ont déjà dépassé , en termes de part de l’économie, le niveau atteint par les télécommunications au plus fort de la bulle Internet. Au premier semestre de cette année, les dépenses des entreprises en IA ont contribué davantage à la croissance du PIB que l’ ensemble des dépenses de consommation . De nombreux experts estiment que si l’économie américaine a pu résister aux droits de douane et aux expulsions massives sans connaître de récession, c’est en grande partie parce que toutes ces dépenses en IA agissent, selon les termes d’un économiste, comme un « vaste programme de relance du secteur privé ». Un éclatement de la bulle de l’IA pourrait entraîner une baisse généralisée des dépenses, une diminution du nombre d’emplois et un ralentissement de la croissance, plongeant potentiellement l’économie dans la récession. L’économiste Noah Smith soutient même qu’une crise financière pourrait survenir si les prêts non réglementés du « crédit privé », qui financent une grande partie de l’expansion du secteur, venaient tous à s’effondrer simultanément.

L’ensemble paraît incroyablement fragile.

Pour le dire sans détour, le monde a misé à fond sur les LLM, mais, comme le souligne l’interview de Sutskever, il y a de nombreuses raisons de douter que les LLM tiennent un jour leurs promesses.

Le plus triste, c’est que la plupart des raisons sont connues depuis longtemps, même si elles n’étaient pas largement acceptées. Tout cela aurait pu être évité. Mais la communauté de l’apprentissage automatique a, avec arrogance, exclu d’autres voix, et même des domaines entiers comme les sciences cognitives. Et nous risquons tous d’en payer le prix.

Un vieux dicton à propos de telles folies dit que « six mois au laboratoire peuvent vous faire gagner un après-midi à la bibliothèque » ; ici, nous avons peut-être gaspillé mille milliards de dollars et plusieurs années pour redécouvrir ce que les sciences cognitives savaient déjà.

Un billion de dollars, c’est une somme astronomique qui pourrait être gaspillée. Si la zone d’impact est plus étendue, les dégâts pourraient être bien plus importants. On a l’impression d’assister à une tragédie grecque, un mélange évitable d’arrogance et de pouvoir qui risque fort de faire s’effondrer l’économie.

====================

Bon, comme vous l’avez deviné, il s’agit là d’une traduction automatique avec toutes les limites (et les déformations) que cela impose. Cependant, on comprend bien l’argument principal : le principe des retours décroissant frappe les LLMs à leur tour et les milieux financiers aiment le « scaling » (mise à l’échelle) qu’ils peuvent comprendre (au contraire de la vraie innovation qui parait -à juste titre- aléatoire).

Je trouve particulièrement savoureux cette mise en évidence des « retours décroissants » que j’ai déjà expliqué dans mon livre « Le fait technique« … Voici l’extrait concernant les retours décroissants :

===================

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel ! 

Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité. 

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire. 

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas. 

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation.

==============

Voilà, on en est là : l’IA générative est frappée à son tour par la loi des retours décroissants comme le machine learning l’a été il y a dix ans. La propagande n’évoque jamais cela, elle cherche même à le cacher mais c’est inutile : les faits sont têtus et finissent toujours par s’imposer…

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

La toute première base de données historiques des écoles Montessori en France, développée avec SQLPage

Je suis très fan de SQLPage qui m’a permit de redécouvrir le plaisir de coder. J’en parle sur ce blog depuis un peu plus d’an :

Découverte de SQLPage, une solution technique enthousiasmante !

Un QCM sur votre « profil sociétal », pourquoi faire ?

Cette fois, c’est une nouvelle application que j’ai développée que je vous propose de découvrir : BdD MEF, la toute première base de données historiques des écoles Montessori en France…

Une photo d’écran de la page d’accueil de notre base de données, ouverte à tous !

Je suis particulièrement content car cette application m’a demandé des semaines de travail et de mise au point. Mais je crois que je peux être satisfait du résultat (en V1 au moins). La V2 ambitionne d’ajouter des images mais c’est pour plus tard. Attention, je ne prétend pas que c’est l’application du siècle car je ne suis pas un « codeur de la mort qui tue » !
Mais, pour un modeste amateur, je ne suis fier de pouvoir proposer cette application qui comble un vide dans ce domaine précis (les données historiques des écoles Montessori françaises… OK, c’est super niche comme créneau mais pour celles et ceux que ça intéressent, ça fait toute la différence !).

Une fois de plus, je voudrais insister sur les qualités de SQLPage qui m’ont permise de faire cela relativement facilement. Ce projet open source mérite d’être connu (il est tenu à bout de bras par deux jeunes français qui ont bien du mérite…) moi je dis.

Publié dans Anecdotes IT, Informatique | Laisser un commentaire

Project Motor Racing (PMR) : toutes premières impressions

C’est peu de dire que cette simulation (PMR) était très attendue. Les premiers retours des « simtubers » (qui avaient eu accès à une pré-release) ce week-end étaient plutôt négatives : déception, énorme daube, rien qui va, j’en passe et des pires.

Sortie officielle ce mardi et j’ai pu commencer à tester cette version 1.0 en début d’après-midi. Soyons clair, je m’attendais au pire et mon niveau d’espérance n’était donc pas très haut…

Bon, je n’ai pu rouler qu’un peu plus de 2 heures dessus, c’est donc très léger pour se faire un avis définitif et structuré. Mais, de ce que j’en ai vu, c’est acceptable en solo avec zéro adversaire (en clair, vous êtes seul sur la piste) : le FFB est assez moyen mais pas autant catastrophique que ce que j’ai pu entendre ça et là. La physique semble un peu chatouilleuse, surtout avec des voitures à faible appui. Les graphismes ne sont pas à tomber par terre mais, par beau temps et de jour (de nuit sous la pluie, faudrait voir…), ça va encore. On connait mieux mais c’est pas horrible.

En fait, le problème général de cette V1, c’est qu’elle n’est pas du tout optimisée (et ça peut se comprendre, le titre vient juste de sortir !). Et dès qu’on met des adversaires sur la piste (je me suis contenté d’une douzaine), ça devient à peine jouable. PMR se met à ralentir à tel point qu’on peut se retrouver à rétrograder un rapport de trop tellement le décalage est perceptible.

Je n’ai roulé qu’à Daytona et avec peu de voitures (Porsche GT1 , BMW LMP et Porsche 917). Mais il est clair qu’il va falloir attendre avant que cette plateforme soit utilisable.

Et si jamais on la compare à AMS2, c’est le KO direct au premier round (dès les premières secondes même !). Bref, je conseille d’attendre un peu (tout comme pour Assetto Corsa EVO).

En attendant que je fasse une vidéo, voici l’avis d’un SimTubers suisse que j’apprécie car il est très modéré…

Publié dans Sports mécaniques virtuels | Laisser un commentaire

Les promesses non-tenues, une habitude de la Tech. Aujourd’hui, les promesses non-tenues de la 5G, cinq ans après…

Le 25/11/2025, dans sa newsletter “Cafétech”, Jérôme Martin publiait ceci (ce n’est qu’un extrait, l’article complet à https://cafetech.substack.com/p/les-promesses-non-tenues-de-la-5g?open=false#%C2%A7cinq-ans-apres-son-lancement-les-promesses-non-tenues-de-la-g) :

Comme un symbole des promesses non tenues, la 5G a fêté la semaine dernière son cinquième anniversaire en France dans une quasi-indifférence générale. Un contraste saisissant avec l’enthousiasme qui avait accompagné le lancement, fin 2020, de cette nouvelle génération d’Internet mobile. Plus rapide, plus réactive, plus dense… La 5G était censée révolutionner les usages, aussi bien chez les particuliers que dans les entreprises. Elle devait également représenter une manne financière pour les opérateurs télécoms.

Cinq ans plus tard, force est de constater que la réalité est très éloignée du scénario annoncé. Les nouveaux services promis au grand public, comme la réalité augmentée ou le cloud gaming, ne se sont jamais matérialisés. Le déploiement de réseaux privés, censés offrir davantage de sécurité et de fiabilité aux entreprises, demeure marginal. Et les opérateurs n’ont jamais réussi à imposer les hausses de prix qui leur auraient permis de véritablement rentabiliser les investissements colossaux engagés pour moderniser leurs infrastructures.

Vous noterez que Jérôme Martin mentionne “dans l’indifférence générale”. Là aussi, c’est une constance de la Tech : lancement bruyant, promesses tapageuses mais on ne dresse jamais le bilan (ah ça non !). J’évoquais la 5G lors de son lancement dans cet article et je prévenais que l’évolution vers cette nouvelle génération prendrait au moins dix ans…

La propagande Tech vous vend toujours des « lendemains qui chantent » mais n’assure jamais le « service après-vente »… Et c’est justement ce que j’essaye de faire dans mes écrits. J’ai un nouveau projet de livre justement qui pourrait s’intituler « La déception informatique »… tout un programme !

Je viens de commencer, il faudra être patient car il est bien connu que « le mensonge prend l’ascenseur quand la vérité se contente de l’escalier »…

Publié dans Anecdotes IT, La terrible vérité, Références IT | Laisser un commentaire

Une série documentaire à vous recommander : « The American Revolution » par Ken Burns

Ken Burns est un célèbre réalisateur de films documentaires sur l’histoire des USA. Il est également connu à cause de ce qu’on appelle « l’effet Ken Burns » qui est présent sur iMovie et d’autres logiciels de montage vidéo.

Steve Jobs, le fondateur d’Apple, a baptisé du nom d’effet Ken Burns un effet vidéo intégré dans le logiciel iMovie qui consiste en un panoramique et un zoom avant simultanés effectués sur un document statique (photographie, peinture, dessin, gravure, etc.) au moyen d’une caméra fixe ou d’un logiciel vidéo, vu son usage intensif dans l’œuvre du réalisateur.

Je connaissais déjà Ken Burns à travers ces documentaires les plus fameux comme « The Civil War » (ce que nous appelons « la guerre de sécession ») qui est une série qui s’étale sur plus de 12 heures !

Je dois également citer « The war » (sur la seconde guerre mondiale) et « Vietnam » (sur la guerre du Vietnam, 17 heures d’épisodes !), toujours par Ken Burns. Et je ne vous mentionne ici que les séries documentaires que j’ai regardé. Car Ken Burns a en fait bien plus…

Bref, je vous invite à découvrir sa toute dernière production qui est un événement et un régal quand on aime l’Histoire :

Ah oui, j’oubliais : c’est uniquement en anglais (avec sous-titre en anglais, au mieux…)… un détail !

Ouais, t’es bien gentil avec tes trucs élitistes toi, mais ça concerne qui ce documentaire, hein ?

OK, on peut le voir ainsi, je comprend. Mais j’affirme aussi que face à l’océan de contenus médiocres (et encore, en étant gentil !) qui nous submerge tous les jours toujours un peu plus, quand on a un contenu qui sort du lot il faudrait le taire parce que ce n’est pas en français ?
Non, mille fois non !
Ken Burns mérite d’être découvert, connu, célébré car il fait œuvre utile.

Pour finir, où peut-on le voir ton documentaire miracle ?

Sur « The Flixer » et c’est gratos les mecs !

Voici l’adresse complète : https://theflixertv.to/watch-tv/watch-the-american-revolution-full-137839.12812050 (retirez les bloqueurs de pub pour que ça fonctionne…).

Profitez-en pour explorer The Flixer par la même occasion : y a de tout sur ce site (je dirais même, il y a tout !) et, je répété, c’est gratuit. Les sites de streaming qui sont aussi complet et qui fonctionnement aussi bien, ça devient rare, faut en profiter tant que cela existe. Un dernier conseil : regardez des contenus sur The Flixer tôt dans la journée car, le soir, l’Amérique s’est réveillée et la qualité baisse (bande passante, serveurs de stream).

Publié dans à travers mes découvertes | Laisser un commentaire

La propagande est partout, y compris dans les livres de fictions (certains au moins…) !

Je viens d’achever « Tsunami » de Marc Dugain.

La couverture de ce livre…

Commençons par le positif : cet ouvrage est bien écrit, la narration se tient, le rythme est bon, ça se lit vite et le résultat global est satisfaisant. Mais… Oui, vous vous doutiez bien qu’il y avait une « mais », un gros « mais » même !

Le contenu de ce livre est bourré de propagande. Oui, je suis sérieux, de la propagande, pure et simple. Marc Dugain ne prend pas de gants pour asséner ses vérités et ses évidences : le réchauffement climatique est une évidence (avec l’inévitable, l’inéluctable montée des eaux, forcément !), les Russes sont les méchants et le féminisme, c’est bien (les hommes sont systématiquement présentés comme lâches et faibles à quelques rares exceptions près). Le voilà le triptyque sacré de l’époque, prosternez-vous !

Je comprend mieux pourquoi cet auteur a un tel succès et est mis en avant dans les merdais : il coche toutes les (bonnes) cases, il est au sommet de la bien-pensance du moment, il est l’écrivain à la mode (cela implique aussi que son « œuvre » vieillira mal…).

Depuis la répression inouïe qui s’est abattue sur les gilets jaunes, je m’attend à tout de la part de ce système. Accordons lui qu’il ne néglige rien : la propagande déjà omniprésente dans les merdais (un matraquage odieux et permanent, au-delà de toute décence) ne suffit pas encore, il faut aussi en mettre dans les contenus de fiction (pour le cinéma, on était habitué mais pour les livres, j’aurais tendance à penser que c’est plus récent).

Il est bien évident que je ne vous recommande pas ce livre ni cet auteur. Ni oubli, ni pardon.

Publié dans à travers mes découvertes, La terrible vérité | Un commentaire

Fin de saison et lassitude générale vis-à-vis des catégories de sports-mécaniques

C’est la fin de la saison pour les sports-mécaniques. La saison MotoGP vient de se terminer avec le dernier GP à Valence. La saison WEC s’est terminée trois semaines plus tôt. La saison Nascar a été bouclée par la finale il y a deux semaines, reste juste la F1 qui fait quelques prolongations mais c’est la F1 (que, je précise une fois de plus, je ne suis pas…).

Cette saison se termine bizarrement pour moi car je ressens un sentiment général de lassitude et je dois avouer que c’est bien la première fois que ça m’arrive !

Je suis un passionné de sports-mécaniques et c’est donc complètement anormal que je ressente cela.

J’ai donc réfléchi à la situation et c’est le fruit de cette réflexion que je vous propose ici.

Tout d’abord, cette saison de MotoGP a été bizarre car dépourvue d’enjeu au plus haut niveau. Depuis l’accident qui avait mis Marc Marquez sur la touche (en 2020), nous avons eu droit à de beaux affrontements pour le titre mondial entre Fabio Quartararo et Pecco Bagnia ou entre Bagnia et Jorge Martin. En 2025, rien de tout cela : Quartararo n’est plus compétitif à cause de sa machine, Martin s’est blessé plusieurs fois et Bagnia passe par des hauts (pas souvent, hélas…) et des bas (bien trop souvent !) incompréhensibles. En conséquence, Marc Marquez a pu quasiment tout récolter en dominant la saison outrageusement. Il y a eu peu de vraies belles courses et quasiment aucun suspense au championnat.

Bref une saison décevante. Attention, le MotoGP geste un superbe spectacle, haut en couleurs et bien retransmis (les ralentis sont de toute beauté !). Mais c’est justement ça qui ne va plus : c’est de plus en plus un spectacle et de moins en moins un sport avec sa glorieuse incertitude. On y reviendra, c’est même l’argument principal de cet article.

Cela a été encore pire en WEC (le championnat du monde d’endurance). Tout d’abord, le WEC est une construction assez artificielle pour pouvoir dire que l’endurance ne se résume pas aux 24 Heures du Mans, qu’il y a d’autres manches, tout ça… En vérité, on se doute bien que si Le Mans ne faisait pas partie de ce championnat ce dernier n’existerait simplement pas, voilà, c’est dit. Le championnat WEC ne comprend que huit manches. Déjà, c’est pas beaucoup mais, quelque part, ça toujours été comme cela : les championnats d’endurance avaient souvent peu de manches (surtout comparé au championnat de F1), même dans les années 80 où le Groupe C était assez populaire.

Donc, faut attendre pas mal entre chaque manche mais pourquoi pas. Chaque course est plus disputée que le championnat de F1 dans son ensemble (où le nombre de dépassements se compte sur les doigts de la main et j’exagère à peine !) mais ce n’est pas cela qui coince. Ce qui ne va pas dans le WEC d’aujourd’hui (et ce depuis le début), c’est la BoP (pour balance of performance). La BoP est censée être là pour équilibrer le plateau, ne pas se retrouver avec une ou deux équipes qui dominent et les autres qui subissent (comme ça se passe en F1 d’ailleurs). Mais elle a un résultat discutable : au lieu d’être un équilibrage des performances, elle devient une balance des résultats !

Une ou deux équipes sont favorisées à l’occasion d’une épreuve et elles sont enterrées lors de l’épreuve suivante… Pas exactement ce qu’on voulait, n’est-ce pas ?

Cette BoP a renforcé le sentiment et le ressenti d’une compétition artificielle où la valeur des concurrents importait moins que la dernière mouture du règlement technique… C’est très dommage car l’endurance mérite mieux que cela, selon moi.

Mais ce malaise général ne se limite pas au MotoGP ou au WEC, même la Nascar est en crise : son audience chute et le recours à une période de “playoffs” qui détermine l’issue du championnat (et non pas les points accumulés tout au long de la saison… va comprendre !) est de plus en plus contesté par les fans et les observateurs. J’insère ici une excellente vidéo de Depiélo qui analyse fort bien où se situe le problème actuel de la Nascar…

On peut en déduire ce qui ne va pas avec les sports-mécaniques : les organisations en charge essayent de plus en plus d’en faire un spectacle mais c’est au détriment de la dimension sportive. C’est que, un spectacle, ça doit s’appuyer sur un narratif et là, on peut dire que les organisateurs n’ont pas encore compris cela…

Conclusion logique : je ne vais pas renouveler mon abonnement au service MotoGP dont j’étais pourtant client depuis 2008. La saison décevante et l’augmentation continue du prix de l’abonnement ont eu raison de ma patience et de ma bonne volonté !

De plus, la Dorna vient de se faire racheter par Liberty media qui détient déjà la F1 et cela n’augure rien de bon, selon moi…

Pareil pour le WEC : l’abonnement est cher vu le nombre de courses couvertes et les retransmissions ne sont pas exemptes de critiques (sur le plan technique mais également des commentaires : les commentateurs français sont si lamentables que je choisis systématiquement le commentaire anglais !), je ne vais donc pas renouveler là aussi. Une pause me fera du bien et on verra l’année prochaine si ça me manque ou pas…

Publié dans Sport-auto, sport-moto, sports mécaniques | 3 commentaires

Insondable connerie humaine : une preuve de plus !!

Cette fois, je ne vais pas me moquer des barbus ou des tatoués (mais ils ne perdent rien pour attendre ceux-là !). On va plutôt se pencher sur le cas des possesseurs d’iPhone. Attention, pas tous évidemment mais celles et ceux qui se sont précipités pour acheter « l’iPhone Pocket », un produit d’une laideur innommable (oui, je sais, les goûts et les couleurs, tout ça… mais là, suffit de voir le truc pour se dire WTF) et cher par dessus le marché.

De quoi s’agit-il ?
D’une petite pochette pour porter son iPhone en bandoulière… On peut discuter de l’utilité du bazar mais pas de son esthétique qui est simplement ignoble. Je vous montre, accrochez-vous :

Et le prix de cette horreur ?
Le modèle long coûte 249,95 euros et le modèle court coûte 159,95 euros (les détails ici). Et en plus, ce truc ni fait ni à faire s’est écoulé à toute vitesse :

L’épuisement des stocks n’a pas tardé : selon les informations de Numerama, Apple a vendu l’intégralité de son stock de « modèle long » (249,95 euros) en moins d’une heure le 14 novembre, jour de l’ouverture des ventes en exclusivité à l’Apple Store de Marché Saint-Germain, à Paris. Le « modèle court » (159,95 euros) n’était plus disponible qu’en deux couleurs lundi matin, avec une rupture probablement imminente.

Si ça ce n’est pas une preuve que la connerie s’étend à toute allure (alors qu’elle était déjà trop bien installée, selon moi), je ne sais plus comment le dire…

Publié dans La terrible vérité | 2 commentaires

Un bref (premier) essai d’Assetto Corsa Rally

C’est le hit du moment et tout le monde en parle de façon élogieuse : la sortie (surprise) de Assetto Corsa Rally !

Comme le titre l’indique, voici une simulation qui s’adresse au fans de rallyes automobiles ce qui, jusque-là, n’était pas mon cas… Mais il y a un tel buzz (positif) autour de ce titre que je me suis dit qu’il fallait tout de même que je l’essayer (d’autant que cette early access -une de plus…- n’est pas cher : une vingtaine d’euros).

Ce que j’ai fait. Il ne m’a pas fallu longtemps pour me rendre compte que, effectivement, le rallye, c’est pas mon truc !

Ceci dit, j’ai tout de même pu voir que la réputation du titre n’est usurpée : c’est beau, c’est soigné et c’est délicat à piloter. Ah oui, c’est une simulation pure et dure donc, ça pardonne peu voire pas du tout… Vous êtes prévenus.

Arrivé à ce point, je préfère laisser la parole à ces simtubers qui ont fait l’effort de réaliser des vidéos de découvertes de ce titre…

Publié dans Sports mécaniques virtuels | 4 commentaires

Le grand ralentissement ou les crises de la technique

L’idée reçue générale est que tout va de plus en plus vite… Mais c’est faux, comme toutes les idées reçues ! Dans cette vidéo, j’expose pourquoi…

Dans cette vidéo, j’ai promis de mettre mon livre « Le fait Technique » disponible gratuitement…

Pour télécharger ce livre au format PDF, il suffit de cliquer sur l’image ci-dessus ou sur ce lien… Mais j’évoque également « La crise de l’IT des années 2020 » et donc, puisque c’est « Black Friday », je vais faire mon black friday à moi en vous offrant également cet autre livre !

Là encore, pour télécharger ce livre au format PDF, il suffit de cliquer sur l’image ci-dessus ou sur ce lien

Enfin, pour être complet sur ce sujet, voici un extrait significatif du livre « Le fait technique »… bonne lecture !

=====

7- L’illusion de l’accélération

Nous vivons aujourd’hui dans le progrès technologique le plus lent depuis plusieurs centaines d’années.

Gary Kasparov.

Dans le chapitre précédent, je terminais par une question : comment se fait-il qu’il y ait un tel écart entre perception (tout s’accélère) et réalité (nous sommes dans une phase creuse) ?

En effet, en ce moment et depuis quelques années, quasiment tous les observateurs vous affirment que nous vivons une période où le progrès technique connaît une accélération constante.

Tout va plus vite, n’est-ce pas ?

En effet, vous l’avez constaté : on vous serine continuellement que tout va très vite, que tout se transforme de plus en plus rapidement et qu’on est submergé par ce maelstrom de nouveautés, les unes succédant aux autres avec toujours plus d’impatience, n’est-ce pas ?

C’est la perception partagée par la plupart des gens. Ils vous diront : “de nos jours ça va trop vite et on a du mal à suivre”. Ils sont tellement persuadés que c’est la vérité qu’ils se la répètent les uns les autres et cela s’appelle un biais cognitif.

La technologie semble responsable d’un flot incessant de nouveautés toutes plus incroyables les unes que les autres, qui se succèdent à une vitesse vertigineuse, croissante d’année en année. Cette accélération paraît si réelle que personne ne songe à la remettre en cause. Pourquoi ne pas y croire d’ailleurs, puisque tous vos sens semblent vous indiquer que c’est véritablement le cas ?

Mais ça ne fonctionne pas toujours de la sorte.

Ne pas confondre perception et réalité

Il y a seulement quelques siècles, les gens dans leur immense majorité pensaient que le Soleil tournait autour de la Terre et pas le contraire. Il suffisait de regarder la course du Soleil dans le ciel pour penser qu’effectivement, il en allait ainsi. Votre intuition et votre sens logique vous le faisaient imaginer faussement, mais de façon convaincante.

Et à cette époque il était tout à fait logique de penser ainsi et ceux qui affirmaient le contraire étaient très peu nombreux (et c’était dangereux en plus !). Aujourd’hui c’est la même chose : tout vous pousse à considérer que le progrès s’accélère continuellement (rappelez-vous le principe du chauvinisme temporel : mon époque compte plus que toutes les autres !) alors que la technologie est, en réalité, en train de ralentir. Bien sûr, il est tout à fait contre-intuitif d’affirmer cela et, au premier abord, personne ne vous croira si vous vous mettez à affirmer que le progrès technique n’est pas aussi rapide qu’on le dit…

La phase de maturation est systématiquement masquée

L’énorme différence entre perception et réalité s’explique par l’ignorance du public qui ne voit rien ou presque de la phase de maturation; les nouveautés semblent surgir du jour au lendemain alors qu’elles viennent de passer des années de mises au point lentes et chaotiques. L’iPhone d’Apple apparaît comme un coup de tonnerre dans un ciel bleu en 2007 alors que, en vérité, l’idée du Smartphone était dans l’air depuis 1995 avec General Magic… Et on peut multiplier les exemples ainsi longtemps : toutes les “révolutions en une nuit” ont généralement demandé trente ans de maturation !

Mais, pendant ces trente ans, personne n’en parlait.

S’il y a accélération, il y a aussi ralentissement…

Le grand paradoxe que pose le concept d’accélération continue, c’est que c’est sans limites !

Or, les accélérations techniques ont bien lieu, mais elles sont aussi suivies de ralentissements, forcément sinon le rythme deviendrait vite intenable. Bizarrement, c’est mieux admis en économie : les phases de croissance sont suivies de phases de récession et tout le monde trouve cela normal. Eh bien, il en est de même pour l’évolution technique : il y a des phases de croissance (à la suite d’une percée significative) qui se calment progressivement jusqu’à aboutir à un certain marasme technique (on tourne un peu en rond), c’est le moment d’une récession, comme une respiration avant un nouveau bond en avant. Mais si l’accélération continue est une illusion (c’est le cas), pourquoi la propagande s’acharne-t-elle à vouloir nous le faire croire ?

L’état de l’art : ne pas croire la propagande !

L’état de l’art, dans tous les domaines qui reposent sur la technique de pointe, est en réalité très différent de ce que la propagande veut vous faire penser. Mais alors, me direz-vous, pourquoi nous mentirait-on à ce sujet ?

C’est la bonne question à se poser : pourquoi la propagande voudrait nous persuader que les techniques de pointe sont portées par un progrès continu et inextinguible si ça n’était pas le cas ?

À cela, il est facile de répondre : la propagande vous ment sur ce sujet, car elle a intérêt à vous peindre le futur avec du rose plutôt que du noir. C’est dans son intérêt de réenchanter l’avenir artificiellement, de façon à ce que les citoyens ne soient pas saisis d’angoisse face aux perspectives toujours plus inquiétantes. C’est même une tendance qui porte un nom, c’est ce qu’on appelle le solutionnisme : faire accepter que tout problème a sa solution et qu’elle est forcément d’ordre technique. Ainsi il n’y a pas matière à s’inquiéter : quel que soit le problème menaçant l’Humanité, la science et la technique vont y apporter une solution.

Le solutionnisme est une illusion tout comme le progrès continu des techniques. Cette illusion est une absurdité du même ordre que celle de croire à une croissance économique qui serait continue et infinie.

Extrapoler à partir du passé

Il est toujours terriblement périlleux de prédire le futur, et y arriver avec précision est encore plus aléatoire. En revanche, ce qu’on peut faire, c’est extrapoler à partir du passé. Et ce qu’on a pu voir dans le passé c’est que toutes les promesses de la propagande n’arrivent pratiquement jamais. Donc on peut légitimement douter que les voitures autonomes (par exemple) soient dans nos rues aussi rapidement qu’on nous le dit et sous la forme que l’on prévoit. À ce niveau-là, ça n’est pas qu’une surprise est toujours possible c’est plutôt qu’une surprise est quasi certaine.

Comment reconnaître une mode technique exagérée ?

En ce moment, les médias nous expliquent avec force que “l’informatique quantique”, c’est l’avenir et que ça va tout changer…

Les médias n’ont pas peur du ridicule, ils sont là pour faire de l’audience, à tout prix. Comme la nature, les médias ont horreur du vide. Quand la mode précédente commence à s’essouffler (au choix, la Blockchain, la voiture autonome ou encore l’IA), ils en cherchent une autre, n’importe quelle autre du moment que son contenu paraît sexy et accrocheur.

Car la propagande technique a ses règles qu’elle suit rigoureusement. Tout d’abord, pour vendre sa nouvelle mode, elle emploie toujours les mêmes arguments. Ils sont faciles à reconnaître et vous les connaissez déjà. C’est le fameux “c’est tellement important que ça va concerner tous les domaines applicatifs”… en clair, ça sera “tout pour tous”. Cette proposition est absurde et toujours démentie, mais elle joue son rôle. Celui d’allumer les signaux d’alerte dans l’esprit des lecteurs et donc d’attirer leur (faible) attention.

En effet, la grande majorité des gens n’analysent nullement ce qu’ils voient passer, ils se contentent de réagir, nuance. Et pour déclencher cette réaction (émotionnelle plutôt que rationnelle, forcément), rien de tel qu’un argument massue s’appuyant sur la peur : tout va changer grâce/à cause de cette technologie, préparez-vous !

Dans le cas de l’informatique quantique, ce serait risible si ça n’était pas désolant de voir que les mêmes ficelles (grossières) sont utilisées encore et encore. Car, soyons sérieux, l’informatique quantique n’en est qu’à son tout début et ne va pas produire des résultats significatifs avant au moins une dizaine d’années. C’est comme si on extrayait un prématuré de sa couveuse en prétendant qu’il allait battre le record du 100 m nage libre… ridicule et dangereux.

Les technologies mises en lumière trop tôt souffrent de cette exposition médiatique prématurée. Certes, dans un premier temps, l’argent se met à couler à flots sur les quelques équipes de recherche concernées (notez bien, on parle ici “d’équipes de recherche”… pas un hasard !), mais, quand la déception va arriver (et elle arrive toujours) ces crédits vont se tarir brutalement (ça se termine toujours comme cela et c’est déjà arrivé de nombreuses fois).

La technologie ainsi malmenée ne va pas disparaître, elle va continuer à évoluer lentement en mode discret, car c’est ainsi que cela fonctionne : les “révolutions en une nuit” mettent vingt ans à maturer, discrètement, en mode souterrain. La biotech ou la nanotech ont été des déceptions, car mises en avant trop tôt, bien trop tôt. Mais depuis qu’elles sont retournées dans l’obscurité, elles continuent à évoluer, à progresser, lentement mais sûrement. Un jour, elles reviendront sur le devant de la scène pour enfin produire leurs effets et changer la donne.

En attendant, apprenez à décoder la propagande et évitez de tomber dans les “pièges à gogos” qui sont continuellement renouvelés.

Ni techno-pessimiste, ni techno-sceptique

Je peux parfois donner l’impression que je nie le progrès technique… Rien n’est plus faux !

Le problème essentiel vient de la façon dont les nouveautés techniques sont présentées au grand public. À chaque fois, la nouvelle technique à la mode est accompagnée de promesses faramineuses à grands coups d’adjectifs ronflants (« révolutionnaire » est le terme le plus souvent utilisé). Mais ça ne veut pas dire que c’est forcément un pétard mouillé pour autant. L’Internet, par exemple, n’a pas tenu toutes les promesses du temps de la bulle des dotcoms, mais il n’en a pas moins changé beaucoup de choses (depuis le commerce en ligne qui a redéfini nos pratiques de consommation jusqu’au cloud qui a redéfini notre façon de gérer l’informatique). Finalement, l’Internet peut être vu comme une déception seulement si vous avez cru à toutes les fables proclamées dans les années quatre-vingt-dix.

Je sais que la technique finit toujours par progresser, presque inexorablement, et ce dans quasiment tous les domaines. Mais j’insiste, cette progression prend simplement plus de temps (toujours plus de temps !) que ce qui en est dit (un exemple : les « autoroutes de l’information » de Bill Gates sont bien là avec les CDN, mais quarante ans après avoir été annoncées… une paille !).

Publié dans Anecdotes IT, conférences, Informatique, La terrible vérité | Laisser un commentaire

Nascar 25 sur PC, premières impressions

Nascar 25 (édité par iRacing) est enfin sorti hier pour PC (la version console, c’était il y a deux ou trois semaines). Et j’ai acheté le bazar afin de le tester et de pouvoir vous dire si ça vaut le coup ou pas…

Tout d’abord, c’est cher : 58,99 € pour la version de base… hé ben, on sent que c’est iRacing qui est derrière, hein !

Ensuite, le jeu a clairement été pensé et destiné à une cible « console/débutant/joueurs occasionnels », pas les cinglés du SimRacing qui coupent les cheveux en quatre, veulent du réalisme à tout crin et sont prêts à s’investir dans les réglages si vous voyez ce que je veux dire…

Et on s’en rend compte dès les premières minutes. Tout d’abord, l’interface est prévue pour être manipulée avec une manette (boutons A, B, Y et X… ça vous parle ?) et si vous n’en avez pas et bien tant pis pour vous !

Ensuite, oui, l’usage d’un combo volant/pédales est prévue mais faut pas trop en demander, hein… Réglages confus, obscurs et trop nombreux, ça promet !
Effectivement, une fois qu’on a réussi à se retrouver sur la piste (ai-je mentionné que les temps de chargement étaient longs ?), c’est toujours pas l’extase : vue « chase » par défaut, vue cockpit simplement horrible (on se croirait dans une cage !), j’opte pour une vue capot à peu près acceptable. Les graphismes sont médiocres : on croirait que les voitures volent au-dessus de la piste et les sensations au volant son minimalistes… Bon, ça commence quand à être bien ce truc ?

A force de bidouiller, j’arrive à régler les problèmes rencontrés un par un : le paramétrage du volant est pénible et n’est pas enregistré (à refaire à chaque entrée en piste… super !) par exemple. Mais, là aussi, je finis par trouver la parade et on n’en parle plus. J’affine les réglages, choix et options afin d’avoir un truc acceptable (par par tout le monde car mon fils Justin vient jeter un oeil et son verdict tombe : « programmé avec le c*l ce truc ! »…).

Bon, soit honnête, ce titre est un flop qui va aller tenir compagnie à Rennsport (qui sort en version « finale » ce 13/11… Ouarf, « finale qu’ils disent !), non ?

Non en fait. Je m’explique : Nascar 25 est un titre destiné aux joueurs consoles (et occasionnels, hein, genre « tiens, un jeu de bagnoles simplet, on va s’en payer une tranche ! ») et il est truffé de trucs irritants pour nous joueurs PC hardcore. Mais, il y a un grand mais : les courses sont super prenantes !

J’ai déjà couru cinq courses du mode carrière et je dois avouer que je suis accroché : chaque course est une occasion de s’immerger en profondeur dans l’ambiance de ces courses faites d’aspiration et de bagarres portière contre portière et bon sang, ça arrache !

L’immersion aide à la concentration et les IA se comportent super bien. Et le fait que les voitures soient faciles à emmener (permissives mêmes !) facilite encore le truc : rien ne vient troubler l’immersion.
Du coup, on marche dans le truc. Que dis-je, on plonge même !

Alors, au final, est-ce que ça vaut ces 58,99 € ?

Ah, ça dépend. Si vous chercher un jeu accessible et sans prise de tête (en dehors des réglages initiaux qui, franchement, sont mal foutus et encore, je suis modéré ici !), alors Nascar 25 va faire le job. Si, en revanche, vous êtes habitués à iRacing et que vous vous dites « tiens, une occasion de payer une fois pour toutes et basta », passez votre chemin, vous n’y êtes pas. Vous n’y êtes pas non plus si vous avez déjà Nascar Heat 4 ou 5 (on voit nettement un gros air de famille… le studio qui a fait Nsacar 25 pour le compte d’iRacing est justement celui qui avait fait la série Nascar Heat…) : Nascar 25 ne va pas vous apporter beaucoup.

Tout cela (ce positionnement) peut facilement s’expliquer : iRacing n’allait pas tuer la poule aux œufs d’or en proposant une simu en bonne et due forme alors qu’elle a déjà sa formule mensuelle (que je connais bien, je suis membre depuis 2008). En revanche, vouloir élargir son marché avec une version dédiée et facile à prendre en main, ça fait sens…

Bon, dans dix jours on va pouvoir tester PMR et là, il n’y aura pas d’excuse : soit c’est un banger (et ça va faire mal à AMS2, ce que je ne souhaite pas), soit ça va vite être rejeté comme une tentative ratée… Nous verrons.

Publié dans Sports mécaniques virtuels | 2 commentaires

Le plaisir de rouler à moto dans la campagne, loin des autoroutes !

Essayons de nous concentrer sur quelque chose de positif. Je vais partager avec vous ce qui me fait du bien, comme une fontaine de jouvence : faire un petit tour de moto dans la campagne environnante !

Avec moi, cela fonctionne toujours : je n’ai pas besoin de faire une grande virée, 50 km suffisent amplement et je reviens chez moi avec le sourire.

Je n’ai pas de machine à vous recommander. Je roule de préférence avec des motos des années 80 car ce sont celles qui m’ont fait rêver à l’époque (et je trouve les machines modernes un peu fades…). J’ai mis ci-dessous deux vidéos de mes différentes expériences à deux-roues en France et en Floride. A bientôt sur les routes !

Publié dans à travers mes découvertes, Enjoy the ride | Un commentaire

Éclatement de la bulle IA, le jour d’après

Le jour d’après, il s’agit d’après l’éclatement de la bulle IA. Et soyons clairs, j’avais annoncé à de nombreuses reprises que cette bulle allait éclater et là, j’ai un retard d’au moins un an !

Cela prouve seulement, une fois de plus, qu’il est beaucoup plus facile de prévoir le “quoi” que le “quand” voire même le “comment”. Sur le “comment”, on peut imaginer que finalement cette bulle éclate mais que ce soit à cause d’un élément extérieur : une forte baisse au niveau de Wall Street par exemple qui provoque l’effondrement du château de cartes et, par voie de conséquence, l’éclatement de la bulle IA.

Le château de cartes de l’IA ! -image générée par Gemini-

Tout cela a peu d’importance car on sait tous, plus ou moins consciemment, que cette bulle finira par éclater. Ce que je vous propose aujourd’hui, c’est de se pencher sur les conséquences du “jour d’après” justement. 

Tout d’abord je prévois que la destruction de valeur sera très importante, bien plus que lors de l’éclatement de la bulle Dotcom au début des années 2000 et tout à fait comparable à ce qu’on a connu avec la crise des subprimes en 2008. Le cataclysme financier sera tel qu’il provoquera l’arrêt brutal de tous les projets de construction de data center et qu’une bonne partie des Data Center déjà construits seront abandonnés et retourneront à la poussière comme des silhouettes pétrifiées d’une époque révolue.

Voilà ce qui restera des centaines de Milliards dépensés ! -image générée par Gemini-

Il y aura quand même des conséquences positives, comme la chute de Sam “scam” Altman (et, avec un peu de chance, le voir aller en prison rejoindre SBF !).

Également, on verra tous ces idiots utiles qui n’arrêtent pas de répéter que l’IA est une révolution, que c’est formidable, que c’est du jamais vu, que plus rien ne sera comme avant et cetera. Eh bien ces idiots (je me retiens de ne pas dire  “ces crétins congénitaux”) auront le bec cloué, au moins sur ce sujet. Car, bien sûr, ils se seront reportés sur la nouvelle technique à la mode comme par exemple les ordinateurs quantiques. Parlons-en rapidement : Les ordinateurs quantiques restent un horizon lointain, très lointain et il est absurde de parler “d’informatique quantique” alors que la pièce du puzzle principal que sont les ordinateurs ne sont même pas encore complètement au point. En plus, c’est oublier que tout ce qui est logiciel nécessitera une réécriture complète… Ah oui, là tout de suite, vu comme cela, ça calme hein ! 

Si je m’occupais encore de recrutement je dois dire que j’examinerai à la loupe tout ce que le candidat (qui aurait la malchance de se présenter devant moi) a publié sur LinkedIn et si je trouve ne serait-ce qu’une seule allusion à “l’IA magique qui va tout changer”, bing, le candidat est recalé. Heureusement pour ces idiots ça fait un moment que je ne m’occupe plus du recrutement. 

Publié dans Anecdotes IT, La terrible vérité | 3 commentaires

Une histoire de l’informatique moderne, épisode 33 : les personnages injustement méconnus (et je tente d’y remédier…) !

Voici une galerie de portraits hautement subjectives : j’ai choisi d’évoquer des personnages importants de cette histoire de l’informatique moderne mais dont les noms sont peu ou même pas connus du tout !

C’est le dernier épisode de cette série, hé oui !

J’ai commencé cette série en avril 2024 et il m’a donc fallu plus d’un an pour la terminer. Est-ce pour autant totalement terminé ?

Oui et non. Oui, il n’y aura pas d’autre épisode, on a fait le tour !
Non, j’ai encore quelque chose à faire : tout rassembler en une seule vidéo… Oui, voilà sur quoi je vais travailler désormais : assembler tous les épisodes dans l’ordre pour en faire une seul vidéo (qui promet d’être longue !) avec des commentaires (quand c’est justifié) entre les épisodes…

Et là, vraiment, je pourrais dire que ce projet est bouclé !

Publié dans Anecdotes IT, documentaires IT, Informatique, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire

Quand éclatera la bulle de l’IA…Par Ploum.net

De temps en temps, je vous recommande  des textes d’un blogueur qui signe sous le nom de ploum.net (qui a pour seul défaut d’utiliser -peu, heureusement !- l’écriture inclusive).

Cette fois, Ploum nous prévient que l’éclatement de la bulle de l’IA est proche et inévitable, tout comme que le répété sans cesse depuis deux ans.

Pour vous motivez à le lire, voici quelques extraits choisis :

  • Tout le monde est en train de perdre une fortune à investir dans une infrastructure IA que personne ne veut payer pour utiliser.
  • Spoiler : personne n’a compris la leçon (si spoiler gâche réellement une œuvre, c’est que l’œuvre est merdique).
  • le capitalisme a besoin de croissance ou, au moins, la croyance d’une croissance future.
  • Nous avons atteint un point de saturation technologique.
  • Qu’en sera-t-il de la bulle IA dans laquelle nous sommes ? Les datacenters construits seront rapidement obsolètes. La destruction sera énorme.
Publié dans à travers mes découvertes, La terrible vérité | Laisser un commentaire

Le Mans 2005 sur Automobilista 2, non ? Si !

La toute dernière mise à jour d’Automobilista 2 (AMS2) est un must-have, absolument !

Avec cette 1.6.8,5, on a un plateau presque complet des 24h du Mans 2005 avec des voitures formidables telle que la Viper !

Il y a encore des défauts comme l’Audi R8 qui est trop lente en vitesse de pointe mais je gage que cela va finir par être corrigé. Il y a aussi des variations des circuits comme le tracé du Mans, Spa et Road Atlanta qui sont tous proposés en version 2005. Dans un premier temps, je n’en voyais pas l’intérêt (quand j’ai découvert tout cela dans la beta) de versions 2005 (en particulier sur Le Mans) mais j’ai vite changé d’avis en essayant : surtout en ce qui concerne le tracé de la Sarthe, les différences sont minces (le profil de la chicane Dunlop et du virages Tertre Rouge sont différents ainsi que celui du Karting) mais très significatives quand on les aborde à pleine vitesse !

C’est d’ailleurs fascinant de constater combien on (je) est conditionné par les centaines de tours parcourus sur le tracé actuel. J’y ai des dizaines de repères qui se sont évaporés dans la version 2005. Du coup, il m’a fallu un certain temps pour retrouver mes marques et arriver à enchainer des tours corrects. Désormais, j’apprécie encore plus cette version et je suis bien content que Reiza ait fait l’effort de mettre à jour ces tracés (Spa présente l’ancienne chicane qui est bien meilleure que la présente, selon moi…).

Bien sûr, il est évident que Reiza ait déclenché cette avalanche de contenus juste avant le sortie de PMR (Project Motor Racing) pour « désamorcer » l’effet nouveauté de PMR. De la même façon, il y a actuellement en beta trois générations de Nascar qui sont simplement extraordinaires (j’en parle déjà ici) et qui vont servir à contrecarrer la sortie de Nascar 25 sur PC. Bon, je pense que ces jeux concurrents ne vont pas trop être affectés par ces manœuvres mais c’est bien qu’il y ait cette concurrence, ça force Reiza à se bouger !

Publié dans Sports mécaniques virtuels | Un commentaire

Une histoire de l’informatique moderne, épisode 32 : les grands tournants de cette histoire.

Les grands tournants sont moins nombreux qu’on ne l’imagine et pas forcément toujours sur le plan technique !

C’est ce que vous allez pouvoir vérifier dans ce nouvel épisode :

En toute honnêteté, je dois avouer que cet épisode est bien meilleur que le précédent !
Dans l’épisode 31, mon expression n’est pas très bonne (et beaucoup trop de « euh… » !). C’est bien mieux cette fois. Bon, me reste à terminer l’épisode 33 et on sera au complet !

Publié dans Anecdotes IT, documentaires IT, Une histoire de l'informatique moderne en vidéos | Laisser un commentaire