Pourquoi avoir créer un compte sur Twitter ?

Je suis resté à l’écart de Twitter pendant toutes ces années et ce n’est pas la récente prise de contrôle par Elon Musk qui m’a fait changer d’avis…

Mais voilà, je viens de recevoir une invitation pour participer à un « Twitter Space » : Web3 simple illusion ou véritable révolution ?

Et, bien entendu, je vais y jouer le rôle du sceptique !

Seulement pour cela, il fallait avoir un compte Twitter… Nécessité fait loi, j’ai franchi le pas.

Publié dans Ce blog, divers | Laisser un commentaire

Les motos que j’aimerais essayer…

Dans mon parcours de motard, j’ai eu l’occasion d’essayer de nombreuses machines. Tellement nombreuses d’ailleurs que je pense qu’il sera bien plus rapide de faire la liste des motos qu’il me reste à essayer. Ceci dit, ai-je envie d’essayer toutes les machines possibles ?

Evidemment non. Certaines m’attirent, d’autres pas du tout. Donc, dans ce post, on va se concentrer seulement sur celles qui me donnent envie aujourd’hui. En juillet 2017 (le temps passe vite !), j’avais déjà rédigé cette même liste mais, de façon intéressante, cinq ans après, cette liste n’est plus exactement la même… Voyons cela ensemble.

En 2017, ma liste de souhaits comprenait les motos suivantes :

  1. Yamaha XS1100 (1979)
  2. Triumph Trident (1969)
  3. Honda CX500 (1978)
  4. BMW R90S (1974)
  5. Yamaha RD350 (1973)
  6. KTM 390 Duke
  7. Triumph Daytona (1966)
  8. KTM 400 Enduro (1976)
  9. Suzuki T500 (1972)
  10. Yamaha TX750 (1973)

Commençons par énumérer celles qui sautent de ma liste réactualisée : la Yamaha XS1100, la Yamaha RD350, la BMW R90S, la Triumph Daytona et la KTM 400 enduro.

La XS1100 parce qu’elle est lourde et que les machines lourdes me font réagir négativement désormais. La RD350 parce que c’est une petite nerveuse et je n’ai plus l’envie de jouer du sélecteur continuellement pour « rester dans les tours »… La R90S parce que j’ai déjà essayé des BMW de cette période et de cette cylindrée (la case est cochée donc), la Triumph Daytona parce que c’est une erreur de la liste précédente (!) et la KTM 400 parce que je n’ai plus l’énergie nécessaire pour maitriser longtemps un tel monstre… Voilà, la liste est nettoyée, que reste-t-il ?

  1. Triumph Trident (1969)
  2. Honda CX500 (1978)
  3. KTM 390 Duke
  4. Suzuki T500 (1972)
  5. Yamaha TX750 (1973)

De la Triumph Trident (ou de la BSA Rocket III et, oui, je sais, il ne s’agit pas tout à fait de la même machine…), je n’attend pas grand-chose… Mais, quand même, par curiosité, j’aimerais pouvoir rouler avec, même très peu, pour « voir ». Ceci dit, rien que sur le côté « look », on peut dire que les anglais se sont loupés dans les grandes largeurs : alors que la CB 750 Honda respire la modernité (pour l’époque !), la Trident ou la Rocket III font vieillottes, pour ne pas dire pire !

mouais...

La Honda CX500 (avec son esthétique « massive »…) est une moto qui m’a toujours intrigué et, en fait, la VT500 qui lui a succédé aussi. Voici bien deux machines que j’aimerais essayer pour voir comment Honda a dosé ses ingrédients pour proposer une moyenne cylindrée « idéale »…

Je n’ai jamais pu essayer la moindre KTM (ni aucune Laverda d’ailleurs !), donc, n’importe laquelle ferait l’affaire pour avoir une impression de ce que cela fait de rouler en « katoche »…

Dans un tout autre domaine, la Suzuki T500 représente le deux temps « raisonnable » à l’époque où ce n’était pas encore une préoccupation. Donc, forcément, je suis intrigué par la bête et souhaiterais en savoir plus sur ce que peut faire cet engin qui a été très prisé en son temps…

Enfin, on en arrive à ma préférée : la Yamaha TX750, celle qui a eu un destin contrarié. Oui, celle-ci, j’aimerais vraiment la sentir vibrer parce que, justement, parait qu’elle ne vibre pas du tout (et ça donne envie de vérifier, forcément !). C’est le premier twin japonais avec balanciers d’équilibrage mais ses concepteurs ne s’attendaient pas à ce que les motards européens tirent dessus comme des bêtes !

Pour conclure, ajoutons au moins une moto à cette liste hétéroclite : une Norton !

Là encore, il s’agit d’une marque que je n’ai jamais pu approcher, même de loin. Alors, essayer une Commando, ça ne se refuserait pas !

 

Publié dans Enjoy the ride | Laisser un commentaire

Une vidéo sur la démarche de réglages pour le SimRacing

Souvent considéré comme intimidant, le domaine des réglages d’une voiture de course n’est, en fait, pas si compliqué si on applique une démarche et un peu de bon sens.

C’est ce que je me suis efforcé de vous proposer dans cette vidéo (assez longue, j’en conviens) qui vous permettra de faire vos premiers pas dans ce domaine et de progresser très vite par la suite…

Les articles à lire en complément :

Les fondamentaux du pilotage sur circuit… chapitre 7

Une démarche de réglages pour le SimRacing, chapitre 8

Publié dans Ce blog | Laisser un commentaire

Etudions l’évolution de la F1 des années 70/90 grâce à Automobilista 2

J’avais déjà exploré un peu cette avenue avec Assetto Corsa où j’ai pu comparer les dernières F1 à moteur avant et les première avec le moteur en position centrale… à revoir à « Tu te prend pour Fangio ? » ou la simulation permet de revisiter les voitures les plus célèbres de l’Histoire du sport-auto.

Aujourd’hui, je vous propose d’aller plus loin dans cette quête et d’utiliser Automobilista 2 afin de mesurer les différences de performances des F1 au fil des ans. En fait, on va se limiter ici à la fin des années 60 pour aller jusqu’à la fin des années 90 et ça sera déjà pas mal. Comparaison n’est pas raison dit-on fort justement mais on va tout de même tenter de poser des bases identiques afin que nos chiffres puissent indiquer une tendance.

Tout d’abord, le circuit. J’ai choisi Silverstone dans sa version « 1975 » avec sa fameuse chicane à Woodcote avant la ligne de départ/arrivée mise en place après le monstrueux crash du GP de 1973 où Jody Scheckter a réussi à décimer le peloton !

Voilà à quoi ressemble ce tracé traditionnel qui n’existe plus désormais :

Le Silverstone de ces années-là est un tracé rapide mais pas tout à fait autant que Monza ou Zeltewg (c’est comme cela qu’on appelait l’ancien tracé du Red Bull Ring…). La chicane de Woodcote est intéressante car bien dessinée : pas trop lente ni trop rapide. Cela m’a paru être un tracé approprié pour évaluer (rapidement) les F1 de ces époques.

Donc, toutes les voitures testées ci-dessous l’ont été sur ce tracé. Et aussi, toutes avaient du carburant afin de pouvoir parcourir dix tours de circuit et étaient laissées avec le setup de base (celui qu’on trouve dans Automobilista 2). Le but n’étant pas de signer une performance mais d’avoir des données comparables…

Avec chaque voiture, je me contentais d’effectuer trois tours lancés et retenais le meilleur chrono de ces trois tours. Bref, ces conditions expliquent pourquoi vous allez trouver que mes chronos sont plutôt « lents » par rapport au potentiel réel de chaque voiture…

La Brabham BT26 de 1969/70.

On commence avec cette BT26 des saisons 69/70 avec 1’28″5 comme meilleur temps des trois tours lancés. Clairement, le pilotage ici est obligatoirement très coulé car la BT26 n’aime pas être brutalisée, on doit la respecter !

La Brabham BT44 de 1974/75.

Avec la BT44, on sent déjà le changement : il y a plus (bien plus !) d’appuis et la voiture accepte qu’on attaque un peu. Du coup, 1’23″2, ça fait quand même plus de cinq secondes moins en l’espace de 4/5 ans, ça cause !

La Brabham BT46B (la fameuse « fan-car ») de 1978.

La Brabham « aspirateur » en demande encore plus et le chrono s’en ressent : 1’16″9 !
Cette fois, on a gagné plus de sept secondes en l’espace de quatre ans… ça commence à faire sérieux !
Par rapport à la BT26, ça fait déjà plus de douze secondes au tour de gagné… un gouffre !
Et le rythme de la progression des performances est impressionnant : on va de plus en plus vite au fil des ans… Forcément, il fallait faire « quelque chose » !
Ceci dit, la voiture reste « pilotable » et on n’a pas -encore- l’impression que ses performances dépassent vos capacités à les exploiter.

La McLaren MP4/1 de 1983.

En 1983, premier coup d’arrêt brutal de la réglementation technique : terminées les wing-cars, voilà les fonds plats obligatoires… Du coup, avec 1’15″9, on a juste gagné une seconde en cinq ans !
Il faut comprendre que laisser les wing-cars se développer sans limite, c’était rendre la plupart des circuits totalement inutilisables rapidement.
Pourtant, même avec une réduction d’appui radicale (passer de l’effet de sol au fond plat, c’était bien quelque chose de radical !), je trouve que la voiture reste (est) intéressante à piloter et plutôt équilibrée.

McLaren MP4/2C de 1986.

Avec la McLaren de 1986, on sent le souffle du turbo : l’arrivée de la puissance en sortie de virage conditionne assez largement votre pilotage (qui, du coup, est quand même bien plus délicat que pour les générations précédentes).

L’apport de puissance bien réel permet de boucler un tour en 1’10″1, soit presque six secondes de mieux que la version 1983… de nouveau, l’écart s’est accru.

La McLaren MP4/4 de 1988.

La version 1988 est la dernière année du « tout turbo » est les restrictions au niveau pression du turbo se font sentir… le pilotage est plus facile (la voiture a progressé en tenue de route aussi…) mais le gain est moindre : moins de deux secondes de gain par rapport à 1986 (meilleur tour en 1’09″5). Avec cette génération de voiture, il faut privilégier un pilotage basé sur l’attaque plutôt que la fluidité : ce qui vous rendait rapide avec la BT44 fait que vous êtes lent avec la MP4/4. A partir de là, la bascule dans le style et l’efficacité est nette. Or, un pilote comme moi est bien plus à l’aise avec les voitures « low grip » (où la fluidité est récompensée) qu’avec ces voitures « hi grip » où il ne faut pas hésiter à « envoyer » pour faire un temps correct.

La McLaren MP4/7A de 1992.

L’impression déjà ressentie avec la MP4/4 de 1988 est encore nettement accentuée avec la version 1991/92 (MP4/7) : le moteur atmosphérique est bien moins brutal que le turbo et le grip général de la voiture a encore nettement progressé, d’où la nécessité d’une attaque à outrance pour avancer pas trop lentement. Avec cette voiture, j’ai bouclé mon meilleur temps (toujours seulement trois tours lancés) en 1’06″6, soit quasiment trois secondes de mieux qu’en 1988. Et ça nous met à plus de dix secondes de mieux que la BT46B (la voiture aspirateur) qui a été bannie dès sa première course car trop performante…
Avec ce niveau de performances, le circuit de Silverstone (dans sa version 1975) commence à montrer ses limites : pas assez de gros freinages, pas assez d’endroits sélectifs où il faut « doser ».

La McLaren MP4/12 de 1997.

Dernière voiture de ce test comparatif, la McLaren MP4/12 de 1997. Cette fois, la progression de la performance n’a pas lieu par rapport à la génération précédente (1991/92) car la réglementation technique a subie un nouveau coup d’arrêt après les accidents de Senna (Imola 94) et Wendlinger (Monaco 94). Le pouvoir sportif a banni tous les systèmes électroniques (qui avaient connus un pic avec la saison 1993) et a raboté autant que possible les dispositifs aérodynamiques pour tenter de ralentir les voitures.

Ces restrictions ont eu un effet (avec 1’07″6, mon meilleur temps est quand même en régression par rapport à la McLaren MP4/7) mais, au volant, ce n’est quand même pas convaincant : la MP4/12 me donne l’impression d’être un vrai « tapis volant » et je n’arrive pas à m’exprimer avec ce type de voiture : trop performante pour moi.

Aller au-delà de cette MP4/12 n’avait pas beaucoup de sens car le tracé de Silverstone dans sa version 1975 commence alors à sérieusement dater : il n’y a plus que deux vrais freinages avec les F1 post-90 et on comprend que pour un certain type de voiture, il faut un certain type de circuit.

C’est là tout le problème des voitures modernes : elles sont tellement performantes que la moindre ligne droite doit être aussitôt tronçonnée pour éviter d’accrocher de trop grandes vitesses…

Sinon, que peut-on déduire de cet exercice (qui a ses limites bien sûr) ?
Tout d’abord que les progrès techniques incessants permettent de toujours aller plus vite sur un tour (quelle surprise !) mais aussi qu’on constate un vrai ralentissement de la progression (qui, toutefois, ne cesse pas) à partir de l’instauration du fond plat : les records sont toujours battus mais moins vite et de façon moins spectaculaire que lors de la décennie 70.

Ensuite, passé la période turbo, même avec le fond plat, les progrès techniques transforment les voitures qui demandent alors un pilotage qui n’a plus rien à voir avec le « pilotage subtil » qui prévalait. Donc, si vous appréciez les voitures « vintages », ne soyez pas étonnés d’être peu compétitifs sur les voitures modernes (surtout les monoplaces !). Mon fils Justin qui a 13 ans est systématiquement plus rapide que moi sur les voitures modernes alors que c’est l’inverse quand on se confronte sur des voitures « anciennes »…

Publié dans Ce blog | Laisser un commentaire

Les fondamentaux du pilotage sur circuit… chapitre 7

Ceci est la reprise du chapitre 7 de mon livre sur le SimRacing que je publie ici afin de compléter une vidéo sur ce sujet (les réglages de la voiture) que j’ai publié sur YouTube…

============

7- Le pilotage d’une voiture de course…

L’importance du contexte pour orienter les réglages

Tout d’abord, il est important de comprendre qu’on va toujours orienter la démarche de réglages en fonction du contexte et de l’objectif visé. Le contexte est très variable puisqu’on ne va pas régler la voiture de la même façon si l’on est dans une séance de qualifications ou si on la prépare pour la course, si il s’agit d’une course sprint ou de longue distance, selon la météo, la catégorie (et donc le type, la construction et même l’architecture générale de la voiture en question) et encore d’autres paramètres que nous passerons en revue un peu plus loin. On le voit, l’enveloppe des réglages en fonction du contexte est déjà très vaste et complexe !

Mais, en plus de l’importance de l’environnement à prendre en compte, il faut aussi et surtout tenir compte de l’objectif à atteindre… En effet, il serait naïf de penser qu’on va régler la voiture uniquement dans l’optique de la rendre plus performante car alors, on n’arriverait à rien de concret. Car, en fin de compte, la performance potentielle ne veut rien dire, seule compte vraiment la performance réelle dans un contexte donné. Et l’élément N° 1 de ce contexte, c’est le pilote lui-même, celui qui est au volant et qui doit être en mesure d’exploiter tout ce potentiel pour être performant en piste… Une fois qu’on a compris cela, on sait qu’il est inutile de confier la voiture la « meilleure possible » en théorie si celle-ci n’est pas adaptée à son pilote.

En pratique, on sait bien qu’une voiture réglée pour être facile à conduire va être emmenée bien plus rapidement par son pilote que la même réglée uniquement dans une optique de performance pure, mais difficile à contrôler par ce même pilote. C’est pour cette raison que les ingénieurs acceptent d’ajouter de l’appui aérodynamique si le pilote se plaint de la stabilité de sa monture au freinage même en sachant que cela va réduire la vitesse de pointe : le gain de confiance ainsi obtenu va immédiatement se traduire par de meilleurs temps au tour alors que, en théorie, on aura un peu réduit la performance optimale de l’engin…

Tout cela pour dire qu’on règle toujours en ayant ces deux impératifs en tête :

1— rendre la voiture « facile à conduire » afin qu’elle soit bien exploitée par son pilote,

2 — adapter la voiture aux contraintes du moment (type d’épreuve, type de tracé, etc.).

Les réglages pour faciliter le pilotage, pas pour masquer les lacunes de ce dernier

Donc, la notion de performance optimale théorique n’entre jamais en ligne de compte puisque c’est bien là le moyen le plus sûr de se fourvoyer. C’est aussi pour cette raison que les réglages sont bien quelque de chose de très personnel. Même si le pilote le plus rapide de votre ligue partage ses fichiers de réglages avec vous, ce n’est pas forcément cela qui va vous faire aller plus vite si ces derniers ne sont pas adaptés à votre pilotage.

De plus, il est critique de comprendre comment votre pilotage peut influencer le comportement de votre voiture pour appliquer les bons réglages qui vont optimiser votre voiture et non pas masquer une mauvaise pratique de votre part. Un exemple pour illustrer cette autre façon de se fourvoyer…

Mettons que vous avez décelé une nette tendance au sous-virage en entrée de virage. On peut facilement combattre et corriger cette tendance en changeant la répartition du freinage (en ajoutant plus de freins sur le train arrière en l’occurrence), mais est-ce bien la bonne solution à appliquer ?

Et si ce sous-virage n’avait pas plutôt pour origine une volonté excessive du pilote de « rentrer fort » (trop fort !) dans le virage ?

En effet, si vous avez tendance à freiner très tard et très loin dans le virage, vous allez sans doute trouver que la voiture est plutôt sous-vireuse alors que son équilibre est bon quand on la pilote de façon « normale »…

Sous-virage et survirage sont des notions qui reviennent tout le temps quand on décrit l’attitude d’une voiture de course et qu’il est important de comprendre une bonne fois pour toutes si on veut savoir décrire et analyser le comportement de sa voiture dans une situation donnée.

Pour faire simple, contentons-nous de cette définition : le sous-virage, c’est quand le train avant de la voiture glisse… La trajectoire s’élargit vers l’extérieur du virage. Le survirage, c’est lorsque le train arrière se met à glisser… Le nez de la voiture se met alors à pivoter vers l’intérieur du virage.

Le but des réglages est d’obtenir un bon équilibre entre ces deux tendances qu’on va retrouver tour à tour selon le type de virage, l’usure des pneus et d’autres paramètres. Aucune voiture n’est fondamentalement sous-vireuse ou survireuse, car les réglages permettent toujours de combattre ces tendances ou, au moins, de les amoindrir fortement.

Certains pilotes détestent piloter une voiture avec une tendance sous-vireuse alors que pour d’autres, ce sera exactement l’inverse. Une fois de plus, c’est là qu’on voit qu’on règle une voiture en fonction des préférences de son pilote. Le but est que le pilote soit « confortable » au volant afin qu’il puisse donner le meilleur de lui-même et non qu’il soit obligé d’affronter sa voiture (comme disent les Américains : you race the track, you don’t race your car… soit, à peu de choses près, « vous luttez contre le circuit, pas contre votre voiture »).

Bien évidemment, le comportement en entrée de virage va aussi et surtout dépendre de l’équilibre de la répartition du freinage… Avec une prépondérance sur l’avant, la voiture va être plutôt sous-vireuse alors qu’avec plus de freins sur le train arrière, la même voiture va se révéler plutôt survireuse…

Le type de la voiture va aussi peser : une traction avant sera plutôt sous-vireuse au moment de la remise des gaz alors qu’une voiture avec beaucoup de poids à l’arrière comme une Porsche sera plutôt survireuse en entrée de virage… Et on rencontre une grande diversité de cas !

Donc, ce qui est dit plus haut est basé sur une voiture qui est déjà équilibrée sur le plan de la répartition du freinage (on reparle de cette question un peu plus loin)… Sinon, commencez par vous pencher sur ce point !

Puisque c’est le ressenti du pilote qui va déterminer les changements à apporter, il est important de ne pas se tromper et de ne pas se retrouver à combattre une tendance de la voiture qui, en fait, n’existe pas vraiment… Donc, vous devez toujours vous interroger quand vous êtes confronté à un comportement qui vous gêne : n’est-ce pas dû à moi plutôt ?

Et si je me plaçais là au moment de freiner, ne serait-ce pas différent ?

C’est aussi à ce niveau que les très bons pilotes font la différence : ils ne vont pas confondre comportement réel de la voiture avec leurs fautes de pilotage qui induisent telle ou telle réaction gênante ou parasite. Et ne vont donc pas chercher à corriger un phénomène qui n’existe pas quand on pilote « comme il faut ». Cette restriction n’est pas contradictoire avec la règle maintes fois répétée qui veut que les réglages soient déterminés par le feeling et les préférences du pilote. Cette règle n’est évidemment valable que si et seulement si le pilote en question est capable de déceler une vraie tendance au sous-virage (ou au survirage) dans telle ou telle situation et non une réaction marginale due aux lacunes de son pilotage… Car on ne doit intervenir sur les réglages que quand et où c’est nécessaire : bidouiller dans les réglages à tort et à travers est la meilleure façon de vous perdre en chemin et d’arriver à un résultat médiocre.

D’où la nécessité de tourner de manière régulière pendant ces essais afin de bien pouvoir comparer les effets des réglages et ne pas confondre une amélioration (ou une détérioration) avec un changement de rythme de votre part. On voit ici que notre approfondissement de la culture du sport auto passe aussi par une digression sur quelques fondamentaux du pilotage, cela permettra de continuer sur de bonnes bases avant de vraiment parler de la démarche de réglages…

Pilotage, quelques notions de base…

Le pilotage est « un art simple et tout d’exécution »… Les actions possibles sont limitées : accélérer, freiner et braquer (on doit aussi ajouter « changer de vitesse », mais cette action peut être incluse avec « accélérer » ou « freiner » selon les cas…). Des trois, c’est la première qui compte le plus (c’est-à-dire, qui a le plus d’influence sur votre performance ainsi que sur le comportement de votre voiture) car plus longtemps vous restez en phase d’accélération et plus vous allez vite, au moins en théorie. Le pilotage, c’est le timing — précis — de ces trois actions.

Les résistances à l’avancement sont le vent (les forces aérodynamiques) et le volant (à travers le braquage des roues avant) : souvenez-vous qu’on a souvent tendance à trop braquer. Donc, pour aller vite, on va chercher à être plus souvent en train d’accélérer que de freiner et on va essayer de minimiser ses actions sur le volant… Vu comme cela, cela paraît assez simple, non ?

Négocier un virage comprend les quatre phases suivantes : avant le point de braquage (associé à la zone de freinage la plupart du temps), le point de braquage, le point de corde (aussi appelé « apex ») et le point de sortie. C’est dans ces quatre phases que l’on va enchaîner les actions suivantes : se placer à l’extérieur du virage, freiner, s’inscrire dans le virage en braquant, prendre une trajectoire qui permet de plonger à l’intérieur du virage et de rejoindre le point de corde, et enfin accélérer et débraquer pour s’extraire du virage et rejoindre le point de sortie à l’extérieur.

La trajectoire idéale se résume toujours à « extérieur-intérieur-extérieur » pour les virages simples. C’est un peu plus compliqué dans les enchaînements car il faut souvent sacrifier un peu le premier virage afin de préserver un bon placement pour le second.

Pilotage seul ou en peloton, pareil ou différent ?

C’est très différent : rouler seul est beaucoup plus facile que de rouler en paquet. Cela signifie aussi qu’il y aura deux modes de pilotage : seul où l’on cherche à gagner du temps en tirant ses trajectoires au maximum et en groupe (ou en peloton) où l’on cherche à gagner des places et à protéger sa position. Selon les cas, les trajectoires, les manœuvres, mais aussi les chronos (on est plus lent en course qu’en essais généralement) vont varier sensiblement.

Rouler en groupe est très éprouvant pour les nerfs (mais très excitant aussi !) et je vous recommande de toujours porter votre regard au-delà de votre adversaire immédiat — même si c’est difficile —, pourquoi ?

Si ce concurrent se sort, il y a de bonnes chances que vous le suiviez ou que vous l’accrochiez si votre regard est trop focalisé sur lui. Ce qui nous conduit à la question classique « comment fait-on pour doubler ? »…

Doubler : de la méthode, svp !

Déjà, il faut bien connaître le circuit et ses points clés car il y a toujours des endroits plus favorables que d’autres aux dépassements (et même certains endroits où il ne faut absolument PAS tenter un dépassement !). Ensuite, il faut observer son adversaire sans se coller à lui (voir plus haut) afin de repérer les endroits où il est moins rapide que vous. Enfin, il faut préparer sa manœuvre bien à l’avance : un ou deux tours pour repérer et choisir l’endroit de l’attaque, un demi-tour pour prendre de l’élan (on a laissé un peu de distance et on fonce à nouveau pour combler l’écart) et enfin, porter son attaque de façon irrésistible.

Ce dernier point est important : quand on s’est décidé et qu’on s’est préparé, à l’endroit choisi, il faut y aller sans hésitation et en y mettant le paquet. Une attaque qui échoue (et souvent dans le bac à graviers en plus…) c’est une attaque mal préparée, mais surtout mal exécutée.

Pour finir, retenez cette ligne directrice : aux essais, on fonce alors qu’en course, on gère !

En course, le chrono compte, mais pas tant que cela (à moins d’être vraiment lent), la régularité prime puisqu’il suffit d’une sortie de route, même légère, pour effacer tous les records… Enfin, pour aller vite, la clé ce n’est pas l’attaque, c’est l’aisance. Donc, travaillez en priorité votre facilité de pilotage, le reste viendra tout seul.

Un gouffre qu’on mesure en secondes…

Il faut savoir être patient et méthodique car, disons-le, c’est très délicat d’aller vraiment très vite !

Il y a un monde entre un tour de piste en une minute et quarante secondes (par exemple) et le même tour de ce circuit en 1’35.

Pour rentrer dans ce cercle magique des ultimes fractions de temps au tour, il faut maîtriser la machine, l’environnement et appliquer une série de gestes rapides et précis que l’on doit exécuter sans précipitation…

Vision et vitesse de défilement

Tout le secret tient dans la « vision » que l’on a des choses et de la vitesse interne (dans votre cervelle !) de défilement des gestes et des événements. Plus cette vitesse interne est basse et plus, en retour, on a la possibilité d’aller vite car on dispose du temps nécessaire pour exécuter les gestes et prendre les décisions. Il s’agit là du fameux « piloter lentement » théorisé par Stewart et affiné par Lauda. Sans atteindre la maîtrise de ces deux pilotes d’exception, j’ai pu, quelquefois, sentir ce sommet de sensation qui vous fait aller plus vite que vous ne le pensiez possible.

J’ai remarqué que le stress du pilotage provenait de la « charge de travail » (l’ensemble des gestes à accomplir dans un ordre et un temps donné). Plus la charge de travail est élevée et plus le pilotage est ardu. Dans cette situation, si on veut aller plus vite, on se met à « surpiloter » (ce qui se traduit par des glissades, des écarts de trajectoires ce qui aboutit à des pertes de temps) car nos capacités d’analyses et de décisions sont déjà saturées (c’est ce que l’on appelle la « surcharge cognitive » dans le jargon des pédagogues…).

C’est ici qu’intervient encore la notion de vitesse de défilement. Si vous êtes capable de visualiser à l’avance (d’anticiper donc) ce que vous avez à faire, vous êtes alors plus serein pour choisir le bon moment pour accomplir le prochain geste et le faire avec plus de précision, d’autorité, de maîtrise. Il y a un écart gigantesque en termes d’efficacité entre une manœuvre (freiner puis braquer) exécutée avec calme, et la même faite en « mode panique »…

Pilotage à l’instinct ?

C’est principalement dans l’accroissement de cette capacité à accepter la « charge de travail » que votre pilotage va progresser. Cela peut éventuellement surprendre d’afficher ainsi une approche aussi « intellectuelle » du pilotage alors que cette discipline peut paraître comme un exercice essentiellement instinctif. Je crois au contraire que la part d’instinct doit être réduite (toutefois, elle ne peut être complètement effacée) et qu’il faut être capable de comprendre et ressentir ce que l’on fait et pourquoi on le fait. Selon moi, c’est seulement ainsi qu’on peut réellement progresser et aller tout à la fois plus vite, mais aussi plus sûrement.

Faible inertie sur ses trois axes

Grossièrement, un véhicule va osciller autour de trois axes en réaction aux forces qu’il subit : l’axe de roulis, l’axe de tangage et l’axe de lacet.

Sur l’axe de roulis, votre voiture de course va se balancer vers la gauche ou vers la droite en fonction de la force centrifuge. Typiquement, dans un virage à gauche, l’engin va se pencher sur la droite (comme un voilier qui prend du gîte sous le vent de travers…). Sur l’axe de tangage, lors du freinage, l’engin va piquer du nez vers le sol alors que pendant l’accélération, le nez va plutôt pointer vers le ciel (représentation évidemment exagérée, mais c’est pour me faire comprendre…). Enfin, l’axe de lacet, c’est le plus spectaculaire, mais, en fait, il résulte seulement des forces exercées sur les deux autres axes. Le mouvement de lacet qui va affecter votre voiture en virage va provoquer une glissade du train avant (la voiture pivote autour d’un axe qui traverse votre châssis du haut vers le bas) ou du train arrière, c’est tout pour la théorie.

Par rapport à une voiture de tourisme, la voiture de course a des réactions très vives, montre peu d’inertie, présente des mouvements d’ampleur limitée sur les axes de tangage et de roulis et est particulièrement sensible au niveau de l’axe de lacet.

De l’importance du débraquage…

En pratique, c’est surtout autour de l’axe de lacet qu’on va sentir les réactions de sa voiture aux sollicitations des commandes (volant, frein et accélérateur). Car une voiture de course est suffisamment raide pour que les sensations de tangage et de roulis soient très réduites (mais pas complètement absentes, évidemment) par rapport à une voiture de tourisme ou même une GT.

Ce comportement va être très variable selon le type de voiture de course considérée : une monoplace aura des réactions plus vives et bien moins d’inertie qu’une grosse GT. C’est aussi très sensible selon l’époque de la voiture en question : un proto des années soixante-dix va être beaucoup moins incisif en entrée de virage qu’une monoplace des années 2000 et ainsi de suite. D’ailleurs tous les comportements décrits dans cette section sont à modérer selon le type de voiture de course considérée, à vous d’en tenir compte…

Voilà un point clé et il est bon d’insister un peu dessus : le pilotage d’une voiture de course « ancienne » est très différent de celui des engins modernes…

Pour être tout à fait clair, avec une voiture « historique », rien ne sert de faire le « freinage de la mort » et d’arriver en vrac dans le virage, rater le point de corde et ne pas être en position de réaccélérer au bon moment et au bon endroit. Les quelques centièmes de secondes grignotés dans ce freinage limite se solderont par de gros dixièmes de secondes laissés sur place au moment de sortir du virage…
Au contraire, le pilotage des autos récentes est très agressif dans les phases d’entrée du virage (freinage et braquage) car la rigidité du châssis, l’appui aérodynamique et les progrès des pneus le permettent.

Pour prendre l’exemple d’une monoplace moderne (l’archétype de la voiture de course), dès que vous tournez le volant, la monoplace s’inscrit aussitôt dans la direction voulue et s’enroule autour de l’axe de lacet pour faire pivoter le train arrière ce qui va accentuer encore sa capacité à tourner dans le sens du virage (d’où le terme de « survirage » qu’on emploie pour désigner ce comportement). Si le survirage n’est pas excessif (et c’est le cas la plupart du temps car c’est là le comportement naturel d’une monoplace bien réglée), il suffit de débraquer le volant et d’accélérer progressivement pour s’extraire normalement et rapidement du virage que l’on vient d’entamer.

Si, au contraire, le survirage est important, il faut réagir rapidement en contre-braquant afin d’enrayer la tendance au pivotement et rester sur la trajectoire voulue. Dans le petit monde du pilotage, on fait toute une histoire autour de ce geste-là : le contre-braquage. Comme je viens de l’écrire, contre-braquer est nécessaire pour combattre la tendance au pivotement de l’engin autour de son axe de lacet et qui vient de la glissade du train arrière. Si on laisse faire ce pivotement sans réagir, ça finit toujours en tête-à-queue, d’où la nécessité de combattre cette tendance fatale en contre-braquant et le faisant à temps. Ce geste (tourner le volant rapidement dans le sens inverse du virage) permet de contrôler l’ampleur du pivotement et donc de limiter les effets de la glissade du train arrière. On parle alors de dérapage contrôlé. Contrôlé sans doute, mais pas efficace : le contre-braquage induit forcément un élargissement de la trajectoire, ce qui se traduit par un écart par rapport à la trajectoire idéale, donc un amoindrissement de la vitesse de passage en virage.

Disons-le tout net : ce n’est pas votre capacité à savoir contre-braquer qui fait de vous un bon pilote même si c’est ce geste précisément qui fait fantasmer tous ceux qui rêvent de pilotage sans pouvoir le pratiquer (on n’est quasiment jamais en situation d’avoir à le faire sur une route ouverte au volant d’une voiture de tourisme). Ceci dit, bien savoir contre-braquer n’est pas si simple car, dans tous les cas, il faut savoir doser l’ampleur et le timing de ce geste : pas assez et/ou trop tard et le pivotement continue jusqu’à la perte de contrôle, trop et/ou trop tôt et votre trajectoire s’élargit de façon exagérée (d’où une perte de temps importante) voire occasionne une perte de contrôle à travers le fameux « coup de raquette » où la voiture réagit avec violence dans l’autre sens…

Il y a autour du contre-braquage le même type de fascination que pour le « genou par terre » en moto et, comme tous, j’y ai été sensible. Tout cela pour dire que le geste de débraquer volontairement en sortie de virage est encore plus important que le contre-braquage bien que beaucoup moins connu.

Savoir débraquer (quand et comment appliquer ce geste) est important pour deux raisons déjà évoquées (mais je pense qu’il faut insister) :

En dehors des freins et du poids du véhicule, il y a deux choses qui s’opposent à l’avancement : la résistance de l’air et le braquage des roues directrices (les roues avant donc). La résistance de l’air, on ne peut rien y faire (du moins au niveau du pilotage) alors il faut éviter de braquer les roues plus que nécessaire.

À chaque fois qu’on tourne le volant, on impose des contraintes au châssis et celui-ci réagit soit en digérant l’énergie reçue, soit en évacuant cette énergie par une glissade. Dans les deux cas, on y perd. Si on veut retrouver la stabilité du châssis, il faut remettre les roues droites le plus tôt possible.

La plupart des pilotes vont débraquer naturellement, en accompagnant la trajectoire de leur engin qui s’élargit vers l’extérieur du virage. Ce n’est pas suffisant. En fait, dès le point de corde atteint, il faut s’efforcer de débraquer au plus tôt (à condition que la trajectoire suivie soit bonne… Sinon, on va simplement élargir trop tôt ce qui va obliger à couper les gaz et n’est pas du tout efficace !) de façon à remettre la voiture dans la meilleure situation pour passer la puissance au sol sans perte d’énergie. C’est ainsi qu’on sort rapidement des virages et qu’on gagne vraiment du temps. La vérité, c’est que débraquer est un geste « offensif » (permettant d’aller plus vite) alors que contre-braquer est seulement un geste « défensif » (permettant d’éviter de sortir de la piste)…

Sans oublier le freinage dégressif !

Même s’il vaut mieux soigner la sortie de virage que son entrée, la bonne maîtrise du freinage est forcément à considérer comme importante du fait de l’importance « tactique » du freinage : c’est le plus souvent lors des freinages que l’on double ses adversaires… Ou qu’on leur résiste !

L’amorce du freinage est un geste physique particulier parce qu’on y met toute sa puissance (et cet aspect physique du freinage est particulièrement prégnant dans le monde réel !). Mais, évidemment, on ne peut rester appuyé comme une brute sur la pédale de frein tout le long du freinage sous peine de bloquer ses roues et de tirer tout droit dans le bac à graviers (une roue bloquée n’a plus aucun pouvoir directeur). Il faut donc relâcher progressivement la pression sur la pédale lorsque l’on approche le point de blocage des roues (c’est ce que l’ABS réalise automatiquement pour vous). Tant que vous freinez en ligne droite, le blocage des roues intervient assez tard et vous pouvez donc conserver une grande pression sur la pédale de frein. Mais dès qu’on commence à braquer le volant, tout change… Pourquoi donc ?

Parce qu’on ne peut pas demander à la fois aux pneus leur adhérence maximale dans le sens longitudinal (direction de la contrainte sur chaque pneu lors de la phase de freinage, en ligne droite s’entend…) et en même temps en redemander pour le sens latéral (direction de la contrainte sur chaque pneu — en particulier les pneus du train avant — au moment où l’on inscrit la voiture dans le virage). À 100 %, c’est soit l’un ou soit l’autre. Si on veut exploiter le potentiel d’adhérence du pneu en virage, il ne faut pas que la demande venant du freinage « consomme » tout le grip disponible !

En revanche, si on dose convenablement, on peut aller très loin dans le freinage tout en conservant un bon pouvoir directeur au train avant… Donc, dès qu’on commence à toucher au volant, il faut aussi commencer à relâcher la pression sur les freins sinon, on en demande trop aux pneus qui vont se bloquer, forcément.

Pour éviter cela, on va mettre en pratique la technique du « fil volant/pied » : penser que notre pied droit (lorsqu’il freine), est relié par un fil au point bas du volant (6 h), et que braquer (tourner le volant) provoque immédiatement un freinage moins puissant car il soulève un peu le fil. L’action de braquage et le freinage sont en effet réalisés dans le même timing, pour un freinage et un virage idéal.

Le fait de réduire la puissance du freinage va aussi réduire — un peu — l’attitude « en piqué » (train avant enfoncé, train arrière délesté) du châssis et, ce faisant, réduire les risques de perte d’adhérence du train arrière au moment du braquage, un point important pour garder une voiture « maîtrisable »…

Démonstration évidente et principe facile à énoncer, mais le freinage dégressif est terriblement difficile à réussir quand vous freinez tard. Si vous freinez en prenant de la marge, alors, pas de problème, vous allez le réussir votre freinage dégressif car vous vous rendez vite compte que, si vous ne diminuez pas la puissance de freinage de votre voiture, vous allez vous retrouver à l’arrêt avant même le virage !

En revanche, en retardant votre freinage à la dernière extrémité, vous avez moins de temps pour vous ralentir ET vous arrivez plus vite sur le virage… Et c’est là que se révèle le caractère complètement antinaturel de la manœuvre !

En effet, on vous demande de freiner très fort puis de moins en moins alors que vous êtes toujours trop vite pour passer ce sacré virage qui vous saute à la figure. Difficile de faire accepter ça à votre mental en pleine panique qui lui est bien conscient de la survitesse et veut pallier d’abord à cela… Et c’est à ce moment que vous voulez lui suggérer de relâcher la pédale ?

C’est à cause de cette contradiction que j’affirme que le freinage dégressif est une manœuvre antinaturelle. Mais, même si c’est difficile, c’est quand même ce qu’il faut faire pour freiner tard et correctement. De plus, les voitures modernes sont capables de supporter de rester en phase de freinage assez loin dans le virage (quasiment jusqu’au point de corde pour les monoplaces) alors que cette pratique était interdite sur les voitures anciennes (en gros, toutes les voitures de course d’avant le milieu des années soixante-dix et c’est encore plus vrai pour les GT et les protos que pour les monoplaces) qui offraient bien moins d’adhérence. Donc, le pilotage « moderne » impose d’exploiter son freinage loin en profondeur et fait partie intégrante de la phase « entrée de virage ».

Et le talon/pointe ?

Puisqu’on en est à parler des gestes principaux du pilotage, difficile de ne pas évoquer le fameux (sacro-saint même pour certains !) talon/pointe. Là aussi, l’importance de ce geste diminue sur les voitures les plus récentes qui sont de plus en plus souvent équipées d’une boîte de vitesses robotisée qui automatise complètement ce geste délicat… Tout de même, de quoi s’agit-il ?

C’est une manœuvre qui consiste à donner un coup de gaz entre chaque vitesse au rétrogradage pour éviter que le régime moteur ne chute trop et que les roues arrières ne se bloquent au moment où vous rembrayez (souvent confondue avec le double débrayage qui lui n’est nécessaire que sur des boîtes de camion !). En effet, au moment du freinage, vous levez le pied de la pédale d’accélérateur et vous laissez donc chuter le régime moteur le temps que vous changiez de rapport (par exemple descendre de 4e en 3e). Vous avez besoin de votre pied droit pour appuyer sur la pédale de frein et du pied gauche pour enfoncer celle d’embrayage. Mais, au moment où vous relâchez l’embrayage, vous remettez en liaison l’arbre moteur avec les roues propulsives. Et, comme le régime moteur est tombé au plus bas, vous risquez de provoquer une situation où la différence de vitesse de rotation entre les roues et le moteur est trop importante pour être absorbé sans conséquence. En effet : même si vous exécutez le changement de vitesse très rapidement, le régime moteur n’attend pas que vous ayez fini votre manœuvre pour s’effondrer si vous lui coupez l’alimentation. En levant votre pied de l’accélérateur, le régime tombe d’autant plus vite que les moteurs de course ont très peu d’inertie (le volant moteur est allégé afin de diminuer son inertie et donc de favoriser les montées en régime…).

Cette différence entre le régime moteur et la vitesse de rotation effective des roues propulsives se traduit le plus souvent par un blocage des roues le temps que le moteur encaisse la différence et remonte en régime pour être en phase avec le rapport enclenché.

De plus, n’oublions pas que lors du freinage, le transfert de masse sur le train avant réduit l’adhérence du train arrière, ce qui accentue encore les risques de blocages de roues à ce niveau si le rétrogradage est mal exécuté…

Pour éviter ces blocages intempestifs qui arrivent au plus mauvais moment (nous sommes en plein freinage, ne l’oubliez pas !) les moniteurs des écoles de pilotage recommandent (que dis-je, exigent !) que vous donniez un petit coup de gaz juste avant de relâcher l’embrayage afin de remettre le moteur en régime et en phase avec le rapport que vous venez de rentrer. Oui, mais, comment fait-on pour donner ce coup de gaz puisqu’on a le pied droit occupé par la pédale de freins et qu’on ne va certainement pas la laisser pour passer, même brièvement, sur l’accélérateur ?

Bonne question, très bonne question, je vois avec plaisir que vous suivez !

Et bien, voilà pourquoi on appelle cette manœuvre le « talon/pointe » : alors que vous continuez d’appuyer sur la pédale de frein avec la pointe du pied droit, le talon lui pivote vers la droite et est ainsi capable de donner un bref appui sur la pédale d’accélérateur… Ben voyons, c’est si simple !

Rappelons que ce même pied droit doit déjà appuyer fortement sur la pédale de frein et voilà qu’on lui demande aussi, dans une contorsion délicate, de pratiquer des petites pressions sur la pédale d’à côté au même moment, mais avec un timing précis et bref. Essayez donc de faire deux choses à la fois avec le même membre tout en appliquant deux intensités différentes et vous m’en direz des nouvelles…

Surtout que, pour pouvoir appliquer une grande force avec la plante du pied, il faut que le talon soit bien calé, pas en train de survoler une autre pédale attendant le moment adéquat pour l’effleurer brièvement (et de façon répétée si vous rentrez plusieurs rapports… Oui, sinon ce n’est pas assez drôle !). On n’imagine pas au départ qu’un pilote doit aussi être un brillant contorsionniste, n’est-ce pas ?

Évidemment, le talon/pointe est — presque — impossible à exécuter tel quel. Comme d’habitude, la chose en question porte mal son nom car ce n’est pas avec le talon qu’on va donner le coup de gaz, mais avec la partie droite de la plante du pied… Explications :

On ne pose pas son pied droit en plein sur la pédale de frein, mais plutôt sur le bord droit de la pédale tout en rapprochant son genou droit de son genou gauche (comme si on voulait se retenir d’une envie pressante et malvenue !). Au moment où on veut donner le coup de gaz fatidique, on écarte simplement (et vivement) le genou droit vers le bord droit de la coque provoquant ainsi un pivotement du pied dont le bord va alors venir appuyer légèrement sur la pédale voisine, celles des gaz justement, C.Q.F.D.

On aborde là encore un autre domaine où les voitures de course diffèrent radicalement des voitures de série : la disposition des pédales. Dans une voiture de série, il y a un écart suffisant entre la pédale de frein et la pédale d’accélérateur afin d’éviter les fausses manœuvres. Mais, évidemment, cet écart rend encore plus difficile l’exécution de ce fameux talon/pointe. Sur les voitures à vocation sportive (comme les Porsche par exemple), c’est un peu différent dans la mesure où l’écart est moindre justement pour ne pas trop pénaliser cette manœuvre emblématique. C’est aussi à ça que les passionnés reconnaissent une vraie voiture de sport. Montre-moi ton pédalier et je te dirais si t’as une vraie sportive pour les purs ou simplement une caisse de frime…

Sur une vraie voiture de course, tout concourt à rendre aisé le talon pointe : les pédales sont très proches et comme la pédale de frein est très dure, elle ne va pas s’enfoncer trop sous l’effort et ainsi rester à peu près au même niveau que l’accélérateur (et éviter l’effet d’escalier qui corse encore la chose sur les voitures de série).

Les voitures équipées d’une boîte robotisée sont également dotées d’un calculateur couplé à l’injection du moteur qui va donner ce coup de gaz libérateur au rétrogradage (ça porte même un nom, c’est l’autoblip) et qui évite de devoir se compliquer la vie avec le talon/pointe. Vous pouvez ainsi consacrer toute votre concentration à rentrer les rapports au bon endroit et à bien doser votre freinage dégressif…

Un épisode qui résume tout

Pour finir cette longue digression sur le pilotage et ses différents gestes, je vous invite à revivre avec moi un épisode vécu fin 2000 à bord d’une Ferrari Modena Challenge (une vraie, lors d’un stage sur le circuit du Luc) qui résume bien l’importance de ce que l’on vient de voir : la primeur de la sortie de virage, le geste du débraquage, la difficulté du freinage dégressif et les multiples sensations qui vous submergent à bord d’une voiture de course !

C’est lors de cette course aux chronos que je me suis vraiment mis à attaquer avec la Modena et à travailler un de mes points faibles : la gestion des longs freinages. Car c’est une critique récurrente que me faisait le moniteur : pas assez dégressifs tes gros freinages, Lefebvre. Et le circuit du Luc disposait d’un endroit idéal pour mettre en pratique le freinage dégressif : un virage serré à 90° après une longue ligne droite qui se terminait par une descente. L’entrée du virage était bien droite, pas de difficulté parasite à cet endroit, il fallait simplement bien exécuter son freinage sans blocage afin de ne pas louper le point de corde qui était bien visible.

La seule réelle difficulté c’était que, pour aller vraiment vite, il fallait freiner le plus tard possible afin de rester à fond longtemps dans la ligne droite. On arrivait donc à fond de six pour passer en seconde en 150m et s’inscrire doucement et proprement dans ce virage à angle droit. C’était vraiment là que le freinage dégressif était indispensable car la moindre amorce de blocage des roues avant mettait aussitôt la voiture en sous-virage et alors, adieu le point de corde !

Ces quelques deux/trois secondes que durait cette séquence étaient vraiment paroxystiques : foncer à presque 250 km/h vers ce qui ressemble à une impasse et, au passage d’un repère bien précis, se jeter tout d’un coup sur les freins avec toute la puissance disponible dans votre jambe droite (même si le pied gauche était libéré de l’embrayage, je ne freinais pas du pied gauche comme on le fait en kart car ce n’est pas le même feeling). Rester arc-bouté sur les freins un long moment (en tout cas, c’est l’impression que cela donne, mais le freinage lui-même dure à peine deux secondes) tout en rentrant les rapports à coups de palettes. J’attaque une fois de plus cette séquence critique : le V8 de la Modena hurle comme jamais et le calculateur envoi les coups de gaz du rétrogradage à des régimes que je n’ai pas encore entendus jusque-là. Ce doit être une bonne indication de la violence de l’effort que je réclame à toute la machine.

Le moteur hurle, l’habitacle tremble et cette impasse se rapproche toujours aussi vite alors que j’ai déjà pénétré dans la zone de fin de freinage. C’est maintenant qu’il faudrait commencer à vraiment réduire la pression sur la pédale car l’ABS « couine » et se manifeste de plus en plus fort.

Les fois précédentes, c’est précisément à ce moment-là que j’ai loupé la manœuvre alors, pour une fois au moins, il faut que je me force à bien faire même si le désir de ralentissement est encore très fort. Il FAUT que je réduise la pression sur les freins… Maintenant !

Et, miraculeusement, comme une tempête qui s’évanouit après avoir mugi furieusement, la Modena se calme et accepte de s’inscrire sur la bonne trajectoire. Elle pivote vers le point de corde alors que les vibrations s’affaiblissent et que le moteur retrouve un régime normal. À peine ai-je frôlé le vibreur avec la roue intérieure que je peux lâcher complètement les freins et reprendre l’accélérateur afin de m’extraire de ce virage en coin et me relancer dans l’autre grande ligne droite. C’est fait, c’est gagné, j’ai enfin réussi un vrai bon freinage !

Publié dans Ce blog | Laisser un commentaire

Une démarche de réglages pour le SimRacing, chapitre 8

Ceci est la reprise du chapitre 8 de mon livre sur le SimRacing que je publie ici afin de compléter une vidéo sur ce sujet (les réglages de la voiture) que j’ai publié sur YouTube…

============

Réglages : comment ça se passe dans le monde réel ?

Tout d’abord, disons-le tout net, dans leur grande majorité, les pilotes n’entendent pas grand-chose aux réglages et laissent cela à leur équipe… Choquant ?
Pas du tout, c’est même tout à fait logique !

Dans les équipes de pointes des catégories les plus prestigieuses du sport automobile, les moyens mis en œuvre sont si sophistiqués qu’il est bien plus rationnel de laisser les décisions aux spécialistes qui sont payés pour cela plutôt qu’au pilote qui a déjà bien assez à faire pour optimiser son pilotage.

Aujourd’hui, sur les prototypes courant au Mans, il y a même des capteurs lasers afin de mesurer en temps réel la garde au sol de la voiture tout le long du circuit (afin de pouvoir intégrer ces mesures dans la télémétrie car les variations de la garde au sol sont des indicateurs très significatifs du comportement de la voiture, de l’importance des transferts de masse et de ces changements d’attitudes). Auparavant, pour mesurer cette même garde au sol (sur au moins 4 points), on se contentait de mesurer le débattement des suspensions. Mais, désormais, on veut pouvoir régler ce paramètre au millimètre près et il faut alors tenir compte de la déformation des pneus… D’où l’emploi de ces capteurs qui sont évidemment bien plus coûteux, mais aussi beaucoup plus précis.

Dans ces équipes bien structurées, on trouve non seulement un ingénieur de piste pour chaque voiture, mais même un préposé à la télémétrie dont le rôle est d’éplucher et d’analyser les relevés afin de ne présenter que les informations pertinentes à l’ingénieur de piste et au pilote, celles qui permettent de bien orienter les décisions. Dans ce cadre, le rôle du pilote n’est pas nul, bien au contraire car il doit pouvoir donner un retour d’informations aussi précis que possible afin de confirmer ou d’infirmer ce que disent les rapports de télémétrie (et si le pilote ne va pas dans le sens de la télémétrie, l’équipe se doit de comprendre les raisons de cette distorsion… Car, in fine, seul compte vraiment le feeling du pilote puisqu’on règle la voiture pour lui !).

Donc, les équipes n’attendent pas du pilote qu’il donne des ordres du genre « je veux deux degrés de plus au carrossage du train arrière », mais plutôt qu’il donne des indications précises sur le comportement de la voiture dans telle ou telle courbe afin que les techniciens spécialisés en charge puissent décider de la modification à appliquer sur les suspensions, les ailerons, les rapports de boîte ou la pression des pneus… Et ce n’est pas une situation nouvelle : quand il était chez Brabham en 1978 et 79, les dialogues entre Niki Lauda et Gordon Murray (le designer de Brabham à cette époque) se limitaient à ce genre d’échanges… Niki indiquait ce qui lui plaisait ou ce qui le gênait en termes simples et Gordon proposait des solutions. L’équipe attend donc de son pilote des indications claires sur l’amélioration du comportement (ou sa dégradation) après qu’elle ait effectué des modifications ou lors de test de nouvelles pièces. Cet exemple avec Niki Lauda est important à rappeler car, à l’époque, Niki était justement considéré comme très bon en réglages…

Pour les catégories inférieures, la situation est plus ou moins la même : peu de pilotes font eux-mêmes leurs réglages (ou, tout du moins, se contentent de modifier les quelques réglages de base et/ou ceux qui sont facilement accessibles), mais là c’est pour d’autres raisons… Certaines disciplines imposent un châssis identique et limitent (voire interdisent) drastiquement les réglages possibles (pour limiter les coûts et niveler les différences entre les pilotes « techniciens » et les autres). Dans d’autres cas, c’est tout simplement la voiture employée qui limite l’ampleur des réglages possibles. Par exemple, dans la Porsche Cup, on ne peut changer l’étagement de la boîte de vitesses parce que les 997 GT3 « cup » ne le permettent tout simplement pas.

C’était important de le préciser car cela vous évitera d’avoir des complexes !
Vous n’y connaissez rien et vous n’y comprenez rien ?
Ce n’est pas grave, c’est le cas de la plupart des pilotes !

Comme dans le film « Days of thunder » où Cole Trickle (joué par Tom Cruise) avoue à son chef mécanicien qu’il « n’y connaît rien en voiture de course… Je suis idiot et j’ai pas de vocabulaire. Ajoute une cale ou retire une cale, c’est du chinois pour moi ! ». Ce à quoi le chef mécano (joué par Robert Duval) rétorque « eh bien c’est que tu en sais autant que la plupart des pilotes que j’ai vu passer ! ».

Cette sophistication des réglages est relativement récente dans l’histoire du sport automobile. Dans les années soixante, on se contentait d’ajuster la voiture sur les paramètres principaux (rapports de boîte de vitesse, barres antiroulis, différentiel), mais on ne touchait pratiquement pas à la géométrie de suspension de toute la saison… Ron Tauraunac (associé de Jack Brabham dans l’écurie éponyme) raconte lors d’une interview réalisée à l’occasion de la sortie de « Grand Prix Legends » qu’il était impressionné par la fidélité avec laquelle tous les réglages possibles avaient été reproduits sur la Brabham-Repco championne du Monde en 1966 et 67… Avant d’ajouter « mais vous savez, à l’époque, on touchait rarement à tout cela… » !

Les réglages de base définis à l’atelier

Toujours pour décrire ce qui se passe dans le monde réel, les équipes n’arrivent pas sur les circuits avec des voitures « vierges »… Une bonne partie des réglages a déjà été définie à l’atelier en se basant sur l’expérience des années passées, la connaissance du circuit à venir (caractéristiques principales) et ce qu’on sait déjà de la voiture (connaissance acquise lors des essais d’avant saison et/ou au cours de la saison). Désormais dans les « top teams », une partie de ces réglages de base sont également calculés grâce à des logiciels de simulation (tiens, tiens !) de plus en plus précis (une pratique qui s’est généralisée en F1 et qui sert même à l’entraînement des pilotes, par exemple pour découvrir un nouveau tracé).

Du coup, en s’appuyant sur cette base déjà assez fouillée, l’équipe n’a plus qu’à affiner et optimiser des réglages qui sont déjà proches de l’optimum avant même d’avoir parcouru un mètre sur le vrai circuit. Si on devait définir les réglages de base à l’occasion même du meeting, le week-end de course n’y suffirait pas.

Bref, une fois sur place, l’ingénieur de piste et le pilote se concentrent sur le choix des pneus, les pressions et l’optimisation des ultimes réglages en fonction des conditions (météo ou autres) et des circonstances (stratégie de course, timing des arrêts aux stands).

Tout cela pour dire que ce n’est pas dans les stands à l’occasion d’une vraie course que l’on va redéfinir la géométrie des suspensions, tester de nouvelles pièces ou changer radicalement la répartition du poids : on n’a pas assez de temps pour procéder à ces opérations qui demandent des manipulations compliquées. Ce genre d’interventions, on ne le fait que lorsqu’on est obligé de le faire : si le pilote a eu un accrochage ou une sortie de route lors des essais et qu’il faut, par exemple, changer le fond plat qui est endommagé (et les mécanos vont alors y travailler une partie de la nuit plutôt que d’aller dormir tranquillement…).

Donc, on l’a compris, pour ce qui est des réglages, la majeure partie est déjà fixée avant même le début de l’épreuve et on se contente d’affiner ces choix sans pouvoir les remettre en cause radicalement. D’où l’importance d’être intégré à une bonne équipe où ce travail préalable sera mieux fait et plus en profondeur par rapport aux teams « débutants » (on réalise mieux également l’importance des essais d’avant-saison qui permettent de découvrir et de comprendre le fonctionnement de la voiture, connaissance qui va conditionner par la suite le choix des réglages de base utilisés tout au long de la saison).

8- Une démarche de réglages

La démarche théorique et l’ordre des réglages

OK, on a bien compris comment ça se passait dans le monde réel, mais faisons abstraction de cette réalité et imaginons que nous venons de recevoir une voiture « neuve » sur un circuit inconnu lors d’essais d’intersaison, vas-tu enfin nous dire par quoi il faut commencer ?
Mais bien entendu, il suffit de demander !

Pour ne plus vous faire attendre une minute de plus, voici l’ordre des réglages que l’on va respecter en théorie :

  1. choisir l’étagement de la boîte de vitesses,
  2. déterminer la charge aérodynamique maximale,
  3. ajuster le comportement de la voiture en virage par la « raideur à la roue » et le différentiel,
  4. finir par l’affinage divers de réglages secondaires selon le tracé.

On va revenir en détail sur chacune de ces étapes, mais il y a, au préalable, deux règles d’Or à connaître et respecter :

1— on ne change qu’un paramètre à la fois,

2— le feeling du pilote est important, mais le verdict du chronomètre l’est tout autant…

La règle « un paramètre à la fois » semble évidente, mais elle est pourtant difficile à respecter en pratique : se contenter de procéder à un seul ajustement à la fois pour le tester et le valider (ou le rejeter) est terriblement chronophage (ça prend un temps fou !) et fastidieux. Pourtant, si vous faites deux changements en même temps et que le résultat est mitigé, vous ne pourrez pas savoir d’où vient ce qui cloche et vous devrez recommencer à zéro… D’où une perte de temps encore plus grande, CQFD.

La règle N° 2 est moins primordiale, mais importante tout de même : il y a des cas où deux réglages différents sont ressentis de la même façon par le pilote (deux options aérodynamiques par exemple). Dans ce cas, c’est le chrono et lui seul qui permet de savoir quel est le réglage à privilégier. Ceci dit et je tiens à le redire, on cherche d’abord et avant tout à régler la voiture dans le sens du confort de pilotage (et donc des préférences de celui qui est au volant). Et donc, entre deux options équivalentes au niveau du chrono, on va toujours préférer celle où le pilote est le plus à l’aise.

Voyons maintenant l’ordre du travail de réglage secteur par secteur. On peut le résumer ainsi :

  • En premier, on va d’abord déterminer l’étagement de la boîte de vitesses afin d’avoir une base de travail correcte ;
  • En second, on va déterminer la configuration aérodynamique afin de travailler la performance ;
  • Ensuite, on va ajuster le comportement dynamique de la voiture afin de l’adapter aux préférences de son pilote ;
  • Et enfin, on termine par les réglages mineurs qui permettent de gratter les derniers dixièmes de secondes une fois que le gros du travail aura été fait et bien fait.

Évidemment, on s’aperçoit vite que cette liste est très théorique car l’ordre des domaines à passer en revue n’est pas immuable : il s’agit plus d’une boucle récursive que d’une liste séquentielle…

Puisque la configuration aérodynamique va avoir un impact sur la vitesse de pointe, il est fréquent qu’une fois la quantité d’appui fixée, on va devoir redéfinir la démultiplication finale (ainsi éventuellement que les rapports supérieurs de la boîte de vitesses) pour retrouver un ratio optimum correspondant à cette configuration aérodynamique (on adapte la démultiplication en fonction de l’appui voulu plutôt que le contraire, même si on commence tout de même par les rapports de boîte car, sans un étagement de base acceptable, on ne peut pas tourner correctement…).

Un — L’étagement des rapports de boîte.

On va donc forcément commencer par adapter l’étagement des rapports de la boîte de vitesses et ajuster la démultiplication finale (qui conditionne la vitesse de pointe). Une fois ceci à peu près correctement en place, on peut commencer à travailler sur les autres aspects. Mais puisqu’on en parle, autant creuser la question jusqu’au bout : qu’est-ce que c’est qu’un étagement correct des rapports de boîte ?L’étagement, c’est l’éloignement des rapports les uns avec les autres. Une boîte de vitesse de type « course » présente généralement un étagement plutôt serré (les rapports sont proches les uns des autres et donc réclament des changements de vitesse fréquents). Ceci dit, on sait qu’on a un étagement correct si le virage le plus lent du circuit peut être négocié dans de bonnes conditions (déterminé par la plage de régime moteur utilisable) en première (ou en seconde si le virage le plus lent est tout de même trop rapide pour être négocié en première, ce rapport sera alors dédié à un démarrage rapide pour bien s’arracher de la grille de départ) et si la vitesse de pointe est atteinte au régime maximum pile au bout de la principale ligne droite de ce tracé (c’est-à-dire juste avant d’aborder le freinage suivant). Si le premier et le dernier rapport sont utilisables aux endroits respectivement le plus lent et le plus rapide du circuit, alors on sait qu’on a un étagement correct et qu’on peut passer à la suite avec confiance.

Cela ne veut pas dire qu’on ne sera pas obligé d’y revenir par la suite pour d’ultimes ajustements (par exemple, on peut délibérément altérer l’écart entre deux rapports afin de permettre de prendre tel virage en 3e pour des questions de confort de pilotage alors que l’étagement théorique commande de laisser le même écart progressif entre chaque rapport).

Deux — La configuration aérodynamique

Sur les voitures de course modernes, la configuration aérodynamique est le paramètre qui a le plus d’influence sur la vitesse de passage en virage et donc sur la performance globale. L’utilisation de gros appuis grâce aux ailerons proéminents est une révolution intellectuelle qui s’est produite au passage des années soixante aux années soixante-dix. On connaissait déjà l’importance de la finesse aérodynamique sur les voitures de course dans les années soixante (et même avant), mais peu était fait pour accentuer la déportance car la vitesse de pointe en ligne droite semblait le seul critère à soigner. Il était clair que l’ajout de gros appendices aérodynamiques allait ralentir la voiture en ligne droite et c’est ce que voulaient éviter les ingénieurs de cette époque. Le rôle de l’aérodynamique n’était pas ignoré par les techniciens de ces époques puisque les Mercedes qui ont participé aux 24 heures du Mans 1955 étaient équipés d’un aérofrein actionné par hydraulique très visible et très spectaculaire. Simplement, l’atout de la déportance n’était pas encore compris dans toute son importance…

Pourtant, il a suffi de vouloir améliorer la stabilité d’une voiture rétive pour s’apercevoir que l’utilisation de gros appuis aérodynamiques était un choix vertueux dans quasiment tous les cas… En effet, si vous pouvez accélérer plus tôt en sortie d’une courbe qui conditionne une grande ligne droite, vous avez toutes les chances d’atteindre une meilleure vitesse de pointe avec une voiture « chargée » qu’avec une voiture « fine » qui oblige à attendre d’être bien en ligne avant d’appuyer à fond sur la pédale de droite, bien que la seconde soit théoriquement plus rapide en pointe que la première !

Il en résulte que les temps au tour sont souvent meilleurs avec de l’appui que sans. Plus le tracé sera sinueux, plus l’appui sera prépondérant. Et comme les circuits très rapides sont en voie de disparition (même la grande ligne droite légendaire des Hunaudières du circuit du Mans est aujourd’hui tronçonnée par deux chicanes…), la logique du choix d’une charge aérodynamique importante est de nos jours systématique.

Dans ce cadre, le travail de l’équipe va donc être de déterminer quelle est la charge maximale utilisable pour le tracé en question (il n’y a que sur des circuits très lents, comme Monaco par exemple, qu’on va braquer les ailerons au maximum) puis de son équilibre entre l’avant et l’arrière.

Sur les voitures de course modernes, l’adhérence issue des appuis aérodynamiques est potentiellement bien plus importante que celle qu’on peut obtenir par les réglages des suspensions (dans le jargon du milieu, on parle de « grip aérodynamique » et de « grip mécanique » pour différencier les deux domaines). Bien sûr, selon les cas, la balance entre les deux domaines peut varier sensiblement : sur une monoplace, voiture légère et hérissée d’ailerons, le grip aérodynamique sera vraiment beaucoup plus important que le grip mécanique alors que dans le cas d’une GT, voiture lourde et moins bien dotée au niveau des appendices aérodynamiques, le grip mécanique va reprendre de l’importance.

Une voiture bien raide pour optimiser les écoulements d’air
Et, en conséquence, on aura même tendance à régler les suspensions d’une monoplace au plus raide pour minimiser les variations d’attitudes (roulis et tangage) afin de perturber le moins possible le flux aérodynamique qui passe sous la voiture et qui, via le diffuseur qui est situé au bout du fond plat, génère l’essentiel de la déportance obtenue sur les monoplaces modernes. La limite à cette raideur sera déterminée par les réactions de la voiture (et à ce que peut en supporter le pilote tout en gardant le contrôle) au passage des bosses et va donc varier largement selon le profil du tracé.

Ce distinguo entre grip mécanique et grip aérodynamique va aussi influencer notre façon d’agir pour influencer le comportement de la voiture selon sa typologie. Sur une voiture typée « aéro », on va agir en priorité sur l’équilibre des appuis pour corriger une tendance au survirage alors que dans les autres cas, c’est plutôt au niveau des barres antiroulis qu’on va agir (bien sûr, une combinaison des deux solutions est aussi souvent utilisée). Une fois encore, il s’agit là d’indications théoriques puisque cela va aussi dépendre des caractéristiques du circuit : sur un circuit doté uniquement de courbes rapides, c’est évidemment l’aérodynamique qui va peser le plus alors que sur un circuit « lent », les réglages purement « mécaniques » du châssis vont prendre le dessus, même dans le cas d’une monoplace. On l’aura compris, ici la théorie est secondaire et reste juste valable à titre indicatif puisque les circonstances sont primordiales et commandent nos choix (variation météo, type d’épreuve — endurance ou sprint —, tactique dictée par une situation particulière et ainsi de suite).

Pour finir sur le choix des charges aérodynamiques et leur équilibre, j’ajouterai qu’on va privilégier des appuis plus importants que nécessaire si on souhaite garder une voiture facile à piloter en début de course (où la charge d’essence est importante) et lorsque les pneus seront usés. Là encore, c’est le feeling du pilote qui aura le dernier mot et qui vous fera choisir une configuration un poil moins performante sur un tour, mais plus efficace sur la durée d’une course…

Trois — Ajuster le comportement dynamique de la voiture

Ici, on quitte le domaine de la performance potentielle pour entrer dans le comportement pratique. Il ne s’agit plus de grands choix qui vont déterminer la capacité de la voiture à atteindre sa vitesse de pointe en ligne droite ou en courbe, mais bien de se pencher sur la manière dont réagit l’engin dans tel ou tel virage, de sa stabilité au freinage et de sa tendance au moment de la remise des gaz… Bref, tout ce qui va permettre au pilote de boucler les meilleurs temps au tour en fonction de sa capacité à placer aisément la voiture là où il le veut et non de devoir la combattre (ou de « subir » la trajectoire) pour y arriver.

Dans ce but, on va procéder aux retouches permettant de corriger l’attitude de notre monture là où c’est important. Car, bien entendu, tous les petits défauts de comportement de la voiture n’ont pas le même poids… Il sera bien plus payant de vous permettre de ne pas avoir à couper les gaz avant cette grande courbe rapide que de combattre cette petite tendance au sous-virage à l’entrée de l’épingle la plus lente du circuit. Si l’un est contradictoire avec l’autre, on va toujours privilégier le secteur le plus rapide du circuit car c’est là qu’on y perd (ou qu’on y gagne) le plus de temps.

Les principaux réglages qui ont de l’influence sur le comportement dynamique (en dehors de la charge et de l’équilibre aérodynamique qui sont censés êtres définis à la section précédente) sont l’amortissement (ou la « raideur à la roue » pour reprendre un terme de Soheil) et les réglages du différentiel. Comme d’habitude, le choix de tel ou tel réglage va dépendre de la situation à traiter… On va plutôt agir sur l’amortissement pour combattre une tendance au sous-virage en entrée de virage alors qu’on va plutôt se pencher sur le différentiel si ce sous-virage intervient en sortie de virage et ainsi de suite.

Régler l’amortissement
Au niveau de la suspension, on peut intervenir dans deux domaines : la géométrie et l’amortissement.

Les réglages de géométrie concernent surtout le carrossage (traité un peu plus loin), mais aussi la chasse ou la pince (des notions qu’on abordera plus tard… Une chose à la fois !). En pratique, on intervient relativement peu sur la géométrie de la suspension alors qu’on a beaucoup à faire sur l’amortissement…

Les réglages d’amortissement vont déterminer « la raideur à la roue » et ce paramètre a une grande importance sur le comportement dynamique de la voiture. Comme expliqué plus haut, le réglage d’amortissement va permettre d’optimiser le « grip mécanique » de votre voiture et pour cela, on va intervenir sur trois niveaux avec :

  1. les ressorts,
  2. les amortisseurs,
  3. les barres antiroulis.

Pour ce qui est de la méthode, on va aussi traiter ces trois niveaux dans cet ordre : d’abord définir la dureté des ressorts, ensuite celle des amortisseurs et enfin celle des barres antiroulis.

Quatre — Affiner les derniers réglages

Une fois que les grands secteurs des réglages auront été passés en revue et fixés les uns après les autres, on peut s’attaquer aux derniers détails, ceux qui ne sont pas prioritaires, mais qui permettent de grappiller encore un peu de temps et/ou d’assurer une bonne fiabilité à la voiture.

C’est donc en conclusion de notre tour d’horizon qu’on va se pencher sur des éléments tels que les écopes de refroidissement des freins ou l’ouverture des radiateurs (eau et huile) du moteur. Ici, on va chercher à garder les ouvertures les plus réduites possible (afin de réduire la traînée aérodynamique et donc d’améliorer — un peu — la vitesse de pointe) tout en se maintenant dans les températures de fonctionnement optimales. Bien entendu, si ces températures ne sont manifestement pas correctes, on ne va pas attendre la fin des essais pour modifier ces ouvertures car on va se retrouver avec un moteur trop chaud (risque de serrage) ou des freins trop froids (et pas d’efficacité au freinage) et là, on va vite s’apercevoir que ce gros problème ne peut pas attendre.

Ici, je parle bien d’affinage de dernière minute, quand on n’a plus rien d’autre d’important à traiter.

Et les pneus, tu as oublié les pneus ?

C’est vrai, on n’en a pas encore parlé jusque-là alors qu’il s’agit du maillon majeur du rendement de la voiture !

Tous les ingénieurs et tous les pilotes vous le confirmeront : on peut gagner quelques dixièmes en ajustant tel ou tel paramètre censé être important, mais on va gagner des secondes entières en passant d’un pneu peu adapté à la piste à un autre qui lui est pile ce qu’il faut… Donc, c’est bien vrai, les pneus bénéficient d’une attention de tous les instants car non seulement ils conditionnent la performance réelle de la voiture, mais, en plus, leurs températures de fonctionnement en disent long sur l’équilibre et le rendement de celle-ci.
Donc, il serait absurde de vouloir placer les pneus à telle ou telle place dans une séquence de réglages vu qu’on s’en occupe tout le temps !

Le but premier est d’obtenir que les pneus montent vite en température et restent dans une plage de fonctionnement optimale. Cette plage idéale varie selon le type de voiture, mais on peut dire qu’elle se situe entre 80 et 100°. Pour cela, on va intervenir sur trois paramètres : la pression, les réglages de géométrie (comme le carrossage) de la suspension et la raideur de cette suspension.

La pression est ajustée en permanence car la « bonne pression » n’existe pas une bonne fois pour toutes : celle-ci va être fonction de la température de la piste qui elle dépend de la température extérieure et de l’ensoleillement, le tout pouvant varier toute la journée. On surveille les températures et on fait varier la pression car c’est ainsi qu’on obtient le plus facilement et le plus rapidement les ajustements voulus.

La question du carrossage
Les relevés de température se font toujours à trois endroits de la bande de roulement d’un même pneu : sur le bord extérieur, au milieu et sur le bord intérieur. Pourquoi à ces trois endroits ?

Pour deux raisons :

1— si la température du milieu est plus basse que celle du bord extérieur, on sait tout de suite que l’enveloppe n’est pas assez gonflée. Si la température du milieu est plus haute que les deux autres, c’est le contraire : enveloppe trop gonflée (encore qu’il y a quelques cas où on va vouloir obtenir ce type de distorsion, mais dans des proportions acceptables).

2— les différences de températures sur ces trois endroits nous indiquent si la géométrie de la suspension est bien réglée ou non.

La bonne logique voudrait qu’on ait toujours des températures allant en croissant du bord extérieur au bord intérieur. Car si en théorie le pneu doit reposer le plus à plat possible sur la piste, en pratique, il vaut mieux qu’il soit un peu incliné (avec le bord haut vers l’intérieur de la voiture) pour fonctionner correctement. Cette inclinaison est définie par un réglage particulier de la géométrie de la suspension appelé carrossage.

Les suspensions des voitures de course modernes sont toutes basées sur les doubles triangles superposés qui permettent d’obtenir un parallélogramme ou la variation des axes est minime lors du mouvement (quand la suspension s’enfonce ou se détend). Minime, mais pas nulle. Même si la suspension est réglée pour que le pneu reste bien à plat au repos, il n’en sera pas de même quand la suspension va bouger. Et c’est encore plus vrai pour le train avant qui, en plus, est directeur. Le braquage des roues induit aussi une variation de géométrie qui influe sur la position de la bande de roulement par rapport au sol.

Pour cette raison, on va régler la suspension avec un peu de carrossage négatif (et donc, au repos, le pneu ne sera pas tout à fait à plat, mais ce n’est pas au repos que ça nous intéresse…) pour pallier ces mouvements, mais pas seulement… On sait aussi que pour obtenir un bon fonctionnement du pneu (pour sa montée en température notamment), il vaut mieux que le bord extérieur soit un peu décalé en hauteur par rapport au bord intérieur.

Du coup, le bord intérieur est toujours un peu plus chaud que le bord extérieur et c’est normal qu’il en soit ainsi. C’est aussi parce que le train avant est directeur et donc va avoir des variations de géométrie plus importantes que le train arrière qu’on applique un réglage de carrossage plus accentué au premier qu’au second. Ces réglages sont importants, mais on n’y touche pas trop souvent car une fois qu’on a trouvé le bon réglage pour une dimension de pneu donné, il n’y a pas raison de revenir dessus.

Souvent, ce sont les manufacturiers de pneus qui vont indiquer les réglages de carrossage qu’ils recommandent pour leurs produits (variable principalement selon les dimensions des pneus en question), une raison de plus de suivre ces indications et de ne pas les remettre en cause sauf exception.

Les températures de pneus sont de bons indicateurs de ce qui se passe sur la voiture. Même si vous trouvez que l’équilibre est bon, une température trop élevée sur le train avant ou le train arrière indique certainement que les contraintes sont trop importantes sur le train en question et qu’il faut chercher à rééquilibrer ces contraintes… Sinon, les pneus concernés vont s’user bien plus vite que prévu à votre grand dommage (ceci dit, il est normal que le train arrière soit un peu plus chaud que le train avant) !

À l’inverse des températures trop faibles signifient que le train avant ou arrière ne travaille pas assez, signe d’un déséquilibre qui n’est pas forcément sensible au volant.

La question de la répartition du freinage

La tentation est grande d’utiliser la répartition du freinage comme un réglage « dynamique » (c’est-à-dire intervenant directement sur le comportement de la voiture). Ainsi, si la voiture a tendance à sous-virer en entrée de virage, déplacer — un peu — la répartition du freinage sur l’arrière va effectivement aider la voiture à « pivoter » juste au bon moment…

Mais comme me l’a expliqué Soheil Ayari (car j’avais tendance à utiliser ce « truc », j’avoue !) « ce n’est pas efficace de faire comme cela »… Si le comportement dynamique de la voiture n’est pas satisfaisant, il y a plus et mieux à faire sur l’amortissement que de « tricher » avec la répartition de freinage !

On joue sur la répartition du freinage uniquement pour éviter qu’un des trains (avant ou arrière) bloque avant l’autre. Dans l’idéal, quand on atteint la limite d’adhérence longitudinale des pneus, les quatre roues doivent se bloquer en même temps (quand on roule droit bien sûr). C’est à ça et à ça seulement que doit servir ce réglage.

Un panorama très diversifié
En conclusion de ce panorama des réglages dans le monde réel, il faut néanmoins réaffirmer que la théorie n’est qu’une base de départ à peaufiner, car en pratique l’adaptation aux circonstances – type de circuit, état du revêtement, météo du jour – est souvent prépondérante pour obtenir des réglages optimaux. Nous avons également vu que les variables à prendre en compte étaient très nombreuses et ceci amoindrit la valeur des règles générales (vu le nombre des cas d’exceptions). Et encore, nous nous sommes contentés d’évoquer le cadre de la course sur circuits routiers « traditionnels »… Le monde des rallyes ou celui des courses sur ovales sont presque totalement différents !

Par exemple, pour les ovales, on va systématiquement appliquer des réglages asymétriques alors qu’on ne le fait jamais (ou quasiment jamais) sur circuit routier. Dans ce cadre, ce n’est pas seulement le train avant qui est réglé différemment du train arrière, mais aussi le côté droit qui diffère du côté gauche… Quand on découvre cet aspect pour la première fois, ça fait un vrai choc culturel !

Publié dans Livre Simracing, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

Nouveau livre : La terrible vérité – Petites chroniques sur la grande dualité

Oui, encore un nouveau livre !

Cette fois, il ne s’agit « que » d’une compilation de mes chroniques. Voici un extrait de l’introduction…

La couverture du livre.

Pourquoi “la terrible vérité” ?

Au départ, l’idée était simple : dénoncer par des chroniques courtes les travers insupportables de la vie quotidienne à notre époque ainsi que les mensonges grossiers qu’on nous impose.

C’est ainsi que de 2001 à 2022, j’ai rédigé ces chroniques plus ou moins régulièrement et les publiais sur mon blog personnel (www.alain-lefebvre.com) et sur Linkedin. Une audience s’est construite et mes chroniques se sont nourries des réactions et même des contributions de ce petit public.

Aujourd’hui, j’ai repris ces textes après un tri afin de ne garder que les plus significatifs. Laissons de côté le contexte qui a servit de prétexte au sujet de chaque chronique, d’une façon générale, les situations évoquées ont relativement peu évoluées 5, 6 ou 8 ans après (voire plus !). Dans le post scriptum de chacune, je tente de faire le point sur ce qui est dépassé et sur ce qui est encore valable.

Souvent, c’est la même question qui revient : pourquoi le monde où nous vivons (la société des hommes) est-il comme il est ?

Si j’avais un ton politiquement correct, j’écrirais que c’est à cause d’une dualité malheureuse : d’un côté des gens (nombreux) qui ne réfléchissent pas assez et de l’autre d’autres gens (un cercle plus restreint) qui profitent de la situation.

Mais je préfére décrire les situations telles que je les perçois et vous verrez que ces chroniques ne s’encombrent ni des conventions, ni d’une politesse excessive. Je pense donc que les cons sont une nuisance et que la bêtise devrait être pénalisée au lieu d’être excusée (comme trop souvent aujourd’hui).

Cet ouvrage tente donc de répondre à la grande question suivante : le monde est-il ainsi à cause des cons ou à cause des salauds ?

Les plus perspicaces d’entres vous auront déjà compris que les deux groupes ont chacun leur part dans ce résultat…

Afin d’en faciliter la lecture, j’ai classé ces chroniques selon les thèmes suivants :

Thème N°1 : soyez irresponsable ou “dormez tranquille, brave gens”.

Thème N°2 : les médias ou comment le contre-pouvoir est devenu LE pouvoir.

Thème N°3 : modes et traditions ou pourquoi les gens ont-ils un comportement moutonnier ?

Thème N°4 : la classe politique ou “ces évenements nous dépasse, feignons d’en être les organisateurs”.

Thème N°5 : triste époque ou comment arrivent-ils à supporter cet “enfer urbain” ?

Thème N°6 : les cons ou pourquoi sont-ils si nombreux ?

En plus de ces six thèmes, j’ai ajouté un septième “hors thème” pour y caser les quelques textes supplémentaires que je voulais garder mais qui ne pouvaient se rattacher à aucun des thèmes déjà listés.

Et ce n’est pas encore fini !

Car j’ai encore ajouté une autre partie après ces six thèmes : mes chroniques publiées sur Linkedin. Certaines abordent des thèmes techniques plutôt que sociétaux mais j’ai pensé qu’elles pouvaient tout de même vous intéresser…

Publié dans Livres, Mes livres | Laisser un commentaire

La “next big thing” attendue par le marché… N’aura pas lieu !

Article rédigé en coopération avec mon “complice” : Fred Cavazza (lien vers son article).

Le marché informatique tout entier est actuellement dans une situation “particulière”… En effet, les modes techniques actuelles n’ont pas permis pas de relancer la croissance pour diverses raisons : le Metaverse ou les ordinateurs quantiques sont trop distants dans le temps (cela commencera à être vraiment des réalités concrètes dans dix/quinze ans… bien trop loin pour réellement influer sur la situation présente !) et le Web3 voit son aura se dégonfler au fur et mesure que l’on constate que ses promesses ne sont pas tenues (aucune !).

La dernière version de la courbe d’adoption technologique du Gartner reflète ainsi parfaitement la situation : une saturation de technologies émergentes et une absence de technologies matures.

Habituellement, je ne suis pas un grand fan du Gartner (qui se contente d’indiquer d’où vient le vent mais ne nous dit rien sur sa nature ni sur sa force…) mais là, je trouve très significatif que le célèbre cabinet soit en manque d’inspiration pour ce qui va arriver, lui si prompt à donner écho à n’importe quelle mode technique (n’importe quoi du moment que ça mousse !). Il semble donc que l’avenir s’ouvre sur un grand vide, ce qui est tout à fait inédit dans notre secteur.

La raison principale de cette retombée de soufflé, c’est que la croissance (technique et économique, la seconde dépendant de la première) est en panne. Voyons ensemble pourquoi la croissance est en berne et que pourrait-être la “next big thing” qui relancerait enfin la machine (si elle existe à court terme !) ?

Une phase dite de plateau

Le marché est donc actuellement dans une phase de “plateau” et cela ne peut s’éterniser sans dégénérer en une crise majeure. Car cela fait cinquante ans que le marché informatique s’est habitué à une croissance de 10 à 15% par an et c’est le genre d’habitude qu’on ne quitte pas volontiers !

Un tabouret à 3 pieds !

La formidable étendue de cette croissance spectaculaire reposait sur 3 pieds comme un modeste tabouret en bois (comparable à celui qu’utilisait votre voisin fermier pour traire ses vaches…) !

Ces 3 pieds (ou piliers) étaient les suivants : progrès techniques (s’exprimant principalement par la fameuse “loi de Moore”, nous y reviendrons), volumes (les volumes de ventes, rien en dessous du million n’est pris en compte ici !) et croissance (chaque année est mieux que la précédente et on va ainsi de record en record).

Voilà ce qui symbolise le mieux le marché informatique moderne : un tabouret à trois pieds !

Des volumes impressionnants

Volume is everything” disait Scott McNealy (un des 4 fondateurs de Sun Microsystem). C’est par les volumes que Sun a battu ses concurrents sur le marché des stations de travail mais ce sont les volumes de ventes des PC (haut de gamme, capable de concurrencer une station de travail sur le plan technique mais pour bien moins cher) qui, finalement, eurent raison de la santé florissante de Sun à la fin des années 90.

Dès 1981, les ventes du BBC Micro (fabriqué par Acorn) dépassent le million d’unités. Apparu un an plus tard, le Commodore 64 va lui inonder le marché avec 17 millions d’unités (au total et au niveau mondial). En 2001, 125 millions d’ordinateurs personnels ont été vendus en comparaison des 48 000 en 1977. Plus de 500 millions d’ordinateurs étaient utilisés en 2002 et plus d’un milliard d’ordinateurs personnels ont été vendus dans le monde depuis le milieu des années 1970 (depuis, ces chiffres ont encore progressé, évidemment). Ce sont là des chiffres impressionnants mais ce n’est rien à côté de ce qu’on a eu avec la seconde vague, celles des smartphones…

En effet, dès 2011, les ventes annuelles de téléphones mobiles atteignent 1,6 milliard d’unités !

Voilà de quoi on parle quand on évoque la notion de volumes dans le marché informatique… En conséquence, avec des locomotives pareilles, le marché informatique dans son ensemble est devenu un super géant qui pèse de tout son poids (considérable désormais) sur l’économie mondiale. En 2017, le marché mondial global des technologies et services mobiles représentait 4,5 % du PIB mondial soit 3 600 milliard de dollars.

Bien entendu, il y a des variations selon les années : certaines sont meilleures que d’autres mais, d’une façon générale, la croissance dont a bénéficié le marché informatique pendant toutes ces décennies ferait envie à n’importe quel secteur industriel (même et y compris pendants les années de “recul”…) !

Exemple : après son recul de 1,1% en 2020, le marché mondial des services IT a retrouvé son dynamisme. IDC estime qu’il a dépassé 1,1 billion de dollars en 2021, en hausse de 3,4% à taux de change constant. Le cabinet d’étude se montre optimiste sur les perspectives. Il prévoit que le marché continuera de se développer en 2023 et 2024 avec une croissance annuelle comprise entre 3,8% et 4,0%.

Les progrès de l’électronique, locomotive cachée de tout le reste !

En vérité, cette croissance continue et formidable (deux caractéristiques importantes) venait surtout des progrès de l’électronique qui ont toujours été le moteur principal de cette dynamique. En effet, la régularité “miraculeuse” des progrès techniques garantissait que l’année suivante allait permettre de faire et de commercialiser des produits encore jamais vu jusque-là. Il faut se remémorer que la loi de Moore exprime les progrès en densification des circuits électroniques de base (et pas autre chose…). Cela se traduisait par des circuits plus petits, prenant moins de place et consommant moins d’énergie années après années. Même sans gain de performance associé, cette miniaturisation était déjà source de progrès fabuleux. Mais il s’est avéré que réduire la taille avait des conséquences à tous les étages : moins de distance entre les composants, ça veut dire des trajets plus courts pour les électrons et donc des échanges plus rapides. La course à la réduction des dimensions s’est ainsi poursuivie pendant des décennies principalement parce qu’elle induisait des bénéfices en cascades.

Des réalisations de plus en plus époustouflantes ont été atteintes et dépassées, l’écart entre les pistes se chiffrait en dizaines de nanomètres (ce qui était déjà fou rien que d’y penser !) et cela ne s’est pas arrêté là : on a fini par franchir le seuil de 10 nm et de descendre encore. A ce niveau, l’écart entre les pistes à fondre est tellement étroit qu’il faut avoir recours à des techniques de gravure qui dépassent la lumière ordinaire (photolithographie) : les machines permettant de dessiner les pistes des circuits ont fini par s’appuyer sur des faisceaux d’électron pour outrepasser les limites d’épaisseurs de la lumière blanche.

Mais là, quand même, la barrière s’est révélée de plus en plus ardue à dépasser et les avancées techniques de plus en plus difficiles à atteindre. Dans la zone des moins de dix nm, les progrès se sont sérieusement ralentis. Même Intel qui menait la charge jusque-là a commencé à caler. TSMC a réussi à faire un peu mieux mais sans pour autant pouvoir reprendre le rythme précédent : de ralentissement en ralentissement, la fameuse “loi de Moore” a fini par connaître un sérieux coup d’arrêt dernièrement.

Un graphique qui illustre le ralentissement de la tendance décrite par la loi de Moore. © John Hennessy / David Patterson

Un plateau dans plusieurs domaines : CPU, GPU, mémoire, écrans, telco… La consommation électrique est ici le facteur limitant : il va falloir apprendre à faire mieux avec moins (optimiser les performances tout en réduisant la conso). D’où la « mode » des SoC personnalisés par Apple (A et M), Google (dans les Pixel) ou Microsoft (dans ses Surface). Même Google s’y met à son tour pour YouTube.

Le fait de dire “la loi de Moore ne se vérifie plus” se heurte toujours à un scepticisme forcené tellement les gens se sont habitués à sa permanence. Il faut dire que la fin de la loi de Moore a été annoncée de nombreuses fois et toujours contredite… à force, on a fini par croire qu’elle était immuable !

Même les témoignages des plus grands experts tombent à plat face à ceux qui ne veulent pas entendre que oui, cette fois, il est justifié de remettre en cause la loi de Moore. Et pourtant, des témoignages convaincants, on en a des tas :  début 2019, le PDG du grand fabricant de puces Nvidia a donné son avis sur la question… « La loi de Moore avait l’habitude de croître à x10 tous les cinq ans et x100 tous les 10 ans », a expliqué Jensen Huang, PDG de Nvidia. « En ce moment, la loi de Moore augmente de quelques pour cent chaque année. Peut-être x2 seulement tous les 10 ans. La loi de Moore est donc terminée », a-t-il conclu. En vérité, il s’agissait plus d’un déclin progressif que d’une mort subite.

De plus, il faut souligner que le respect de la loi de Moore était de plus en plus coûteux. Les économistes de Stanford et du MIT ont calculé que l’effort de recherche visant à faire respecter la loi de Moore a été multiplié par 18 depuis 1971.

Ceci est confirmé par une autre loi empirique de la Silicon Valley, la loi de Rock qui stipule ainsi que le coût de fabrication d’une fonderie de puce double tous les quatre ans car le procédé de fabrication utilisé depuis une quarantaine d’années, la photolithographie, se rapproche toujours plus de ses limites physiques.

Du coup, les laboratoires qui fabriquent les puces les plus avancées deviennent hors de prix. Le coût moyen d’une usine augmente d’au moins 13 % par an et atteint désormais 16 milliards de dollars. Ici, on touche du doigt les effets de la loi des retours décroissants.

Quelles vont être les conséquences de la fin de la loi de Moore ?

Premièrement, même s’il ne faut plus compter sur les bénéfices “automatiques” de cette loi, ça ne veut pas dire pour autant que tous les progrès techniques vont s’interrompre. En effet, une fois que les industriels vont avoir digéré cette fin, la recherche va reprendre et dans d’autres directions tel que l’empilement des transistors en trois dimensions. Certains constructeurs comme ARM introduisent des processeurs ne cherchant plus à suivre la loi de Moore. Ses processeurs de 2009 possèdent parfois 100 000 transistors, soit moins qu’un processeur Intel 286 à 12 MHz de 1982 (!), mais ne consomment qu’un quart de watt (c’est important). On a donc déjà quelques indications qui permettent de penser que les progrès vont reprendre mais peut-être pas au rythme auquel nous avait habitué la loi de Moore.

L’analogie du lac (et non, ce n’est pas un “data lake” pour une fois)

Cependant, la fin de la loi de Moore est tout de même un événement majeur dans notre contexte high-tech. Car, qu’on le veuille ou non, qu’on y croit ou pas, mais les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage (on l’oublie souvent mais les progrès en matière de capacité de stockage sont tout aussi spectaculaires : la société Seagate -ex-Shugart- a signalé qu’elle avait fait descendre en 29 ans le coût du mégaoctet sur disque d’un facteur 1 300 000).

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles, restent très limitées.

Le plateau s’exprime partout

Le phénomène de plateau ne se résume pas à un coup d’arrêt “théorique” de la loi de Moore (mais rien que cela est déjà un tremblement de terre de grande ampleur !) : cela se fait déjà sentir au niveau des smartphones qui ne jouent plus leur rôle de locomotive du marché. Ils présentent des progrès techniques moindres, des différences fonctionnelles qui s’amenuisent (le Nothing Phone 1 était censé révolutionner le marché des smartphones, mais au final ressemble terriblement aux autres smartphones) et cet « atterrissage » se traduit par des ventes encore solides (marché de renouvellement) mais qui ne croissent plus. De l’autre côté du spectre, les modes techniques récentes ont fait long feu : le web3 est, au mieux, une bouffée d’optimisme délirante ou, au pire, un empilement de mensonges grossiers pour vendre plus de crypto. Le metaverse est une tendance bien plus sérieuse (que le web3) mais elle est distante : s’il faudra attendre dix ans pour avoir un début de concrétisation (les progrès en AR, VR et MR sont réels, mais lents), le marché ne va pas patienter autant, il veut une rupture pour l’année prochaine.

Le mode plateau est déjà une réalité

On peut se rendre compte que nous sommes en mode plateau depuis déjà quelques années grâce à des indices variés mais convergents. Un exemple : la crise du logiciel qui touche les secteurs industriels traditionnels.

Le logiciel est au cœur de cette crise parce que sa généralisation (y compris et surtout auprès de nouveaux acteurs qui ne sont pas habitués, culturellement, à le manipuler…) démontre son instabilité. La liste est longue des bugs rencontrés par ces “nouveaux consommateurs de logiciels” (constructeurs automobiles ou d’avions, entre autres). On pourrait en faire une liste, mais c’est inutile : tous les secteurs sont concernés, oui, tous !

Voici un court florilège d’articles attestant de cette nouvelle situation :

Que ce soit VW ou Boeing, leurs déboires avec les logiciels qui gèrent leurs voitures ou leurs avions font régulièrement les titres des journaux. Les professionnels de l’informatique sont habitués à rencontrer des bugs (et à tenter de les corriger…) mais que ce soit désormais le cas de “nouveaux acteurs” est tout à fait significatif.

Le mode plateau traduit simplement un bout de cycle : les techniques sur lesquelles nous nous appuyons sont matures (y compris dans l’expression de leurs défauts avec leurs conséquences comme on le voit dans la “crise du logiciel” évoquée) et ne permettent plus de faire un “grand bond en avant”. Nous sommes d’accord, le mode plateau s’est installé et produit ses effets. La question du moment (pour sortir de cette situation) est donc : quelle sera la prochaine rupture technologique (rupture majeure comme le smartphone, ou rupture mineure comme les wearables) qui permettra de “relancer la machine” ?

Les candidats pressentis sont à côté de la plaque !

Les candidats ne manquent pas au titre envié de “next big thing” mais ils ont tous du mal à correspondre aux critères. En particulier au critère “big”… Les précédents succès de l’informatique se sont traduits par des raz-de-marée de volumes, d’argent et de nouveaux utilisateurs : PC, smartphone, cloud…

Si on considère la réalité augmentée, la réalité virtuelle, les jumeaux numériques ou même les ordinateurs quantiques (qui eux, tout comme le métaverse, ne sont pas encore pour demain…), on peut être enthousiaste sur leur potentiel respectif mais il est difficile de croire qu’il s’agit là effectivement de “marchés de masse” (comme lorsqu’on annonçait l’avènement de l’IoT il y a 5 ans) !

Or, c’est justement ce dont a besoin le marché informatique dans son ensemble : une nouvelle planche de salut qui apporterait volumes, argent et utilisateurs (sans oublier les nouveaux usages), pas de quelques niches, certes hi-tech et excitante si vous êtes intéressé, mais qui ne va concerner qu’une part réduite du marché mondial.

Une crise profonde (et durable ?)

Preuve s’il en était besoin que la crise est profonde, les politiques s’invitent dans le débat et interviennent comme ils ont l’habitude de le faire : via des subventions. Les états-unis, en premier lieu, sont particulièrement inquiets du déclin relatif d’Intel et de la montée en puissance de TSMC. D’où cette initiative du “Chips Act” pour relocaliser la fabrication des puces sur le sol américain. Ceci dit, ce n’est pas une subvention, aussi énorme soit-elle, qui va sauver la situation et relancer la machine : les entreprises américaines ont rangé bien vite les coupes de champagne après la très attendue ratification du Chips and Science Act, un coup de pouce de 52 milliards de dollars à la production de semi-conducteurs aux États-Unis.

Micron, champion des puces mémoires, avait proclamé investir 40 milliards de dollars dans le pays d’ici 2030 le jour de la signature, le 10 août. Le lendemain, la société a admis qu’elle réduirait ses investissements significativement en 2023 à cause de la récession qui guette. Le jour de l’adoption du texte par le Congrès, c’est Intel qui a déclaré réduire de 4 milliards de dollars ses investissements en 2022.

Le retour au monde d’avant : une chimère ?

Peut-être que ce retour à la croissance éternelle n’est qu’une chimère. Peut-être que l’équipement et les usages numériques sont arrivés à maturité. Dans ce cas, la véritable rupture se situe plus au niveau de la dynamique du marché : renouvellement et non plus conquête. Ceci implique une approche radicalement différente, car pour gagner 1% de part de marché (ou 1M € de CA), il va falloir le prendre à quelqu’un d’autre.

Les autres secteurs économiques sont habitués à cette situation, l’informatique, moins. Le changement de situation qui s’annonce va être vécu par beaucoup comme un véritable séisme !

Bien sûr, beaucoup vont se dire “pourquoi croire des oiseaux de mauvaise augure qui annoncent des lendemains qui déchantent (c’est à la mode, même le président s’y met !) ?”. C’est naturel, après avoir vécu une période dorée qui semblait devoir durer toujours, on ne croit pas facilement que ça va s’arrêter tout simplement parce qu’on ne veut pas que ça s’arrête !

Depuis deux ans, j’écris sur ce sujet et j’avertis sur le mode plateau et, tout ce que j’ai récolté, ce sont quelques moqueries à propos de la fin de la loi de Moore… Aujourd’hui, c’est plus difficile à nier et le reste en découle.

Pour en savoir plus sur les conséquences de cette nouvelle ère, je vous invite à lire l’article de Fred Cavazza : La « Next Big Thing » se heurte à l’impératif d’un numérique plus responsable.

Une nouvelle ère

Il y a et il y aura de nombreuses « next things » (VR, wearables, etc.), mais pas de « next big thing » avant au moins quelques années. Changer d’époque est toujours quelque chose de spécial mais là, c’est clair que ça va se sentir !

Dans les années soixante-dix, quand il y a eu le premier choc pétrolier qui a sonné la fin des “trente glorieuses”, il était alors difficile d’anticiper l’ampleur des changements qui s’annonçaient et que nous vivons encore actuellement. Eh bien, c’est notre tour, le marché de l’informatique est en train de vivre la fin de sa période “quarante glorieuses” (on en a profité plutôt quarante ans que trente, d’où la modification de l’appellation…). L’arrêt de la loi de Moore est plus ou moins l’équivalent du premier choc pétrolier et il va avoir au moins autant de conséquences. Nous devons donc raisonner et agir autrement dorénavant.

La croissance régulière et les progrès techniques automatiques, tout cela, c’est en partie terminé. Acceptons-le et agissons en fonction en allant vers une informatique plus raisonnée.

Publié dans Informatique, La terrible vérité | Laisser un commentaire

Automobilista 2 est sur la bonne pente !

Alors que la très attendue version 1.4 est prévue pour ce week-end, il est temps de faire le point sur cette simulation pas assez connue qui est pourtant en train de s’imposer comme la meilleure du lot (bien entendue, tout ici est question d’opinion…).

Les courses sur ovales arrivent !

De puis des mois, Automobilista 2 (AMS2) progresse en permanence tant dans le contenu offert que sur la fidélité de la simulation. Le rendu graphique est bien meilleur que celui de rFactor2 car AMS2 utilise le moteur graphique de Project Cars 2. Mais, rassurez-vous, au nouveau feeling au volant, ça n’a rien à voir !

En particulier, je suis bluffé par la gestion des freins : montée en température, fading si trop chaud, etc. Clairement, c’est rare de voir cela. Pareil au niveau des réglages : les voitures réagissent beaucoup aux changements de réglages et dans le sens logique (pour autant que je puisse en juger). Le modding est interdit mais l’abondance de l’offre de base compense presque complètement cette limite.

AMS2 a un positionnement particulier qu’il faut comprendre et assumer dès le départ : cette simulation s’intéresse aux voitures du passé (voire carrément vintage). Donc, si vous voulez rouler avec le tout dernier cri des différentes catégories actuelles, voyez ailleurs.

Pour juger de la qualité d’une simulation, il y a deux tests incontournables : les IA et le multiplayers. Au niveau des IA, je n’ai pas peur d’affirmer qu’AMS2 propose ce qui se fait de mieux actuellement (surtout quand on compare avec Assetto Corsa !). Les IA se comportent de façon logique et prévisible (et, important, ne vous sortent pas sans raison) mais elles ne font pas de cadeaux : si vous entrez trop fort que vous élargissez, boum, vous perdez une place ou deux, normal !

Le mode multiplayers est plus dur à juger car il n’est pas assez populaire : il est difficile de trouver des courses bien remplies dans la catégorie qui vous intéresse (c’est un peu toujours les mêmes qu’on retrouve, genre GT3…). Mais j’ai tout de même pu mener quelques tests satisfaisants tout en n’étant pas encore tout à fait au niveau iRacing sur ce plan (iRacing, qu’on aime pu qu’on déteste, c’est toujours le top en multiplayers).

Bref, je vous encourage à découvrir cette simulation si ce n’est pas déjà fait, je suis certain que vous allez éprouver une bonne surprise !

Publié dans Ce blog, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

CRISE CLIMATIQUE ET ÉNERGÉTIQUE : REGARDER LA VÉRITÉ EN FACE – Jean-Baptiste Fressoz

Aujourd’hui, je vous recommande cette vidéo YouTube.

Alors, oui, c’est un format long mais ça vaut la peine de regarder chaque minute. Je ne connaissais pas Jean-Baptiste FRESSOZ mais il s’exprime très bien, est très clair et démonte les idées reçues avec allant. J’adore quand les idées reçues sont remises en place : il y a tant à faire sur ce plan !

Bref, vous l’aurez compris, sur ce sujet de la transition énergétique mais sur d’autres encore (son balayage de l’évolution technique est rare et très juste), cette vidéo est à voir en priorité.

Publié dans conférences | Laisser un commentaire

Crypto : de la bulle spéculative à la bulle d’illusions !

Source image https://www.courrierinternational.com/article/finance-le-bitcoin-une-illusion-dangereuse

Si vous suivez l’actualité des cryptomonnaies en ce moment, vous avez pu constater une curieuse distorsion de la réalité : alors que nous sommes entrés dans une phase qu’on peut qualifier “d’hiver de la crypto” où ce domaine va enfin sortir (mais pas sans dégâts) de sa spirale spéculative pour aller vers une grosse correction (dans tous les sens du terme !), on voit encore passer des titres d’articles du genre “le web3 est une trop belle opportunité pour la laisser passer…”. Je dois dire que ce genre de titre m’irritait déjà il y a six mois mais aujourd’hui, comment est-il encore possible d’écrire cela ?

Je me dis que, forcément, l’auteur de l’article ne vit pas dans le même monde que moi, qu’il n’a pas accès aux mêmes sources ou alors, qu’il est prisonnier d’une boucle temporelle qui lui impose six mois de retard par rapport à nous… ça ne peut être que cela, non ?

Ce n’est pas moi qui ait inventé l’expression “crypto winter” (https://cryptoweek.fr/crypto-winter-2022-quand-bitcoin-sera-t-il-en-bas), les pros du domaine sont déjà capables d’en identifier plusieurs (hiver) et de dire fièrement “celui-là est moins terrible qu’en 2017”…

Récapitulatif d’une descente aux enfers…

Pour comprendre l’écart entre la situation actuelle et les illusions du dernier carré des fans de crypto, il faut revenir (brièvement) sur les épisodes précédents (voir aussi https://www.linkedin.com/pulse/comment-dispara%C3%AEt-une-mode-technique-web3-et-cest-dans-lefebvre/), accrochez-vous, ça va secouer !

  • Le 13 février 2022, quatre agences de cryptographie ont acheté des publicités du Super Bowl : Coinbase, FTX, eToro et Crypto.com. Coinbase est devenue l’une des applications les plus téléchargées après la diffusion de leur publicité. On peut dire que c’est l’instant précis du sommet qui précède le déclin…
  • Le 4 avril, Bitmex est devenue la première agence de cryptographie à annoncer des licenciements, licenciant 25 % de ses employés.
  • Le 3 mai, la Réserve fédérale a relevé les taux d’intérêt de 0,5 %, déclenchant une large liquidation sur le marché. En huit jours, Bitcoin a chuté de 27% à un peu plus de 29 000 dollars et Ether a chuté de 33,5% à environ 1 960 dollars. Le NASDAQ a chuté de 12,5 % au cours des cinq jours suivant l’annonce.
  • Le 9 mai 2022, les jetons Luna ont fait la une des journaux après que l’UST a commencé à casser son ancrage au dollar américain. Au cours de la semaine suivante, le prix de l’UST a plongé à 10 cents, tandis que Luna est tombé à « pratiquement zéro », contre un sommet historique de 119,51 $. Avant le crash, Luna était l’une des dix plus grandes cryptomonnaies du marché. L’effondrement a anéanti près de 45 milliards de dollars de capitalisation boursière en une semaine.
  • Le 10 mai, Coinbase, avec des actions en baisse de près de 80 % par rapport à leur sommet, a annoncé qu’en cas de faillite, les gens perdraient leurs fonds. Le PDG a annoncé plus tard qu’ils ne couraient aucun risque de faillite.
  • Le 13 mai, Terraform Labs a temporairement interrompu la blockchain Terra en réponse à la baisse des prix de l’UST et de la Luna. Malgré les tentatives de la société pour stabiliser UST et Luna via ses réserves de bitcoins et d’autres crypto-monnaies de la Luna Foundation Guard, l’arrimage 1:1 de l’UST à l’USD ne s’est pas matérialisé. Au 16 mai 2022, les analystes de la blockchain affirment que l’utilisation des réserves de bitcoins de LFG reste encore largement incertaine.
  • Le 12 juin, Celsius Network, un échange cryptographique, a annoncé l’arrêt de tous les retraits et transferts. Le Bitcoin a chuté de 15% le lendemain à près de 22 500 dollars et Ether est tombé à 1 200 dollars. Une vague de licenciements d’autres agences de cryptographie a accompagné cela, notamment de Crypto.com et Coinbase.
  • Le 13 juin 2022, le stablecoin algorithmique de Tron, USDD, a perdu son ancrage au dollar américain.
  • Le 17 juin, Bitcoin est tombé en dessous de 20 000 dollars pour la première fois depuis décembre 2020 et Ether est tombé en dessous de 1 000 dollars pour la première fois depuis janvier 2021.
  • Le 17 juin, Babel Finance, un prêteur crypto basé à Hong Kong, a gelé les retraits.
  • Le 23 juin, CoinFlex a suspendu les retraits après qu’une contrepartie, qu’elle a nommée plus tard Roger Ver, a rencontré des problèmes de liquidité et n’a pas remboursé un appel de marge stable de 47 millions de dollars.
  • Le 27 juin, Three Arrows Capital, un fonds spéculatif de cryptomonnaies, a fait défaut sur un prêt de 670 millions de dollars de Voyager Digital, un courtier en cryptomonnaies.
  • Le 30 juin, FTX a annoncé qu’elle pourrait acquérir BlockFi, une entreprise de cryptographie qui avait licencié 20 % de son personnel.
  • À la fin du mois de juin, de nombreuses agences de cryptographie ont commencé à repenser leurs dépenses alors que leurs fonds commençaient à diminuer.
  • Le 2 juillet, Three Arrows Capital a déclaré faillite.
  • Le 4 juillet, Vauld, un prêteur de crypto basé à Singapour soutenu par Coinbase et Peter Thiel, a interrompu les retraits et les échanges sur sa plateforme.
  • Le 5 juillet, eToro a mis fin à son accord de société d’acquisition à vocation spéciale (SPAC) et a licencié 6 % de ses effectifs.
  • Le 5 juillet, le courtier en cryptographie Voyager Digital a déposé son bilan en vertu du chapitre 11.
  • Le 6 juillet, Genesis Trading a révélé qu’elle avait été exposée dans la faillite de Three Arrows Capital.
  • Le 8 juillet, Blockchain.com a annoncé à ses actionnaires qu’elle faisait face à une perte potentielle de 270 millions de dollars sur les prêts accordés à Three Arrows Capital.
  • Le 11 juillet, il a été annoncé que les mineurs de crypto au Texas avaient temporairement fermé leurs portes car une vague de chaleur intense a mis à rude épreuve le réseau énergétique.
  • Le 11 juillet, le Conseil de stabilité financière (FSB) a déclaré que la crypto « doit faire l’objet d’une réglementation et d’une surveillance efficaces proportionnelles aux risques qu’elles posent ».
  • Le 12 juillet, un dossier déposé auprès du tribunal américain des faillites du sud de New York par des avocats représentant les créanciers de Three Arrows Capital a déclaré que la localisation actuelle des fondateurs de la société était inconnue.
  • Le 14 juillet, Celcius Network a déclaré faillite.
  • Le 19 juillet, SkyBridge Capital a gelé les retraits.
  • Le 20 juillet, Vauld a déposé une demande de protection contre les créanciers, l’équivalent de la faillite aux États-Unis.
  • Le 20 juillet, Zipmex, une bourse d’Asie du Sud-Est, a gelé les retraits.
  • Le 25 juillet, Coinbase a fait l’objet d’une enquête de la SEC pour avoir potentiellement menti à ses clients. Cela a entraîné une baisse de 21 % de leur stock le lendemain.
  • En juillet 2022, Bitcoin et Ether étaient en baisse de plus de 60 % par rapport à leur pic.

Source : https://en.wikipedia.org/wiki/Cryptocurrency_bubble#2020%E2%80%932021_boom_and_2021%E2%80%932022_crash

Vous avez tout lu ? Bravo !

Vers le bain de sang !

Bon, que le Bitcoin ou l’Ether (l’Ether est le nom du coin qui est basée sur la blockchain Ethereum) connaissent des variations de leurs cours, rien de plus normal : ce sont les éléments principaux de cette bulle spéculative, c’est donc dans l’ordre des choses. Que des start-up spécialisées fassent faillite à cause de ces variations, c’est tout à fait normal également. Mais que des plateformes “d’échanges” gèlent les transactions et empêchent les retraits des clients, voilà qui est déjà plus significatif, non ?

Cela prouve tout simplement et sans aucune ambiguïté que les acteurs de ce “marché” sont entrés en mode “panique” : le sauve qui peut général est décrété et personne de sérieux dans le milieu croit que la phase finale du crash puisse encore être évitée.

Ces derniers mois, nous avons franchi successivement les paliers de -20% puis -50% (les paliers habituels quand une bulle spéculative est en train d’exploser… ce qui peut prendre des mois, voir les bulles précédentes…), reste le dernier, à -80% qui lui est vraiment synonyme de “bain de sang”. 

Les baleines sont pressées

Le franchissement de ce palier est prévu entre septembre et octobre de cette année et les “baleines” (c’est ainsi que l’on surnomme les gros détenteurs de crypto… ceux qui, depuis le début, manipulent le marché à leur seul profit) savent que le compteur tourne et qu’il faut sortir du marché (vendre leur crypto) maintenant !

C’est pour cela que la propagande évoque des rebonds et des hivers finalement pas si terribles : il faut entretenir l’illusion que cette crise n’est pas si grave et que le meilleur est encore à venir. Le dernier chapitre du battage médiatique met un fort accent sur les cycles, que maintenant c’est le moment de construire sagement sans bruit : « bear market is a time to build »…

Il suffit que les baleines arrivent à convaincre un lot suffisant de “crédules/avides” (le dernier lot des “plus grands imbéciles”, également appelée “théorie du plus grand fou” ou “théorie du survivant”) pour sortir du marché sans trop de casse. Et je constate que c’est en train de marcher. Et que c’est pour cela qu’on voit autant d’articles sur les cryptomonnaies en ce moment : la propagande tente de relancer la machine une dernière fois (pour faciliter la sortie du marché des baleines… après, advienne que pourra !). C’est un discours simple mais bien ciblé qui glorifie les « believers », ceux qui tiennent bon et qui sont encore des “holders” (des idiots utiles plutôt…).

Une bulle d’illusions, ça existe !

Nous sommes passés d’une bulle spéculative à une bulle d’illusions : ceux qui prétendent encore que la “crypto c’est super” ou que le “web3 c’est l’avenir” sont soit profondément malhonnêtes, soit profondément idiots. Je penche plutôt pour la seconde solution (les malhonnêtes existent mais ils sont moins nombreux) : le dernier carré des fans de crypto est en plein déni de réalité. Attendons le bain de sang afin de voir s’ils sont toujours dans l’enthousiasme…

La crypto va rester

Même un palier à -80% ne va pas “tuer” la crypto (ne serait-ce que pour permettre aux pirates de faire payer leurs ransomwares !) : certains coins vont disparaître (il y en a trop pour qu’il en soit autrement) mais le Bitcoin et l’Ether sont là pour rester, même à des niveaux historiquement bas. Puis, ils vont remonter, progressivement et une nouvelle bulle spéculative va se former. Cela peut prendre deux ans ou plus mais c’est ainsi que ça se passe, hélas.

Épilogue : les leçons qu’on peut/doit tirer de tout cela…

Tout d’abord, il nous faut admettre une bonne fois pour toute que la propagande technique existe, qu’elle s’est emparée des médias et tente (avec un certain succès, voire même un succès certain !) de nous imposer des modes (et peu importe son contenu technique, réel ou supposé) tous les deux/trois ans.

Ensuite, il faut reconnaître que cette mode technique, qui reposait sur peu de choses (le web3) et dont toutes les promesses ont été systématiquement démontées, a tout de même réussie à s’imposer et à occuper une bonne partie de l’espace médiatique avec des “experts” nous expliquant régulièrement et très sérieusement pourquoi nous devions accepter que cette nouveauté fragile et mal assemblée représentait l’avenir de l’informatique sans l’ombre d’un doute.

Nous devons donc nous interroger sur notre crédulité ou, au moins, sur le poids que fait peser la propagande sur les canaux d’informations techniques qui n’en sont presque plus. En effet, comment continuer à considérer que ces canaux ont la moindre crédibilité sur le plan technique puisqu’ils se sont évertués pendant deux ans à nous faire prendre des vessies pour des lanternes ?

Enfin, les leçons du passé ne servent pas à grand-chose. Sinon, comment comprendre qu’il ait fallu tant de temps pour reconnaître ce qu’était le web3 : une bulle spéculative de plus. Pourtant,des bulles spéculatives, on en a vu passer et, à chaque fois, tout le monde a dit “plus jamais ça !” (vous avez remarqué combien cette expression “plus jamais ça” n’atteint jamais son but ?). On savait les caractéristiques d’une bulle, il était facile d’appliquer les critères sur la nouvelle venue et pourtant, rien ou presque. Seuls quelques rares témoins ont dénoncé la situation, les autres ont préféré croire que, cette fois, “to the moon” était une promesse solide et non pas un piège à gogos.

Notre crise sanitaire à nous

Finalement, nous aussi nous avons eu notre “crise sanitaire” dans notre domaine hi-tech !

Avec quasiment le même cirque comme le défilé des faux-experts racontant n’importe quoi mais étant écoutés religieusement. Où tous les comportements sains qui auraient évité cet égarement ont sauté, les uns après les autres : bon sens, discernement, intelligence et scepticisme raisonné. Au lieu du bon sens on a eu l’avidité crédule, au lieu du discernement on a eu l’aveuglement enthousiaste, au lieu de l’intelligence on a eu la folie de la “ruée vers l’or” et au lieu du scepticisme raisonné on a eu le dogmatisme indiscutable de “c’est l’avenir, admettez-le”.

Cet épisode met aussi en exergue nos comportements humains (trop humain !) les moins reluisants : on préfère les gains rapides et faciles à l’effort de longue durée, on préfère écouter les marchands de promesses, même s’ils sont délirants, plutôt que d’entendre les avertissements des (vrais) experts modérés et prudents. Enfin, on préfère l’illusion souriante à la dure réalité même quand les faits sont sous notre nez. Triste et significatif à la fois.

Cette crise de la hi-tech n’est pas terminée et va encore causer des dégâts. Cet épilogue est sévère mais il est juste : la débacle du web3 ne va épargner personne, tout le monde va y perdre quelque chose (et ce n’est pas forcément de l’argent), l’espoir, la fois dans l’évolution technique, la réputation de sérieux des uns et des autres et ainsi de suite. 

Le fact-checking se pratique peu dans le domaine technique mais si l’épisode web3 doit servir à quelque chose, ça doit être au moins à cela : vérifiez, vérifiez, vérifiez. 

Publié dans La terrible vérité, Références IT | Laisser un commentaire

Plaidoyer pour une moto légère…

En relisant quelques exemplaires de ma collection de Moto Journal, je m’aperçois que, au fil des essais et des années, il y a un débat qui revient régulièrement dans ces pages et qui n’a jamais été tranché (par les essayeurs de cet hebdomadaire) : vaut-il mieux une moto de grosse cylindrée (puissante mais lourde) ou une moto plus légère (mais qui va être agile) ?

Ce débat existe encore aujourd’hui même si les motos moyennes de notre époque ont tendance à prendre du poids de façon inquiétante (des 350 qui pèse 200 kgs, j’aurais jamais cru cela possible !).  Ce matin, nouvelle sortie et nouvelle occasion d’évaluer cette question car, pour une fois, je laissais ma Z1000 et ma XS750 dans mon hangar afin de me concentrer sur ma Honda CB500 (faut bien qu’elle roule elle aussi !).

L’auteur lors de son tout premier contact avec la CB500..

Je sors la moto assez tôt (8H30) afin de profiter de la température encore relativement clémente (24° environ), ça compte en ce moment. La CB démarre du premier coup, contente qu’on se penche enfin sur elle !

Je m’équipe (all the gears, all the time) et je choisis un casque que j’utilise rarement : le Shark Nano (qui va confirmer à cette occasion ce que je pense : cela pu être un casque tout à fait excellent mais le verrouillage de la visière est trop fragile…).

Dès les premiers tours de roues, je réalise (ce que j’avais un peu oublié) que cette moto a un avantage énorme sur les deux autres (la Z1000 et la XS750) : sa légèreté.

Cette légèreté rend tout plus facile : la machine tolère toutes les approximations et permet de rouler vraiment décontracté. Alors qu’avec les « grosses », il faut toujours garder en tête que leur inertie te guette toujours au passage d’un geste mal exécuté ou d’une évaluation un poil optimiste. On doit toujours être sur ses gardes avec les grosses, pas avec la CB500 qui te murmure « roule tranquille, je m’occupe du reste… ».
On a tendance à l’oublier mais la masse joue un rôle permanent dans la dynamique d’un véhicule : au freinage, à l’accélération, dans les courbes, etc. C’est encore plus vrai avec un engin à deux roues qui est continuellement sur un équilibre précaire et dont le centre de gravité varie en même temps que la position de son pilote… ça fait beaucoup de paramètres à prendre en compte. Et l’importance de tout cela est évidemment multiplié par le poids à faire bouger, à arrêter, à redresser et ainsi de suite.

Voilà pourquoi il y a une telle différence entre une « grosse moto » et une moto plus petite. La petite va compenser largement son manque de puissance par une agilité bien supérieure mais nous ne sommes pas bien « câblés » en tenir compte à sa juste valeur : nous avons tendance à nous focaliser sur la puissance moteur et la manière dont elle est délivrée car c’est là que se situe la plus grande réserve de sensations… Or, nous roulons à moto précisément pour les sensations !

Donc, pour apprécier l’agilité et ce qu’elle apporte à la performance et à l’agrément de conduite, il faut rouler en « appuyant » un peu… Quand on roule pépère, la différence en faveur de l’agilité s’amenuise, forcément. Or, rouler de façon appuyée, ça ne peut se faire que lors d’un « track day » sur circuit. Lors de notre stage à Carole, je n’avais aucune difficulté à maintenir une grosse 1000 Suzuki derrière ma plus modeste Honda 600 CBR justement grâce à cet avantage d’agilité qui était déterminant sur un circuit relativement court comme Carole…

Je prends la nouvelle route que j’avais repérée auparavant et la magie opère à plein : la route est ombragée, la température est agréable, j’ai le vent qui rend mon blouson supportable dès 100 km/h, tout va bien.

La différence avec un trajet en voiture me saute aux yeux encore plus que d’habitude : alors qu’au volant, on cherche à « effacer » la route pour « passer à autre chose le plus vite possible » (on ne prend pas le volant pour se balader mais pour remplir un but, comme aller ravitailler par exemple), la moto au contraire t’incite à « parcourir pour de bon » le chemin. Rouler à moto est une puissante incitation à être dans l’instant présent pour de vrai, en immersion totale.

Or, être dans « l’instant présent » est ce qui peut nous arriver de mieux au quotidien. Quand je suis dans l’instant présent (quand j’y suis vraiment), je suis heureux, rien de négatif ne peut m’arriver et je savoure la moindre sensation complètement, totalement.

Du coup, les sens sont en éveil et on se surprend à percevoir des éléments qui seraient passés inaperçus autrement. Ici, c’est l’odeur de foin coupé, un peu plus loin, c’est une trace d’humidité qui signale que le champ d’à côté est en train d’être arrosé. D’ailleurs, en passant, tu peux sentir si l’agriculteur s’est contenté d’utiliser de l’eau basique ou s’il a ajouté un peu d’engrais à cette eau… tu le sens, tu le sais.

Je serpente sur cette route qui se révèle encore plus intéressante et agréable que ce que j’en supposais en la traçant sur Gmaps… Même si la CB500 m’incite à « ouvrir » et aller dans les hauts régimes, je me contente d’enrouler tranquillement, appréciant chaque virage (le coup de gaz pour s’en sortir au mieux après avoir placé la moto au centimètre près, c’est tout à fait jouissif), chaque montée, chaque descente, attentif à « lire » la route pour ne pas me faire surprendre par une plaque d’humidité ou des gravillons (y a les deux pile dans un virage bien ombragé pour que tu ne puisse les voir !). J’arrive à un croisement où s’affairent des gendarmes : deux camionnettes se sont percutées (pas de blessés apparemment) et ils s’occupent de remettre la route en circulation. Au signal du pandore, je passe et continue ma route. J’arrive enfin à Grosbreuil et, à partir de là, c’est ma boucle de retour habituelle.

Une fois dans mon hangar, je défais mon casque et mon blouson avec une grande satisfaction : j’ai adoré cette sortie. A cette occasion, la CB500 s’est grandement revalorisée. Certes, elle ne t’offrira jamais le « grunt » de la Z1000 quand tu ouvres les gaz à bas régime et que le moteur gronde en déroulant son couple (j’adore cette sensation !) mais cette moto se manie quasiment comme un vélo (et donc t’offre la sensation de liberté que tu peux ressentir au guidon d’un vélo) et ça, c’est totalement inaccessible à la Z1000 à cause de son poids et de sa longueur.

Que faut-il préférer ?

En fait, les deux sont des plaisirs différents et il n’y en a pas un supérieur à l’autre. Il faut pouvoir apprécier les deux en fonction de l’humeur et des circonstances. La moto est comme la gastronomie : ce n’est pas un plat unique mais une variété de saveurs qui permet de ne jamais se lasser.

 

Publié dans Enjoy the ride | Laisser un commentaire

Essai d’une Yamaha XS750 de 1978… La vintage qui était (trop) en avance sur son temps !

Depuis le début de l’année 2022, j’ai une moto de route de plus : une Yamaha XS750 Custom de 1978.

J’ai ajouté un carénage Hugon qui était le standard de l’époque…

Je vous propose ici un petit tour d’horizon de mes impressions et sensations avec cette machine. Pas un essai complet, je laisse cela à d’autres. Mais cette moto mérite bien qu’on en parle, suivez le guide !

Un peu d’histoire…

Cette moto a d’abord été présenté en 1976. C’est la machine qui va permettre à la marque de tourner la page de la TX750 qui a été un échec retentissant (pour cause de fiabilité insuffisante). Cette fois, Yamaha est persuadé d’avoir tout fait bien, d’avoir appris ses leçons et fait ses devoirs : la XS750 ressemble à une synthèse de ce que devrait être une moto moderne et idéale !

La première version.

Rien ne manque : moteur multicylindres (mais ce n’est PAS un quatre cylindres pour garder un peu d’originalité), transmission par cardan, roues alliage, trois freins à disque, etc., etc.Hélas, les motards de l’époque veulent des sportives et la XS ne l’est pas assez face à la Suzuki GS750 sortie au même moment (qui elle, rencontra un franc succès).

Pourquoi cette moto pour moi ?

Tout comme la Suzuki GS750 que j’ai eu il y a quelques années, la XS750 m’avait « tapé dans l’oeil » quand j’étais jeune et j’ai toujours eu envie, ensuite, d’en avoir une, un jour…

Et lorsque l’occasion s’est présentée, je n’ai pas hésité : un modèle en bon état (je dirais même en vraiment bon état, quasiment état concours !), avec quelques aménagements intelligents (un guidon plus classique que l’original) et, aussi, le modèle Custom, bien plus rare que le modèle habituel.

J’ai ajouté ma petite touche en y adaptant un carénage Hugon trouvé (lui aussi en bon état !) sur le BonCoin. Ce carénage fait aussi partie des souvenirs de l’époque que je voulais pouvoir tester. Bon, alors, qu’est-ce que ça donne tout cela une fois en 2022 ?

Tout d’abord, il faut savoir où on met les pieds : une moto qui a plus de trente ans est une vintage, même si elle est en excellent état !
Ne vous attendez pas à retrouver les mêmes prestations ni le même comportement qu’avec les motos récentes (ça parait évident mais je crois qu’il faut tout de même insister…). Je vous recommande de lire cet article à ce propos :

Ce que j’ai appris en roulant avec une « vintage »…

Ma XS est plutôt dans le genre « bien élevée, civilisée ». La prise en main est donc facile. Le moteur est très progressif et la partie cycle ne réserve pas de surprise (comprendre « pas de mauvaise surprise »…). Au début, je trouvais que la moto engageait un peu en entrée de virage mais, une fois les pneus changés (pour des Avon au profil bien rond), ce petit défaut a disparu et la XS a un comportement très sain en toutes circonstances (aux vitesses raisonnables, évidemment…).

C’est à ce genre de détail qu’on voit combien une moto est un engin très spécifique. Avec une voiture, il faut vraiment qu’un composant soit défectueux (dans le chassis ou les trains roulants) pour qu’on se rendre compte que « quelque chose » va de travers. Avec une moto, le moindre truc se sent tout de suite !
Simplement changer de pneus et le feeling est tout de suite dix fois meilleur. Pas possible d’avoir ce genre de retour avec une voiture (ou alors, c’est une vraie voiture de course, hyper-sensible elle aussi).

Le moteur est vraiment la pièce maitresse de cette machine : il est super souple (il accepte de reprendre à très bas régime sans rechigner ni cogner) et bien plein. Dès qu’on ouvre un peu, le couple se manifeste tout de suite (pas besoin de monter dans les tours) et la montée en régime est très linéaire tout en étant riche en sensations (important !). Le moteur est vivant mais il ne vibre pas trop (juste un peu « pour faire sentir sa présence » !), seul le bruit est assez particulier : c’est un trois cylindre (calé à 120°), on aime ou on aime pas… Je n’ai pas été trop séduit par ce bruit en fait. Il y a aussi quelques bruits mécaniques (la transmission ?) qu’on peut percevoir à faible vitesse mais rien de rédhibitoire.

La boite se fait oublier, tout comme la transmission : si on ne sait pas que c’est un cardan, on croit vraiment avoir à faire à une transmission par chaine tellement c’est souple, bravo !

La moto est confortable grâce à la bonne position (guidon bien cintré), la selle correcte, les suspensions correctes également (les amortisseurs arrières sont récents et ce ne sont pas ceux d’origine) et le carénage protège bien mais pas trop : il ne faut pas que toutes les sensations soient gommées, ça doit rester de la moto !

De façon un peu surprenante, même le freinage est bon. Certes, ce n’est pas le mordant des motos modernes mais ça reste tout à fait correct car il (le dispositif de freinage) est encore entièrement d’origine. Il y a quelques vibrations lors des phases de freinage (sans doute un des disques avant qui doit être un peu voilé) mais ça reste supportable et même pas vraiment gênant. Seul bémol, le levier de freins avant est trop éloigné de la poignée, faut vraiment aller le chercher pour l’attraper.

En fait, les seuls vrais défaut de cette machine se manifestent à l’arrêt !
En effet, elle est haute sur pattes et, du coup, difficile à manœuvrer et difficile à mettre sur la béquille centrale. C’est dommage parce que ça dénote une négligence dans la conception. Ma Z100 qui est pourtant plus lourde et plus longue est plus facile à manœuvrer parce que, justement, elle est un poil plus basse (et ça fait toute la différence).

La XS méritait bien une photo »dynamique » !

Bilan : une moto bien sous tous rapports mais…

Mais, on attend plus que cela, surtout de la part d’une vintage !
En fait, cette machine n’est pas vraiment critiquable mais on reste sur ça faim, il manque un petit quelque chose, une personnalité plus marquée (là où le bruit du 3 cylindres a échoué par exemple), un trait de caractère qui sort du lot, quelque chose de spécial quoi !

Mais ça, il n’y a pas. Les Japonais ont bien travaillé, de leur point de vue, c’est parfait. Mais de notre point de vue, ça reste encore insuffisant pour s’y attacher vraiment. A son époque, cette moto était une bonne GT, fiable, confortable et endurante sans doute mais les motards se sont tournés vers des machines plus aguicheuses. Yamaha a compris la leçon et s’est mise à produire des 4 cylindres à son tour, certaines très réussies comme la FJ1100, la XJ900 ou la FZR750 (j’ai eu l’occasion de rouler avec ces trois motos…).

Publié dans Ce blog, Enjoy the ride | 2 commentaires

Abrutissement généralisé : voilà où nous en sommes (et c’est pas réjouissant !).

LCI affichait la même chose… ce n’est donc même pas une « erreur » propre à BMF-TV !

Sur ce blog, j’ai souvent dénoncé l’effondrement du niveau général et j’ai eu souvent aussi l’impression de « prêcher dans le désert »… Petits rappels :

Cette révolte qui ne viendra pas : section 3- Le niveau du citoyen moyen

Baisse du niveau : quand il est triste d’avoir raison…

Le test SAT prouve que le niveau a baissé…

Baisse du niveau, une preuve de plus…

Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Bonne nouvelle : nous sommes désormais plus nombreux à dénoncer ce terrible glissement vers le bas. Mauvaise nouvelle : le niveau actuel est encore plus bas que je ne pouvais l’imaginer !

Transformer les citoyens en consommateurs… tout un programme !

Commençons par la bonne nouvelle tout de même. Jean-Paul Brighelli vient de publier un nouveau livre qui fait suite à son best-seller « La fabrique du crêtin » où il dénonçait déjà la faillite de l’Education Nationale. Et, dernièrement, les (tristes) faits lui ont donné raison car, lors des examens de fin d’année scolaire, on s’est rendu compte qu’une bonne partie des élèves de 3ème pro ne savait pas la signification du mot « ludique »… véridique !

Dans ce nouvel ouvrage, dès l’introduction, l’auteur expose sa thèse : la faillite de l’Education Nationale n’est pas un accident ou un concours de circonstances qui se déroule depuis des décennies. C’est en vérité un processus délibéré visant à transformer les citoyens en consommateurs, ni plus, ni moins. Des consommateurs bien abrutis, cela va sans dire, puisqu’ils doivent accepter d’acheter (et réclamer !) des produits frelatés et nocifs pour leurs santé.

Tout le monde approuve le plan !

Les gouvernants sont d’accord avec plan puisque des consommateurs abrutis sont plus faciles à diriger que des citoyens responsables et éventuellement revendicatifs. Si on pouvait se glisser dans le palais de l’Elysée, je suis sûr qu’il ne faudra pas longtemps avant d’entendre des propos édifiants… genre (propos fictifs bien sûr !) :

Conseiller – Les gens intelligents ne vont jamais croire cela, Président !

Président – Aucune importance, les cons vont le croire eux et ils sont bien plus nombreux…

Ils sont bien plus nombreux, on a fait ce qu’il fallait pour cela !

Les médias sont d’accord avec plan puisqu’ils ont juste à accompagner et amplifier le mouvement avec des contenus abêtissants qui sont plus faciles (et économiques) à produire que ceux qui pourraient hausser le niveau.

Enfin et c’est le plus triste, les « gens » sont d’accord avec ce plan puisqu’ils se comportent exactement comme on l’attend d’un troupeau bien docile : depuis l’affaire du sang contaminé jusqu’à la toute récente « crise sanitaire », on a pu voir le peuple (ou ce qu’il en reste) tout accepter avec une passivité qui laisse pantois.

De la servitude volontaire à la passivité consentie

Bien après La Boétie et son « Discours de la servitude Volontaire » (1576 !), on peut s’interroger sur cette « passivité consentie » qui frappe tant de nos contemporains.

Moralité : il est trop tard pour sauver ces « gens ». Concentrez-vous sur vous, vous êtes les derniers survivants de l’espèce, les autres sont déjà perdus.

Publié dans La terrible vérité | Un commentaire

Toutes les guerres sont des guerres longues

Voilà ce qu’écrivait The Economist cette semaine pour finalement admettre que la guerre en Ukraine allait durer…

La guerre typique est courte. Depuis 1815, la durée médiane des guerres entre États est d’un peu plus de trois mois, calcule Paul Poast de l’université de Chicago. En 2003, l’Amérique a renversé le gouvernement irakien en seulement 20 jours. Le conflit que l’Arménie et l’Azerbaïdjan ont combattu sur le territoire du Haut-Karabakh en 2020 s’est terminé en 44. Pourtant, l’invasion de l’Ukraine par la Russie est entrée dans son cinquième mois et ne montre aucun signe de fin. « Je crains que nous n’ayons besoin de nous armer pour une longue guerre », a écrit Boris Johnson, le Premier ministre britannique, à la mi-juin. Jens Stoltenberg, secrétaire général de l’Otan, a fait écho à son avertissement : « Nous devons nous préparer au fait que cela pourrait prendre des années.

Il se trouve que je crois tout le contraire de ce qui est affirmé au début de ce texte : il n’y a PAS de guerre courte !

Et croire que le conflit Ukrainien dure depuis février 2022, c’est faire complètement l’impasse sur le fait qu’il a commencé en 2014…

Quand on examine l’Histoire, on s’aperçoit que les guerres courtes sont les exceptions et les guerres longues la règle. On peut ainsi multiplier les exemples tels que la Seconde Guerre Mondiale est un prolongement de la Première et ainsi de suite. La fameuse « Guerre de Cent ans » n’a pas été un conflit intense et ininterrompu pendant un siècle, il y a eu des périodes d’accalmies mais, même pendant ces périodes, les conditions du conflit étaient toujours présentes d’où sa durée.

Pour illustrer cette fatalité, je vous propose un extrait de mon livre « La guerre des Froes » où le personnage principal explique que tous les conflits sont des guerres d’attrition (ou d’usure) et que le mythe de la « bataille décisive » est une illusion coûteuse.

31 décembre 2336

À linitiative de lattaché culturel du consulat, Franck Ilkor, les différentes factions des rebelles se sont réunies pour se coordonner. Une fois tout le monde en place dans un théâtre, Ilkor monta sur scène, où une tribune avait été aménagée, et prit la parole.

Nobles délégués, vous n’êtes pas des clandestins, vous n’êtes pas des rebelles, vous êtes des révolutionnaires!

Cest vous le fer de lance de la nouvelle société qui naitra sur Froes II et qui sera le modèle à suivre pour toutes les colonies. Ce nest pas simplement votre monde qui vous regarde, mais tout lunivers connu!

Jai pris linitiative de cette réunion secrète, la dernière de ce genre, pour nous coordonner avant le grand affrontement qui sannonce

Oui, et ce nest pas la première initiative que prend notre allié inattendu!

Qui vous a permis de diffuser cette vidéo de revendication qui nous désigne au congrès terrien?

Nous sommes encore loin d’être prêts pour autre chose que des actions ponctuelles et clandestines

Détrompez-vous, on n’en est plus là. Si le congrès a été un peu long à la détente, je savais grâce à mes sources sur Terre que les corporations avaient déjà compris quil ne sagissait pas de simples piratesMieux vaut avoir lavantage dans cette guerre, qui est aussi un affrontement psychologique relayé par les médias.

Tout cela, cest très joli, mais que propose Ilkor?

Une bataille rangée dans lespace?

Laissons parler le général McLaren, le seul ici qui ait lexpérience du combat militaire, le seul qui sache de quoi on parle quand il sagit de guerre

Le général en question se leva, monta à la tribune sanglé dans une vareuse sobre qui faisait penser à un uniforme du passé.

Nous navons pas de flotte, nous navons pas darmée et nous navons pas de cadres pour la commander si nous arrivions à en lever une. Tout ce que nous avons, ce sont quelques vaisseaux marchands habilement maquillés mais sans arme, menés par des pilotes audacieux, mais sans grande expérience et encore moins de discipline. Quand la Terre alignera une flotte digne de ce nom, nous ne pourrons résister. Cest aussi simple que cela.

Un murmure parcourut la salle suite à lexposé du général. Seul Ilkor semblait serein, comme si c’était justement le discours quil attendait

Jai bien compris lexposé de votre général, nobles délégués. Jai bien compris quil pensait que nos forces étaient insuffisantes pour battre celles den face et, sûrement en cela, il a raison.

Mais contrairement à ce quil pense, ce nest pas important. Un général, cest un homme de terrain et qui ne voit pas plus loin que son terrain. Et ce terrain justement, cest le champ de bataille, le « théâtre des opérations » comme disent les plus modernes. Et ces gens-là veulent simplement gagner la bataille, à tout prix éventuellement. Or, ce nest justement pas ce qui compte. Peu importe que vous remportiez une bataille, voire plusieurs, ce nest pas ainsi quon gagne une guerre. Or, les généraux pensent au contraire que rien dautre ne compte, quil faut absolument gagner la bataille, de même que la suivante et ainsi de suite. Mais, en vérité, cet état desprit ne vous mène nulle part sinon dans une guerre sans fin. Je le répète, ce nest pas de gagner le prochain affrontement de vaisseaux ou de troupes qui va vous donner votre indépendance, au contraire!

Chaque bataille rudement menée vous éloigne toujours plus de cet objectif final. Chaque affrontement vous affaiblit et vous finissez par ne plus pouvoir mener ni supporter aucun combat et cest la fin. Certes, votre adversaire est affaibli aussi, mais comme il était plus fort au départ, il restera toujours plus fort, jusqu’à être en position de vous dicter ses conditions. Et cest ça quil faut éviter à tout prix. Et cest pour cela que ce ne sont pas des généraux bornés qui peuvent faire triompher votre cause, alors que moi, je le peux.

Moi, je sais comment mener une guerre parce que cest précisément ça qui est important : mener la guerre et non pas gagner des batailles. Cest très différent et il y a très peu de gens en mesure de le comprendre. Les batailles sont des éléments du parcours, quil faut gérer soigneusement, mais sans jamais perdre de vue le parcours lui-même.

Je vais vous livrer ici et maintenant le secret dune guerre bien menée, nobles délégués, le secret qui donne la clé de la victoire, la vraie victoire, la victoire finale, celle où le chef d’État ennemi vous demande vos conditions, pas celle où le général vaincu vous remet son épée sur un champ de bataille boueux et ravagé. Ce secret tient en deux éléments. Le premier est que la notion de bataille décisive est un mythe. Oui, je sais que les généraux de toutes les époques nont eu que cela à la bouche, mais cest un mensonge, comme toutes les promesses trop vendues. La bataille décisive est toujours censée être la prochaine, celle qui est bout du chemin, celle où il ne reste plus quun effort pour lobtenir. Et pour N raisons, elle se dérobe toujours, ladversaire même défait sarrange toujours pour revenir sur le tapis.

Parce que la terrible vérité est quil ny a pas de guerre courte, toutes les guerres sont longues. Une guerre courte, cest un malentendu, une erreur et plus sûrement une vue de lesprit, ça narrive simplement jamais. Une guerre, une vraie, cest une lutte à mort, ce nest pas une compétition sportive avec des règles et un adversaire qui joue fair-play, cest une tempête qui ne connait pas dapaisement et qui enfle toujours plus, dévorant tout sur son passage.

Et cest le second élément du secret : toutes les guerres sont des guerres dattrition. Toutes les guerres sont longues, très longues, toujours plus longues quenvisagé et se terminent toujours de la même façon : un des deux adversaires est trop épuisé pour continuer et demande merci, point. Toujours, ça finit toujours comme cela. Pas par une défaite soudaine et désastreuse, mais par une accumulation lente et douloureuse d’événements contraires et coûteux. Cest ça qui finit par vous perdre : le fait de comprendre trop tard quune guerre coûte trop cher et que vous naviez pas les moyens.

Rassurez-vous, personne na les moyens et seuls ceux qui lont compris sen sortent mieux, en remportant le morceau au final. Pas grâce à la force de votre armée ou à lhabileté de vos généraux, mais parce que vous aviez compris quune guerre est une épreuve au long terme, quil faut la gérer ainsi, dès le premier jour, dès la première bataille. Il ne faut pas viser les succès ponctuels, ce sont des mirages, seul importe le décompte final. Une victoire qui vous a coûté cher vous affaiblit plus quune défaite bien gérée. Cest tellement éloigné de la mentalité des militaires que vous nen trouverez aucun prêt à se comporter ainsi. Ils ne veulent pas gérer laffrontement, ils veulent juste se battre parce quils ne connaissent que cela.

Or, ce nest pas dans les combats quon peut gagner le plus, mais cest bien là, en revanche, quon peut perdre beaucoup. La guerre ne se mène pas seulement sur les champs de bataille et cest ignorer cela qui conduit à la défaite. Il faut soccuper de lapprovisionnement, du soin des blessés, il faut mettre en place une économie de guerre, il faut sattacher le soutien des populations et, surtout, il faut en savoir plus que son adversaire nen sait sur lui-même.

La vraie bataille qui compte, cest celle de lombre, celle de lintelligence. Rien ne sert davoir une armée ou une flotte forte si vous ne savez pas où et comment lutiliser. Peu importe que vous soyez plus faible sur le papier si vous savez vous placer là où votre infériorité est effacée, là où le nombre compte moins, là où vous avez tout à gagner et peu à perdre. Cest ça que lintelligence va nous apporter sur un plateau avec très peu deffort. Laissez votre adversaire se tromper de combat, de chemin et dobjectif. Laissez-le lancer de coûteux programmes afin de se doter dun futur éventuel avantage technique, laissez-le senferrer dans ses propres erreurs, laissez-le triompher dans des batailles sans véritables enjeux, laissez-lui croire à sa victoire jusquau moment où vous serez en position pour révéler votre vraie valeur.

La Terre vient déjà de sengager sur cette pente en lançant la construction dune escadre de vaisseaux de guerre. Cette flotte va lui coûter cher alors que son économie est déjà affectée par linterruption du flux de nos ressources. La supériorité de la Terre repose sur les flux qui lui arrivent des colonies. Sans nous, la Terre est démunie, sans ressources et sans capacité à mener une guerre longue. Si cette escadre ne produit pas rapidement des victoires éclatantes, vous verrez que les médias terriens vont se déchainer contre le congrès… ça sera le début de la fin pour eux.

La salle était subjuguée par ce discours bien articulé. Les délégués se regardaient, conscients quun chef venait d’émerger. Finalement, lun deux prit la parole

Je crois exprimer le sentiment général en vous remerciant pour votre discours galvanisant!

Nous voulons tous agir intelligemment. Nous voulons tous être conduits par un chef ayant une vision claire de ce quil faut faire. Nous voulons tous vaincre la Terre et devenir indépendants.

Conduisez-nous à la victoire, exposez votre plan, nous vous suivrons!

Merci pour votre confiance. Nous allons mener un combat asymétrique qui va dérouter la flotte terrienne. Cest dans lespace que tout va se jouer et cest là que nous allons les user, les perdre et finalement les battre. À force de perdre des escadres en voulant nous anéantir, le congrès va vite crier « pouce » et demander nos conditions.

Grâce aux sources que jai sur Terre, nous aurons toujours un coup davance. Nous devons préparer une flotte de vaisseaux qui va dérouter ladversaire, lui imposer de lourdes pertes quand il ne sy attendra pas. Mais le tout avec une économie de moyens qui nous assurera le soutien des populations et la capacité à durer. Jusqu’à la victoire!

Jusqu’à la victoire!

Jusqu’à la victoire, oui!!

La salle n’était plus que cris enthousiastes; tous répétaient « jusqu’à la victoire » en souriant, en s’étreignant. Ilkor regardait ces hommes avec satisfaction : il venait de remporter la première victoire, la plus importante, les unir tous dans un seul but, sous sa direction

Publié dans Ce blog, La terrible vérité, Mes livres | Laisser un commentaire

La quête du casque idéal

Comme vous avez peut-être pu le remarquer en parcourant les pages de ce site, j’aime les casques !

J’en parle ici http://www.alain-lefebvre.com/deux-casques-sur-un-capot/, ici http://www.alain-lefebvre.com/mes-impressions-sur-le-arai-chaser-v/, ici http://www.alain-lefebvre.com/bell-bullitt-mon-avis-et-impressions/ et là http://www.alain-lefebvre.com/comment-ameliorer-le-bell-bullit/ et enfin ici http://www.alain-lefebvre.com/plus-de-400-e-pour-un-casque-jet-est-ce-raisonnable/ (et je dois en oublier, forcément !).

J’en ai pas mal, on pourrait même penser que je les collectionne (ce qui, avouons-le, n’est pas tout à fait faux !)… Mais, en fait, je cherche le casque idéal (sans le trouver bien sûr !), c’est comme une quête que je vais vous expliquer (brièvement) ici et maintenant.

Une quête forcément personnelle !

Précisons tout de suite que cette « quête » est très personnelle : je ne prétend évidemment pas que les résultats éventuelles de cette démarche soient applicables sur quelqu’un d’autre que moi. Nous avons tous nos préférences et elles sont souvent justifiées par nos expériences passées. Donc, c’est important d’insister sur ce point : ce que je vous raconte ici pourrait vous être utile (et tant mieux si c’est le cas) mais ça ne peut pas être considéré comme une étude « sérieuse et définitive » sur le sujet (vaste sujet en plus !)…

Commençons par énumérer ma « collection » afin d’avoir une idée de l’étendue (forcément limitée) de ma « quête »… Les photos ci-dessous montrent mes casques actuels (je ne compte évidemment ceux qui sont désormais relégués à un rôle « décoratif » comme mon Bell de l’époque Arcobaleno… qu’on peut voir ci-après).

L’intégral DMD Rocket à gauche à côté d’un Bell « automobile » à droite…

Suomi Apex et Arai Chaser V

Biltwell Gringo S et DMD Rocket

Shoei J.O. (les stickers Arai sont là pour « tromper l’ennemi !) et Givi Jet

Bell Custom 500

Shoei J-Cruise et Shark Nano

Bell Bullit et Biltwell Gringo

Shoei Glamster et Airborne « full ride »

Biltwell Bonanza et Hedon Hedonist

Précisons que je n’ai pas acheté tous ces casques neufs (sauf les Biltwell que j’ai acquis en Floride mais que l’on peut désormais trouver sur iCasque), j’en ai trouvé pas mal à bon prix et peu usagés sur le site du Boncoin, tout simplement.

Les casques intégraux : bonne protection vs contraignants

Commençons par parler des intégraux car, à la base, ce sont ces casques qui m’intéressaient. Pour moi, les casques de type « jet » ou « ouvert » étaient d’abord et avant tout destinés au tout-terrain et c’est ainsi que je les utilisais (avec une préférence pour mon Bell Custom 500 jaune et noir). Mais, à commencer par le Bell Bullit, j’ai pu constater que l’emploi de l’intégral n’était pas forcément toujours le meilleur choix (surtout en été et surtout avec un Arai qui est très « enveloppant » !).

Pourtant, j’ai persévéré dans cette voie car, pour moi, LE casque intégral représentait le casque ultime et, en plus, je le voulais d’un look classique (les casques modernes me paraissent simplement affreux !). C’est pourquoi j’ai acheté le DMD Rocket qui s’affichait comme la digne réincarnation du Bell Star des années 70. Or, ce casque s’est avéré plein de défauts : pas confortable, bruyant, des courants d’air partout… bref, inutilisable. J’ai tenté d’améliorer le confort du Bell Bullit (voir ici) mais sans arriver à un résultat vraiment satisfaisant. Finalement, les seuls intégraux dont je suis vraiment content, ce sont les deux Biltwell (Gringo et Gringo S) et aussi le Airborne full ride (que j’utilise désormais sur la piste quand je roule avec mon fils Val). On évoquera le Shoei Glasmter (qui mérite qu’on en parle et en bien car il est plutôt réussi) un peu plus tard mais je voudrais traiter le cas Arai

Voilà des casques qui sont plutôt coûteux et au look assez réussi mais qui ne sont pas épargné par les défauts, souvent absurdes d’ailleurs. Le principal, c’est le système de fixation de l’écran : fragile (j’ai cassé deux fois les plaques latérales… c’est au moins une fois de trop !) et difficile à utiliser. En effet, quand on doit remplacer l’écran, on passe un bon moment avant de comprendre comment il faut faire (quand on y arrive !). A côté de toute cette complexité inutile, le Suomy Apex est tout aussi esthétique et bien robuste (et bien moins coûteux, en plus !), le choix est vite vue donc !

Les intégraux Biltwell Gringo et Gringo S sont bien réalisés et confortables. Le Gringo S est très réussi sur le plan esthétique (presque aussi beau que le DMD Rocket) tout en présentant moins de défaut de confort (infiltrations d’air sous l’écran) que le DMD Rocket, encore lui. Le Biltwell Gringo impose de porter des lunettes de protection (ou masque) mais, en plus, il faut que ces dernières soient assez étroites pour passer par l’ouverture forcément limitée (ben oui, ça reste un casque intégral…). Du coup, ça limite dans le choix des lunettes ce qui est un élément clairement défavorable.

Inutile de croire que le masque « Smith » va pouvoir s’ajuster…

En revanche, des lunettes « étroites » vont pile poil !

Finissons cette partie sur les intégraux avec le Shoei Glamster. C’est la version « vintage » de l’intégral Shoei et, disons-le, sur le plan esthétique, le résultat est moyen (bon, ça dépend des goûts bien sûr) avec des choix de déco qui ne semblent pas tout à fait assumés. Bref, on aurait aimé plus de détermination de la part de Shoei sur ce coup-là. Mais, la prise en main est très positive en revanche : le casque est relativement léger, très bien fini, bien conçu (bravo pour le système d’écran qui fonctionne bien, sans poser de problème inutile) et confortable sans être oppressant, un excellent compromis (juste un seul reproche : pas mal de bruits aérodynamiques, un poil trop). Avec le Airborne Full Ride, ce sont bien les deux seuls intégraux que j’ai envie de vous recommander ici.

Les casques ouverts ou Jet : un bon compromis et un choix très large !

Du côté des casques ouverts, il y a deux écoles : les jets modernes avec écrans intégrés et les classiques avec tout à ajouter (visière haute, lunettes). Commençons par les modernes.

J’en ai trois : le Shark Nano, le Shoei J-Cruise et le Shoei O.J. Le plus « complet » est incontestablement le J-Cruise que je détaille ici. C’est effectivement un très bon casque mais il est coûteux (surtout pour un Jet) et pas complètement exempt de défauts (bruyant mais je cherche encore un casque qui ne l’est vraiment pas !). Le Shark Nano serait un encore meilleur compromis (il est plus compact et léger) mais sa qualité de fabrication et la fragilité de la fixation de l’écran lui font perdre des gros points… dommage.

Du coup, le Shoei O.J. (il existe aussi en version « intégral » avec le nom Ex-Zero) est sans doute le meilleur compromis des trois : complet et bien fini comme le J-Cruise mais bien plus léger (ça compte !), son écran est intelligemment intégré et facile à utiliser (mais il protège moins, on ne peut pas tout avoir et seul le J-Cruise offre une protection quasiment équivalente à un intégral).

Pour les casques Jet classiques, j’ai pu faire quelques expérimentations avec le Bell Custom 500 dont j’ai deux exemplaires : un noir & jaune que je n’utilise que pour le tout-terrain et l’autre, marqué « Freedom Machine » sur lequel j’ai pu tester plein d’écrans divers et variés. Ce qui est surprenant, ce que certains écrans à trois points de fixation qui me donnaient satisfaction en Floride (comme celui que j’utilise dans la vidéo ci-dessous) ne « fonctionnent » pas une fois en France !

Je ne parviens pas à expliquer le phénomène mais je le constate : super là-bas, nul ici !

Pour faire bref, aucun des écrans que j’ai pu tester sur ce Custom 500 une fois dans notre beau pays ne m’a donné satisfaction. Même en bordant tout le pourtour de scotch comme je l’ai fait pour mon dernier test (une « bulle » bleue à trois points de fixation), c’est nul, il y a des sifflements et des infiltrations d’air partout.

Voilà un bricolage finalement bien décevant !

Achevons ce tour d’horizon par les casques ouverts qu’on utilise avec des lunettes (ou masques). J’ai testé plusieurs de ces lunettes car il m’en faut des suffisamment larges afin que je puisse les mettre par-dessus mes lunettes de vue.

J’ai aussi voulu tester un casque Jet Hédon (le modèle Hedonist car je ne voulais pas leur écran intégré) puisque leur réputation de produit bien fini était mise en avant… Et donc ?
Ben oui, c’est bien fait, bons matériaux employés mais je ne suis pas sûr que ça justifie la différence de prix au final. Selon moi, les casques Biltwell ou Airborne sont de même niveau côté finition.

J’en ai profité pour tester une visière façon « Steve McQueen » dans le film Le Mans… Mais pas de miracle !

Comme on peut le voir sur la photo ci-dessus, j’espérais que l’ajout d’une visière dotée d’un mini-écran me permettrait de me passer de lunettes en roulant. Mais en fait, non, même en étant protégé par le pare-brise de ma Z1000, ça ne suffit pas, faut mettre des lunettes, rien à faire !

Bon, dans le cas présent, les DMD assez larges sont parfaites.

Un peu chères mais finalement bien mieux que leurs casques !

Les grosses lunettes DMD avec leur large ruban trouvent bien leur place sur ce casque.

Terminons par ce que j’ai pu obtenir avec mon Biltwell Bonanza. Ce casque m’est précieux parce qu’il a été décoré pour correspondre exactement aux couleurs de ma Z1000.

Ma Z1000 « Freddom Machine » avec son casque à ses couleurs (même la visière a été repeinte…).

Là aussi, j’aurais pu rouler en ajoutant les grosses lunettes DMD et obtenir ainsi un résultat satisfaisant… Mais j’ai eu l’idée d’ajuster un écran issu de mon Shoei J.O. et il se trouve que ça s’adapte facilement !

L’écran du Shoei O.J. s’insère sans difficulté dans le bord des mousses du Bonanza…

Alors, bien sûr, cet écran « ajouté » n’est pas amovible… Il est fixe et il faut donc se « glisser dessous » en enfilant le casque mais il se trouve que ça passe impec !

Avec cet ensemble, j’obtiens un résultat tout à fait bon : pas d’infiltration d’air, rien de gênant et pas de buée non plus. Le compromis me satisfait et c’est bien là le principal.

Une conclusion ?

Bien, on l’auras compris, tous les choix et avis exposés dans ce texte sont très personnels. Cela pourrait être utile à certains et complètement à côté de la plaque pour d’autres, j’en suis bien conscient. Au bout du compte, suis-je parvenu au bout de ma quête du casque idéal ?
Dans une certaine mesure, oui puisqu’à ce stade, je n’ai plus envie de mener d’autres tests dans ce domaine. Ce que j’ai me suffit (heureusement encore !) et si je n’ai pas UN casque idéal, j’en ai quelques-uns que j’utilise au grès des envies et des circonstances.

Finissons par quelques recommandations express : Shoei plutôt que Arai, Biltwell et Airborne qui sont des bonnes surprises. Bonne route, sortez protégés (all the gear, all the time) sans jamais aucune exception !

==================
Mise à jour du 7/10/2022
==================

Bien entendu, cette quête ne s’arrête pas là et je continue mes expérimentations !

Dernièrement, j’ai pu acheté un intégral Premier Trophy (Phil Read Replica bien sûr !) et un jet Edguard Dirt Heritage.

Le Premier Trophy et le Dirt Heritage d’Eguard. Le Suomy n’est là que faire le beau sur la photo !

Commençons par le Premier (logique !). Pour faire court, celui-ci est un peu comme le DMD Rocket : beau look mais avec les défauts des casques vintages !

Beaucoup de courants d’air, du bruit et un écran qui ferme à l’ancienne, c’est-à-dire, difficilement (et pour l’ouverture, c’est pire !). J’ai tenté d’arranger les courants d’ai avec des bandes de mousse (comme on peut le voir sur la photo) mais sans grands effets.

Bref, casque superbe mais peu utilisable à mon avis. Pour comparer, j’ai refait un test avec le Suomy (ah, voilà pourquoi il est présent sur la photo !) et c’est clairement le jour et la nuit : voilà un casque moderne mais au look acceptable qui se comporte comme il faut : l’écran est facile à manipuler, pas de courant d’air, pas trop de bruit, merci…

Bref, le Premier va rejoindre le DMD avec qui il aura de riches conversations, j’en suis sûr !

Et que fait le jet Edguard dans ce « comparatif » ?

Eh bien, ayant testé le coûteux jet Hédon, il était juste de tester aussi son équivalent Français qui présente l’avantage de ne pas être cher, lui…

Je dois dire que ce Dirt Heritage m’a beaucoup plu : bien fini, belle déco, facile à verrouiller (la boucle « micrométrique » est quand même plus pratique que le traditionnel double-D…) et doté d’un écran qui vient jusqu’en bas. Soyons clair, c’est une vraie réussite.

Pas trop de bruit, pas de courant d’air (disons, une fois que j’ai bouché les ouvertures les plus béantes avec des bandes de mousse qui, cette fois, se sont avérées efficaces) et, si vous aves prit la précaution de resserrer les vis de l’écran, celui-ci est facile à manipuler et protège bien. Je recommande ce casque sans restriction !

Bon, cette fois, c’est terminé ?
Hum, pas tout à fait : je cherche un intégral AGV X3000 et je vais recevoir un intégral GPA « classic »… Donc, d’autres tests sont prévus !

===================
Mise à jour du 25/11/2022
===================

Comme j’ai reçu les casques attendus il y a quelques semaines déjà et que j’ai eu largement le temps de les essayer, il est temps d’en parler !

L’AGV X3000

Le GPA « classic ».

Alors, commençons par le GPA et précisons qu’il n’est plus commercialisé désormais. On ne le trouve plus que sur des sites comme Ebay ou LeBonCoin et ce sont donc des casques qui ont déjà des années… Sur le plan de la sécurité, ce n’est donc pas l’idéal, on est bien d’accord. Mais il se trouve que j’étais très fan de cette marque il y a trente ans !

Donc, je voulais revivre les sensations propres à ce casque en particulier. Je n’ai pas été déçu on retrouve toujours cette mousse assez ferme (rien à voir avec le « chausson moelleux » qu’offre Arai ou Shoei par exemple) et la fameuse visière-écran qui tient seul en position intermédiaire. Cependant, je dois dire que ce casque porte également sur lui le poids des ans : très en avance sur son temps au moment de sa sortie (milieu des années 70), il est un peu dépassé désormais, il faut bien l’avouer. Bref, ce tour de piste était simplement nostalgique et je ne peux vous recommander ce casque.

Voyons maintenant l’AGV X3000 : un très beau casque vraiment vintage puisqu’on reconnait l’AGV »Ago » des années 70 jusque dans la découpe du bord de casque, très caractéristique. La finition est superbe, on en a pour son argent. Et quand on roule alors ?

Eh bien, là aussi, les motifs de satisfaction sont aux rendez-vous : le système de fermeture de l’écran (avec ces pastilles aimantées) est parfaitement réussi, le meilleur de tous les casques vintage, sans aucun doute !

Ceci dit, ce casque n’est pas sans défaut. Ainsi, le maigre système d’aération avec sa ridicule languette en caoutchouc à retirer est clairement à revoir. Voilà pour les derniers ajouts à ma collection…

Publié dans Enjoy the ride | Un commentaire

Triple screens VS Virtual Reality, la grande question du SimRacing actuellement !

En matière de visualisation, votre simulateur peut opter pour deux choix : miser sur une installation de type « 3 écrans contiguës » (le fameux « triple screens ») ou alors, se reposer entièrement sur la VR (Virtual Reality ou réalité virtuelle à l’aide d’un masque d’affichage).

Chacun a ses partisans et ses détracteurs. Je ne prétend pas apporter ici une réponse définitive à ce débat mais, comme je l’avais promis il y a déjà un certain temps, je vais exposer mon opinion basée sur mon expérience des deux systèmes.

1- La solution la plus répandue : le triple screens

Pendant longtemps, je me suis contenté d’un seul écran, de grandes dimensions et c’était déjà pas mal. Puis je suis passé à l’écran incurvé (un peu moins grand mais tout de même de bonnes dimensions !) et, là aussi, j’ai trouvé cela plutôt bien. Mais, clairement, il fallait que je passe à la dimension  au-dessus pour avoir un avis définitif sur la question !

Mon installation « triple écrans » n’est en place que depuis un peu plus d’un an mais je trouve que j’ai suffisamment de recul désormais. Ma configuration est originale car les trois écrans ne sont pas identiques : celui du centre est bien plus grands que les deux sur le côté (et il est incurvé en plus…) mais ça me va bien comme cela. Une fois que c’est bien réglé, le résultat est tout de même assez bluffant : le fait de pouvoir regarder sur les côtés est un vrai plus en matière d’immersion.

Ma configuration actuelle. On ne voit pas le support mais c’est un gros enchevêtrement de tubes de métal pour porter les trois écrans…

Il y a quand même quelques inconvénients dans cette option. Tout d’abord, c’est coûteux : il faut plusieurs écrans (3 !) et un support capable de maintenir tout ce bazar sans basculer et que ça soit réglable dans tous les sens (c’est important). Ensuite, faut configurer le bazar et ça, ça prend un peu de temps avant de se familiariser avec ces arcanes. Enfin, il faut régler soigneusement afin que l’image ne soit pas décalée, déformée ou pire… Et puis, ça consomme de la ressource !
Mieux vaut avoir un PC musclé pour supporter cela (mais c’est encore pire avec la VR…).

2- La solution de pointe : la VR

Je pratique la VR depuis 4/5 ans et je suis très enthousiaste vis-à-vis de son potentiel. Cependant, pour ce qui est du SimRacing, je constate que le VR se cherche encore un peu. J’ai pu tester rFactor2, Assetto Corsa et Automobilista 2 avec un Oculus Quest 2 ainsi qu’avec un HP Reverb G2. J’ai fais des essais avec la VR souvent, voyant les progrès (souvent très lents) des simulations avec cette problématique et je constate qu’on est encore assez loin d’un fonctionnement tout à fait satisfaisant.

Tout d’abord, il est indéniable que la VR procure l’immersion la plus forte, la plus bluffante et représente l’avenir sans nul doute. Mais l’avenir proche ?
Hum, sans doute pas, non. Actuellement, même les masques de pointe sont encore en dessous de ce qu’il faut en matière de définition et de rafraichissement. De plus, les phénomènes « cinétose » (mal de mer) sont encore très mal maitrisés, ça n’aide pas.

La règle d’or en matière de VR est simple : seules sont valables les applications qui ont été conçues dès le départ dans cette optique (fonctionner en VR et seulement en VR). Toutes les autres adaptations sont, au mieux, décevantes, point.

Donc, tant qu’il n’y aura pas une simulation réaliste comme nous les aimons qui aura fait le choix résolu de tout miser sur la VR, ça ne sera pas la peine d’espérer un fonctionnement acceptable. Actuellement, sur mon PC qui supporte le triple-screens sans problème, la VR est encore trop gourmande pour permettre de faire autre chose que des séances d’essais seul sur la piste… Et même comme cela, ce n’est pas très pratique car il faut trop souvent retirer le masque pour la moindre opération en dehors du roulage… Une limite trop présente et handicapante.

Conclusion : la VR est l’avenir… lointain.

Vous l’avez compris, je recommande le triple écrans sans regret et sans hésiter. Tout le reste n’est pas encore complètement opérationnel et vous fera perdre temps et argent. Passez votre chemin, le tour de la VR viendra forcément (j’en suis absolument persuadé) mais il faut encore lui laisser un peu (beaucoup) de temps…

Publié dans Livre Simracing, récit SimRacing, Sports mécaniques virtuels | Laisser un commentaire

Ce grand embrasement qui vient

Lorsque j’ai rédigé et publié mon livre “Cette révolte qui ne viendra pas”, c’était d’abord pour répondre et démentir le texte “cette insurrection qui vient” dont les arguments ne m’avaient pas convaincu. Dans “Révolte”, j’explique que l’insurrection est quasiment impossible du fait du verrouillage du système par les médias et par le faible niveau général de la population (que la technostructure cherche toujours à abaisser avec une efficacité certaine !).

Je n’ai toujours pas changé d’avis : des embryons de révolte même modeste le mouvement des gilets jaunes sont combattus par le pouvoir en place avec une violence disproportionnée (et délibérée) afin de décourager explicitement toute amorce de tentative dans ce domaine.

Mais je pense que les conditions sont en train de changer et qu’elles vont déboucher sur ce que j’appelle “le grand embrasement”. Alors, attention, je n’emploi pas les termes “révoltes” et “insurrections” dans ce cas précis : révolte et/ou insurrection suppose que le groupe à sa tête a un minimum de projet politique en réserve (même très flou) en cas de succès.

Là, ça ne sera pas le cas, pas du tout. Le grand embrasement sera un déchaînement de violence aveugle et sans discernement qui affectera tout le monde sans distinction. Ce n’est pas un scénario souhaitable, loin s’en faut mais à force de tuer dans l’œuf tous les mouvements de protestation légitime, on aboutira à ce dénouement malheureux.

Imaginez ce qui se passe en ce moment au Sri Lanka mais puissance dix et dans notre contrée… Gagné, voilà à quoi va ressembler le grand embrasement !

Les affrontements actuels au Sri Lanka

Les affrontements actuels au Sri Lanka.

OK, c’est pas terrible mais comment en être certain ?

On ne peut pas en être certain, “le pire n’est jamais sûr” comme le dit fort justement un dicton populaire mais nous avons une série de signaux faibles qui montre que les choses sont en train d’évoluer, que des craquements se font entendre et que cela annonce des conséquences sinistres.

Mais quels sont ses signaux faibles annonciateurs de la catastrophe ?

Eh bien ils sont divers, éparpillés et pas toujours faciles à comprendre et à relier mais ils ont tous un point commun important : le rejet de la technostructure dans son ensemble. Et ce rejet va se transformer en une haine qu’il sera impossible d’endiguer, d’où le terme d’embrasement.

Quelques exemples : des tours de communications 5G incendiées, des câbles de fibres optiques sabotés ou des étudiants fraîchement diplômés qui rejettent le jeu de dupes que leur propose le système (voir à https://youtu.be/SUOVOC2Kd50 ça vaut le coup de les entendre : “Plus de courage en 7 minutes que les 5 dernières années de politique française”). Ces exemples peuvent vous sembler anecdotiques et peu importants. Détrompez-vous, ils sont les signes extérieurs, et encore timides, d’une colère qui va croissante. Cette colère enfle, se répand et elle est jus-ti-fiée. La technostructure abandonne le peuple à son triste sort et le peuple va finir par se rebiffer. Cela ne va pas se produire d’une façon organisée et encore moins raisonnable mais cela va arriver.

Une tour de communication en flammes. Les médias chiens de garde parlent de théorie complotiste autour de la 5G… J’ai une autre interprétation !

On le voit partout : services publics qui désertent, déserts médicaux, formalités en ligne obligatoires, règles administratives qui changent sans cesse et se complexifient jusqu’à l’absurde et même répression vexatoire (comment prendre autrement ces radars placés vicieusement pour faire du chiffre ?).

Boris Vian avait dit “le devoir de chaque citoyen français et de trouver le fonctionnaire qui s’occupe de son cas et de l’égorger”… J’ai peur que cette prédiction finisse par devenir une terrible réalité !

Cette technostructure arrogante et déconnectée semble vouloir tout faire pour pousser les gens à bout et c’est effectivement ce qui est en train de se produire. Cela va encore prendre du temps avant l’explosion finale. Combien ? 

Je ne sais pas, le timing est toujours la prévision la plus difficile à produire mais je suis désormais persuadé que ça arrivera et ce n’est pas une bonne nouvelle, pour personne.

 

Publié dans La terrible vérité | Laisser un commentaire

Presque un nouveau livre : « Perdu dans le Metaverse » à la place de « Prévision, maîtrise, contrôle »…

J’étais très content d’avoir bouclé ma saga « Prévision, Maîtrise, contrôle » en publiant le tome 3 en 2016 (première publication du T1 en août 2014, du T2 en mai 2015 et du T3 en juin 2016). Cette saga n’a pas connue le succès alors qu’elle est la suite, ou plutôt le prolongement et l’explication de « Perdu dans le temps » qui lui, s’est bien diffusé.

Et puis, la semaine dernière, j’ai réalisé ce qui n’allait pas avec cette saga… le titre !

En fait, il fallait vraiment connaitre mes livres pour avoir une chance de s’y intéresser avec un titre pareil (même moi je n’aimais pas ce titre puisque je m’obstinais à l’appeler « PMC »…). Donc, j’ai pris la seule décision qui s’imposait : renommer l’ouvrage une bonne fois pour toute afin de lui donner toutes ses chances (tout en fusionnant les trois tomes pour ne publier que l’intégrale).

OK, bonne décision mais quel titre alors ?

En effet, il ne faudrait pas se planter une seconde fois, hein !

Or, il se trouve que le sujet du Metaverse est à la mode et que j’ai rédigé des chroniques Redsen à ce propos justement… Il suffisait de tirer un trait entre les points, ce que j’ai fait en l’appelant « Perdu dans le Metaverse », tout simplement.

Comme d’habitude, ce livre est disponible sur Amazon…

Comme toujours, vous pouvez le trouver sur Amazon au format Kindle, papier (couverture souple) et relié (couverture rigide).

Tout cela est bel et bon mais cet ouvrage traite-t-il bien de ce sujet (ou n’est qu’une façon éhonté d’exploiter abusivement un phénomène de mode ?) ?

Heureusement, oui. « Perdu dans le Metaverse » se déroule en bonne partie dans les « simulis » (c’est ainsi que j’appelais le Metaverse avant de découvrir ce nom). C’est l’occasion d’approfondir la simulation immersive (dans les simulis) qui débouchera, à terme, sur la notion de Metaverse qui est actuellement en vogue.
Cet ouvrage explore les usages inattendus que l’on va essayer dans le Metaverse comme les expériences sur la publicité et le marketing, la recherche historique ou l’entrainement au combat et aux missions spéciales.

Ce récit est aussi l’occasion d’explorer des domaines exclusifs comme la remontée dans le monde réel en changeant de corps : une grande première jamais tentée !

Bref, fasciné par ces questions depuis longtemps, j’ai tenté d’en proposer ma vision et d’en explorer les tenants et aboutissants.

Du coup, j’ai également dépublié les livres avec le titre PMC, histoire d’être cohérent jusqu’au bout.

Publié dans Livres, Mes livres, mise à jour PDLT & PMC | Laisser un commentaire

F1 vs MotoGP, le très bon et le beaucoup moins bon

La saison 2022 a démarré, tant en F1 qu’en MotoGP et on peut déjà en déduire quelques éléments. Tout d’abord, la promotion de ces disciplines passe de plus en plus à travers les services de VOD comme Netflix ou Amazon Prime Video.

La série « Drive to survive » qui met en lumière les coulisses de la F1 a d’abord été une très bonne surprise lors de sa première saison qui portait sur l’exercice 2018. Depuis, les autres saisons ont un peu perdu en fraicheur et même en intérêt. La dernière en date a même cumulé les critiques qui lui reproche le côté artificiel des mises en scène.

La bande annonce de la saison 4… va falloir faire mieux que cela désormais !

Soyons clair, ces critiques sont parfaitement justifiées mais il faut aussi dire que c’était déjà le cas dès la saison 2… Bref, l’effet Netflix qui avait boosté l’audience de la F1 (surtout aux USA) est en train de retomber, faut à à un narratif un peu trop tiré par les cheveux.

C’est d’ailleurs le coeur du problème de la F1 : comme le spectacle manque dramatiquement sur la piste, la FOM cherche des alternatives et des substituts et voilà ce que ça donne…

La Dorna qui gère le MotoGP s’est dit qu’elle aussi, voulait profiter de l’effet Netflix en passant un accord avec Amazon Prime Video pour qu’elle aussi puisse avoir SA série… Et cela a donné MotoGP Unlimited…

La bande annonce de MotoGP Unlimited… si vous avez accès à Prime Video, regardez ça !

Cette fois, c’est bien mieux que « Drive to survive » mais il faut dire que, le spectacle, c’est pas cela qui manque au MotoGP !

Rien d’artificiel dans « MotoGP Unlimited », bien au contraire : la série permet de découvrir des aspects importants et pourtant ignorés de ce « cirque mécanique » comme le travail des commissaires de piste (sans eux, pas de course !) ou ce qui se passe dans la cabine du réalisateur TV (première fois que je peux enfin voir cela, bravo !).

Bref, pour un coup d’essai, c’est un coup de maitre : la série est bien réalisée, bien rythmée et bien filmée, à dévorer sans restriction.

Cependant, le MotoGP tente d’évoluer comme la F1 et ça, c’est vraiment pas bon !

En dehors des règlements techniques à « géométrie variable » (l’interdiction récente du correcteur d’assiette inventé par Ducati, voir à https://www.paddock-gp.com/motogp-les-ride-height-devices-sont-interdits/), c’est surtout l’inflation du nombre de courses qui commence à poser problème. Pour la saison 2022, il n’y pas pas moins de 21 Grands Prix au programme !

Du jamais vu. Dans les années 60, il y avait douze Grands Prix puis s’est monté à quinze dans les années 70. Là, on dépasse les vingt… Et on l’a déjà en F1 lors de ces récentes années, les saisons à rallonge n’apportent rien.

Pire, on essaye de fonctionner en flux tendus au niveau de Grands Prix qui se déroulent à de grandes distances les uns des autres. Et, ce qui devait arriver arriva : ce week-end, le GP d’Argentine a bien failli ne pas avoir lieu à cause d’un problème d’avion cargo en panne en Afrique… voir à https://www.paddock-gp.com/motogp-argentine-branle-bas-le-combat-a-mombasa-pour-rien/

Pour le moment, ce genre de mésaventures est un cas isolé mais, si on continue ainsi, d’autres surprises (genre « mauvaises surprises ») sont à craindre. Le MotoGP n’a pas besoin de multiplier les courses pour nous plaire.

Publié dans Sport-auto | Laisser un commentaire

Le documentaire Netflix sur le Boeing 737 Max, à regarder absolument !

Même si vous vous ne vous intéressez pas à l’aviation, il y de nombreuses raison de regarder le documentaire « Downfall, l’affaire Boeing ».

Dans sa description, Netflix présente son documentaire ainsi : ce documentaire détaille la tragédie survenue entre mars 2019 et décembre 2020, lorsque deux avions Boeing se sont mystérieusement écrasés, causant la mort de 346 personnes. En conséquence, l’avion de ligne Boeing 737 MAX a été cloué au sol. Alors que la Federal Aviation Administration des États-Unis a initialement résisté à l’immobilisation des avions, elle a rapidement découvert des preuves d’accidents similaires et, le 18 mars 2019, les 387 avions étaient cloués au sol. L’avion resta interdit de vol jusqu’en février 2021.

Pourquoi insister sur ce documentaire qui traite d’un sujet certes dramatique mais aussi très spécialisé ?

Eh bien tout simplement parce que cette affaire est exemplaire et va bien au-delà de l’aviation. En fait, c’est un cas d’école sur « comment ne PAS gérer une crise » par avarice et se retrouver à devoir payer bien plus que s’ils avaient agit correctement dès le début. Il y a tout dans cette affaire hallucinante : une fusion ratée, une (bonne) culture d’entreprise massacrée et remplacée par « il faut plaire à Wall Street par tous les moyens ». Ce genre de servilité conduit aux pires actions et raccourcis. C’est évidemment encore pire quand vous fabriquez des engins qui peuvent (et vont) tuer des gens…

Voilà pourquoi vous devez regarder ce documentaire : il vous montrera ce qu’il ne faut pas faire en tant qu’organisation avant et pendant une crise (qui arrive forcément tôt ou tard) et tout le monde est concerné.

Un journaliste du Wall Street Journal a participé à cette enquête depuis le début et c’est pour cela que je vous invite à regarder également la vidéo ci-dessous :

Publié dans divers | Laisser un commentaire

La danse médiatique sans fin ni sens

Rien à comprendre !

La vague médiatique en faveur du tout nouveau métaverse nous apprend au moins une chose : la danse des médias ne s’arrête jamais, est continuellement renouvelée même quand la nouvelle musique n’est encore tout à fait composée ni que les danseurs soient capables d’exécuter les pas encore en cours de création…

En effet, la notion même de métaverse n’est pas encore claire que déjà les trompettes de la renommée sonnent et annoncent qu’il s’agit de la nouvelle grande affaire !

Peu importe que sa forme soit encore en définition, ni que son avènement soit encore lointain, la messe est dite, prosternez-vous, le métaverse est l’avenir, point.

Ici aussi, les rares esprits encore éveillés (une espèce rare pendant cette époque de folie collective…), auront remarqué qu’on disait aussi cela pour les récentes modes précédentes. Souvenez-vous, il y a quatre ans, c’était l’IA et la Blockchain qui devait tout redéfinir. Puis, quand la Blockchain a tardé à délivrer ses promesses (c’est toujours le cas d’ailleurs), le discours central de la propagande techno s’est recentré sur les cryptomonnaies et, dernièrement, sur les NFT.

On constate semblable mouvement du côté de l’IA qui est désormais moins mise en avant mais, rassurez-vous, la bulle médiatique a toujours du neuf en magasin : l’IA tarde à faire son big bang ? Mais ce n’est pas grave puisque nous avons les ordinateurs quantiques qui eux, promettent de tout changer !

Peu importe que cette nouvelle informatique quantique soit encore à des années (à des décennies en fait…) de connaître un début de réalisation concrète, son triomphe certain est déjà proclamé. Et c’est ainsi encore et encore… Comment se fait-il que cette danse sans fin et sans sens ne nous ait pas déjà tous dégoûté ?

D’abord, il faut admettre que des forces puissantes sont à l’œuvre. D’un côté, nous avons l’industrie électronique/informatique qui a besoin d’attention (un peu) et de financements (beaucoup !). De l’autre, nous avons l’industrie médiatique qui a simplement besoin d’attention (beaucoup !). Ces deux-là ont forgé une alliance objective qui donne des résultats formidables depuis quarante ans. Donc, pas question de changer la recette, ma bonne dame !

Mais voilà, le processus s’est emballé et, désormais, la musique est déconnectée de la danse et plus personne n’y comprend rien. Aucune importance, le but n’est pas de faire comprendre, le but est simplement de faire admettre : voilà la nouvelle mode, adorez-la, point.Vu comme cela, on comprend mieux les derniers développements qui affectent notre société. Car les techniques de ce bourrage de cranes techno sont désormais reprises par les autres pans de la propagande. Vae victis.

Publié dans Anecdotes IT, La terrible vérité | Laisser un commentaire

Nous vivons une époque extraordinaire et il n’y a pas de quoi s’en réjouir !

Eh oui, comme le précise le titre de cet article, une période “extraordinaire” ne rime pas forcément avec “formidable”. Après tout, les guerres et les grandes catastrophes sont, elles aussi, des événements extraordinaires…

Et la censure est là pour bien nous rappeler que nous vivons une époque « spéciale »…

Une crise sanitaire ? Où ça ?

Bref, notre présent est dominé par les tenants et aboutissants de ce qu’il convient d’appeler la “crise sanitaire” mais qui est, en réalité, une crise de société très profonde. Durant ces derniers mois, nous avons constaté, souvent avec effarement, que beaucoup de règles qu’on croyait bien établies ont été balayées, oubliées, contredites et même interdites !

L’obligation de soigner, le débat contradictoire, la prudence scientifique, le droit à une pensée libre et le droit de l’exprimer, entre autres… Tout cela serait de l’histoire ancienne (jusqu’à ce qu’on nous explique que, en fait, ça n’a jamais existé…) face à une “urgence sanitaire” qui nous contraint à respecter des ordres absurdes et contradictoires, le tout sans broncher svp.

La réalité (et la brutalité) des faits oblige à reconnaître que nos gouvernants sont en guerre ouverte contre nous et, encore un élément extraordinaire, qu’une grande partie de la population (une large majorité) ne semble pas s’en rendre compte.

Ceci dit, avant d’aller plus loin sur ce triste présent, il faut se remémorer quelques épisodes d’un passé relativement récent pour s’apercevoir que nos gouvernants agissent contre nos intérêts depuis un certain temps déjà. Et s’ils le peuvent, c’est principalement grâce (ou à cause) de la passivité des gens. Passivité qui, de plus, est largement encouragée et entretenue, nous y reviendrons.

Une longue période de déceptions

Les vingt dernières années ont été lourdes de revers de toutes les sortes et d’amères déceptions. Que ce soit en France, au niveau européen ou américain, les gouvernants se sont évertués à nous mentir et à nous flouer, encore et encore. Et tout cela dans la plus parfaite impunité (pourquoi se priver après tout ?).

On pourrait revenir sur les attentats du 9/11 ou sur la conduite de la seconde guerre en Irak (ou ce qui s’est passé en Libye) mais je crois quand même que le plus marquant et le plus déplorable reste tout de même le traitement de la crise de 2008. Pour faire court, contentons-nous de rappeler qu’il s’agit d’une crise mondiale qui a été causée uniquement et entièrement par l’avidité sans borne des banquiers (une simplification, certes, mais nécessaire pour un article forcément limité). Les dégâts et les victimes ont été innombrables et qu’a-t-on fait ?

Eh bien, vous comprenez, on a sauvé les banquiers, hein… Il faut savoir respecter certaines priorités, n’est-ce pas ?

Selon moi, c’est vraiment là qu’on (nous, nous tous en tant que peuple) a perdu le contrôle et que les gouvernants ont réalisé qu’ils pouvaient tout se permettre, que ça passait sans problème. Depuis, les mensonges et les scandales (qui ont toujours existé, bien sûr) sont allés crescendo dans l’indifférence générale. Il y a bien des lanceurs d’alertes et des journalistes d’investigation mais qui les écoutent ?

Personne ou presque parce que la population est totalement anesthésiée. Et si c’était bien cela qu’on nous avait fait subir, une anesthésie générale ?

Et si tout cela était le résultat d’années de préparation ?

Personnellement, cela fait des années que je tente d’alerter sur la baisse générale du niveau intellectuel que je constate autour de moi et que je dénonce le rôle des médias dans cette affaire. J’ai toujours été frappé par l’absence de réaction face à ce phénomène, même de la part de ceux que j’estimais (encore) épargnés.

Donc, on peut s’étonner de la docilité des gens mais on peut aussi admettre que le travail de fond réalisé par les médias dans ce sens pendant ces dernières décennies a fini par porter ses fruits. En effet, comment nier que la promotion et la diffusion systématique des contenus les plus abrutissants soit en constante augmentation dans toutes les principales chaînes de TV et de radio ?

Auparavant, on avait des animateurs un peu beaufs (genre Patrick Sébastien) mais ça ne suffisait pas, il fallait aller à plusieurs crans au-dessus avec des animateurs carrément les plus vils (genre Cyril Hanouna). Les programmes de télé-réalités sont devenus tellement prisés que même les services comme Netflix ou Prime Vidéo en proposent !

Toute cette évolution négative (toujours abaisser le niveau, jamais le relever) a forcément produit des effets et on peut les constater en voyant nos ados se régaler des vidéos les plus débiles sur YouTube ou Tik-Tok. Si encore ce n’était visible que chez les ados mais tout le monde est touché, aucune tranche d’âge n’est épargnée, le mal est fait et il est généralisé.

Mais comme le labeur des médias ne suffisait pas tout à fait, nos bourreaux ont ajouté la force des algorithmes. On constate avec stupéfaction que Google (avec YouTube), Facebook et Linkedin censurent à tout va depuis quelques mois et avec une efficacité digne d’éloges. L’expression dissidente est étouffée avec une précision et une vitesse que l’ancien politburo soviétique n’aurait jamais pu espérer !

La crise sanitaire ou un test à (très) grande échelle

Ce que nous vivons depuis presque deux ans s’apparente de moins en moins à une crise sanitaire sérieuse à cause d’une épidémie foudroyante et super-dangereuse mais bien à une expérience de contrôle des populations (propagande, censure, coercition) dont les résultats dépassent les espérances les plus folles de ses promoteurs.

Comment imaginer qu’on allait pouvoir, si facilement, remplacer toutes les démarches scientifiques (qu’on croyait naïvement comme bien implantées… ah !) par des injonctions primaires de type “taisez-vous et croyez-nous”… et ça marche !

Comment pouvait-on imaginer qu’on allait pouvoir, si facilement, remplacer tous les débats contradictoires par l’ostracisme et le respect de la “ligne du parti” sans discussion d’aucune sorte ?

Ah ça si Staline et Mao sont en train de nous observer en ce moment, nul doute qu’ils doivent être en train d’applaudir avec admiration !

Un procès de Nuremberg, vous y croyez ?

On peut toujours espérer qu’on finira par organiser un méga-procès de Nuremberg de l’ère moderne où tous les truqueurs et tous leurs collabos serviles (journalistes et médecins qui ont marché dans cette combine toute honte bue) seront jugés, condamnés et punis de ce qu’ils viennent de nous faire subir (et ce n’est pas terminé, hélas) mais, franchement, j’y crois de moins en moins.

Tant que la bêtise et le conformisme à tout prix régneront, cette ambiance délétère continuera. Et, quelque part, je comprends ceux qui nous opprime : pourquoi se priver, ce troupeau a choisi sa servitude, qu’il se fasse tondre puisqu’il est d’accord !

Le pire n’est jamais sûr

On dit que c’est la perte de l’espoir qui finit par tuer le naufragé… Et si c’était la perte de son âme qui égarait le peuple ?

Avec pour seuls horizons des distractions dépourvues de sens et une consommation exacerbée mais frustrante, les corrompus qui tentent de nous égarer ont presque réussi à nous perdre, effectivement. Mais tout espoir est-il perdu ?

Non, évidemment non. Même aux plus sombres heures de notre histoire, il y a toujours eu un sursaut qui nous a permis de repartir. Pour cela, l’engagement de la majorité n’est pas nécessaire. Il suffit à quelques-uns d’impulser le mouvement pour que le reste suive, tôt ou tard. La faible lumière de la résistance débouchera sur une aube glorieuse. Il faut y croire et agir car “c’est la nuit qu’il est beau de croire à la lumière”.

Publié dans Ce blog, La terrible vérité | 2 commentaires

La loi du “mur de la complexité”

Le fameux télescope spatial James Webb (JWST pour James Webb Space Telescope) va enfin être lancé, bientôt… Enfin, si tout va bien !

Le JWST dans toute sa splendeur !

Car, depuis les lointains débuts de ce successeur du non-moins fameux télescope Hubble, les retards et les surcoûts se sont multipliés dans des proportions ahurissantes !

Revenons d’abord sur la genèse de ce projet. En 1989, le directeur du Space Telescope Science Institute, le centre chargé des opérations du télescope spatial Hubble, initie une réflexion sur le télescope qui devra prendre la relève de celui-ci vers 2005 (2005 !).

Entretemps, le prix de cette merveille est passé de 500 millions de dollars en 1996 à 9,7 milliards de dollars. Et chaque jour de retard ajoute un million de dollars à la facture.

Ces retards, d’ailleurs, se poursuivent. La date de lancement prévue la plus récente est le 22 décembre. Il s’agit d’un report, annoncé le 22 novembre, du 18 décembre. Mais au moins, la “chose” est maintenant sur le site de lancement.

Hubble lui aussi avait coûté cher : le coût du projet a atteint 2 milliards de dollars en 1990 (au moment de sa mise en orbite), faisant du télescope Hubble l’instrument scientifique le plus coûteux de tous les temps… Jusqu’à ce que son successeur batte le record !

Il était initialement prévu que le télescope Hubble ait une durée de vie de quinze ans mais, à ce jour, il fonctionne toujours (soit déjà 31 ans de services opérationnels !). On ne peut qu’espérer que le JWST soit aussi endurant… 

OK, tout cela est intéressant mais les retards et les surcoûts sont monnaie courante quand il s’agit de projets techniques sophistiqués, non ?

Justement, c’est bien là que je voudrais attirer votre attention : n’y aurait-il pas une limite à ce que nous pouvons encaisser comme complexité ?

EPR et F35, entre autres

Et les exemples qui vont dans ce sens se multiplient sans que nous semblions en prendre conscience. Je pense en particulier à l’EPR et au F35. C’est comme si la “loi des rendements décroissants” s’appliquait aussi à l’escalade de la complexité.

Tout se passe comme si on n’était incapable de comprendre que nos progrès croissants (et bien réels) dans la maitrise technique ne pouvaient pas forcément se traduire dans des mises en oeuvre toujours plus grandes, toujours plus complexes.

Prenons comme exemple les projets de développement des armes modernes. Non seulement les programmes d’armement sont de plus en plus coûteux, mais aussi, et surtout ils prennent de plus en plus de temps (ce qui explique d’ailleurs qu’ils demandent de plus en plus d’argent). Le “démonstrateur Rafale A” vole le 4 juillet 1986 et le programme est effectivement lancé le 26 janvier 1988. Les premiers exemplaires sont livrés à partir du 18 mai 2001 (armée de l’air) et entrent en service en 2002 dans la Marine, soit quinze ans de développement alors qu’il n’en avait fallu que huit pour les programmes précédents (Mirage F1 et Mirage 2000).

Ces délais à rallonge ne sont pas propres à l’aviation ni même au contexte français. Du côté des chars d’assaut, non seulement le char Leclerc a coûté bien plus cher que son prédécesseur l’AMX 30, mais il a également demandé beaucoup, beaucoup, beaucoup plus de temps pour être mis au point et surtout livré. 

Du côté des Américains, c’est encore pire : les chasseurs à réaction dévorent toujours plus de budgets et demandent toujours plus de temps à être étudiés, construits et livrés aux unités opérationnelles. Dans ce domaine, les tout derniers programmes F22 et F35 frôlent la caricature dans des proportions énormes. Le F16 n’avait demandé que quatre ans pour être conçu alors que le F22 en réclama quinze !

Le programme F35 en particulier est une réponse au programme F22 qui était considéré trop coûteux. Le F35 devait apporter la solution en étant multirôles, c’est-à-dire le même avion pour les trois armes (Air Force, Navy et Marines).  Mais il s’est avéré que le cahier des charges était bien trop complexe pour arriver à combiner les exigences de l’Air Force, de la Navy et du corps des Marines en un seul appareil capable de satisfaire les spécificités si diverses de la gigantesque armée américaine. Résultat, le projet a été grevé par de multiples incompatibilités, a coûté bien plus cher que prévu et n’a toujours pas atteint un niveau opérationnel satisfaisant. 

Bon, c’était effectivement relativement facile de montrer le sur-place des projets militaires (surtout avec le F35 qui est une cible facile vue que ses déboires sont permanents !), mais on va maintenant pointer un secteur où ce sur-place est bien moins connu : les médicaments.

Les médicaments sous perfusion !

Voilà encore un domaine exemplaire : beaucoup d’argent et de moyens sont disponibles et pourtant, les résultats se font de plus en plus rares, comme si la technique ralentissait (tiens, tiens…). Dans le cadre des médicaments, le phénomène est tellement évident qu’il a même donné lieu à une « loi », la loi Eroom. Voir à https://en.wikipedia.org/wiki/Eroom%27s_law

La loi d’Eroom fait observer que la découverte et la mise en production de nouveaux médicaments devient plus lente et plus coûteuse avec le temps, malgré les améliorations techniques (criblage à haut débit, biotech, chimie combinatoire et conception de médicaments), une tendance observée dans les années 1980. Le coût de développement d’un nouveau médicament double à peu près tous les neuf ans (ajusté en fonction de l’inflation).

Le nom Eroom est l’inverse de la loi de Moore bien connue dans le domaine des composants électroniques. Ce nom a été choisi afin de souligner l’effet miroir (inversé donc !) entre le milieu des médicaments et celui des composants.

Le fait que la découverte de nouveaux médicaments ralentit progressivement depuis des décennies (voir le schéma ci-dessous) est une bonne illustration de la loi des retours dégressifs.

Un secteur qui peine à trouver un second souffle

Tous les médicaments que nous utilisons aujourd’hui ont été découverts dans les années cinquante, à l’âge d’or des médicaments chimiques. Depuis, en dépit d’efforts colossaux, ce sont toujours les mêmes principes actifs qui sont déclinés à l’infini sous des packagings différents (à l’exemple de la molécule paracétamol vendue sous des dizaines d’appellations commerciales diverses), car les affaires restent les affaires, hein !

Autre exemple : une dose de Nusinersen, médicament moderne produit aux États-Unis pour soigner l’amyotrophie spinale [une maladie héréditaire qui atrophie les muscles], est vendue 70 000 euros. Son développement a duré dix ans et coûté plus d’un milliard de dollars.

Depuis 1980, aucune famille d’antibiotiques n’a vu le jour. Les nouveaux traitements ne sont que des modifications de composés connus. 

Lisez Supériorité !

On pourrait ainsi multiplier les exemples, mais il me paraît plus intéressant de donner le mot de la fin à Arthur C. Clarke avec sa nouvelle “Supériorité” qui prouve que la guerre est une mauvaise période pour tenter d’innover et d’obtenir un avantage décisif.

« Supériorité » est une nouvelle de science-fiction de l’écrivain britannique Arthur C. Clarke, publiée pour la première fois en 1951. Elle décrit une course aux armements et montre comment le côté le plus avancé sur le plan technologique peut être vaincu, en dépit de sa supériorité apparente, par ses propres faiblesses organisationnelles et sa volonté de se débarrasser des anciennes technologies sans avoir complètement perfectionné la nouvelle. Pendant ce temps, l’ennemi construisait régulièrement un arsenal d’armes beaucoup plus important, certes plus primitif, mais surtout plus fiable. Cette histoire était au programme d’un cours de design industriel au Massachusetts Institute of Technology.

Source https://en.wikipedia.org/wiki/Superiority_(short_story).

Le mur de la complexité

Tout cela va peut-être finir par nous faire comprendre qu’il existe bien un mur de la complexité tout comme on admet l’existence du “mur du son” que l’aviation civile n’essaye même plus de franchir (car on connaît désormais les coûts et les conséquences techniques de la capacité supersonique). Ici, la bonne attitude est de savoir calibrer son ambition de façon à frôler ce nouveau mur sans risque de s’y fracasser (délais, surcoûts).

Tout cela, je l’ai déjà expliqué en long et en large dans mon livre récent “Le fait technique” mais le pré-bilan du JWST me donnait l’occasion d’enfoncer le clou une fois de plus !

Il faut donc privilégier les projets plus modestes (moins ambitieux) mais plus accessibles et plus faciles à mettre en place avec succès. Mais ce genre de leçon est-il compatible avec la mentalité du “toujours plus” propre à la psychologie humaine ?

Publié dans à travers mes découvertes, La terrible vérité, Le fait technique | Laisser un commentaire

La Z1000 est de retour !

J’ai enfin pu récupérer ma Z1000 qui est désormais sur le territoire français… Elle m’est arrivée en bon état avec juste un défaut mineur : le contacteur de stop pour la pédale de frein AR était cassé.

Bon, c’est une petite pièce et j’ai pu la trouver chez Kawa Old Vintage (un site FR comme son nom ne l’indique pas !).

On y trouve tout ou presque pour les anciennes Z…
La nouvelle est à gauche of course !

J’ai reçu la pièce fautive au bout d’un certain temps (dix à douez jours entre la commande et la livraison, c’est pas amazon hein !) et j’ai pu la monter sans problème. Test, ça marche, le feu stop s’allume !

Bon, maintenant, il va falloir la faire immatriculer en FR ce qui ne va sans doute pas être une partie de plaisir…

Publié dans Restoration Z1000 | Laisser un commentaire

Les NFT peuvent aussi être beaux !

La beauté est évidemment affaire de goût et c’est donc un sujet hautement subjectif… Mais La Découverte fait le pari de la beauté pour sa première vente aux enchères lundi 11 Octobre.
Si vous êtes intrigué par les NFT mais que vous pensiez que cela se résume à des images bizarroïdes vendues à des prix délirants, venez vous mettre à jour grâce à La Découverte

Publié dans à travers mes découvertes, Ce blog, nouveauté | Laisser un commentaire

Inclinez-vous devant le narratif Tout-Puissant !

Notre époque et notre société sont dominées par un élément qui domine tout, qui écrase tout : le narratif. Pourquoi utiliser ce terme inhabituel (le narratif) plutôt que la propagande, la pensée unique, la ligne du parti ou les mensonges du pouvoir et des médias ?

Parce que, justement, le “narratif” est devenu tout cela à la fois. C’est l’aboutissement monstrueux du « storytelling » et des “spin-doctors”. Désormais, on ne raisonne plus, on ne débat plus, on raconte une histoire sacralisée à laquelle on est sommé de croire sans discussion (le narratif, vous l’avez compris).

Les médias sont devenus le canal d’expression de ce narratif, ils le créent, le diffusent et le commentent sans cesse afin qu’il soit absorbé et assimilé par une population de plus en plus soumise et de plus en plus apathique.

La réflexion, l’analyse, la critique factuelle, la contradiction argumentée et sereine n’existent plus. Tout s’efface, tout plie, tous se conforment devant le narratif qui devient la seule vérité acceptable, la seule parole qui puisse être admise  sinon gare !

Le narratif domine nos vies puisque c’est lui détermine ce qui est et ce qui n’est pas. Car tout ce qui est en dehors de ce que nous explique le narratif, est réputé être non existant. Donc, si tu revendiques une position non existante, tu es forcément fou, tu es forcément malade, tu as forcément un problème ou même, tu es forcément un danger pour la société.

Celui-là doit donc être combattu, moqué, ridiculisé, marginalisé et finalement ostracisé une bonne fois pour toutes. De nos jours, la peine de mort physique n’existe plus dans nos contrées, on l’a remplacé par une peine bien plus efficace : l’effacement. Si vous osez vous opposer au narratif, vous serez écarté, empêché, éliminé, effacé… on est pas loin du “vaporisé” de 1984 d’Orwell finalement.

Je vais donner un exemple du narratif pour bien me faire comprendre. Depuis un an et demi, nos vies ont changé avec la crise sanitaire. Et là, avec cette crise, on peut mesurer l’importance prise par le narratif. Et on a déjà connu plusieurs phases différentes du narratif pendant cette crise. Il y a eu “rester chez vous (nous sommes en guerre)” puis “portez un masque” et “les vaccins sont la solution, vaccinez-vous”. Cette dernière phase a été renforcée par “ ceux qui refusent la vaccination sont la cause de notre retard à la vie normale, pointez-les du doigt !”…

Restez chez vous !

Mais le narratif, s’il est puissant, n’est pas très stable. Il doit être renouvelé périodiquement. Il ne peut pas rester statique trop longtemps. Sinon, en s’habituant, les gens se mettent à y croire un peu moins, c’est gênant… Alors le message change, subtilement, progressivement. Vous voulez encore un exemple ?

Facile, en ce moment, le narratif a une nouvelle mission : vous focalisez sur l’élection présidentielle. Tout d’un coup, il n’y a plus que cela qui compte, comme si la désignation du prochain président (avec de bonnes chances que ce soit toujours le même, hélas) allait nous sauver… Alors, on entend le message changer, comme si quelqu’un tournant le bouton, changeait de fréquence et modulait l’émission… Oui, le prochain président peut vous sauver, passionnez-vous sur cela, point.

Mais nous sauver de quoi ?

Pas du narratif en tout cas, lui est là pour rester, immuable et changeant tout à la fois, il domine nos vies et les réduits à une fiction improbable ou la raison est absente. Triste époque.

Publié dans divers, La terrible vérité | 2 commentaires

Lecture du livre « Le fait technique » : le chapitre 5

Les cycles économiques…

Et aussi sur SoundCloud.

Publié dans Le fait technique, Mes livres | Laisser un commentaire

La vraie différence entre « bruit médiatique » et vraie pertinence…

Pour mesurer la différence entre le bouhaha médiatique dénué de sens sur le « calamiteux » retrait américain d’Afghanistan et une véritable analyse pertinente sur le sujet, je vous invite à lire (oui, il faut lire !) l’article suivant : Afghanistan : non, ce n’est pas une « déroute américaine » (quoi qu’en pense Michael Moore).

Ce n’est pas un résumé de cet article mais une mise en exergue de quelques points importants issus de ce papier (et qui, je l’espère, va vous inciter à le lire pour de bon, en entier !), j’ai préparé cette petite vidéo :

Bon, dix minutes quand même !

Pour compléter, voici un message de mon ami Laurent Poulain qui enfonce le clou :

Salut Alain,
Je viens de lire l’article que tu as recommandé sur ton blog. Les chiffres sont en effet fort intéressants.
Pour ce qui est du coût de la guerre, il n’est certes pas si important que ca, mais il aurait été bien mieux utilisé sur le sol américain même (comme remettre en état les infrastructures). Le premier gagnant de la guerre d’Afghanistan est avant tout le complexe militaro-industriel.
Personnellement ce qui m’attriste le plus est que les Etats-Unis ne vont sans doute pas tirer les leçons. Que « construire » un pays (comme en Afghanistan) est infiniment plus difficile que de reconstruire (comme l’a fait le plan Marshall). Les « hawks » sont toujours aussi puissants et ne sont pas inquiétés (ce gros con de John Bolton est toujours invité sur les plateaux télé). Ni tous les généraux qui ont menti pendant toutes ces années. Nombreux sont des généraux qui ont répété pendant 20 ans que les US « gagnaient ». Et le Pentagone ne pouvait que savoir que l’armée et la police locale n’étaient qu’une bande d’incompétents. Un vétéran chargé de les entraîner (qui va briguer un mandat de sénateur l’année prochaine) a découvert que non seulement les évaluations des forces locales étaient bidonnées, mais que les instructions étaient de faire en sorte que leur score augmente (un peu comme le Bac en France ;-). Quant à la police, ils étaient apparemment encore pire que les talibans. Ces derniers donnaient au moins un « reçu » après t’avoir extorqué pour que tu n’aie pas à te faire extorquer plusieurs fois.
Mais rien ne ca n’a transpiré à Washington. Lorsque Obama et Trump ont voulu quitter l’Afghanistan, leurs généraux les ont convaincu de rester quelques mois « juste le temps que l’armée locale soit enfin prête ». Personne n’a demandé des comptes à tous ces généraux.
Laurent

Publié dans à travers mes découvertes, conférences, divers | Un commentaire

Lecture du livre « Le fait technique » : le point après 4 chapitres

Un point nécessaire…

Et aussi sur SoundCloud.

Publié dans Le fait technique, Mes livres | Laisser un commentaire