Archives de catégorie : Informatique

Starlink disponible… ça vaut le coup ?

Avoir un accès à l’Internet correct est de plus en plus important avec notre société et en tenant compte de son évolution (je ne vous fais pas un dessin, cette évolution, vous la vivez tous les jours…). Et, soyons clair, les accès via ADSL des opérateurs ne sont PAS satisfaisants : lents, souvent en panne et trop coûteux pour ce niveau de service.

Il y a forcément matière à faire mieux, non ?

J’ai toujours pensé que c’était du côté d’un accès par satellite que ce trouvait la solution (je l’ai même évoqué dans un chapitre de mon livre « Perdu dans le temps« ). Du coup, j’ai expérimenté cela avec Nordnet il ya quelques années. Le résultat était plutôt décevant : si le débit était au rendez-vous, la latence importante annulait cet avantage presque complètement.

C’était facile à comprendre : avec des satellites géo-stationnaires (c’est-à-dire à 36000 kms de la Terre !), il y avait forcément du délai dans l’établissement de la communication. La solution résidait dans l’emploi d’une myriade de satellites en orbite basse… Mais, cette myriade, il fallait encore la lancer !

C’est SpaceX qui s’y colla avec son service Starlink. Il faut avoir vu passer les premiers « trains » de satellite traversant le ciel en quelques minutes, c’est assez fascinant comme spectacle (que j’ai eu la chance de voir à trois reprises) !

Depuis ces débuts héroïques, les choses ont bien évoluées : désormais, SpaceX a déjà délivré près de 10 000 terminaux en trois semaines seulement puisqu’elle revendiquait 90 000 utilisateurs fin juillet. Le réseau était d’ores et déjà disponible dans 14 pays, dont la France (voir à https://siecledigital.fr/2021/08/24/starlink-terminaux-livraison/?utm_source=Newsletter+Siecle+Digital&utm_campaign=a438b9413a-newsletter_quotidienne&utm_medium=email&utm_term=0_3b73bad11a-a438b9413a-259548541).

Des pointillés dans le ciel nocturne ? Non, c’est Starlink, tout simplement !

Depuis lors, il me brulait de pouvoir essayer ce service… C’est chose faite depuis quelques semaines car j’ai reçu mon kit et j’ai pu le mettre en place sans difficulté.

Le kit complet encore dans sa boite… Facile à monter !
La parabole sur son trépied et vissée sur une palette (lestée). Tout est prêt !
Une petite vidéo pour montrer tout cela en images (nota : il ne s’agit PAS de moi !).

Alors, tout cela est bien joli mais est-ce que ça fonctionne ?

Oui et plutôt bien. Tout d’abord, ça marche du premier coup sans poser de problème et, ensuite, le débit est bon (sans être aussi mirifique que les promesses marketing… faudra encore attendre un peu avant d’avoir du 100 Mbs, pour le moment, c’est plutôt au alentour de 60 Mbs…) et la latence quasi nulle, bon point !

Le service se gère à travers une app assez complète.

Bref, c’est assez coûteux ($99/mois et $500 de kit) mais ça marche et c’est déjà énorme !

https://www.starlink.com/

Ce que j’ai appris en créant mon premier NFT…

Les NFT, qu’est-ce que c’est ?

Pour commencer, je vous conseille de lire ma chronique sur l’ensemble des tendances de ce qu’on appelle désormais « la vague crypto » : https://www.redsen-consulting.com/chronique-alain-lefebvre/que-se-passe-t-il-en-ce-moment-avec-les-cryptos-introduction/

Et pour être plus précis, je vous conseille même se sauter directement à cette section : https://www.redsen-consulting.com/chronique-alain-lefebvre/chronique-crypto-2-les-nft-ou-le-marche-de-lart-frappe-par-la-cryptomania/

La Porsche 917 LH lors des essais d’avril des 24H du mans 1969, image emblématique de ma vidéo en NFT…

Créer mon premier NFT

Voilà, vous savez désormais ce qui se cache derrière cette acronyme (NFT).

Donc, pour passer de la théorie à la pratique, j’ai décidé de créer et même éventuellement de vendre mon tout premier NFT !

Pour commencer, il faut acheter de la cryptomonnaie, car lors du processus de création du NFT sur une plateforme spécialisée (comme OpenSea, la plus connue), il y a des frais à payer (les trop fameux “Gas Fee” dans le jargon du domaine). Et ces frais, on doit les payer avec des Ethereum, pas autrement. Il faut donc avoir des Ethereum dans son portefeuille… Un portefeuille ?

Oui, un portefeuille numérique comme MetaMask par exemple (un des plus en vogue en ce moment). Il faut donc choisir, installer et configurer le portefeuille en question et rien que cela prend un peu de temps. Ensuite, il faut acquérir des Ethereum afin de garnir votre tout nouveau portefeuille. Pour cela, vous allez passer par une plateforme d’échange comme CoinBase (qui vient de s’introduire au Nasdaq). Cela tombe bien, c’est justement celle que j’ai choisie !

Créer son compte sur CoinBase est un parcours d’obstacle qui prend, là aussi, pas mal de temps, car vous êtes “vérifié” à chaque étape : il faut montrer ses pièces d’identité (valides, cela va de soi !) avant que votre compte soit validé par les équipes de support (en fait, je pense que ce sont des robots qui s’occupent de cette phase…). Quand, enfin, vous êtes déclaré “bon pour le service”, vous avez enfin le droit de sortir votre carte de crédit afin d’acheter des Ethereum… ça tombe bien, le cours de cette cryptomonnaie est au plus haut en ce moment !

Donc acheter des Ethereum (j’ai dépensé 150€ pour cela) sur CoinBase a été relativement simple et direct une fois que mon compte était créé-vérifié-validé-approuvé… Ce qui est moins simple, en revanche, c’est de transférer ces Ether d’un portefeuille à l’autre… En effet, pour créer votre NFT sur une plateforme (Rarible par exemple), il faut pouvoir y connecter son portefeuille et que celui-ci soit garni. Or, je constate que MetaMask est plus facilement reconnu par les unes et les autres que CoinBase (quelque part, c’est logique : CoinBase est d’abord une plateforme d’échange avant d’être un portefeuille alors que MetaMask s’est concentré sur cette dernière fonction).

Je me suis donc lancé dans le transfert de l’équivalent de 120€ (j’ai quand même voulu en garder un peu sur CoinBase) et je dois dire que l’opération m’a laissé perplexe…. Déjà, il est indispensable d’avoir les applications correspondantes (CoinBase et MetaMask) sur son smartphone, car, de nos jours et surtout dans ce domaine, une grande partie des manipulations se font d’abord et avant tout sur cette interface (et tant pis pour moi qui préfère largement travailler sur un grand écran d’ordinateur fixe). Ensuite, il faut trouver comment faire, car ça n’a rien d’évident. Oubliez les tutoriels sur YouTube pour une fois, car ils sont tous périmés : en effet, le domaine évolue tellement vite, les programmes sont mis à jour tellement souvent que les photos d’écrans qui vous sont montrées dans ces tutos, vous ne les retrouvez évidemment pas sur la vraie appli…

Ensuite, il faut savoir qu’à chaque fois que vous voulez faire quelque chose avec vos “coins”, vous êtes « taxé » (il y a des “fees” à tous les étages)… Décentralisé peut-être, coûteux sûrement. J’y suis arrivé, mais j’en tire un enseignement simple : tout cela n’est pas encore prêt pour le grand public, tant s’en faut !

Bref, cette étape est assez pénible, mais on peut difficilement l’éviter. Une fois passée, on peut s’intéresser à l’étape suivante : choisir une plateforme où on va publier ce NFT. Pour ma part, j’ai écarté d’entrée de jeu OpenSea (que je trouve un peu trop “fourre-tout”) et j’ai réduit mon choix entre Rarible et Zora que je trouve bien plus “propres” et ordonnées.

J’ai donc lancé la procédure pour charger mon premier NFT sur Zora : ma vidéo “best-of” sur le Porsche 917. Le processus est simple, mais, surprise, on ne fixe pas le prix voulu dès le début (ou alors, j’ai loupé quelque chose !)… Ensuite, quand on clique sur “finalyse and publish”, on doit payer le prix en “gas fee” et là, c’est la douche froide : l’équivalent de $149… Et, bien sûr, je n’en ai pas assez sur mon wallet MetaMask. En regardant un peu du côté des options, je m’aperçois qu’il y a moyen de fixer un seuil où on accepte la transaction et je l’abaisse jusqu’à ce que ça revienne à un peu moins de $90… Sans doute cela va-t-il prendre plus de temps, mais c’est OK, je ne suis pas pressé de dépenser les quelques Ether que j’ai eu du mal à accumuler !

Ma vidéo « best-of » sur la 917, plus de 200K vues sur YouTube !

Finalement, j’ai laissé comme cela, ça a tourné toute la nuit, mais, au matin, j’ai eu la bonne surprise de constater que c’était fait : “You are minted!”. Comme quoi, ne pas être pressé est toujours le meilleur choix !

Vous pouvez consulter ce NFT en suivant ce lien :

https://zora.co/0x249aaE69bB4db03Bc702eedC946f0Cb5bBcbF6d3/3060

La différence entre payer plein pot et à prix réduit n’est pas énorme, mais, tout de même, je préfère que ça reste dans les limites de ce que j’ai dans le portefeuille… Mais bon, il est clair que pour “minter”, il faut compter entre $50 et $150 en équivalent Ether.

Pour ce qui est du prix de mon premier NFT, pour le moment, c’est une enchère (mais je ne me souviens pas d’avoir choisi cela ni les modalités… ça va durer combien de temps ? mystère…). Je pourrais mettre un prix fixe, mais il me faut d’abord comprendre les différents choix (les “currencies” proposées ne sont pas très explicites !).

C’est d’ailleurs une constante de la plateforme Zora qui, et c’est le moins qu’on puisse dire, n’est pas très intuitive. Certes, ce site n’est pas surchargé, l’interface est plutôt sobre, mais sans doute trop en fait : on a du mal à savoir quoi faire à chaque étape étant donné que les options sont plutôt réduites, très réduites, trop réduites au final.

Il faudrait que j’essaye de publier un autre NFT sur Rarible pour comparer, mais ça sera l’occasion d’un autre article !

Notre livre sur l’histoire de l’informatique : une mise à jour nécessaire

Je viens de recevoir le message suivant :

===

Bonjour, Je viens de commencer votre livre sur l’histoire de l’informatique. Et malheureusement, il semble que vous vous soyez fait voler votre site histoireinformatique.com. Visiblement, vous avez copié toutes les images du livre… sur ce site donc on peut y accéder. Mais c’est dommage car tous les QR codes du livre ne marchent plus.
===

Et voilà ce que j’ai répondu :

Alors, effectivement, j’ai rapatrié les images sur mon blog principal mais ce n’est pas pratique à consulter. Je dois donc faire une mise à jour de mon livre (avec les images intégrées dans l’ouvrage…) et, quand ça sera fait, vous serez le premier à recevoir la nouvelle version !
Merci de me l’avoir signalé.

Donc, vous l’aurez compris, je suis en train de réaliser une grosse mise à jour de cet ouvrage afin de corriger tout cela… Eh oui, les livres réclament une « maintenance » qu’il faut effectuer régulièrement si on veut les garder « vivants »…

Vidéo du débat sur l’accélération numérique

Mardi dernier, j’ai participé à un débat sur le thème de l’accélération numérique organisé par Yann Gourvenec et avec Fred Cavazza comme « contradicteur »…

Bien entendu, je soutenais l’idée que cette fameuse « accélération numérique » avec laquelle on nous rabat les oreilles n’était que poudre aux yeux et que c’était même la nouvelle pensée unique…

Voilà la vidéo de l’événement afin que vous puissiez juger par vous-même :

La vidéo est un peu longue mais le sujet le méritait !

Participer au Vendée Globe envers et contre tout…

Certes, cette nouvelle période de confinement (et j’ai du mal à croire que je suis en train d’écrire cela !!) ne porte pas à la réjouissance mais il y a toujours un coin de ciel bleu quelque part, n’est-ce pas ?
Si vous rêviez de participer à la célèbre course du Vendée-Globe autrement qu’en se massant sur les quais du départ aux Sables D’Olonne (ce qui ne sera pas possible cette année… oui, ça va, on a compris !), sachez que c’est désormais possible… Oui, en même temps que les pros, vous pouvez vivre les deux-trois mois du Vendée-Globe en intégralité et en vous battant tous les jours pour votre position. Ce qui sera nécessaire car on va être nombreux au départ !

L’écran d’accueil de Virtual Regatta

Je vous propose aujourd’hui de découvrir Virtual Regatta (si ce n’est pas déjà fait). VR est une simulation marine au long-cours (il existe aussi une version « proche des côtes » pour les régates traditionnelles) que je pratique depuis juste un an. J’ai déjà participé à une vingtaine de courses avec des résultats moyens : au mieux, je me classe dans le premier tiers des concurrents à l’arrivée. Il faut dire que la concurrence est féroce et que nous sommes nombreux : souvent 20 à 40 000 participants à chaque course !

VR n’est pas une simulation sophistiquée sur le plan graphique (par exemple, on ne voit pas le bord des côtes quand on les longe) mais c’est gratuit et plutôt bien fait : on doit principalement se soucier de son cap qu’on va choisir en fonction de la météo et de son évolution prévue. On navigue en même temps que les vrais, on affronte les mêmes vents et on suit plus ou moins les mêmes routes.

Ceci n’est pas un tuto !

Je me suis donc préparé en entrainé pendant ces derniers mois en perspective du grand rendez-vous qui n’est plus que dans une semaine. Cette fois, on va être très nombreux car, lorsque j’ai pris la photo d’écran de Virtual Regatta, on était déjà presque 119 000 inscrits et ce chiffre évolue toutes les heures… ça va faire du monde mais n’oublions pas qu’il s’agit d’une course longue et qu’il va y avoir pas mal de tri au fil des semaines.

Si ce genre de simulation vous intéresse, je vous encourage à vous inscrire et à participer : c’est simple, facile et gratuit !

Un nouveau livre (dans un sens) : du client-serveur au Web

En vingt ans, de la fin des années 80 à la fin des années 2000, l’informatique des organisations a connue un développement formidable en passant par des étapes fameuses comme le modèle client-serveur, l’intranet et le Web programmable grâce à LAMP.

Et c’est justement ces tournants significatifs et structurants que j’ai, en quelques sortes, chroniqué dans ce nouveau livre. En réalité, cet ouvrage est une compilation formée de mes trois premiers livres publiés chez Armand-Colin et Eyrolles :

Architecture client-serveur (1993)

Intranet, client-serveur universel (1996)

Web client-serveur, le triomphe du client léger (1998)

Mais ces trois livres n’étaient plus distribués depuis un moment. On pouvait encore en trouver d’occasion ça et là mais je voulais mieux que cela. Je voulais aussi qu’ils soient disponibles au format Kindle. Bref, je voulais que mes « vieux » livres soient aussi bien traités que les nouveaux…

Donc, je me suis lancé dans ce projet de restauration de ces livres afin de pouvoir les publier de nouveau dans une forme « nettoyée » mais sans altérer le contenu original. Au fur et à mesure de ce projet (commencé il y a six mois), j’ai décidé de rassembler ces trois livres en un seul et d’ajouter un commentaire à la fin de chaque chapitre, commentaire bien identifié comme faisant partie de la présente édition. Le but de ce commentaire est de comparer ce que j’écrivais à l’époque de la première parution avec ce qu’on sait désormais.

La couverture du livre actuel qui vient d’être publié sur Amazon.

Globalement, je n’ai pas à rougir de ce que j’ai rédigé alors, bien au contraire !

La plupart du temps, j’ai tapé juste et j’ai annoncé, souvent avec pas mal d’avance, comment tout cela allait évoluer : les formes qui allaient triompher et celles qui allaient disparaitre… Pas un score de 100% juste mais pas loin !

Ce travail « d’archéologie littéraire » m’a occupé de nombreuses heures et je suis plutôt satisfait du résultat. Evidemment, l’ouvrage résultant est assez volumineux (la version papier fait pas moins de 621 pages !) et je ne me fais aucune illusion sur son présent impact : seuls les plus passionnés d’Histoire de l’informatique pourraient avoir intérêt à lire ce livre…

Mais, comme d’habitude, j’ai d’abord fait ce travail pour ma propre satisfaction personnelle.Ceci dit, en relisant ces lignes, je me suis vraiment aperçu que l’histoire de l’évolution technique n’est qu’un perpétuel cycle qui se déroule toujours de la même façon, avec les mêmes exagérations et le même processus de maturité (ou d’oubli !). Sur ce point au moins, ce livre est très actuel.

Très bonne interview de Yann Gourvennec sur « Vers l’informatique raisonnée »…

Yann Gourvennec vient de publier une très bonne interview réalisée ensemble à propos de mon dernier livre « Vers l’informatique raisonnée »… Je vous recommande de l’écouter ici : Grands projets : une informatique raisonnée pour mettre fin au « gâchis ».

Vidéo de présentation de mon nouveau livre « Vers l’informatique raisonnée »…

Faut sourire Lefebvre !

==== Les témoignages des premiers lecteurs ==

Le livre décrit avec simplicité ce que devrait être la frugalité dans l’informatique. Une approche pragmatique et qui tient du bon sens. Je me suis retrouvé personnellement confronté à des situations décrites dans le livre. Les status « ne sera pas implémenté » ou « fonction équivalente existante » ont été difficile a défendre par mes équipes lors des comités produits mais nous apportent ainsi qu’à nos clients quotidiennement le meilleur.

Un livre qui présente une vision claire, avec des explications limpides pour un objectif précis.  L’auteur s’est conformé dans son écriture à ce qu’il conseille en informatique.

====

C’est un ouvrage très accessible, à dévorer en quelques heures de lecture par toute personne ayant un contact avec les outils informatiques au sein d’une entreprise. Les idées exposées dans ce livre ont conforté mes convictions, élaborées au regard de mon expérience et de ma volonté de rester sur des principes sains, réalistes et se fondant sur le bon sens.<br>

J’ai particulièrement apprécié l’ouverture et l’analyse exposée au sein du chapitre 5 notamment sur la loi de Moore et l’IA.

Enfin, je ne verrai plus dorénavant le shadow IT uniquement comme un risque (par exemple, la perte de données liée à l’hébergement sur un PC basique sous un bureau, d’une base de donnée devenue au fil du temps critique …), mais aussi comme une réelle opportunité de capitaliser sur une réflexion métier concrète, modélisée dans une application à sécuriser et à professionnaliser au bénéfice des utilisateurs.

Avec Redsen, nous organisons un webinaire sur « l’informatique raisonnée » le 25 septembre prochain… inscrivez-vous via ce formulaire !

Un nouveau livre : vers l’informatique raisonnée

C’est toujours un grand plaisir et une intense satisfaction que de dévoiler un livre sur lequel on a travaillé pendant des mois !

Cette fois, je peux même dire que ça fait des années puisque cette idée de concept (proposer une nouvelle approche de l’informatique en entreprise, l’informatique raisonnée) m’est venu dès 2005 mais j’ai mis un peu de temps à la concrétiser…

Un cap, pas une destination…

Mais cette fois, ça y est : je peux enfin dévoiler ce concept qui m’est cher et qui, en quelques sortes, récapitule tout ce pour quoi j’ai milité tout le long de ma carrière professionnelle. En gros, l’informatique raisonnée, c’est mettre fin au gâchis qui caractérise trop souvent l’informatique professionnelle. Voici le texte de présentation du livre :

Avec les évolutions qu’a connues notre informatique professionnelle ces vingt dernières années, les pionniers des années soixante auraient du mal à la reconnaître !
À tel point qu’on emploie de moins en moins le mot “informatique” lui-même, un glissement sémantique significatif. Mais justement, si on dresse un bilan de l’informatique professionnelle à ce jour, il va être sévère : en effet, le niveau de frustration et de rejet des organisations vis-à-vis de cette ressource essentielle est dû aux errements de ces dernières décennies qu’il devient désormais impossible de dissimuler. Entre des projets de développement d’applications en interne qui échouent trop souvent, un héritage (legacy systems) et une dette technique écrasante (mainframes, ERP), cela fait effectivement beaucoup.
Heureusement, pour sortir de ces impasses et de ces ornières, j’ai un concept à vous proposer : l’informatique raisonnée.L’informatique raisonnée vous offre une démarche qui s’appuie sur des principes simples et bénéfiques. Cette démarche va vous permettre de reprendre la main sur la ressource informatique de façon sereine et durable.J’ai mené la rédaction de ce livre tambour battant !
Des chapitres courts, incisifs qui vont directement au cœur du problème sans s’égarer en circonvolutions inutiles. Le but n’étant pas de délivrer un traité académique exhaustif, mais, de façon plus utile à tous, de faire le point sur une question sérieuse qui va conditionner une bonne partie de notre (nous, les professionnels) pratique future de l’informatique.Les trois premiers chapitres sont consacrés au bilan de ces dernières décennies, le “pourquoi faut-il changer” en clair. Le 4e chapitre est le cœur de cet ouvrage, c’est le “avec quoi” on peut et on doit changer pour prendre enfin le bon cap en matière d’informatique pour les organisations. Si vous êtes pressés, vous pouvez commencer par ce chapitre, mais s’il vous reste un doute sur la nécessité de rompre avec les pratiques habituelles, le reste du livre s’avérera une lecture édifiante…

La couverture du livre.

J’ai commencé à exposer ce concept dans différentes chroniques :

http://www.jouvenot.com/vers-linformatique-raisonnee/

https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/vers-une-informatique-raisonnee

Une vidéo pour présenter mon livre…
Une interview bien menée.

La prochaine ère de l’IT ? Une pause !

N’en déplaise aux chantres de la “transformation digitale” (punaise, y en a vraiment marre d’utiliser cette expression !), la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment et c’est pas dommage !).

Non, la prochaine ère de l’IT, c’est de faire une pause, tout simplement.

Oui, notez bien la date et retenez que c’est moi qui vous l’annonce car, pour une fois, la prochaine mode, c’est de calmer tout cela et de se concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2-la loi de Moore est en train de s’effacer…

Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses (voir à https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in).

Source https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in

Je ne suis pas surpris puisque ça fait des années que je l’annonce (voir à http://www.alain-lefebvre.com/avenir-de-lia-lhypothese-85/). Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions peu à le dire. Maintenant que The Economist vient de publier ce dossier, le hype en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligé de me croire mais, en revanche, vous pouvez lire le dossier de The Economist fort bien fait…

Fin de partie pour la loi de Moore

Le NYT en parlait dès 2016 : la loi de Moore qui s’est vérifiée pendant des décennies est en train de s’effacer (lire à https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html).

Gordon Moore, fondateur d’Intel, a observé en 1965 que le nombre de composants pouvant être gravés à la surface d’une tranche de silicium doublait à intervalles réguliers et le ferait dans un avenir prévisible – une idée connue sous le nom de loi de Moore.
Source https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html

En fait, c’est plus important qu’il n’y paraît car, qu’on le veuille ou non, qu’on y croit ou pas, les vrais progrès de l’industrie informatique reposent surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage. 

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé. Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus. 

Voyons cet extrait de The Economist (source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). Il devrait savoir – pour entraîner son propre système «Openai Five», conçu pour battre les humains à «Defense of the Ancients 2», un jeu vidéo populaire, il a mis à l’échelle l’apprentissage automatique «à des niveaux sans précédent», exécutant des milliers de processus sans arrêt pendant plus de dix mois.

Source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de «Transformer», un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter «des millions de dollars» en consommation d’électricité.

===

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit. Vous voyez la collision des situations qui est en train de se dessiner ?

Bref, tout cela nous indique fortement qu’une pause est en train de s’installer. Il faut dire que la crise du Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… Tant mieux, qu’ils se recyclent sur autre chose.

Quand la réalité rejoint la fiction

Je viens de regarder un documentaire sur Arte : “Des robots et des hommes”. Un contenu sur la robotique, l’IA et les questions sociétales que ces sujets posent… Rien d’exceptionnel, mais j’ai pour habitude de regarder plus ou moins « tout » ce qui passe à ma portée sur ces sujets (et d’être souvent déçu par les banalités et les idées reçues qui y sont ressassées !).

Cependant, cette fois, une séquence a particulièrement retenu mon attention. À partir de 46:30; on y voit une jeune femme qui explique son quotidien au travail à Londres… Depuis dix ans, elle livre des colis (genre Uber Eats) en vélo et explique que depuis ses débuts, les choses ont bien changé : avant, elle avait un manager qu’elle voyait de temps en temps et, désormais, tout ce fait à travers une app, y compris les sanctions !

Voir à https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes/

source : https://www.ierhr.org/de-la-robotisation-des-hommes-a-lhumanisation-des-robots/

Cette évolution déshumanisée m’a rappelé exactement le contexte d’un roman de SF écrit par Marshall Brain : Mana (voir à https://marshallbrain.com/manna1.htm).

Dans Mana, une chaîne de fast food remplace tous les managers par une application reliée aux employés par un casque audio où elle donne ses ordres. Les employés peuvent et doivent indiquer où ils en sont par un microphone intégré au casque audio. Les humains sont ainsi transformés en quasi-robots qui doivent obéir minute par minute à une application qui trace tout, n’oublie rien et sanctionne au moindre travers.

Il est assez saisissant de voir qu’on en est là, déjà. Et nul besoin d’une AI sophistiquée pour atteindre ce genre de résultat : il suffit d’un programme comme les plateformes de services telles qu’Uber et autres mettent en œuvre depuis des années. Les évolutions les plus radicales ne demandent pas forcément un saut technologique important, il suffit d’intégrer finement ce qui est déjà largement disponible…

L’E-sport est en train de devenir un phénomène de société

Source => https://knoema.fr/infographics/fnlrjpc/e-sports-mainstream-growth-means-big-money

L’E-sport est en train de devenir un phénomène de société

Avertissement – Je n’ai pas vraiment “rédigé” cet article : j’ai pris des éléments des différentes sources citées à la fin de cet article et je les ai ordonné de façon cohérente. Plus un travail d’édition (beaucoup de copier/coller, un peu de corrections et de reformulations) que de rédaction donc…

Dans l’e-sport, la progression des récompenses reflète la croissance de ce domaine. En 2013, à Sydney, la bourse était de $7000 pour le tournoi d’esport organisé à ce moment-là. Avance rapide jusqu’à aujourd’hui et l’on voit que ce même tournoi de Sydney offre désormais une bourse de $350 000 à se partager entre les participants, une inflation certaine !

L’e-sport est désormais de plus en plus reconnu comme une activité sportive, car il fait appel aux compétences personnelles des joueurs comme le réflexe, l’acuité visuelle, la précision, la stratégie ou la communication — des compétences utilisées dans des sports tels que les échecs, le sport automobile, le tir à l’arc ou les sports collectifs.

Des débuts timides puis fracassants

Les débuts de l’e-sport commencent dès 1990, entre autre grâce au jeu Quake. Ces premiers événements ne sont “que” des rassemblements de plusieurs dizaines de personnes. Ces derniers ramenaient leur propre ordinateur et s’affrontaient en LAN (Local Area Network). Puis avec la sortie d’autres jeux propices à l’e-sport, tel que Starcraft ou encore Trackmania, l’e-sport s’est diversifié sur plusieurs autres styles de jeu.

Les années 90 ont aussi vu l’essor des jeux de combat et des tireurs à la première personne (FPS). Les compétitions opposaient désormais joueur contre joueur au lieu des meilleurs scores. Cependant, c’était un titre de “stratégie en temps réel” qui allait littéralement changer la donne…

Sorti en 1998 pour PC, Starcraft avec son robuste mode multijoueur utilisait Internet pour jouer en ligne et en compétition. Il s’agissait d’un phénomène sans précédent en Corée du Sud. Les tournois Starcraft ont germé et les matchs ont été télévisés sur plusieurs stations. Les joueurs ont commencé à devenir pro, à former des équipes et à récolter des parrainages rémunérés avec des marques, avec des campagnes publicitaires. Ce fut la vraie naissance de l’esport.

La professionnalisation du jeu vidéo au sens large vient ensuite en 1997 avec la création de la Cyberathlete Professional League, revendiquant l’existence d’un système sportif dans lequel des équipes composées de joueurs, auxquelles viennent parfois s’ajouter des informateurs, managers, entraîneurs et sponsors s’entraînent régulièrement sur des jeux dans un but purement compétitif.

L’essor de l’e-sport

La compétition et les rencontres internationales se sont d’abord développées avec des FPS tels que Counter-Strike, entre autres. Mais le progrès du milieu compétitif suivait généralement celui des jeux vidéo : ainsi, en 2008, l’Electronic Sports World Cup a retenu de nouveaux jeux tels que Quake III Arena ou encore TrackMania Nations ESWC. Ainsi en élargissant son panel de jeux, l’e-sport avait davantage de chances de toucher un public plus large.

L’essor de l’e-sport a fait émerger de nouveaux métiers, celui de joueur professionnel ou bien de streamer (d’abord sur Twich, la plateforme pionnière en la matière et désormais sur YouTube). Avec cet élan rassemblant plusieurs millions de personnes, des acteurs majeurs s’intéressent à cette nouvelle discipline.

Mais c’est essentiellement en 2010 que l’on assiste à un véritable progrès dans le domaine compétitif avec l’ajout de jeux à l’e-sport tels que Hearthstone, StarCraft II, FIFA, les nouveaux volets de Call Of Duty et Counter-Strike, Dota 2 ou encore le très prisé League of Legends. De plus, le développement de la diffusion de ces rencontres grâce à des WebTV spécialisées dans ce domaine tels que MilleniumTV, OrigineTV, NetGaming, YouTube ou encore Twitch, a permis d’étendre l’influence de l’e-sport sur internet notamment. Ainsi, en 2014, on a recensé 89 millions de spectateurs (via ses plateformes) réguliers lors de compétitions de grande envergure et pas moins de 117 millions de spectateurs (toujours via ses plateformes) occasionnels.

Ce développement si rapide et efficace est également dû aux sponsors qui financent les rencontres et certaines équipes professionnelles ; on peut citer Intel ou AlienWare entre autres, qui organisent la majorité des rencontres en louant des salles et des stades entiers, en fournissant le matériel, ou encore en offrant la récompense à l’équipe gagnante.

Aujourd’hui, l’e-sport ne cesse d’attirer les amateurs et suscite même l’attention de nombreux journaux qui ne sont d’ordinaire pas spécialisés dans le domaine du jeu vidéo. 

Et en France ?

En France, l’e-sport a commencé à faire parler de lui en 2010, avec le progrès des compétitions internationales.

On assiste en 2016 à la création de compétitions nationales telles que la e-ligue 1 sur la série FIFA, projet soutenu notamment par l’éditeur de jeux vidéo Electronic Arts.

Ainsi en 2016, l’e-sport en France a généré un revenu global de 22,4 millions de dollars d’après PayPal, et plus de 27 millions en 2017. L’hexagone est le troisième pays européen en termes d’audience pour l’e-Sport. En 2017, 37 millions de téléspectateurs en Europe regardaient régulièrement les compétitions. De leur côté, les Français étaient plus de 2 millions derrière leur écran. Un chiffre qui pourrait atteindre 2,8 millions en 2019. À titre comparatif, ces audiences sont équivalentes à des programmes télévisuels tels que les Césars ou encore les Victoires de la musique.

Le pays y voit une occasion de se développer dans un secteur en pleine expansion. Annoncée en 2018, la FFF (Fédération Française de Football) a décidé de lancer une équipe de France d’e-Sport.Toujours côté foot, le PSG s’est lancé dans l’E-sport en Octobre 2016 en s’associant avec Webedia, une entreprise spécialisée dans les médias en ligne. 

De leurs côtés, les chaînes de télévision et les constructeurs s’activent aussi et y voient une opportunité grandissante. M6 a annoncé en février 2018 une participation minoritaire dans Glory4Gamers ou encore Renault qui a rejoint les rangs de Team Vitality en créant sa propre équipe « Renault Sport Team Vitality ».

La plupart des grands groupes médias français investissent aussi dans le secteur : Webedia en rachetant Oxent (développeur de l’e-Sport platform Tournament), Lagardère Sport avec Team Roccat, Vivendi avec Canal eSport Club.

Une ruée vers l’or au niveau mondial ?

L‘E-sport concerne aussi les jeux mobiles et ainsi Alphabet Inc, le conglomérat détenant Google et ses services, a investi 120 millions de dollars (en janvier 2018) dans une société chinoise, Chushou. C’est une société qui propose une plateforme de streaming de jeux mobiles, et plus particulièrement de jeux compétitifs. Cette dernière a déjà attiré plus de 8 millions de streamers. Leur objectif étant d’aider la plateforme à se développer en Chine et à l’international.

Les recettes de l’e-sport (850 millions de dollars en 2018, estimations) sont estimées à 10 milliards de dollars en 2030. En 2018, plus de 100 millions de dollars ont été distribués aux gagnants des compétitions. Ces chiffres peuvent paraître démentiels pour une discipline encore méconnue du grand public. Cependant, la finale mondiale du jeux-vidéos League of Legends a réussi à remplir un stade olympique, rassemblant ainsi plus de 40.000 personnes. Elle était aussi diffusée en direct et à réuni plus de 60 millions de spectateurs uniques.

Malgré des rémunérations de plus en plus faciles et importantes, les principaux revenus de la majorité des joueurs e-sport restent les plateformes de streamings (YouTube, Twitch) grâce aux dons ou aux publicités.

Certains acteurs déjà présents dans l’e-sport essayent de faciliter l’arrivée de cette discipline. Que ce soit un streamer qui sponsorise un joueur professionnel ou encore une chaîne de télévision qui ne diffuse que de l’E-sport.

L’e-sport étant une discipline naissante, certains points importants à son succès auprès du grand public posent encore problèmes. L’un de ce derniers est le nombre de d’événements organisés par différentes structures, de ce fait il peut y avoir plusieurs champions sur un seul et même jeu. C’est pour le moment le point faible de l’e-sport, il n’existe pas de structure officielle pour le représenter. C’est une des raisons pour lesquelles la fédération mondiale de Jeux Olympiques ne l’a pas encore accepté.

Malgré cela, l’OCA (Comité Olympique Asiatique) a annoncé sa volonté d’intégrer l’E-sport au programme des jeux asiatiques de 2022.

Toutes les disciplines sportives sont concernées ou presque !

On a déjà évoqué le foot et League of Legends qui sont deux piliers du développement de l’e-sport mais, bien sûr, d’autres secteurs sont aussi concernés même si certains prennent un peu le train en marche.

C’est le cas des sports-mécaniques où, en 2019, on a enfin vu un vrai décollage de la discipline. Que ce soit pour le MotoGP, Le Mans ou la Formule Un, des championnats officiels sont organisés et les vraies équipes y engagent des SimRacers super aiguisés. L’argent est au rendez-vous et cela aide à expliquer pourquoi après avoir tardé, le décollage n’en est que plus brutal.

Conclusion : les lignes sont en train de bouger

Il est incontestable que l’e-sport est en train de prendre sa place dans notre société des loisirs et du spectacle. Il est déjà possible de faire carrière, en tant que sportif professionnel, sans jamais aller sur le “vrai” terrain. La compétition est féroce et les meilleurs s’entraînent de façon “effrayante” (Marc Marquez qui est plutôt du genre à être un bosseur et un perfectionniste, a été étonné de voir l’engagement et la précision des meilleurs pilotes participants au championnat MotoGP en e-sport). La croissance est très forte car les sponsors pensent qu’ils ont enfin trouvé la recette magique pour toucher les “jeunes”… Du coup, l’argent coule à flot. Pour combien de temps ?

Alain Lefebvre – Janvier 2020

Sources utilisées pour cet article :

https://www.linkedin.com/pulse/exponential-esports-growth-from-7000-350000-australian-chris-smith/

https://www.geekslands.fr/item/1312-l-essor-de-l-e-sport-dans-le-monde/

https://www.autoblog.com/2019/11/01/esport-racing-series-guide-history/

http://www.jeuxvideo.com/news/772751/google-investit-dans-l-esport-mobile-en-chine.htm

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

https://www.la-croix.com/Sport/Ce-sport-derange-monde-sportif-2017-05-12-1200846649

https://www.lequipe.fr/Esport/Actualites/Esport-adrien-zerator-nougaret-sponsorise-un-joueur/864342

http://www.gameblog.fr/news/72810-es1-la-chaine-100-esport-a-une-nouvelle-date-de-lancement-et

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

http://www.lepoint.fr/sport/on-espere-que-l-e-sport-prendra-toute-sa-place-au-psg-10-01-2018-2185260_26.php

Pourquoi prédire un “hiver de l’IA” est contre-intuitif ?

Dans certains de mes écrits précédents, je reviens souvent sur une idée forte : l’IA, actuellement formidablement à la mode, va bientôt entrer dans une période moins florissante, un nouvel “hiver de l’IA” comme cette discipline en a déjà connu deux dans son passé. Pourtant, bien que les éléments qui indiquent ce prochain effondrement s’accumulent, le battage médiatique ne faiblit pas et continue à résonner positivement avec l’assentiment (aveugle ?) de la grande majorité des “analystes” de la tech. Pourquoi ?

Pour comprendre les forces qui sont à l’œuvre ici, je vous propose de nous pencher sur les mécanismes mentaux qui entretiennent cette croyance (l’IA, c’est l’avenir) en dépit des signaux qui indiquent le contraire.

Psychologie des foules

Prédire l’hiver de l’IA, c’est comme prédire un krach boursier : il est impossible d’indiquer avec précision quand cela se produira. Cependant, comme avant un krach boursier, on peut déjà observer des signes de l’effondrement imminent. Actuellement le “récit IA” trouve encore une résonance si forte qu’il est plus facile (pour le grand public) d’ignorer ces signaux et de continuer à croire cette belle histoire.

Pour comprendre la force du “récit IA”, il faut sortir du domaine de la tech pour passer dans le domaine de la psychologie sociale, de la psychologie des foules. Chaque nouveau convaincu renforce la conviction de l’ensemble avec des arguments du genre “un millions de personnes ne peuvent pas avoir tort, ne peuvent pas penser la même chose en même temps et se tromper” alors qu’on a des exemples par le passé qui montrent que le volume ne fait rien à l’affaire et qu’on peut avoir des foules qui ont des convictions (y compris très fortes comme dans le domaine religieux) qui ne reposent hélas sur rien. Dans le domaine de l’IA, il faut comprendre que chaque démonstration médiatique vient renforcer les autres. On est donc face à un effet cumulatif qui finit par ancrer une conviction en profondeur dans chacun de nous, on finit par s’habituer à “l’évidence” de telle ou telle affirmation, de telle ou telle hypothèse. Au bout d’un moment, elle n’est plus considérée comme une hypothèse, mais ça devient un fait (ça ne l’est pas), au moins dans la tête des gens. C’est ce mécanisme qui est à l’œuvre continuellement avec le battage médiatique autour de l’IA (et c’est pareil pour les autres modes).

Renforcement positif, forcément

Les membres du système médiatique vont, consciemment ou inconsciemment, appliquer un filtre de “renforcement” dans le choix des nouvelles qu’ils publient. Donc, dans un premier temps, ils vont plutôt publier des articles avec des éléments qui vont dans le sens d’une confirmation du phénomène en cours. Il faudrait le tarissement de cette source (celle qui confirme le phénomène) puis l’apparition d’une autre source (qui elle infirmerait la chose) qui irait dans l’autre sens (finalement, le phénomène “à la mode” n’est que vent, ça marche, etc.) et seulement si le flot de la seconde source se met à dépasser la première, on verrait le ton s’inverser. Et si on en arrive là, l’emballement médiatique reprend, mais dans l’autre sens. 

Retournement de tendance, généralisée

Tout d’un coup, tous ces commentateurs qui disaient et répétaient “l’IA c’est l’avenir et ça va tout changer” vont se mettre à dire à l’unisson “finalement, c’est pas pour tout de suite, c’est limité, on a trop rêvé, etc.”. C’est un cycle qui se reproduit à l’identique depuis des décennies encore et encore. On a eu de nombreuses modes qui ont permis de l’illustrer (ce n’est d’ailleurs pas limité au domaine technique, on voit le même “cycle du hype” partout, y compris dans les domaines économiques et politiques). Ce n’est pas pour rien qu’en matière d’IA on parle de “printemps” et “d’hiver” parce que ça s’est déjà produit et l’on sait que ça va se produire à nouveau.

Une bulle médiatique, encore et toujours

Actuellement, nous avons tous les signes qui permettent d’identifier un prochain “hiver”, c’est-à-dire qu’on sait qu’on a accumulé tous les indices qui désignent une bulle, une bulle médiatique autour de l’IA qui se caractérise par “assez peu de signaux et beaucoup de bruits” (d’ailleurs, toutes les bulles médiatiques sont toujours basées sur un rapport signal/bruit complètement disproportionné !). La différence flagrante entre l’ampleur de l’écho donné aux réalisations spectaculaires (mais peu nombreuses) et le silence sur les réalisations ordinaires indiquent que ces dernières sont bien trop rares pour que la situation puisse être considérée comme “normale”. Donc, une mise en scène grandiose d’un côté et le désert de l’autre. On retrouve ce décalage aussi bien avec Watson d’IBM qu’avec Deepmind de Google. Dans ce dernier exemple, on va parler encore et toujours de sa formidable réussite dans le domaine du jeu vidéo et du jeu de Go, mais on va taire le fait que Deepmind n’arrive pas à trouver des débouchés pour ses logiciels en dehors de la “galaxie Google”. Pourquoi ce biais narratif ?

Eh bien parce que c’est plus facile et mieux reçu par la cible habituelle de ressasser quelque chose de connu que de proposer une vraie analyse, une analyse critique de la situation. Donc, on ne le fait pas sauf quand l’époque et l’atmosphère sont devenues favorables à un “AI bashing” qui, très vite, se généralise (emballement médiatique de fin de cycle). Ce décalage entre le grandiose de ce qui est mis en avant (AlphaZero et le jeu de Go) et le désert des réalisations plus modestes, mais concrètes peut être expliqué par le principe des retours décroissants qui est presque un effet de “miroir inversé” avec l’enflure médiatique qui elle va croissant.

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

L’extraction minière, un bon exemple de retours décroissants !

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel ! Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité. 

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire. 

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas. 

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite”… Voir à ce propos => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-1-la-maturation 

Peu de sources, trop de diffuseurs

Mais cette confusion est inévitable, car liée à notre capacité de perceptions limitées et au fait qu’on aille toujours vers le plus facile. Et le plus facile, c’est de retenir les éléments qui correspondent à notre schéma de pensée (et d’éliminer les autres), auxquels on peut adhérer et avec lesquels on a “l’impression de comprendre” plutôt que de devoir reconsidérer ses filtres, faire une vraie analyse, se mettre à penser pour de vrai, à se lancer dans une analyse critique. Il est plus facile et confortable d’avaler des contenus qui, en fait, ne sont que des résumés (éventuellement de façon abusive sous couvert de vulgarisation) d’éléments lus ailleurs et regroupés en quelques copier-coller à faible valeur ajoutée, car mal compris et mal digérés.

La prochaine victime : l’informatique quantique

Le battage médiatique est constitué de ces redites reprises ad nauseam, car il y a très peu de sources et beaucoup de diffuseurs (comme il y a peu d’agences de presse et beaucoup de chaines de TV…). On voit ce mécanisme encore utilisé actuellement à propos de l’informatique quantique avec des promesses délirantes alors qu’on n’est qu’au tout début de ce domaine radicalement nouveau (voir plus à ce propos ici => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/linformatique-quantique-pour-bientot).

Je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse… Remettez en cause les analyses, y compris la mienne. La bonne attitude sur le plan intellectuel n’est pas de suivre le troupeau mais bien de tirer ses propres conclusions en fonction de votre contexte et de vos contraintes.

J’étais “visionnaire”, je suis désormais “contrariant”… Suis-je devenu un vieux con ?

En quoi étais-je un visionnaire ?

Au pic de mon activité professionnelle, j’étais assez souvent qualifié de visionnaire et, avouons-le, j’aimais bien cela. J’avais un “track record” assez flatteur en la matière : j’ai été (en France) un pionnier du client-serveur et un pionnier du Web, j’ai rédigé et publié les premiers livres sur ces matières et j’avais des chroniques régulières dans les principales publications consacrées à l’informatique.

Par la suite, j’ai également été un pionnier des réseaux sociaux en France, rédigeant et publiant le premier livre en français à ce sujet (“Les réseaux sociaux, pivot de l’Internet 2.0”, paru chez M21 édition en 2005). J’ai donné de nombreuses conférences sur tous ces sujets techniques, mais tout ceci bien avant l’avènement des “Ted Talk” pour tous. Bref, j’ai été un visionnaire à l’époque où ça voulait dire quelque chose pour moi. Plus maintenant.

Quand ai-je basculé en mode “contrariant” ?

En 2010, j’ai rédigé une histoire de l’informatique moderne (“Cow-boys contre chemin de fer ou que savez-vous vraiment de l’histoire de l’informatique ?”, première publication en octobre 2010) avec mon vieux complice, Laurent Poulain. En effet, nous trouvions que tous les ouvrages sur le sujet passaient à côté d’un point essentiel à nos yeux : la lutte entre les “start-ups” (les “cow-boys”) et les grandes sociétés (les “chemins de fer”), moteur principal du progrès technique que nous constatons tous les jours. C’est sans doute à partir de ce moment-là que je suis passé en mode “contrariant”…

Notre livre à Laurent et à moi…

Ensuite, il y eut “Cette révolte qui ne viendra pas” (première publication en août 2011) où je dénonçais le rôle des médias dans l’abrutissement généralisé… Puis “Le miroir brisé des réseaux sociaux” (première publication en mars 2013) réalisé avec François Lienart où nous avions une certaine avance pour pointer du doigt l’absurdité des contenus publiés sur Facebook et autres…

Cette révolte qui n’est toujours pas là…
Les réseaux sociaux, eux, sont toujours là…

Enfin, ma bascule fut complète avec cet ouvrage plus récent, “Technologies : perception, illusion, déception” où je m’attaquais à la reine de toutes les idées reçues : l’accélération permanente du progrès technique (et c’est pas gagné, on le verra plus loin).

Une illusion qui a la vie dure !

La propagande est partout, y compris dans la hi-tech

Avant d’aller plus loin dans mon argumentation, avez-vous remarqué combien la propagande est devenue omniprésente ?

Jusqu’aux années 70, on était surtout habitué à la propagande gouvernementale… Par exemple, sur la guerre au Vietnam. Cette propagande n’a pas cessé, n’a pas faibli et on en a une nouvelle preuve aujourd’hui avec l’affaire des “Afghanistan papers”. Mais, désormais, il serait sot de croire que la propagande se limite à la géo-politique. Il en est de même dans les domaines de l’économie ou même (et surtout devrais-je écrire) dans la hi-tech !

La propagande “hi-tech” existe bel et bien, l’exemple récent de Wework devrait vous en convaincre. Dans cet exemple édifiant, nous sommes passés en quelques semaines à “Wework est une licorne exemplaire menée par des génies” à “Wework est une escroquerie qui montre la profonde incompétence de Softbank”. Si ça ce n’est pas un retournement de situation, je ne sais plus quel exemple vous fournir !

Pourquoi est-ce utile d’être un contrariant ?

Pour ne plus se faire avoir par une propagande délirante qui vous promet tout et n’importe quoi pour se dédire (sans s’excuser !) seulement quelques mois plus tard, voilà pourquoi les “contrariants” devaient désormais être plus écoutés que les “visionnaires” qui se sont décrédibilisés encore et encore.

Les exemples récents sont légion : la voiture autonome qui devait être là rapidement et qu’on risque d’attendre au moins dix ans, la Blockchain qui devait tout révolutionner et qui, au final va n’avoir qu’un impact minime ou même l’IA montée en épingle à cause des applications (spectaculaires, admettons-le) des techniques de “machine learning”, mais qui, une fois de plus, ne va pas pouvoir être “tout pour tous” et qui va droit vers un nouvel hiver de l’IA… Il vous en faut plus ?

Ce matraquage omniprésent et ultra-puissant provoque une paralysie intellectuelle généralisée. Quand vous lisez partout (oui, partout) que la Blockchain “c’est super, révolutionnaire et ça va tout changer”, forcément, ça a de l’effet. Vous vous dites que, vu que tout le monde est d’accord sur ce point, c’est que ça doit être vrai, qu’il faut prendre cela au sérieux…

Hélas, le fait que ça soit omniprésent ne confirme qu’une chose : il a peu d’articles originaux (des sources) et beaucoup (mais alors beaucoup) de copier-coller, vite fait/mal fait et mal digéré (voire pas digéré du tout). C’est comme les chaînes de télévision et l’actualité : les chaînes (nombreuses !) ne sont que des diffuseurs, les vraies sources sont les agences de presse et elles sont peu nombreuses, elles.

La propagande hi-tech a bien compris que le “mind share” précédait toujours le “market share” et c’est pour cela qu’elle s’empresse d’occuper le terrain avec la dernière tendance à la mode (qui, vous l’avez remarqué, change régulièrement tous les deux ans) afin de ramasser les premiers dividendes (façon Wework) et advienne que pourra par la suite…

L’exemple de l’idée reçue véhiculée par la propagande hi-tech : “tout va toujours plus vite”…

Allez, je vous avais promis de m’attaquer à la principale idée reçue rabâchée (ânonnée devrais-je écrire…) ad nauseam par tout le monde, vraiment tout le monde : le fait que le progrès technique s’accélère et que tout va toujours plus vite (ma brave dame).

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite” (mon bon monsieur)…

La perception que le rythme du progrès technique est rapide (il ne l’est pas) provient du fait que le grand public ne voit pas les phases de découvertes, d’expérimentations et de mises au point qui ont toujours (toujours) précédé les percées spectaculaires qui occupent les médias (qui eux ne s’intéressent qu’à la phase finale). C’est ainsi que les “révolutions en une nuit” prennent couramment vingt ans de préparation, mais c’est pas grave, on fait comme si une nuit avait suffi.

Dans mon livre “Technologies : perception, illusion, déception”, je reviens justement en détail sur ces mécanismes et j’énumère de façon réaliste où nous en sommes dans les différents domaines qu’on estime être dominés par ce progrès technique toujours plus rapide. Mais peu importe, je m’aperçois que toutes ces explications sont vaines et même des esprits éveillés répètent que “tout s’accélère” comme si c’était devenu une évidence aussi prégnante que la gravité.

Cela va de pair avec une autre affirmation idiote : “on n’a jamais vu ça avant”… Or, encore une fois, même un examen sommaire permet de trouver des précédents comparables à quasiment tous les événements historiques. Un exemple ?

Allez, au point où on en est, on ne va pas s’en priver…

Lorsqu’Internet s’est répandu, les observateurs y ont vu un cas à part, car on n’a jamais rien eu de comparable par le passé. Vous vous rendez compte, Internet… Un truc énorme, impossible de trouver un comparable dans le passé, n’est-ce pas ?

Pourtant, le livre de Tom Sandage « The Victorian Internet » démontre cependant que l’émergence et l’évolution du télégraphe (et sa banalisation) présentent des parallèles troublants avec l’histoire récente du Réseau des réseaux…

Pareil sur la monnaie unique européenne (l’Euro que nous connaissons tous, et pour cause…), c’est du jamais vu, pas vrai ?

Encore raté : en 1865, la France, l’Italie, la Suisse et la Belgique signaient un accord monétaire, auquel adhéra la Grèce en 1868. Cette association monétaire fut bientôt connue dans le monde entier sous la désignation Union monétaire latine (UML).

Bref, on l’aura compris, je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse…

Merci de votre attention.

Que manque-t-il à la réalité virtuelle pour s’imposer pour de bon ?

La réalité virtuelle peine à s’imposer en dépit des pronostics (trop) optimistes émises par les « experts » lors de ces dernières années.
Pourquoi cet échec (relatif) ?
Tout d’abord, il faut bien admettre que c’est encore cher et compliqué. Cher parce que le masque Oculus ou HTC n’est pas donné : c’est tout de même autour de 400 euros. Et le masque ne fait pas tout : il faut aussi le PC qui va avec et celui-ci aussi coûte cher. De plus, tout cela est compliqué à mettre en place : pas mal de câbles à brancher, de logiciels à installer (et à paramétrer), les senseurs à régler et il faut aussi prévoir de la place pour pouvoir jouer dans de bonnes conditions.
Bref, ce n’est pas tout à fait aussi accessible qu’on veut bien le dire et donc pas encore vraiment prêt pour un large public…
Pourtant, quand on essaye ce dispositif on est tout de suite surpris de se « prendre autant au jeu » (j’en parle déjà ici) !
Comment se fait-il qu’on puisse ainsi leurrer notre propre cerveau aussi facilement ?
L’explication nous est donnée par Jaron Lanier, un des pionniers historiques de la réalité virtuelle (VR) :

« Si 100×100 est une résolution plausible pour une icône, pour un monde virtuel, c’est absurde. Rappelez-vous, l’image est étalée sur une grande partie de ce que vous pouvez voir. Par conséquent, chaque pixel peut sembler aussi gros qu’une brique dans un mur !

Et pourtant, l’effet était incroyable », raconte Lanier.
Pourquoi cela a-t-il fonctionné ? Parce qu’en fait, ce qui est central dans la VR n’est pas ce que vous voyez ou entendez, mais la manière dont les mouvements du corps sont captés et retransmis à « l’avatar ». Le coeur de la VR, c’est le tracking, pas le rendu. C’est cette capacité de mesure qui permet de « tromper le cerveau » et qui donne cette impression d’immersion dans un nouvel environnement. Rappelons d’ailleurs que le sens de la vue n’a pas été immédiatement privilégié par les premiers concepteurs de la VR. Lanier est connu surtout pour l’invention du dataglove, une interface haptique qui simule le sens du toucher (et qui connut pendant un court laps de temps une adaptation grand public, le Power Glove de Nintendo). Étrangement, au début des années 80, il était considéré comme plus facile, techniquement, de mettre au point de tels périphériques plutôt que des systèmes de visualisation sophistiqués. 30 ans plus tard, Oculus, HTC, Sony, Samsung et autres nous proposent des casques à bas prix, alors que les interfaces haptiques, elles, semblent toujours relever de la science-fiction !

Comme le dit fort bien Lanier, c’est le tracking qui compte dans l’impression d’immersion, le rendu (la qualité graphique) est alors secondaire. Heureusement car, pour le moment, la qualité graphique reste largement perfectible. Tout cela va progresser, comme toujours : le matériel nécessaire va être plus facile à mettre en oeuvre, les prix vont continuer à baisser et les performances de rendu (graphiques, profondeur de champ, etc.) vont également s’améliorer.
Mais, selon moi, le principal facteur réside dans les applications. En effet, pour le moment, les bonnes applications disponibles pour la VR sont encore rares. Plus encore, les adaptations de titres existants pour prendre en compte la VR en plus de leur fonctionnement habituel sur écran sont majoritairement décevantes. On s’aperçoit ainsi qu’un jeu doit être, dès le début, conçu pour la VR et seulement pour cela. Tous ceux qui tentent de prendre en compte la VR après coup ne font rien de bon, tout simplement.
Car l’effort de conception n’est pas négligeable : il faut non-seulement programmer un rendu graphique où le tracking est primordial mais il faut également prendre en compte l’interface utilisateur qui passe obligatoirement par une bonne exploitation des manettes qui accompagnent le masque (et, à ce niveau, il a peu de différences entre celles d’Oculus et celles de HTC).

Voici quelques bons exemples de jeux conçus dès le départ pour la VR et seulement pour cela : Ultrawings et Derail Valley.

Ultrawings, un simulateur de vol très prenant.
Se retrouver aux commandes d’une locomotive en VR ? C’est possible avec Derail Valley !

Il y a en a sans doute plein d’autres mais je ne parle ici que de ce que j’ai testé personnellement. Ultrawings suit le mouvement initié par VTOL VR que j’évoque déjà ici : faire des graphiques adaptés à la résolution des casques VR actuels. C’est le bon choix et le côté « cartoonesque » n’est pas gênant en fait.

Je crois au succès final de la VR mais je pense aussi qu’il faut lui laisser le temps de s’installer : dans l’esprit des gens, dans l’offre du marché et dans l’expérience des développeurs. Reparlons-en dans cinq ans et vous verrez que, sans doute, ça va déjà beaucoup mieux.

Non à la « Pensée unique » en matière de technologie !

Soyons clair, ce qu’on lire en ligne à propos des nouvelles technologies est souvent décevant. Pire, c’est trop souvent le même blabla « c’est révolutionnaire, ça va tout changer, etc. ».

Pensez par vous-même, ne vous laissez pas dicter votre impression du monde !

PS) Une remarque de mon fils ainé qui a tout à fait raison et que je reproduis ici :

par contre, une petite phrase que je trouve critiquable :

tu ne peux pas lire  » je lis TOUT ce qui se dit sur le sujet »

c’est pas exact, exagéré. je peux croire que tu lis beaucoup de choses, mais c’est impossible de tout lire.

il vaut mieux, je pense, pour être efficace et super crédible, de dire « j’ai lu des dizaines (ou centaines ?) de livres/articles et vu des vidéos, récoupé les infos, écouté des conf »

et peut être que ça serait bien d’avoir 2 exemples de sources

par exemple 1 titre de magazine ou de radio ou de podcast

L’article le plus intéressant que vous pouvez lire à propos de l’IA…

Les articles, vidéos et même documentaires sur l’IA sont partout et, disons-le, on peut y lire (ou y entendre) beaucoup de conneries !

En revanche, je suis tombé sur un article qui sort du lot : https://motherboard.vice.com/fr/article/wjyz59/en-2018-lintelligence-artificielle-est-toujours-une-affaire-dhumains

Voici le chapeau d’introduction pour vous donnez envie de le lire à votre tour :

Pseudo-IA, IA Potmekine, IA Magicien d’Oz… Les techniques de fraude à l’algorithme qui consistent à faire bosser des humains pour pallier aux limites des machines sont partout.

Pour une fois que cet aspect remonte à la surface, je dois dire que j’en suis ravi !

Les investisseurs aiment cette tendance : en 2017, ils ont distribué douze milliards de dollars à quelques milliers d’entreprises d’intelligence artificielle — le double de l’année précédente. En 2021, l’investissement dans l’IA devrait atteindre les 57 milliards de dollars. Logiquement, les acquisitions explosent. Les prévisions des analystes financiers varient mais une chose est sûre : à ce rythme, le marché de l’IA pèsera de quelques dizaines à quelques milliers de milliards de dollars dans la décennie à venir.

Forcément, quand il y a autant d’argent en jeu, la tentation de tricher un peu (ou beaucoup !) n’est jamais loin !
Bon, allez, je vous laisse lire cet article…

Prétendre être un robot tout en étant humain, ça peut rapporter gros !

Conseil à Apple : virez Jonathan Ive !

Apple nous propose encore une nouvelle vague d’iPhone… difficile d’être excité par cela.

De l’autre côté de la gamme, le Mac n’est pas seulement délaissé, il est littéralement massacré !

Je m’explique : quand Apple fait enfin évoluer ce qui reste de sa gamme de Mac, c’est presque invariablement dans le mauvais sens. Et tout cela pourquoi ?

Pour que le designer Jonathan Ive puisse aller au bout de sa vision !

Ive à l’époque où il n’avait pas encore fait trop de dégâts…

Mais on n’en veut pas de sa vision !

Ce cher Jonathan veut aller vers un design « pur »… Très bien, qu’il se devienne sculpteur et se spécialise dans les objets en aluminium puisque ça lui plait mais qu’il laisse les MacBook Pro tranquille. Mais, pas de chance, Tim Cook ne voit que par lui. Donc, à cause de ce couple Cook/Ive, nous avons eu un MacBook Pro qui devient progressivement inutilisable puisque quand il reste une interface utile, Ive se charge de l’éliminer !

Mais bon sang, qu’il exerce son « talent » sur le MacBook Air puisque ça l’amuse mais qu’il laisse les MacBook Pro avec les interfaces qui vont bien. Donc, voilà mon conseil pour Apple : virez ce type avant que ses dégâts soient irréversibles.

Avenir de l’IA : l’hypothèse 85…

Inutile de vous le redire, l’IA est à la mode en ce moment !

Et, comme d’habitude avec les vagues techniques à la mode, le discours ambiant est à la fois convergent et délirant. Convergent, car on est face à une énième itération de la pensée unique : tout le monde exprime le même discours vis-à-vis de l’IA qui peut se résumer à peu de choses près à « c’est hyperimportant et ça va tout changer » (ça ne vous rappelle rien ?).

Délirant, car, comme à chaque fois, le discours contient toutes les exagérations et toutes les promesses qui accrochent l’attention, mais qui ont peu de chances de se réaliser (ou alors, pas à court terme ni même à moyen terme). Une fois encore « c’est hyperimportant et ça va tout changer » contient sa propre enflure et ne peut être prise au sérieux. C’est tout le problème du « hype », un phénomène qui se répète encore et encore dans le domaine technique. Tous les cinq/six ans, vous avez une nouvelle mode qui est présentée comme « hyperimportant et qui va tout changer » : la biotech, la nano, etc.

En ce moment c’est l’IA et nul ne peut y échapper. Mais rien ne nous empêche d’avoir un oeil critique et de repérer ce qui ne va pas dans ce cycle. Tout d’abord, l’hystérie actuelle ressemble trait pour trait à ce qu’on a déjà vécu lors du précédent printemps de l’IA lors des années quatre-vingts (et, en passant, pan dans la gueule de tous ceux qui disent « on n’a jamais vu cela ! ») : occupation et même saturation de l’espace médiatique (d’abord spécialisé ensuite généraliste), les politiques s’en emparent et en font le nouveau défi du moment, les grandes entreprises procèdent aux rachats de start-up prometteuses du domaine pour avoir une chance de « rester dans le coup » et programmes de recherches publiques et privés annoncés à cadence rapprochée afin de suivre le mouvement.

Tous les indicateurs nous disent qu’on est actuellement dans la même configuration qu’en 1985, année du pic de l’IA basée sur les systèmes experts. Ne vous laissez pas leurrer par ceux qui vont rétorquer « oui mais cette fois, avec le deep-learning, c’est bien plus sérieux qu’avec les systèmes experts d’il y a trente ans… ». C’est toujours le genre de contre-argument qui me fait rire car cela voudrait dire que les mêmes causes ne produisent PAS les mêmes effets finalement. C’est normal que les observateurs soient aveugles vis-à-vis à cette tendance qu’à l’Histoire à se répéter (y compris l’Histoire technique) car ils sont ignares en la matière (historique).

Allez, un exemple pour illustrer :

IBM travaillerait activement sur un projet de puces qui pourraient révolutionner l’IA. En effet, le géant américain tente de prouver que l’implantation d’un réseau de neurones, directement dans du silicium, peut le rendre 100 fois plus efficace. Source => https://www.technologyreview.com/s/611390/ai-could-get-100-times-more-energy-efficient-with-ibms-new-artificial-synapses/

Ce principe de passer des processeurs généralistes à des processeurs spécialisés (sensés être bien plus efficace pour ce qu’on en fait) est un refrain que j’entends depuis que je suis dans le domaine informatique !

En 1985, les systèmes experts étaient développés en utilisant un langage spécialisé : LISP. Problème : LISP était lent à s’exécuter sur les stations de travail des années quatre-vingt… Alors, forcément, une partie de l’industrie informatique s’est occupée de combler cette lacune vue comme une opportunité juteuse !

Les machines LISP ont eu leur heure de gloire mais ça n’a pas duré. Tout cela s’est effondré à la fin des années quatre-vingt alors que l’IA d’alors rentrait pour une nouvelle période « hivernale »…

OK, on a compris ce qui s’est passé en 1985 mais pourquoi et comment cela risque-t-il de se reproduire dans les deux ans à venir ?

Eh bien tout simplement à cause de l’obstacle de la généralisation. Ce que les GAFAMs nous montrent avec l’IA est très spectaculaire mais quid des utilisateurs plus ordinaires ?

En effet, il faut que l’IA puisse se banaliser suffisamment afin qu’elle soit utilisée avec profit par des organisations moins à la pointe de la technologie que les leaders bien connus. Or, c’est exactement la mission que s’est fixée IBM avec son produit phare en la matière : Watson. Et c’est pourquoi on retrouve la paire IBM/Watson dans tous les communiqués de presse triomphants sur la mise en oeuvre de ce dernier dans des cas concrets. Mais, bien entendu, on parle moins des échecs… Alors qu’il semble que ces échecs, justement, ne soient pas rares !

Rappelons que le machine learning ne fonctionne qu’à condition de fournir des données adéquates en amont. Beaucoup de données, énormément de données. Il faut aussi que cette masse de données soit de qualité : correctement triée et labellisée…  Et, bien sûr, c’est là où ça pêche : les entreprises et les organisations ne sont pas formidablement performantes sur le big data et peinent à atteindre ce niveau d’exigence. Et c’est pourquoi le magazine Forbes se demandait si, finalement, Watson était à la hauteur (voir Is IBM Watson A ‘Joke’?)

C’est l’échec de la généralisation qui va causer la déception et la réalisation que, peut-être, pour l’IA, c’est sans doute encore trop tôt et qu’un nouvel « hiver de l’IA » va débuter. Selon moi, d’ici deux ans.

Cela n’est pas grave car une mode est aussitôt remplacée par une autre : dès que l’IA descendra de son piédestal, on appellera la nano ou la biotech (qui viennent toutes deux de purger une période « hivernale ») pour relancer le rêve et on repartira pour un tour !

Un documentaire sur l’IA à vous recommander : « do you trust this computer? »

En matière de documentaire sur l’IA (disponible sur YouTube), il y a à boire et à manger : beaucoup de contenus, rarement de des contenus de qualité…

J’en ai regardé beaucoup mais je suis rarement allé au-delà des premières cinq minutes tellement on trouve du sensationnel à deux balles et des exagérations ridicules le tout avec un désolant manque de précision et d’exactitude scientifique. Bref, rien que je pourrais avoir envie de vous recommander… Rien jusqu’à « Do you trust this computer ? » !

Il faut dire que ce documentaire est réalisé par Chris Paine qui est connu pour avoir réalisé « Who killed the electric car? » et « Revenge of the electric car » qui sont aussi de très bons contenus sur le sujet (la voiture électrique donc).

Cette fois, sur l’IA, c’est un documentaire précis avec des témoignages de vrais spécialistes… pas de hype, pas les élucubrations qu’on entend habituellement sur le sujet, rien que du factuel. Cela dit, il ne faut pas tout prendre à 100%, au pied de la lettre car le degré d’incertitude sur l’IA à court terme est encore très élevé (à long terme, ça l’est déjà bien moins, forcément !).

Bref, voilà un contenu que je peux vous recommander si le sujet vous intéresse.

Une série de chroniques sur la situation actuelle du marché du cloud computing…

Depuis quelques semaines, je rédige des chroniques pour Redsen (une société de consulting créée par des anciens de SQLI…).

Je vous invite donc à lire celles qui sont déjà en ligne à propos du cloud computing :

Le marché du cloud : situation, perspectives et évolutions, introduction

Atteindre ses objectifs, même longtemps après les avoir fixés

En janvier, j’ai procédé à l’assemblage d’un nouveau PC (je raconte cette expérience cans le détail ici). Il y a longtemps que je voulais faire cela et, ces dernières années, ça m’est arrivé assez souvent d’assouvir enfin tel ou tel désir, d’accomplir telle ou telle tâche ou d’atteindre enfin tel ou tel objectif.

Ce n’est pas pour me vanter (comme dirait Philippe Meyer…) que je vous raconte cela, mais plutôt pour mettre l’accent sur la patience. Et si c’était la patience qui était la clé des accomplissements, grands et petits ?

Encore un exemple : avant de publier « Perdu dans le temps« , j’ai gardé cet ouvrage dans ma tête pendant plus de dix ans !
Je n’étais pas inquiet, je n’avais pas peur de l’oublier, car je savais que j’allais l’écrire un jour, je savais que j’allais aboutir un jour. Je fais cela tout le temps avec mes livres : chaque écriture est précédée d’une période de maturation plus ou moins longue, mais il n’est pas rare que cela prenne un an ou deux (en ce moment, je suis justement en train de « maturer » le prochain « Dr Miracle », celui de la saison 1972…).

N’oublions pas que toutes les choses sont d’abord des idées, des éléments de notre imagination, avant de prendre forme, d’être concrétisées dans la matière par notre propre industrie.

Donc, si vous voulez écrire un livre, restaurer une moto ou assembler un PC, ne vous désolez pas de ne pouvoir passer à l’action immédiatement. Patience dans l’azur, tout finit par venir à qui sait l’attendre, l’espérer, l’imaginer.

Dans la vidéo ci-dessous (que j’avais déjà partagé sur ce blog), je raconte mon aventure « paroxystique » quand j’avais 17 ans. Déjà à cette époque (1977), je savais que j’allais revenir sur ces lieux (la RN20) pour y prendre des photos. Jeune, j’imaginais même que je ferais ce pèlerinage au volant d’une Porsche 911… je ne me suis pas trompé de beaucoup, mais il m’a fallu attendre jusqu’en 2012 pour faire ce retour au volant de ma Porsche Cayman…

Bref, tout cela pour dire qu’il suffit d’y croire pour que, finalement, ça vienne. Croyez en vos rêves et ils deviendront réalité !

Apple MacBook Pro : le meilleur et le pire (comme toujours avec Apple…)

Dans notre famille, nous sommes des utilisateurs des produits Apple (MacBook, iPhone, iPad, Airport), mais ne sommes pas « Applemaniaque » pour autant (et encore moins « fan boys ») : les produits Apple ont des bons côtés, mais aussi des mauvais… Essayons de faire le point sur cette balance avec le tout dernier MacBook Pro qu’on vient juste de recevoir.

Mon épouse avait besoin de renouveler son Mac et on lui a donc commandé le top du top : le MacBook Pro 15′ avec le max du max (mémoire, capacité disque, etc.)… Belle bête, mais un peu chère : cette config dépasse les $4000 tout de même !

Déjà, ce premier point (les produits Apple sont chers) fait que de nombreux utilisateurs qui se porteraient mieux avec un Mac qu’avec un windaube passent leur chemin… ça peut se comprendre, mais c’est dommage, car, selon moi, on en a pour son argent. Mais, encore une fois, tout n’est pas parfait dans le monde de la pomme. Continuons sur les défauts, on verra les points positifs après.

1- adieux le magsafe !

Le magsafe était vraiment une bonne idée !
Pourquoi l’avoir abandonné ?

https://www.macg.co/mac/2016/10/dix-ans-apres-apple-enterre-le-magsafe-96101

Sans doute parce que Ive (le designer) a voulu imposer l’uniformité des interfaces (au passage, adieux aussi aux ports USB traditionnels !). Une décision dogmatique (typique de Ive, je déteste ce mec !) qui est un des pires comportements d’Apple.

2- Apple impose l’USB-C

Que ça vous plaise ou non, il n’y a plus un seul port USB traditionnel sur le MacBook Pro. A la place, il y a des ports USB-C qui impose donc d’avoir un adaptateur pour brancher tout ce que vous avez encore et qui (surprise !) n’est pas compatible USB-C… Encore une manie détestable de précéder le mouvement alors qu’on a rien demandé !

3- iCloud toujours aussi lamentable

À l’heure où le cloud est partout, Apple s’accroche encore à son iCloud qui est, tout à la fois, pas pratique et cher. En bref, contrairement à ce qu’on a l’habitude de dire sur les produits Apple, iCloud, ben ça ne marche pas !

Il y a dix ans, Steve Jobs avait viré le manager de l’équipe en charge de MobileMe (déjà, à l’époque, le produit « cloud » d’Apple était un désastre… ça n’a pas changé !). Peut-être faudrait-il faire la même chose aujourd’hui ?

https://gizmodo.com/5033442/steve-jobss-entire-mobileme-is-fail-email

Bon, on vient de voir les principaux points négatifs du nouveau MacBook Pro (encore que, iCloud n’est pas propre au MacBook, mais comme Mac OS s’appuie largement dessus, pour l’utilisateur, c’est pareil…), voyons maintenant les points positifs…

1- un clavier extraordinaire !

Le clavier de l’ancien MacBook Pro était déjà bon (c’est avec lui que je rédige ce post…), mais le nouveau est carrément sensationnel : une merveille, tout simplement. Les touches sont larges, le toucher est agréable, c’est vraiment un progrès.

La fameuse « touch-bar » m’a l’air pas mal aussi, mais là, il me faudra un peu de temps pour me prononcer définitivement.

2- un trackpad vraiment large

Le Trackpad est lui aussi un point positif, ne serait-ce que par sa surface, vraiment plus grande que sur mon MacBook (et là, plus c’est mieux).

3- une finition superbe

Cette nouvelle itération du MacBook Pro est superbe : tout l’appareil dégage une impression de finition soignée (et de design achevé, même si ça m’ennuie de l’avouer, car c’est un point en faveur de Ive) et c’est bien le cas. Mais c’était déjà le cas pour les modèles précédents.

Du coup, on en arrive à lister les points positifs habituels : ça marche, c’est superbe, c’est facile à utiliser, etc. Oui, rien de nouveau sur ces points (et tant mieux), mais c’est important de les souligner encore et encore.

Au final, ça vaut le coup ou pas ?

Eh bien, comme souvent avec les produits coûteux, ça dépend… si vous avez les moyens, oui, trois fois oui. Sinon, voyez plutôt du côté d’un bon Chromebook où le rapport qualité/prix/efficacité sera sans doute (bien) plus favorable.

Un excellent article sur la question de l’IA et la notion de « l’explosion de l’intelligence »

Voilà un excellent article de François Chollet (photo de l’auteur ci-dessous) sur la notion « d’explosion de l’intelligence » qui est souvent mise en avant quand on débat sur l’évolution et le futur de l’IA. Chollet postule (très bien) que l’intelligence est situationnelle. Donc, l’explosion supposée est contradictoire avec le fait que les intelligences des organismes vivants (y compris nous !) sont des intelligences très spécialisées en fonction de leur enveloppes corporelles.

On lit trop souvent des bêtises sur ce sujet alors, quand il y a un bon article sur le sujet, il ne faut pas le louper !

Bref, lisez cet article (très bien rédigé, en plus… cependant, c’est tout en anglais, of course!) => The impossibility of intelligence explosion.

Les touches « médias » sur MacOS High Sierra

Si, comme moi, vous utilisez MacOS, la dernière mise à jour réserve une (mauvaise) surprise : les touches médias du clavier, si pratique pour démarrer, arrêter iTunes ou pour changer de morceau, ne fonctionnent plus !

Hé oui, merci Apple !
J’imagine que c’est encore une idée « géniale » de Ive et qu’on ne va pas avoir de correctif (reconnaitre qu’ils ont tort ? pas dans le genre de la maison…). Donc, faut trouver une solution, vite et simple svp… Et je l’ai trouvée, testée, vérifiée (sur deux Mac différents) et je peux certifier : ça marche !

Où, quoi, qui comment ?
Pas d’affolement, suffit de suivre ce lien et d’appliquer la procédure à la lettre (c’est en français, en plus…)…

Ce blog a vingt ans !

En effet, j’ai déposé le nom de domaine alain-lefebvre.com en 1997 mais, à l’époque, on ne parlait pas encore de « blog », simplement de « site perso »…

Voici une petite galerie des pages d’accueil pendant ces vingt ans (je n’ai pas fait des captures d’écran chaque année, j’ai utilisé https://archive.org/ pour retrouver tout cela) : les images s’affichent du plus récent au plus ancien…

En vingt ans, j’ai publié des centaines d’articles, j’ai annoncé mes livres et j’ai eu quelques dizaines de commentaires (oui, je sais, c’est peu…). Mais j’ai fait cela avant tout pour moi car, avouons-le, l’impact réel est proche de zéro. Ce blog sera-t-il encore là dans vingt ans ?

Franchement, j’en doute.

Les voitures autonomes au coin de la rue, vraiment ?

Voici une petite vidéo sur un sujet à la mode : les voitures autonomes…

Si on en croit les médias (rappel : il ne faut pas), celles-ci seront bientôt au coin de la rue, la votre, toutes en fait !

En fait, ça ne va pas tout à fait se passer ainsi… explications :

Dans la même veine, je crois qu’il n’est pas inutile de voir (ou de revoir…) également les deux vidéos suivantes :

Les promesses non-tenues du télétravail

Le télétravail devait révolutionner nos pratiques et nos habitudes. Aujourd’hui, force est de reconnaitre qu’il n’en a rien été ou si peu.

Non pas que les moyens ne soient pas disponibles ou pas assez efficaces. En la matière, on peut même affirmer que les promesses ont été tenues, pour une fois.

Bien entendu, il reste du chemin à parcourir, beaucoup de chemin et c’est toujours ainsi. Car on s’aperçoit en marchant que le but est finalement plus loin qu’évalué au départ. C’est normal et ce n’est là que se situe le problème pour une fois.

Le vrai problème réside plutôt dans notre incapacité à vraiment tirer profit des progrès technique. Combien de fois vous êtes-vous retrouvé dans une réunion à penser « tout cela aurait pu être fait en vidéo-conférence » ?

Mais non, les autoroutes et les aéroports sont toujours aussi saturés et c’est bien la preuve qu’on ne sait pas (ou si peu) profiter des possibilités du télétravail. Et il ne s’agit pas seulement des réticences des employeurs (qui vont toujours préférer exiger votre présence physique, ça rassure !) mais bien de tout le monde en fait. Souvent, les gens ne veulent tout simplement pas rester chez eux pour différentes (mauvaises) raisons. Genre, j’ai déjà mon conjoint sur le dos tout le week-end, je ne veux pas que cela continue pendant la semaine…

Donc, une fois de plus, on est encore englué dans la situation classique du progrès technique qui va bien plus vite que les mentalités humaine.

Tant qu’à parler du futur, autant le faire avec intelligence…

En suivant ce lien http://nesaranews.blogspot.com/2016/11/good-read-glimpse-of-future-from.html, vous pourrez lire un article (tout en anglais…) plein de prévisions sur le futur technique qui se dessine en ce moment sous nos yeux… Un seul problème, c’est aussi bourré de conneries !

En matière de futur et surtout de future technique, c’est plus ou facile de dire le « quoi » mais déjà beaucoup plus difficile de dire le « quand »… Mais là, cet article nous assène des affirmations qui sont, souvent complètement erronées, tout simplement.

Un exemple :

Autonomous cars: In 2018 the first self driving cars will appear for the public. Around 2020, the complete industry will start to be disrupted.

Des voitures autonomes, dans deux ans, vraiment ?

On en est encore loin !

Certes, les démonstrations actuelles sont souvent impressionnantes (j’ai eu l’occasion d’essayer une Tesla cette année, y compris en mode « automatique »… bluffant mais valable seulement dans certaines conditions… qui ne représentent certainement pas 80% de votre usage !), mais il y a encore du chemin à faire, beaucoup de chemin à faire avant que 80% des usages courants soient couverts et il restera encore les 20%, les plus ardus. Donc, la disponibilité effective des voitures autonomes prendra encore dix ans, au minimum.