Quand la réalité rejoint la fiction

Je viens de regarder un documentaire sur Arte : “Des robots et des hommes”. Un contenu sur la robotique, l’IA et les questions sociétales que ces sujets posent… Rien d’exceptionnel, mais j’ai pour habitude de regarder plus ou moins « tout » ce qui passe à ma portée sur ces sujets (et d’être souvent déçu par les banalités et les idées reçues qui y sont ressassées !).

Cependant, cette fois, une séquence a particulièrement retenu mon attention. À partir de 46:30; on y voit une jeune femme qui explique son quotidien au travail à Londres… Depuis dix ans, elle livre des colis (genre Uber Eats) en vélo et explique que depuis ses débuts, les choses ont bien changé : avant, elle avait un manager qu’elle voyait de temps en temps et, désormais, tout ce fait à travers une app, y compris les sanctions !

Voir à https://www.arte.tv/fr/videos/058352-000-A/des-robots-et-des-hommes/

source : https://www.ierhr.org/de-la-robotisation-des-hommes-a-lhumanisation-des-robots/

Cette évolution déshumanisée m’a rappelé exactement le contexte d’un roman de SF écrit par Marshall Brain : Mana (voir à https://marshallbrain.com/manna1.htm).

Dans Mana, une chaîne de fast food remplace tous les managers par une application reliée aux employés par un casque audio où elle donne ses ordres. Les employés peuvent et doivent indiquer où ils en sont par un microphone intégré au casque audio. Les humains sont ainsi transformés en quasi-robots qui doivent obéir minute par minute à une application qui trace tout, n’oublie rien et sanctionne au moindre travers.

Il est assez saisissant de voir qu’on en est là, déjà. Et nul besoin d’une AI sophistiquée pour atteindre ce genre de résultat : il suffit d’un programme comme les plateformes de services telles qu’Uber et autres mettent en œuvre depuis des années. Les évolutions les plus radicales ne demandent pas forcément un saut technologique important, il suffit d’intégrer finement ce qui est déjà largement disponible…

L’E-sport est en train de devenir un phénomène de société

Source => https://knoema.fr/infographics/fnlrjpc/e-sports-mainstream-growth-means-big-money

L’E-sport est en train de devenir un phénomène de société

Avertissement – Je n’ai pas vraiment “rédigé” cet article : j’ai pris des éléments des différentes sources citées à la fin de cet article et je les ai ordonné de façon cohérente. Plus un travail d’édition (beaucoup de copier/coller, un peu de corrections et de reformulations) que de rédaction donc…

Dans l’e-sport, la progression des récompenses reflète la croissance de ce domaine. En 2013, à Sydney, la bourse était de $7000 pour le tournoi d’esport organisé à ce moment-là. Avance rapide jusqu’à aujourd’hui et l’on voit que ce même tournoi de Sydney offre désormais une bourse de $350 000 à se partager entre les participants, une inflation certaine !

L’e-sport est désormais de plus en plus reconnu comme une activité sportive, car il fait appel aux compétences personnelles des joueurs comme le réflexe, l’acuité visuelle, la précision, la stratégie ou la communication — des compétences utilisées dans des sports tels que les échecs, le sport automobile, le tir à l’arc ou les sports collectifs.

Des débuts timides puis fracassants

Les débuts de l’e-sport commencent dès 1990, entre autre grâce au jeu Quake. Ces premiers événements ne sont “que” des rassemblements de plusieurs dizaines de personnes. Ces derniers ramenaient leur propre ordinateur et s’affrontaient en LAN (Local Area Network). Puis avec la sortie d’autres jeux propices à l’e-sport, tel que Starcraft ou encore Trackmania, l’e-sport s’est diversifié sur plusieurs autres styles de jeu.

Les années 90 ont aussi vu l’essor des jeux de combat et des tireurs à la première personne (FPS). Les compétitions opposaient désormais joueur contre joueur au lieu des meilleurs scores. Cependant, c’était un titre de “stratégie en temps réel” qui allait littéralement changer la donne…

Sorti en 1998 pour PC, Starcraft avec son robuste mode multijoueur utilisait Internet pour jouer en ligne et en compétition. Il s’agissait d’un phénomène sans précédent en Corée du Sud. Les tournois Starcraft ont germé et les matchs ont été télévisés sur plusieurs stations. Les joueurs ont commencé à devenir pro, à former des équipes et à récolter des parrainages rémunérés avec des marques, avec des campagnes publicitaires. Ce fut la vraie naissance de l’esport.

La professionnalisation du jeu vidéo au sens large vient ensuite en 1997 avec la création de la Cyberathlete Professional League, revendiquant l’existence d’un système sportif dans lequel des équipes composées de joueurs, auxquelles viennent parfois s’ajouter des informateurs, managers, entraîneurs et sponsors s’entraînent régulièrement sur des jeux dans un but purement compétitif.

L’essor de l’e-sport

La compétition et les rencontres internationales se sont d’abord développées avec des FPS tels que Counter-Strike, entre autres. Mais le progrès du milieu compétitif suivait généralement celui des jeux vidéo : ainsi, en 2008, l’Electronic Sports World Cup a retenu de nouveaux jeux tels que Quake III Arena ou encore TrackMania Nations ESWC. Ainsi en élargissant son panel de jeux, l’e-sport avait davantage de chances de toucher un public plus large.

L’essor de l’e-sport a fait émerger de nouveaux métiers, celui de joueur professionnel ou bien de streamer (d’abord sur Twich, la plateforme pionnière en la matière et désormais sur YouTube). Avec cet élan rassemblant plusieurs millions de personnes, des acteurs majeurs s’intéressent à cette nouvelle discipline.

Mais c’est essentiellement en 2010 que l’on assiste à un véritable progrès dans le domaine compétitif avec l’ajout de jeux à l’e-sport tels que Hearthstone, StarCraft II, FIFA, les nouveaux volets de Call Of Duty et Counter-Strike, Dota 2 ou encore le très prisé League of Legends. De plus, le développement de la diffusion de ces rencontres grâce à des WebTV spécialisées dans ce domaine tels que MilleniumTV, OrigineTV, NetGaming, YouTube ou encore Twitch, a permis d’étendre l’influence de l’e-sport sur internet notamment. Ainsi, en 2014, on a recensé 89 millions de spectateurs (via ses plateformes) réguliers lors de compétitions de grande envergure et pas moins de 117 millions de spectateurs (toujours via ses plateformes) occasionnels.

Ce développement si rapide et efficace est également dû aux sponsors qui financent les rencontres et certaines équipes professionnelles ; on peut citer Intel ou AlienWare entre autres, qui organisent la majorité des rencontres en louant des salles et des stades entiers, en fournissant le matériel, ou encore en offrant la récompense à l’équipe gagnante.

Aujourd’hui, l’e-sport ne cesse d’attirer les amateurs et suscite même l’attention de nombreux journaux qui ne sont d’ordinaire pas spécialisés dans le domaine du jeu vidéo. 

Et en France ?

En France, l’e-sport a commencé à faire parler de lui en 2010, avec le progrès des compétitions internationales.

On assiste en 2016 à la création de compétitions nationales telles que la e-ligue 1 sur la série FIFA, projet soutenu notamment par l’éditeur de jeux vidéo Electronic Arts.

Ainsi en 2016, l’e-sport en France a généré un revenu global de 22,4 millions de dollars d’après PayPal, et plus de 27 millions en 2017. L’hexagone est le troisième pays européen en termes d’audience pour l’e-Sport. En 2017, 37 millions de téléspectateurs en Europe regardaient régulièrement les compétitions. De leur côté, les Français étaient plus de 2 millions derrière leur écran. Un chiffre qui pourrait atteindre 2,8 millions en 2019. À titre comparatif, ces audiences sont équivalentes à des programmes télévisuels tels que les Césars ou encore les Victoires de la musique.

Le pays y voit une occasion de se développer dans un secteur en pleine expansion. Annoncée en 2018, la FFF (Fédération Française de Football) a décidé de lancer une équipe de France d’e-Sport.Toujours côté foot, le PSG s’est lancé dans l’E-sport en Octobre 2016 en s’associant avec Webedia, une entreprise spécialisée dans les médias en ligne. 

De leurs côtés, les chaînes de télévision et les constructeurs s’activent aussi et y voient une opportunité grandissante. M6 a annoncé en février 2018 une participation minoritaire dans Glory4Gamers ou encore Renault qui a rejoint les rangs de Team Vitality en créant sa propre équipe « Renault Sport Team Vitality ».

La plupart des grands groupes médias français investissent aussi dans le secteur : Webedia en rachetant Oxent (développeur de l’e-Sport platform Tournament), Lagardère Sport avec Team Roccat, Vivendi avec Canal eSport Club.

Une ruée vers l’or au niveau mondial ?

L‘E-sport concerne aussi les jeux mobiles et ainsi Alphabet Inc, le conglomérat détenant Google et ses services, a investi 120 millions de dollars (en janvier 2018) dans une société chinoise, Chushou. C’est une société qui propose une plateforme de streaming de jeux mobiles, et plus particulièrement de jeux compétitifs. Cette dernière a déjà attiré plus de 8 millions de streamers. Leur objectif étant d’aider la plateforme à se développer en Chine et à l’international.

Les recettes de l’e-sport (850 millions de dollars en 2018, estimations) sont estimées à 10 milliards de dollars en 2030. En 2018, plus de 100 millions de dollars ont été distribués aux gagnants des compétitions. Ces chiffres peuvent paraître démentiels pour une discipline encore méconnue du grand public. Cependant, la finale mondiale du jeux-vidéos League of Legends a réussi à remplir un stade olympique, rassemblant ainsi plus de 40.000 personnes. Elle était aussi diffusée en direct et à réuni plus de 60 millions de spectateurs uniques.

Malgré des rémunérations de plus en plus faciles et importantes, les principaux revenus de la majorité des joueurs e-sport restent les plateformes de streamings (YouTube, Twitch) grâce aux dons ou aux publicités.

Certains acteurs déjà présents dans l’e-sport essayent de faciliter l’arrivée de cette discipline. Que ce soit un streamer qui sponsorise un joueur professionnel ou encore une chaîne de télévision qui ne diffuse que de l’E-sport.

L’e-sport étant une discipline naissante, certains points importants à son succès auprès du grand public posent encore problèmes. L’un de ce derniers est le nombre de d’événements organisés par différentes structures, de ce fait il peut y avoir plusieurs champions sur un seul et même jeu. C’est pour le moment le point faible de l’e-sport, il n’existe pas de structure officielle pour le représenter. C’est une des raisons pour lesquelles la fédération mondiale de Jeux Olympiques ne l’a pas encore accepté.

Malgré cela, l’OCA (Comité Olympique Asiatique) a annoncé sa volonté d’intégrer l’E-sport au programme des jeux asiatiques de 2022.

Toutes les disciplines sportives sont concernées ou presque !

On a déjà évoqué le foot et League of Legends qui sont deux piliers du développement de l’e-sport mais, bien sûr, d’autres secteurs sont aussi concernés même si certains prennent un peu le train en marche.

C’est le cas des sports-mécaniques où, en 2019, on a enfin vu un vrai décollage de la discipline. Que ce soit pour le MotoGP, Le Mans ou la Formule Un, des championnats officiels sont organisés et les vraies équipes y engagent des SimRacers super aiguisés. L’argent est au rendez-vous et cela aide à expliquer pourquoi après avoir tardé, le décollage n’en est que plus brutal.

Conclusion : les lignes sont en train de bouger

Il est incontestable que l’e-sport est en train de prendre sa place dans notre société des loisirs et du spectacle. Il est déjà possible de faire carrière, en tant que sportif professionnel, sans jamais aller sur le “vrai” terrain. La compétition est féroce et les meilleurs s’entraînent de façon “effrayante” (Marc Marquez qui est plutôt du genre à être un bosseur et un perfectionniste, a été étonné de voir l’engagement et la précision des meilleurs pilotes participants au championnat MotoGP en e-sport). La croissance est très forte car les sponsors pensent qu’ils ont enfin trouvé la recette magique pour toucher les “jeunes”… Du coup, l’argent coule à flot. Pour combien de temps ?

Alain Lefebvre – Janvier 2020

Sources utilisées pour cet article :

https://www.linkedin.com/pulse/exponential-esports-growth-from-7000-350000-australian-chris-smith/

https://www.geekslands.fr/item/1312-l-essor-de-l-e-sport-dans-le-monde/

https://www.autoblog.com/2019/11/01/esport-racing-series-guide-history/

http://www.jeuxvideo.com/news/772751/google-investit-dans-l-esport-mobile-en-chine.htm

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

https://www.la-croix.com/Sport/Ce-sport-derange-monde-sportif-2017-05-12-1200846649

https://www.lequipe.fr/Esport/Actualites/Esport-adrien-zerator-nougaret-sponsorise-un-joueur/864342

http://www.gameblog.fr/news/72810-es1-la-chaine-100-esport-a-une-nouvelle-date-de-lancement-et

http://www.lepoint.fr/sport/jeux-video-l-e-sport-en-pleine-croissance-08-12-2017-2178103_26.php

http://www.lepoint.fr/sport/on-espere-que-l-e-sport-prendra-toute-sa-place-au-psg-10-01-2018-2185260_26.php

Pourquoi prédire un “hiver de l’IA” est contre-intuitif ?

Dans certains de mes écrits précédents, je reviens souvent sur une idée forte : l’IA, actuellement formidablement à la mode, va bientôt entrer dans une période moins florissante, un nouvel “hiver de l’IA” comme cette discipline en a déjà connu deux dans son passé. Pourtant, bien que les éléments qui indiquent ce prochain effondrement s’accumulent, le battage médiatique ne faiblit pas et continue à résonner positivement avec l’assentiment (aveugle ?) de la grande majorité des “analystes” de la tech. Pourquoi ?

Pour comprendre les forces qui sont à l’œuvre ici, je vous propose de nous pencher sur les mécanismes mentaux qui entretiennent cette croyance (l’IA, c’est l’avenir) en dépit des signaux qui indiquent le contraire.

Psychologie des foules

Prédire l’hiver de l’IA, c’est comme prédire un krach boursier : il est impossible d’indiquer avec précision quand cela se produira. Cependant, comme avant un krach boursier, on peut déjà observer des signes de l’effondrement imminent. Actuellement le “récit IA” trouve encore une résonance si forte qu’il est plus facile (pour le grand public) d’ignorer ces signaux et de continuer à croire cette belle histoire.

Pour comprendre la force du “récit IA”, il faut sortir du domaine de la tech pour passer dans le domaine de la psychologie sociale, de la psychologie des foules. Chaque nouveau convaincu renforce la conviction de l’ensemble avec des arguments du genre “un millions de personnes ne peuvent pas avoir tort, ne peuvent pas penser la même chose en même temps et se tromper” alors qu’on a des exemples par le passé qui montrent que le volume ne fait rien à l’affaire et qu’on peut avoir des foules qui ont des convictions (y compris très fortes comme dans le domaine religieux) qui ne reposent hélas sur rien. Dans le domaine de l’IA, il faut comprendre que chaque démonstration médiatique vient renforcer les autres. On est donc face à un effet cumulatif qui finit par ancrer une conviction en profondeur dans chacun de nous, on finit par s’habituer à “l’évidence” de telle ou telle affirmation, de telle ou telle hypothèse. Au bout d’un moment, elle n’est plus considérée comme une hypothèse, mais ça devient un fait (ça ne l’est pas), au moins dans la tête des gens. C’est ce mécanisme qui est à l’œuvre continuellement avec le battage médiatique autour de l’IA (et c’est pareil pour les autres modes).

Renforcement positif, forcément

Les membres du système médiatique vont, consciemment ou inconsciemment, appliquer un filtre de “renforcement” dans le choix des nouvelles qu’ils publient. Donc, dans un premier temps, ils vont plutôt publier des articles avec des éléments qui vont dans le sens d’une confirmation du phénomène en cours. Il faudrait le tarissement de cette source (celle qui confirme le phénomène) puis l’apparition d’une autre source (qui elle infirmerait la chose) qui irait dans l’autre sens (finalement, le phénomène “à la mode” n’est que vent, ça marche, etc.) et seulement si le flot de la seconde source se met à dépasser la première, on verrait le ton s’inverser. Et si on en arrive là, l’emballement médiatique reprend, mais dans l’autre sens. 

Retournement de tendance, généralisée

Tout d’un coup, tous ces commentateurs qui disaient et répétaient “l’IA c’est l’avenir et ça va tout changer” vont se mettre à dire à l’unisson “finalement, c’est pas pour tout de suite, c’est limité, on a trop rêvé, etc.”. C’est un cycle qui se reproduit à l’identique depuis des décennies encore et encore. On a eu de nombreuses modes qui ont permis de l’illustrer (ce n’est d’ailleurs pas limité au domaine technique, on voit le même “cycle du hype” partout, y compris dans les domaines économiques et politiques). Ce n’est pas pour rien qu’en matière d’IA on parle de “printemps” et “d’hiver” parce que ça s’est déjà produit et l’on sait que ça va se produire à nouveau.

Une bulle médiatique, encore et toujours

Actuellement, nous avons tous les signes qui permettent d’identifier un prochain “hiver”, c’est-à-dire qu’on sait qu’on a accumulé tous les indices qui désignent une bulle, une bulle médiatique autour de l’IA qui se caractérise par “assez peu de signaux et beaucoup de bruits” (d’ailleurs, toutes les bulles médiatiques sont toujours basées sur un rapport signal/bruit complètement disproportionné !). La différence flagrante entre l’ampleur de l’écho donné aux réalisations spectaculaires (mais peu nombreuses) et le silence sur les réalisations ordinaires indiquent que ces dernières sont bien trop rares pour que la situation puisse être considérée comme “normale”. Donc, une mise en scène grandiose d’un côté et le désert de l’autre. On retrouve ce décalage aussi bien avec Watson d’IBM qu’avec Deepmind de Google. Dans ce dernier exemple, on va parler encore et toujours de sa formidable réussite dans le domaine du jeu vidéo et du jeu de Go, mais on va taire le fait que Deepmind n’arrive pas à trouver des débouchés pour ses logiciels en dehors de la “galaxie Google”. Pourquoi ce biais narratif ?

Eh bien parce que c’est plus facile et mieux reçu par la cible habituelle de ressasser quelque chose de connu que de proposer une vraie analyse, une analyse critique de la situation. Donc, on ne le fait pas sauf quand l’époque et l’atmosphère sont devenues favorables à un “AI bashing” qui, très vite, se généralise (emballement médiatique de fin de cycle). Ce décalage entre le grandiose de ce qui est mis en avant (AlphaZero et le jeu de Go) et le désert des réalisations plus modestes, mais concrètes peut être expliqué par le principe des retours décroissants qui est presque un effet de “miroir inversé” avec l’enflure médiatique qui elle va croissant.

Les retours décroissants

On sait bien que toute nouvelle application produit ses plus grands résultats au début de sa mise en œuvre. Et ensuite, il faut de plus en plus d’efforts et de moyens pour récolter de moins en moins de résultats (du moins en proportion des efforts investis). C’est ça le principe des “retours décroissants” qui est le mieux et le plus facilement illustré par l’exemple de la mine. Au début, l’extraction du minerai, quand on tombe sur le filon, pas très loin de la surface, est relativement facile : en gros, il n’y a qu’à se baisser pour ramasser les pépites. Donc, résumons : peu d’efforts, des résultats spectaculaires, une très grosse rentabilité. Encouragés par ces débuts formidables, vous allez être prompts à investir pour augmenter les volumes : on commence à creuser plus loin, plus profond, à étayer les galeries, à poser des rails pour les wagonnets et à installer des pompes pour garder tout cela au sec. De plus en plus d’efforts pour une extraction qui, certes, croît en volume, mais à un prix évidemment plus élevé (y compris sur le plan proportionnel) qu’au début… On retrouve la même analogie partout : la percée est spectaculairement rentable, la suite beaucoup moins.

L’extraction minière, un bon exemple de retours décroissants !

Et c’est la même chose vis-à-vis de l’IA : les premières percées qui produisent les résultats spectaculaires (forcément, on n’avait rien vu de tel auparavant) sont les plus faciles. Après, les raffinements et la généralisation (le test ultime) sont de plus en plus difficiles et délicats. On en a un exemple criant, en ce moment même, avec les déboires des voitures autonomes. Au tout début, voir circuler des voitures qui se dirigent sans qu’on se préoccupe de tenir le volant, c’était sensationnel ! Mais après, pour sortir des sentiers battus des expérimentations limitées en territoires connus et proposer des voitures autonomes de niveau 5 partout et tout le temps, quelque soit la météo, le revêtement et la circulation aux alentours, avec tous les types d’obstacles et d’aléas, c’est autre chose… Et c’est bien pour cela que la vraie voiture autonome se fait attendre et se fera attendre pendant encore bien des années. Même si c’est contre-intuitif, c’est la vérité. 

En fait, les choses les plus difficiles en IA comme pour la robotique sont les tâches perceptuelles et motrices les plus élémentaires, comme le résume le paradoxe de Moravec :

« il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jouer aux dames, mais il s’avère difficile ou impossible de leur donner les compétences d’un enfant d’un an en ce qui concerne la perception et la mobilité « 

Hans Moravec a déclaré son paradoxe pour la première fois en 1988. Et comme c’était il y a de nombreuses années, du coup, on peut penser que cela n’est plus applicable. Mais plus de trente ans se sont écoulés depuis que Moravec a fait son observation, les ordinateurs sont devenus des milliards de fois plus rapides, les caméras sont devenues des millions de fois plus précises, et… rien n’a changé. Passées les démonstrations faciles, l’IA et la robotique peinent à franchir les obstacles du monde réel, car il leur manque notre “conscience de l’environnement” que nous avons et qui nous paraît évidente.

Donc, au lieu de la fameuse accélération dont on nous rebat les oreilles en permanence, on a là un “ralentissement croissant”. C’est complètement en opposition avec ce que les gens sont prêts à recevoir, à percevoir et à croire. 

Le mode plateau

Donc, ils ne le voient pas (ce ralentissement croissant). Ce n’est même pas qu’ils ne le croient pas, ils ne le voient pas, car cela ne correspond pas au schéma de pensée qu’ils sont prêts à accepter (parce que la propagande a finalement réussi à leur faire croire que “tout allait toujours plus vite”).

Ce phénomène des retours décroissants et du ralentissement croissant, il est à l’œuvre partout et tout le temps sans qu’on en soit conscient. Si on prend les smartphones comme exemple, le gros du progrès a été réalisé avec la première génération d‘iPhone. Dès la troisième, nous sommes passés à un rythme d’innovation beaucoup moins fort, chaque nouvelle itération ne propose que des avancées marginales (retours décroissants ET ralentissement progressif), on est passé en mode “plateau” sans même s’en apercevoir, car, entretemps, une autre mode a pris le dessus sur la précédente et qui fait qu’on a toujours l’impression d’être dans le même courant d’innovations submergeantes, qui sature les possibilités de perception d’un public non-spécialisé qui, du coup, en déduit fort logiquement que “tout va toujours plus vite” même si, incontestablement, ce n’est pas le cas. 

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite”… Voir à ce propos => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/les-grands-principes-de-levolution-1-la-maturation 

Peu de sources, trop de diffuseurs

Mais cette confusion est inévitable, car liée à notre capacité de perceptions limitées et au fait qu’on aille toujours vers le plus facile. Et le plus facile, c’est de retenir les éléments qui correspondent à notre schéma de pensée (et d’éliminer les autres), auxquels on peut adhérer et avec lesquels on a “l’impression de comprendre” plutôt que de devoir reconsidérer ses filtres, faire une vraie analyse, se mettre à penser pour de vrai, à se lancer dans une analyse critique. Il est plus facile et confortable d’avaler des contenus qui, en fait, ne sont que des résumés (éventuellement de façon abusive sous couvert de vulgarisation) d’éléments lus ailleurs et regroupés en quelques copier-coller à faible valeur ajoutée, car mal compris et mal digérés.

La prochaine victime : l’informatique quantique

Le battage médiatique est constitué de ces redites reprises ad nauseam, car il y a très peu de sources et beaucoup de diffuseurs (comme il y a peu d’agences de presse et beaucoup de chaines de TV…). On voit ce mécanisme encore utilisé actuellement à propos de l’informatique quantique avec des promesses délirantes alors qu’on n’est qu’au tout début de ce domaine radicalement nouveau (voir plus à ce propos ici => https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/linformatique-quantique-pour-bientot).

Je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse… Remettez en cause les analyses, y compris la mienne. La bonne attitude sur le plan intellectuel n’est pas de suivre le troupeau mais bien de tirer ses propres conclusions en fonction de votre contexte et de vos contraintes.

J’étais “visionnaire”, je suis désormais “contrariant”… Suis-je devenu un vieux con ?

En quoi étais-je un visionnaire ?

Au pic de mon activité professionnelle, j’étais assez souvent qualifié de visionnaire et, avouons-le, j’aimais bien cela. J’avais un “track record” assez flatteur en la matière : j’ai été (en France) un pionnier du client-serveur et un pionnier du Web, j’ai rédigé et publié les premiers livres sur ces matières et j’avais des chroniques régulières dans les principales publications consacrées à l’informatique.

Par la suite, j’ai également été un pionnier des réseaux sociaux en France, rédigeant et publiant le premier livre en français à ce sujet (“Les réseaux sociaux, pivot de l’Internet 2.0”, paru chez M21 édition en 2005). J’ai donné de nombreuses conférences sur tous ces sujets techniques, mais tout ceci bien avant l’avènement des “Ted Talk” pour tous. Bref, j’ai été un visionnaire à l’époque où ça voulait dire quelque chose pour moi. Plus maintenant.

Quand ai-je basculé en mode “contrariant” ?

En 2010, j’ai rédigé une histoire de l’informatique moderne (“Cow-boys contre chemin de fer ou que savez-vous vraiment de l’histoire de l’informatique ?”, première publication en octobre 2010) avec mon vieux complice, Laurent Poulain. En effet, nous trouvions que tous les ouvrages sur le sujet passaient à côté d’un point essentiel à nos yeux : la lutte entre les “start-ups” (les “cow-boys”) et les grandes sociétés (les “chemins de fer”), moteur principal du progrès technique que nous constatons tous les jours. C’est sans doute à partir de ce moment-là que je suis passé en mode “contrariant”…

Notre livre à Laurent et à moi…

Ensuite, il y eut “Cette révolte qui ne viendra pas” (première publication en août 2011) où je dénonçais le rôle des médias dans l’abrutissement généralisé… Puis “Le miroir brisé des réseaux sociaux” (première publication en mars 2013) réalisé avec François Lienart où nous avions une certaine avance pour pointer du doigt l’absurdité des contenus publiés sur Facebook et autres…

Cette révolte qui n’est toujours pas là…
Les réseaux sociaux, eux, sont toujours là…

Enfin, ma bascule fut complète avec cet ouvrage plus récent, “Technologies : perception, illusion, déception” où je m’attaquais à la reine de toutes les idées reçues : l’accélération permanente du progrès technique (et c’est pas gagné, on le verra plus loin).

Une illusion qui a la vie dure !

La propagande est partout, y compris dans la hi-tech

Avant d’aller plus loin dans mon argumentation, avez-vous remarqué combien la propagande est devenue omniprésente ?

Jusqu’aux années 70, on était surtout habitué à la propagande gouvernementale… Par exemple, sur la guerre au Vietnam. Cette propagande n’a pas cessé, n’a pas faibli et on en a une nouvelle preuve aujourd’hui avec l’affaire des “Afghanistan papers”. Mais, désormais, il serait sot de croire que la propagande se limite à la géo-politique. Il en est de même dans les domaines de l’économie ou même (et surtout devrais-je écrire) dans la hi-tech !

La propagande “hi-tech” existe bel et bien, l’exemple récent de Wework devrait vous en convaincre. Dans cet exemple édifiant, nous sommes passés en quelques semaines à “Wework est une licorne exemplaire menée par des génies” à “Wework est une escroquerie qui montre la profonde incompétence de Softbank”. Si ça ce n’est pas un retournement de situation, je ne sais plus quel exemple vous fournir !

Pourquoi est-ce utile d’être un contrariant ?

Pour ne plus se faire avoir par une propagande délirante qui vous promet tout et n’importe quoi pour se dédire (sans s’excuser !) seulement quelques mois plus tard, voilà pourquoi les “contrariants” devaient désormais être plus écoutés que les “visionnaires” qui se sont décrédibilisés encore et encore.

Les exemples récents sont légion : la voiture autonome qui devait être là rapidement et qu’on risque d’attendre au moins dix ans, la Blockchain qui devait tout révolutionner et qui, au final va n’avoir qu’un impact minime ou même l’IA montée en épingle à cause des applications (spectaculaires, admettons-le) des techniques de “machine learning”, mais qui, une fois de plus, ne va pas pouvoir être “tout pour tous” et qui va droit vers un nouvel hiver de l’IA… Il vous en faut plus ?

Ce matraquage omniprésent et ultra-puissant provoque une paralysie intellectuelle généralisée. Quand vous lisez partout (oui, partout) que la Blockchain “c’est super, révolutionnaire et ça va tout changer”, forcément, ça a de l’effet. Vous vous dites que, vu que tout le monde est d’accord sur ce point, c’est que ça doit être vrai, qu’il faut prendre cela au sérieux…

Hélas, le fait que ça soit omniprésent ne confirme qu’une chose : il a peu d’articles originaux (des sources) et beaucoup (mais alors beaucoup) de copier-coller, vite fait/mal fait et mal digéré (voire pas digéré du tout). C’est comme les chaînes de télévision et l’actualité : les chaînes (nombreuses !) ne sont que des diffuseurs, les vraies sources sont les agences de presse et elles sont peu nombreuses, elles.

La propagande hi-tech a bien compris que le “mind share” précédait toujours le “market share” et c’est pour cela qu’elle s’empresse d’occuper le terrain avec la dernière tendance à la mode (qui, vous l’avez remarqué, change régulièrement tous les deux ans) afin de ramasser les premiers dividendes (façon Wework) et advienne que pourra par la suite…

L’exemple de l’idée reçue véhiculée par la propagande hi-tech : “tout va toujours plus vite”…

Allez, je vous avais promis de m’attaquer à la principale idée reçue rabâchée (ânonnée devrais-je écrire…) ad nauseam par tout le monde, vraiment tout le monde : le fait que le progrès technique s’accélère et que tout va toujours plus vite (ma brave dame).

Comme toutes les idées reçues, il s’agit d’une stupidité sans nom et il suffit de réfléchir un peu pour se rendre compte de son absurdité : si tout allait toujours plus vite, il y a un moment qu’il n’y aurait plus aucun délai entre une découverte et son application avec sa généralisation dans la foulée…

Or, un simple examen des progrès techniques les plus récents démontre que nous butons toujours sur un délai incompressible de dix ans (oui, dix ans) entre une découverte et ses premières applications et qu’il faut encore vingt à trente ans pour atteindre un premier seuil de généralisation. On est donc loin du “tout va toujours plus vite” (mon bon monsieur)…

La perception que le rythme du progrès technique est rapide (il ne l’est pas) provient du fait que le grand public ne voit pas les phases de découvertes, d’expérimentations et de mises au point qui ont toujours (toujours) précédé les percées spectaculaires qui occupent les médias (qui eux ne s’intéressent qu’à la phase finale). C’est ainsi que les “révolutions en une nuit” prennent couramment vingt ans de préparation, mais c’est pas grave, on fait comme si une nuit avait suffi.

Dans mon livre “Technologies : perception, illusion, déception”, je reviens justement en détail sur ces mécanismes et j’énumère de façon réaliste où nous en sommes dans les différents domaines qu’on estime être dominés par ce progrès technique toujours plus rapide. Mais peu importe, je m’aperçois que toutes ces explications sont vaines et même des esprits éveillés répètent que “tout s’accélère” comme si c’était devenu une évidence aussi prégnante que la gravité.

Cela va de pair avec une autre affirmation idiote : “on n’a jamais vu ça avant”… Or, encore une fois, même un examen sommaire permet de trouver des précédents comparables à quasiment tous les événements historiques. Un exemple ?

Allez, au point où on en est, on ne va pas s’en priver…

Lorsqu’Internet s’est répandu, les observateurs y ont vu un cas à part, car on n’a jamais rien eu de comparable par le passé. Vous vous rendez compte, Internet… Un truc énorme, impossible de trouver un comparable dans le passé, n’est-ce pas ?

Pourtant, le livre de Tom Sandage « The Victorian Internet » démontre cependant que l’émergence et l’évolution du télégraphe (et sa banalisation) présentent des parallèles troublants avec l’histoire récente du Réseau des réseaux…

Pareil sur la monnaie unique européenne (l’Euro que nous connaissons tous, et pour cause…), c’est du jamais vu, pas vrai ?

Encore raté : en 1865, la France, l’Italie, la Suisse et la Belgique signaient un accord monétaire, auquel adhéra la Grèce en 1868. Cette association monétaire fut bientôt connue dans le monde entier sous la désignation Union monétaire latine (UML).

Bref, on l’aura compris, je vous encourage à penser par vous-même en vous libérant des carcans de la propagande, toute la propagande, y compris dans le domaine hi-tech où elle n’est pas moins présente ni insidieuse…

Merci de votre attention.

Que manque-t-il à la réalité virtuelle pour s’imposer pour de bon ?

La réalité virtuelle peine à s’imposer en dépit des pronostics (trop) optimistes émises par les « experts » lors de ces dernières années.
Pourquoi cet échec (relatif) ?
Tout d’abord, il faut bien admettre que c’est encore cher et compliqué. Cher parce que le masque Oculus ou HTC n’est pas donné : c’est tout de même autour de 400 euros. Et le masque ne fait pas tout : il faut aussi le PC qui va avec et celui-ci aussi coûte cher. De plus, tout cela est compliqué à mettre en place : pas mal de câbles à brancher, de logiciels à installer (et à paramétrer), les senseurs à régler et il faut aussi prévoir de la place pour pouvoir jouer dans de bonnes conditions.
Bref, ce n’est pas tout à fait aussi accessible qu’on veut bien le dire et donc pas encore vraiment prêt pour un large public…
Pourtant, quand on essaye ce dispositif on est tout de suite surpris de se « prendre autant au jeu » (j’en parle déjà ici) !
Comment se fait-il qu’on puisse ainsi leurrer notre propre cerveau aussi facilement ?
L’explication nous est donnée par Jaron Lanier, un des pionniers historiques de la réalité virtuelle (VR) :

« Si 100×100 est une résolution plausible pour une icône, pour un monde virtuel, c’est absurde. Rappelez-vous, l’image est étalée sur une grande partie de ce que vous pouvez voir. Par conséquent, chaque pixel peut sembler aussi gros qu’une brique dans un mur !

Et pourtant, l’effet était incroyable », raconte Lanier.
Pourquoi cela a-t-il fonctionné ? Parce qu’en fait, ce qui est central dans la VR n’est pas ce que vous voyez ou entendez, mais la manière dont les mouvements du corps sont captés et retransmis à « l’avatar ». Le coeur de la VR, c’est le tracking, pas le rendu. C’est cette capacité de mesure qui permet de « tromper le cerveau » et qui donne cette impression d’immersion dans un nouvel environnement. Rappelons d’ailleurs que le sens de la vue n’a pas été immédiatement privilégié par les premiers concepteurs de la VR. Lanier est connu surtout pour l’invention du dataglove, une interface haptique qui simule le sens du toucher (et qui connut pendant un court laps de temps une adaptation grand public, le Power Glove de Nintendo). Étrangement, au début des années 80, il était considéré comme plus facile, techniquement, de mettre au point de tels périphériques plutôt que des systèmes de visualisation sophistiqués. 30 ans plus tard, Oculus, HTC, Sony, Samsung et autres nous proposent des casques à bas prix, alors que les interfaces haptiques, elles, semblent toujours relever de la science-fiction !

Comme le dit fort bien Lanier, c’est le tracking qui compte dans l’impression d’immersion, le rendu (la qualité graphique) est alors secondaire. Heureusement car, pour le moment, la qualité graphique reste largement perfectible. Tout cela va progresser, comme toujours : le matériel nécessaire va être plus facile à mettre en oeuvre, les prix vont continuer à baisser et les performances de rendu (graphiques, profondeur de champ, etc.) vont également s’améliorer.
Mais, selon moi, le principal facteur réside dans les applications. En effet, pour le moment, les bonnes applications disponibles pour la VR sont encore rares. Plus encore, les adaptations de titres existants pour prendre en compte la VR en plus de leur fonctionnement habituel sur écran sont majoritairement décevantes. On s’aperçoit ainsi qu’un jeu doit être, dès le début, conçu pour la VR et seulement pour cela. Tous ceux qui tentent de prendre en compte la VR après coup ne font rien de bon, tout simplement.
Car l’effort de conception n’est pas négligeable : il faut non-seulement programmer un rendu graphique où le tracking est primordial mais il faut également prendre en compte l’interface utilisateur qui passe obligatoirement par une bonne exploitation des manettes qui accompagnent le masque (et, à ce niveau, il a peu de différences entre celles d’Oculus et celles de HTC).

Voici quelques bons exemples de jeux conçus dès le départ pour la VR et seulement pour cela : Ultrawings et Derail Valley.

Ultrawings, un simulateur de vol très prenant.
Se retrouver aux commandes d’une locomotive en VR ? C’est possible avec Derail Valley !

Il y a en a sans doute plein d’autres mais je ne parle ici que de ce que j’ai testé personnellement. Ultrawings suit le mouvement initié par VTOL VR que j’évoque déjà ici : faire des graphiques adaptés à la résolution des casques VR actuels. C’est le bon choix et le côté « cartoonesque » n’est pas gênant en fait.

Je crois au succès final de la VR mais je pense aussi qu’il faut lui laisser le temps de s’installer : dans l’esprit des gens, dans l’offre du marché et dans l’expérience des développeurs. Reparlons-en dans cinq ans et vous verrez que, sans doute, ça va déjà beaucoup mieux.

Non à la « Pensée unique » en matière de technologie !

Soyons clair, ce qu’on lire en ligne à propos des nouvelles technologies est souvent décevant. Pire, c’est trop souvent le même blabla « c’est révolutionnaire, ça va tout changer, etc. ».

Pensez par vous-même, ne vous laissez pas dicter votre impression du monde !

PS) Une remarque de mon fils ainé qui a tout à fait raison et que je reproduis ici :

par contre, une petite phrase que je trouve critiquable :

tu ne peux pas lire  » je lis TOUT ce qui se dit sur le sujet »

c’est pas exact, exagéré. je peux croire que tu lis beaucoup de choses, mais c’est impossible de tout lire.

il vaut mieux, je pense, pour être efficace et super crédible, de dire « j’ai lu des dizaines (ou centaines ?) de livres/articles et vu des vidéos, récoupé les infos, écouté des conf »

et peut être que ça serait bien d’avoir 2 exemples de sources

par exemple 1 titre de magazine ou de radio ou de podcast

L’article le plus intéressant que vous pouvez lire à propos de l’IA…

Les articles, vidéos et même documentaires sur l’IA sont partout et, disons-le, on peut y lire (ou y entendre) beaucoup de conneries !

En revanche, je suis tombé sur un article qui sort du lot : https://motherboard.vice.com/fr/article/wjyz59/en-2018-lintelligence-artificielle-est-toujours-une-affaire-dhumains

Voici le chapeau d’introduction pour vous donnez envie de le lire à votre tour :

Pseudo-IA, IA Potmekine, IA Magicien d’Oz… Les techniques de fraude à l’algorithme qui consistent à faire bosser des humains pour pallier aux limites des machines sont partout.

Pour une fois que cet aspect remonte à la surface, je dois dire que j’en suis ravi !

Les investisseurs aiment cette tendance : en 2017, ils ont distribué douze milliards de dollars à quelques milliers d’entreprises d’intelligence artificielle — le double de l’année précédente. En 2021, l’investissement dans l’IA devrait atteindre les 57 milliards de dollars. Logiquement, les acquisitions explosent. Les prévisions des analystes financiers varient mais une chose est sûre : à ce rythme, le marché de l’IA pèsera de quelques dizaines à quelques milliers de milliards de dollars dans la décennie à venir.

Forcément, quand il y a autant d’argent en jeu, la tentation de tricher un peu (ou beaucoup !) n’est jamais loin !
Bon, allez, je vous laisse lire cet article…

Prétendre être un robot tout en étant humain, ça peut rapporter gros !

Conseil à Apple : virez Jonathan Ive !

Apple nous propose encore une nouvelle vague d’iPhone… difficile d’être excité par cela.

De l’autre côté de la gamme, le Mac n’est pas seulement délaissé, il est littéralement massacré !

Je m’explique : quand Apple fait enfin évoluer ce qui reste de sa gamme de Mac, c’est presque invariablement dans le mauvais sens. Et tout cela pourquoi ?

Pour que le designer Jonathan Ive puisse aller au bout de sa vision !

Ive à l’époque où il n’avait pas encore fait trop de dégâts…

Mais on n’en veut pas de sa vision !

Ce cher Jonathan veut aller vers un design « pur »… Très bien, qu’il se devienne sculpteur et se spécialise dans les objets en aluminium puisque ça lui plait mais qu’il laisse les MacBook Pro tranquille. Mais, pas de chance, Tim Cook ne voit que par lui. Donc, à cause de ce couple Cook/Ive, nous avons eu un MacBook Pro qui devient progressivement inutilisable puisque quand il reste une interface utile, Ive se charge de l’éliminer !

Mais bon sang, qu’il exerce son « talent » sur le MacBook Air puisque ça l’amuse mais qu’il laisse les MacBook Pro avec les interfaces qui vont bien. Donc, voilà mon conseil pour Apple : virez ce type avant que ses dégâts soient irréversibles.

Avenir de l’IA : l’hypothèse 85…

Inutile de vous le redire, l’IA est à la mode en ce moment !

Et, comme d’habitude avec les vagues techniques à la mode, le discours ambiant est à la fois convergent et délirant. Convergent, car on est face à une énième itération de la pensée unique : tout le monde exprime le même discours vis-à-vis de l’IA qui peut se résumer à peu de choses près à « c’est hyperimportant et ça va tout changer » (ça ne vous rappelle rien ?).

Délirant, car, comme à chaque fois, le discours contient toutes les exagérations et toutes les promesses qui accrochent l’attention, mais qui ont peu de chances de se réaliser (ou alors, pas à court terme ni même à moyen terme). Une fois encore « c’est hyperimportant et ça va tout changer » contient sa propre enflure et ne peut être prise au sérieux. C’est tout le problème du « hype », un phénomène qui se répète encore et encore dans le domaine technique. Tous les cinq/six ans, vous avez une nouvelle mode qui est présentée comme « hyperimportant et qui va tout changer » : la biotech, la nano, etc.

En ce moment c’est l’IA et nul ne peut y échapper. Mais rien ne nous empêche d’avoir un oeil critique et de repérer ce qui ne va pas dans ce cycle. Tout d’abord, l’hystérie actuelle ressemble trait pour trait à ce qu’on a déjà vécu lors du précédent printemps de l’IA lors des années quatre-vingts (et, en passant, pan dans la gueule de tous ceux qui disent « on n’a jamais vu cela ! ») : occupation et même saturation de l’espace médiatique (d’abord spécialisé ensuite généraliste), les politiques s’en emparent et en font le nouveau défi du moment, les grandes entreprises procèdent aux rachats de start-up prometteuses du domaine pour avoir une chance de « rester dans le coup » et programmes de recherches publiques et privés annoncés à cadence rapprochée afin de suivre le mouvement.

Tous les indicateurs nous disent qu’on est actuellement dans la même configuration qu’en 1985, année du pic de l’IA basée sur les systèmes experts. Ne vous laissez pas leurrer par ceux qui vont rétorquer « oui mais cette fois, avec le deep-learning, c’est bien plus sérieux qu’avec les systèmes experts d’il y a trente ans… ». C’est toujours le genre de contre-argument qui me fait rire car cela voudrait dire que les mêmes causes ne produisent PAS les mêmes effets finalement. C’est normal que les observateurs soient aveugles vis-à-vis à cette tendance qu’à l’Histoire à se répéter (y compris l’Histoire technique) car ils sont ignares en la matière (historique).

Allez, un exemple pour illustrer :

IBM travaillerait activement sur un projet de puces qui pourraient révolutionner l’IA. En effet, le géant américain tente de prouver que l’implantation d’un réseau de neurones, directement dans du silicium, peut le rendre 100 fois plus efficace. Source => https://www.technologyreview.com/s/611390/ai-could-get-100-times-more-energy-efficient-with-ibms-new-artificial-synapses/

Ce principe de passer des processeurs généralistes à des processeurs spécialisés (sensés être bien plus efficace pour ce qu’on en fait) est un refrain que j’entends depuis que je suis dans le domaine informatique !

En 1985, les systèmes experts étaient développés en utilisant un langage spécialisé : LISP. Problème : LISP était lent à s’exécuter sur les stations de travail des années quatre-vingt… Alors, forcément, une partie de l’industrie informatique s’est occupée de combler cette lacune vue comme une opportunité juteuse !

Les machines LISP ont eu leur heure de gloire mais ça n’a pas duré. Tout cela s’est effondré à la fin des années quatre-vingt alors que l’IA d’alors rentrait pour une nouvelle période « hivernale »…

OK, on a compris ce qui s’est passé en 1985 mais pourquoi et comment cela risque-t-il de se reproduire dans les deux ans à venir ?

Eh bien tout simplement à cause de l’obstacle de la généralisation. Ce que les GAFAMs nous montrent avec l’IA est très spectaculaire mais quid des utilisateurs plus ordinaires ?

En effet, il faut que l’IA puisse se banaliser suffisamment afin qu’elle soit utilisée avec profit par des organisations moins à la pointe de la technologie que les leaders bien connus. Or, c’est exactement la mission que s’est fixée IBM avec son produit phare en la matière : Watson. Et c’est pourquoi on retrouve la paire IBM/Watson dans tous les communiqués de presse triomphants sur la mise en oeuvre de ce dernier dans des cas concrets. Mais, bien entendu, on parle moins des échecs… Alors qu’il semble que ces échecs, justement, ne soient pas rares !

Rappelons que le machine learning ne fonctionne qu’à condition de fournir des données adéquates en amont. Beaucoup de données, énormément de données. Il faut aussi que cette masse de données soit de qualité : correctement triée et labellisée…  Et, bien sûr, c’est là où ça pêche : les entreprises et les organisations ne sont pas formidablement performantes sur le big data et peinent à atteindre ce niveau d’exigence. Et c’est pourquoi le magazine Forbes se demandait si, finalement, Watson était à la hauteur (voir Is IBM Watson A ‘Joke’?)

C’est l’échec de la généralisation qui va causer la déception et la réalisation que, peut-être, pour l’IA, c’est sans doute encore trop tôt et qu’un nouvel « hiver de l’IA » va débuter. Selon moi, d’ici deux ans.

Cela n’est pas grave car une mode est aussitôt remplacée par une autre : dès que l’IA descendra de son piédestal, on appellera la nano ou la biotech (qui viennent toutes deux de purger une période « hivernale ») pour relancer le rêve et on repartira pour un tour !

Un documentaire sur l’IA à vous recommander : « do you trust this computer? »

En matière de documentaire sur l’IA (disponible sur YouTube), il y a à boire et à manger : beaucoup de contenus, rarement de des contenus de qualité…

J’en ai regardé beaucoup mais je suis rarement allé au-delà des premières cinq minutes tellement on trouve du sensationnel à deux balles et des exagérations ridicules le tout avec un désolant manque de précision et d’exactitude scientifique. Bref, rien que je pourrais avoir envie de vous recommander… Rien jusqu’à « Do you trust this computer ? » !

Il faut dire que ce documentaire est réalisé par Chris Paine qui est connu pour avoir réalisé « Who killed the electric car? » et « Revenge of the electric car » qui sont aussi de très bons contenus sur le sujet (la voiture électrique donc).

Cette fois, sur l’IA, c’est un documentaire précis avec des témoignages de vrais spécialistes… pas de hype, pas les élucubrations qu’on entend habituellement sur le sujet, rien que du factuel. Cela dit, il ne faut pas tout prendre à 100%, au pied de la lettre car le degré d’incertitude sur l’IA à court terme est encore très élevé (à long terme, ça l’est déjà bien moins, forcément !).

Bref, voilà un contenu que je peux vous recommander si le sujet vous intéresse.

Une série de chroniques sur la situation actuelle du marché du cloud computing…

Depuis quelques semaines, je rédige des chroniques pour Redsen (une société de consulting créée par des anciens de SQLI…).

Je vous invite donc à lire celles qui sont déjà en ligne à propos du cloud computing :

Le marché du cloud : situation, perspectives et évolutions, introduction

Atteindre ses objectifs, même longtemps après les avoir fixés

En janvier, j’ai procédé à l’assemblage d’un nouveau PC (je raconte cette expérience cans le détail ici). Il y a longtemps que je voulais faire cela et, ces dernières années, ça m’est arrivé assez souvent d’assouvir enfin tel ou tel désir, d’accomplir telle ou telle tâche ou d’atteindre enfin tel ou tel objectif.

Ce n’est pas pour me vanter (comme dirait Philippe Meyer…) que je vous raconte cela, mais plutôt pour mettre l’accent sur la patience. Et si c’était la patience qui était la clé des accomplissements, grands et petits ?

Encore un exemple : avant de publier « Perdu dans le temps« , j’ai gardé cet ouvrage dans ma tête pendant plus de dix ans !
Je n’étais pas inquiet, je n’avais pas peur de l’oublier, car je savais que j’allais l’écrire un jour, je savais que j’allais aboutir un jour. Je fais cela tout le temps avec mes livres : chaque écriture est précédée d’une période de maturation plus ou moins longue, mais il n’est pas rare que cela prenne un an ou deux (en ce moment, je suis justement en train de « maturer » le prochain « Dr Miracle », celui de la saison 1972…).

N’oublions pas que toutes les choses sont d’abord des idées, des éléments de notre imagination, avant de prendre forme, d’être concrétisées dans la matière par notre propre industrie.

Donc, si vous voulez écrire un livre, restaurer une moto ou assembler un PC, ne vous désolez pas de ne pouvoir passer à l’action immédiatement. Patience dans l’azur, tout finit par venir à qui sait l’attendre, l’espérer, l’imaginer.

Dans la vidéo ci-dessous (que j’avais déjà partagé sur ce blog), je raconte mon aventure « paroxystique » quand j’avais 17 ans. Déjà à cette époque (1977), je savais que j’allais revenir sur ces lieux (la RN20) pour y prendre des photos. Jeune, j’imaginais même que je ferais ce pèlerinage au volant d’une Porsche 911… je ne me suis pas trompé de beaucoup, mais il m’a fallu attendre jusqu’en 2012 pour faire ce retour au volant de ma Porsche Cayman…

Bref, tout cela pour dire qu’il suffit d’y croire pour que, finalement, ça vienne. Croyez en vos rêves et ils deviendront réalité !

Apple MacBook Pro : le meilleur et le pire (comme toujours avec Apple…)

Dans notre famille, nous sommes des utilisateurs des produits Apple (MacBook, iPhone, iPad, Airport), mais ne sommes pas « Applemaniaque » pour autant (et encore moins « fan boys ») : les produits Apple ont des bons côtés, mais aussi des mauvais… Essayons de faire le point sur cette balance avec le tout dernier MacBook Pro qu’on vient juste de recevoir.

Mon épouse avait besoin de renouveler son Mac et on lui a donc commandé le top du top : le MacBook Pro 15′ avec le max du max (mémoire, capacité disque, etc.)… Belle bête, mais un peu chère : cette config dépasse les $4000 tout de même !

Déjà, ce premier point (les produits Apple sont chers) fait que de nombreux utilisateurs qui se porteraient mieux avec un Mac qu’avec un windaube passent leur chemin… ça peut se comprendre, mais c’est dommage, car, selon moi, on en a pour son argent. Mais, encore une fois, tout n’est pas parfait dans le monde de la pomme. Continuons sur les défauts, on verra les points positifs après.

1- adieux le magsafe !

Le magsafe était vraiment une bonne idée !
Pourquoi l’avoir abandonné ?

https://www.macg.co/mac/2016/10/dix-ans-apres-apple-enterre-le-magsafe-96101

Sans doute parce que Ive (le designer) a voulu imposer l’uniformité des interfaces (au passage, adieux aussi aux ports USB traditionnels !). Une décision dogmatique (typique de Ive, je déteste ce mec !) qui est un des pires comportements d’Apple.

2- Apple impose l’USB-C

Que ça vous plaise ou non, il n’y a plus un seul port USB traditionnel sur le MacBook Pro. A la place, il y a des ports USB-C qui impose donc d’avoir un adaptateur pour brancher tout ce que vous avez encore et qui (surprise !) n’est pas compatible USB-C… Encore une manie détestable de précéder le mouvement alors qu’on a rien demandé !

3- iCloud toujours aussi lamentable

À l’heure où le cloud est partout, Apple s’accroche encore à son iCloud qui est, tout à la fois, pas pratique et cher. En bref, contrairement à ce qu’on a l’habitude de dire sur les produits Apple, iCloud, ben ça ne marche pas !

Il y a dix ans, Steve Jobs avait viré le manager de l’équipe en charge de MobileMe (déjà, à l’époque, le produit « cloud » d’Apple était un désastre… ça n’a pas changé !). Peut-être faudrait-il faire la même chose aujourd’hui ?

https://gizmodo.com/5033442/steve-jobss-entire-mobileme-is-fail-email

Bon, on vient de voir les principaux points négatifs du nouveau MacBook Pro (encore que, iCloud n’est pas propre au MacBook, mais comme Mac OS s’appuie largement dessus, pour l’utilisateur, c’est pareil…), voyons maintenant les points positifs…

1- un clavier extraordinaire !

Le clavier de l’ancien MacBook Pro était déjà bon (c’est avec lui que je rédige ce post…), mais le nouveau est carrément sensationnel : une merveille, tout simplement. Les touches sont larges, le toucher est agréable, c’est vraiment un progrès.

La fameuse « touch-bar » m’a l’air pas mal aussi, mais là, il me faudra un peu de temps pour me prononcer définitivement.

2- un trackpad vraiment large

Le Trackpad est lui aussi un point positif, ne serait-ce que par sa surface, vraiment plus grande que sur mon MacBook (et là, plus c’est mieux).

3- une finition superbe

Cette nouvelle itération du MacBook Pro est superbe : tout l’appareil dégage une impression de finition soignée (et de design achevé, même si ça m’ennuie de l’avouer, car c’est un point en faveur de Ive) et c’est bien le cas. Mais c’était déjà le cas pour les modèles précédents.

Du coup, on en arrive à lister les points positifs habituels : ça marche, c’est superbe, c’est facile à utiliser, etc. Oui, rien de nouveau sur ces points (et tant mieux), mais c’est important de les souligner encore et encore.

Au final, ça vaut le coup ou pas ?

Eh bien, comme souvent avec les produits coûteux, ça dépend… si vous avez les moyens, oui, trois fois oui. Sinon, voyez plutôt du côté d’un bon Chromebook où le rapport qualité/prix/efficacité sera sans doute (bien) plus favorable.

Un excellent article sur la question de l’IA et la notion de « l’explosion de l’intelligence »

Voilà un excellent article de François Chollet (photo de l’auteur ci-dessous) sur la notion « d’explosion de l’intelligence » qui est souvent mise en avant quand on débat sur l’évolution et le futur de l’IA. Chollet postule (très bien) que l’intelligence est situationnelle. Donc, l’explosion supposée est contradictoire avec le fait que les intelligences des organismes vivants (y compris nous !) sont des intelligences très spécialisées en fonction de leur enveloppes corporelles.

On lit trop souvent des bêtises sur ce sujet alors, quand il y a un bon article sur le sujet, il ne faut pas le louper !

Bref, lisez cet article (très bien rédigé, en plus… cependant, c’est tout en anglais, of course!) => The impossibility of intelligence explosion.

Les touches « médias » sur MacOS High Sierra

Si, comme moi, vous utilisez MacOS, la dernière mise à jour réserve une (mauvaise) surprise : les touches médias du clavier, si pratique pour démarrer, arrêter iTunes ou pour changer de morceau, ne fonctionnent plus !

Hé oui, merci Apple !
J’imagine que c’est encore une idée « géniale » de Ive et qu’on ne va pas avoir de correctif (reconnaitre qu’ils ont tort ? pas dans le genre de la maison…). Donc, faut trouver une solution, vite et simple svp… Et je l’ai trouvée, testée, vérifiée (sur deux Mac différents) et je peux certifier : ça marche !

Où, quoi, qui comment ?
Pas d’affolement, suffit de suivre ce lien et d’appliquer la procédure à la lettre (c’est en français, en plus…)…

Ce blog a vingt ans !

En effet, j’ai déposé le nom de domaine alain-lefebvre.com en 1997 mais, à l’époque, on ne parlait pas encore de « blog », simplement de « site perso »…

Voici une petite galerie des pages d’accueil pendant ces vingt ans (je n’ai pas fait des captures d’écran chaque année, j’ai utilisé https://archive.org/ pour retrouver tout cela) : les images s’affichent du plus récent au plus ancien…

En vingt ans, j’ai publié des centaines d’articles, j’ai annoncé mes livres et j’ai eu quelques dizaines de commentaires (oui, je sais, c’est peu…). Mais j’ai fait cela avant tout pour moi car, avouons-le, l’impact réel est proche de zéro. Ce blog sera-t-il encore là dans vingt ans ?

Franchement, j’en doute.

Les voitures autonomes au coin de la rue, vraiment ?

Voici une petite vidéo sur un sujet à la mode : les voitures autonomes…

Si on en croit les médias (rappel : il ne faut pas), celles-ci seront bientôt au coin de la rue, la votre, toutes en fait !

En fait, ça ne va pas tout à fait se passer ainsi… explications :

Dans la même veine, je crois qu’il n’est pas inutile de voir (ou de revoir…) également les deux vidéos suivantes :

Les promesses non-tenues du télétravail

Le télétravail devait révolutionner nos pratiques et nos habitudes. Aujourd’hui, force est de reconnaitre qu’il n’en a rien été ou si peu.

Non pas que les moyens ne soient pas disponibles ou pas assez efficaces. En la matière, on peut même affirmer que les promesses ont été tenues, pour une fois.

Bien entendu, il reste du chemin à parcourir, beaucoup de chemin et c’est toujours ainsi. Car on s’aperçoit en marchant que le but est finalement plus loin qu’évalué au départ. C’est normal et ce n’est là que se situe le problème pour une fois.

Le vrai problème réside plutôt dans notre incapacité à vraiment tirer profit des progrès technique. Combien de fois vous êtes-vous retrouvé dans une réunion à penser « tout cela aurait pu être fait en vidéo-conférence » ?

Mais non, les autoroutes et les aéroports sont toujours aussi saturés et c’est bien la preuve qu’on ne sait pas (ou si peu) profiter des possibilités du télétravail. Et il ne s’agit pas seulement des réticences des employeurs (qui vont toujours préférer exiger votre présence physique, ça rassure !) mais bien de tout le monde en fait. Souvent, les gens ne veulent tout simplement pas rester chez eux pour différentes (mauvaises) raisons. Genre, j’ai déjà mon conjoint sur le dos tout le week-end, je ne veux pas que cela continue pendant la semaine…

Donc, une fois de plus, on est encore englué dans la situation classique du progrès technique qui va bien plus vite que les mentalités humaine.

Tant qu’à parler du futur, autant le faire avec intelligence…

En suivant ce lien http://nesaranews.blogspot.com/2016/11/good-read-glimpse-of-future-from.html, vous pourrez lire un article (tout en anglais…) plein de prévisions sur le futur technique qui se dessine en ce moment sous nos yeux… Un seul problème, c’est aussi bourré de conneries !

En matière de futur et surtout de future technique, c’est plus ou facile de dire le « quoi » mais déjà beaucoup plus difficile de dire le « quand »… Mais là, cet article nous assène des affirmations qui sont, souvent complètement erronées, tout simplement.

Un exemple :

Autonomous cars: In 2018 the first self driving cars will appear for the public. Around 2020, the complete industry will start to be disrupted.

Des voitures autonomes, dans deux ans, vraiment ?

On en est encore loin !

Certes, les démonstrations actuelles sont souvent impressionnantes (j’ai eu l’occasion d’essayer une Tesla cette année, y compris en mode « automatique »… bluffant mais valable seulement dans certaines conditions… qui ne représentent certainement pas 80% de votre usage !), mais il y a encore du chemin à faire, beaucoup de chemin à faire avant que 80% des usages courants soient couverts et il restera encore les 20%, les plus ardus. Donc, la disponibilité effective des voitures autonomes prendra encore dix ans, au minimum.

Extrait de mon livre « Hacking »

Cet extrait de mon livre « Hacking » se situe au moment où l’équipe chargée de pénétrer les serveurs de la DGSE (et missionnée par la DGSE elle-même, une mission de type « attaque préventive ») se réunit pour la première fois…

======

6- L’équipe est constituée

Après-midi du mardi 3 avril 2009. Local d’Office Magenta.

Clément, Bertrand et Thierry se retrouvent pour leur première réunion de travail…

Clément- Thierry, comme tu es le dernier arrivé aujourd’hui, tu pourrais peut-être nous dire comment tu comptes t’y prendre pour rassembler des informations sur l’informatique de la DGSE ?

Thierry- Mais certainement Boss… Pendant que vous étiez tous les deux en train d’essayer de connecter vos portables de frimeurs au réseau miteux de cette boutique, moi j’étais sur le terrain et je sais déjà comment pénétrer les locaux de l’adversaire… Et j’ajoute que j’y serais déjà parvenu si je n’avais pas été obligé d’assister à votre réunion pourrie où je ne vais rien apprendre vu votre niveau d’ignorance totale sur la cible !

Bertrand- Thierry, tu ne peux pas nous parler comme cela; sinon, ça marchera jamais et on a besoin de se coordonner tous les trois…

Thierry- Ah pardon, moi, je n’ai pas besoin de votre coordination moisie. Je travaille en solo comme j’ai toujours fait… Et de toute façon, qu’est-ce que vous pourriez m’apporter ?

Rien, zéro, nada : vous ne savez rien, vous n’avez pas d’idée, vous attendez que je vous mâche le boulot !

Voilà en quoi ça consiste votre gestion de projet et coordination à la mords-moi-le-nœud !

Clément- Bon, je vois que les échanges vont être super-constructif avec le petit génie que tu nous as amené là, Bertrand; on va bien s’amuser tous les trois !

Mais en dehors d’afficher ton mépris pour les abrutis qui vont t’aligner 1 000 euros avec le sourire, en quoi ta supériorité manifeste est-elle justifiée, Môssieur le génie ?

Thierry- Je vous aurais déjà expliqué ce que j’ai réussi à savoir si vous ne m’interrompiez pas toutes les deux secondes avec vos pleurnicheries de donzelles vexées. Donc, j’étais ce matin 141 bd Mortier, adresse officielle du siège de la DGSE, pour constater que l’entrée est bien gardée mais le contraire aurait été étonnant. J’ai pu soudoyer le planton qui était dans le sas, en lui racontant que je préparais un reportage pour une chaîne de la TNT. On a déjeuné ensemble au moment de sa pause et je sais qu’il faut un badge même pour passer l’entrée principale. Même le nettoyage des bureaux n’est pas confié à une société extérieure, tout est traité en interne, pas moyen de passer par ce biais.

En fait, le planton n’est là que pour compter les entrées et les sorties ainsi que de vérifier le bon fonctionnement du système de caméra de surveillance interne.

Bertrand- Et ce fameux badge, tu sais de quel type il est ?

Tu crois qu’on peut le reproduire ?

Thierry- Pas besoin de le reproduire car j’ai volé celui du planton !

Clément- Hein ?

C’est pas malin ça : le type va s’en apercevoir et donner l’alerte… Ton badge va être invalidé et ils vont être deux fois plus sur leur garde… Dans ces conditions, tu vas jamais pouvoir y entrer…

Thierry- Quand vous aurez enfin compris qu’il vaut mieux me laisser parler, j’aurais le temps de vous dire que j’ai au moins une semaine devant moi avant que le planton ne s’en aperçoive et éventuellement signale la disparition du badge en question… En effet, le garde en faction change tous les jours et le roulement se fait à partir de la garnison des cadets qui sont stationnés au Val de Grâce… Donc, j’ai au minimum une semaine pour faire le boulot, pas d’affolement. Mon type en question en avait fini avec sa garde, juste au moment où j’ai pu l’aborder; j’aurais quasiment pu le raccompagner au Val de Grâce.

Bertrand- Donc, tu peux y aller dès demain alors ?

Thierry- Oui, je ne vais pas tenter d’y aller le soir et me faire remarquer comme un nigaud que je ne suis pas. Je vais me glisser dans le flux normal des horaires habituels. Normalement, dès demain je passe la matinée là-bas. Je vous retrouverai demain après-midi pour une nouvelle réunion de coordination pourrie que vous aimez tant, bande de lamers.

Clément- Profite-en pour changer de ton avec nous car je ne vais pas supporter tes remarques désobligeantes très longtemps… En attendant le récit de tes prochains exploits, je vais te dire ce qu’on cherche en priorité…

Thierry- Oui, ça au moins cela me serait utile…

Clément- Il nous faut les adresses IP des serveurs, n’importe quels serveurs, il nous faut rien qu’un point d’entrée… À partir de là, on pourra commencer à se débrouiller.

Bertrand- Essaye aussi de savoir quelles sont les applications utilisées, les annuaires d’utilisateurs ou la config réseau… Tout ce qui peut nous servir à nous orienter; une fois connectés sur leur intranet, le moindre truc sera utile.

Thierry- Eh, vous ne voulez pas que je vous rapporte un de leur serveur pendant qu’on y est ?

Une fois dans la place, je vais voir ce que j’y trouve : je ne peux rien promettre à l’avance… Attendez au moins jusqu’à demain et là, je pourrai vous en dire plus.

No Man’s Sky, pourquoi tant de haine ?

La sortie du très attendu No Man’s Sky (NMS) a provoqué bien des réactions haineuses finalement. Certaines sont même drôles comme celle-ci :

Il faut dire que les vidéos promotionnelles promettaient beaucoup…

Alors, pourquoi tant de haine ?

Pour deux raisons : tout d’abord, la sortie de la version PC (peu après celle pour PS4) s’est mal déroulée… Quelques bugs bloquants empêchaient de lancer le jeu ou, si NMS daignait tout de même démarrer, le niveau de performances était lamentable. Du coup, de nombreux enthousiastes (ceux qui avaient pris les vidéos promotionnelles pour argent comptant…) se sont transformés en déçus de la première heure et ont demandé le remboursement de leur achat (à 60€, NMS n’est pas tout à fait donné…) sur Steam. J’ai pu faire l’expérience de ce démarrage chaotique et, franchement, ça ne méritait pas ce déferlement d’injures : j’ai pu régler le problème du lancement en éditant deux lignes dans un fichier de paramétrages… Pour la suite, je n’ai pas constaté de « performances lamentables » alors que mon PC (utilisé uniquement pour les jeux et la simulation) n’est pourtant pas de première fraicheur…

Mais cela nous amène à la seconde raison : le ressort trop tendu des attentes a déclenché la claque de la déception !

NMS a fait le buzz pendant des mois, voire des années. C’est bon pour les ventes, car plus de 200 000 joueurs se sont rués dessus lors de sa sortie. Mais, l’époque est ainsi faite, nous sommes désormais rapides à brûler ce que nous avons adoré. De puis ce lancement semi-raté (bonnes ventes mais problèmes techniques), l’attrait de NMS semble décliner de plus en plus comme le montre ce graphique :

Source : Steam Spy

Source : Steam Spy

En vérité, il ne faut pas trop accorder d’importance à ce déclin apparent car il en va ainsi de tous les nouveaux jeux : beaucoup d’effervescence avant et pendant la sortie et puis l’enthousiasme s’éteint au fur et à mesure des semaines. J’avais constaté la même chose lors des championnats en simulation : beaucoup de concurrents lors des premières courses, beaucoup moins par la suite. Il vous suffisait d’être constant pour accrocher une place honorable au tableau final, car peu avait le courage de s’accrocher.

Je crois aussi savoir pourquoi NMS a déçu une grande partie des joueurs : NMS n’est pas et ne peut pas être TOUT pour TOUS !

Si vous voulez un jeu  de combats et une simulation de pilotage spatial, tournez-vous plutôt sur Elite: Dangerous. Elite serait formidable d’ailleurs s’il n’y avait pas les trolls qui gâchent tout. Combien de fois ai-je été détruit par un pirate qui s’amusait à attaquer tout ce qui passait à sa portée ?

Trop de fois. Cela m’a lassé et je préfère largement le calme de NMS.

Sur NMS, pour apprécier le jeu, faut savoir prendre son temps. Hein, quoi, prendre son temps ? Sérieux ?
Ben oui, de nos jours, c’est presque contre-intuitif !

Mais c’est sans doute pour cela que je fais partie des rares qui apprécient ce jeu : découvertes lentes, explorations mystérieuses, combats découragés, c’est parfait pour moi.

 

JET.COM et le plus gros pari du monde du e-commerce !

Après l’analyse du rachat de Dollar Shave Club par Unilever, Val nous propose aujourd’hui de revenir sur un autre rachat (qu’il avait prévu en plus !) : celui, tout récent, de Jet.com par Walmart…

Voici l’analyse de ce rachat, rédigée par Valentin Lefebvre et corrigée par Damien Lefebvre…

======================

La société jet.com s’est fait racheter pour $3,3 milliards par Walmart, environ douze mois après son lancement officiel !
Appeler cela une grosse affaire est un euphémisme.

Jet.com, c’est la boite qui explose tous les records, depuis sa création. Au total, la société a levé $565M en quatre cycles de financement auprès de dix-neuf des meilleurs investisseurs dans le monde (source: crunchbase.com).

Pour comprendre ce succès, il nous faut étudier M. Marc Lore, le fondateur de Jet.com : Marc Lore est un grand « pitchman » et il est certainement l’un des meilleurs du monde de l’e-commerce. En effet, avant de fonder Jet.com, il avait créé une société de négoce en ligne de cartes de sport « The Pit », pour la vendre plus tard à Topps Co. pour $5,7 millions en 2001.

En 2005, M. Lore a monté sa deuxième société « Quidsi »: une entreprise de e-commerce qui détenait des sites comme diapers.com, soap.com, yoyo.com, wag.com et d’autres dans la catégorie de produits de soins. Marc Lore connaissait très bien son industrie et Quidsi a levé environ $60M auprès de grands venture capitalists. Les perspectives étaient très prometteuses jusqu’à ce qu’Amazon décide d’entrer dans le jeu et de déclarer une guerre des prix.

Cette bataille acharnée avec Amazon a dévasté les marques phares de Quidsi, en saignant la trésorerie et en brûlant les profits. Tant et si bien qu’en 2010, la société n’avait finalement plus d’autres options que de faire racheter par … son rival, Amazon pour $550M. Cela représente presque dix fois l’argent que la société a levé dans les tours de financements. Beau retour sur investissement pour une “vente forcé ».

Après avoir travaillé pendant deux ans chez Amazon, M. Lore a quitté la société de Seattle et a commencé à pitcher de nouveau auprès d’investisseurs. Cette fois, il était lancé pour battre le plus grand acteur du milieu : Amazon !

Appelez-le le plus grand pari dans l’histoire de l’e-commerce. M. Lore est certainement le seul homme au monde qui peut s’embarquer dans une telle quête avec une vision si ambitieuse. La société qu’il a fondée, Jet.com, a levé beaucoup d’argent dès le stade initial de l’idée. Inscrit comme le plus grand pari de l’histoire du e-commerce, et à juste titre, la nouvelle société de M. Lore a levé plus que $140M avant même d’être lancée !

Cela fait beaucoup d’argent pour un « démarrage » !

Mais le monde du e-commerce est spécial : pour que ça fonctionne, « vous devez avoir ou atteindre l’économie d’échelle”, selon Marc Lore. Dans le cas de Jet.com, nous parlons de milliards de dollars !

Avant le lancement de Jet.com en juillet 2015, M. Lore a déclaré au Wall Street Journal qu’il prévoyait que l’entreprise atteigne la rentabilité d’ici 2020 une fois qu’elle vendra pour $20 milliards de produits par an. Il a dit le business-modèle de Jet est « prouvé 100% viable à grande échelle. »

En effet, l’e-commerce a une très forte barrière à l’entrée : beaucoup de capital est nécessaire. Nous ne parlons pas ici de votre propre petite boutique en ligne fonctionnant sur Shopify (par exemple), on parle d’une réelle destination, d’un catalogue commercial gigantesque en ligne à grande échelle qui offre et expédie des millions de produits en un clin d’œil.

Pour cela, énormément d’argent est nécessaire pour ne serait-ce que construire le système qui fera fonctionner le tout. Donc, la construction d’un concurrent d’Amazon est pratiquement impossible, sauf si vous avez des montagnes d’argent et le meilleur expert du e-commerce à bord, dès le premier jour… Tout ce que Jet.com avait, dès le début.

Alors, la prophétie s’est-elle réalisée ?

En octobre 2015, trois mois après le lancement initial, le projet d’utiliser un modèle d’adhésion payant a été abandonné. Cela a été une grande nouvelle. En effet, ce modèle d’adhésion payant était le cœur de l’offre de Jet et même son positionnement/différenciateur sur le marché. Pour qu’une entreprise abandonne son offre de base/positionnement aussi vite que ça, cela signifie qu’il doit y avoir un gros problème quelque part. Probablement les chiffres…

Jet.com offrait gratuitement cette « adhésion économie magique » aux premiers clients pour attirer le trafic, les achats et les inscriptions; mais cela signifiait aussi qu’il n’y aurait pas de bénéfices dans ses activités. De fait, au-delà des dépenses de marketing (grandes publicités à la télévision), le site perdait de l’argent sur chaque commande.

Certains justifieront cette démarche en disant qu’ils sont là pour “conquérir le marché », et donc de tout faire pour favoriser le momentum des ventes. D’ailleurs, Amazon (une bonne base de comparaison !) n’a pas été rentable jusqu’à très tard dans son existence. Pourtant, le dirigeant de Jet.com a bien vu qu’il ne pouvait pas soutenir longtemps cette stratégie avec la fameuse « adhésion économie magique », et certainement pas gratuitement.

Au début 2016, Jet.com se repositionne avec un « algorithme de tarification en temps réel », comme un magasin en ligne de tarification intelligente qui réduit le coût global votre panier au fur et à mesure de vos achats : « plus vous achetez, plus les prix baissent ». Pour que cela fonctionne, bien sûr (vous l’avez compris maintenant) : il faut atteindre des niveaux d’achats massifs pour que l’économie d’échelle s’enclenche.

Et c’est seulement grâce à une mise au point intelligente de la gestion des commandes à grande échelle et des expéditions que Jet.com peut espérer voir des profits au bout de la ligne. L’e-commerce est un business de gestion des commandes et d’optimisation des systèmes de livraisons.

D’un côté, le site Jet.com doit avoir une large sélection de produits qui sont effectivement recherchés par les clients, ce qui nécessite un accès gigantesque aux produits et de jouer à fond l’économie d’échelle pour acheter en gros. De l’autre côté, Jet.com doit avoir une logistique de livraison sophistiquée pour optimiser celle-ci à son maximum.

En mai 2016, Jet.com a fait son entrée dans le secteur de la livraison de produits frais, en concurrence directe avec AmazonFresh et Google Shopping Express. Cela dit, la livraison de produits frais est une activité à faible marge et, là encore, les rapports ont indiqué que Jet perdait de l’argent dans sa quête de détrôner Amazon. (source: WSJ)

Regardons quelques chiffres : avec la projection de réaliser $1 milliard de CA en 2016, Jet.com est un acteur de plus en plus prometteur dans le monde du e-commerce. En fait, c’est un véritable record : vendre pour $1 milliard de marchandises un an après le lancement est absolument hallucinant !

Bien sûr, la société a levé un montant de capital qui représente plus de la moitié de son chiffre d’affaires. Seulement deux ans après la création officielle de la société et douze mois après son lancement, générer autant d’argent est tout de même un record !

D’accord, il n’y a pas de profit, et Jet.com perd beaucoup d’argent depuis le début.
Mais bon, ne pas réaliser de profit et dépenser à perte rapidement, c’est un “classique” dans le monde des startups, n’est-ce pas ?
De plus, il s’agit là d’e-commerce, un monde où les profits ne sont pas visibles avant un très long moment et seulement à grande échelle, bien entendu (pensez Alibaba et Amazon).

Pour comparaison, la division e-commerce de Walmart générait $14 milliards de CA en 2015. Cela peut paraitre impressionnant mais il se trouve que ce n’est pas beaucoup pour ce géant de la distribution. Cette société a une ancienneté de plus de 50 ans, possède une marque célèbre, et un avantage déterminant : des économies d’échelles sur les produits et la distribution… Pourtant, mêmes avec autant d’atouts,  Walmart.com génère 11 fois moins de CA que Amazon (+ $160 milliards). La division en ligne de Walmart n’est pas l’étoile montante de leur entreprise ni même leur priorité.

Nous avons ici un scénario classique  « du dilemme de l’innovateur », de sorte que la « vache à lait » de Walmart reste ses magasins physiques, ils fonctionnent très bien depuis la bonne moitié du siècle dernier, alors que la division des ventes en ligne est arrivée en retard sur ce marché (par rapport aux pionniers du domaine) tout en n’étant ni aussi agressive ni aussi efficace qu’Amazon.

Acquérir jet.com, l’étoile montante du e-commerce, avec en prime l’un des plus grands et meilleurs du secteur pour « seulement » $3,3 milliards apparait alors comme une décision totalement logique !

Voici un raisonnement tout simple : combiner M. Lore, l’homme le plus compétent et le plus féroce du e-commerce, à la tête des opérations en ligne de Walmart, avec l’avantage des économies d’échelle déjà présentes sur les produits et la distribution. Avec cela, Walmart sera enfin dans une excellente position pour vraiment gagner des parts de marché sur le commerce en ligne.

Chronologie des événements pour Jet.com :

  • Juillet 2014: levée de $55M.
  • Septembre 2014: levée de $25M.
  • Février 2015: levée de $140M.
  • Novembre 2015: levée de $350M à une valorisation de $1,35 milliard.

Le montant total des fonds levé en deux ans est de $570M et la société s’est fait racheter pour $3,3 milliards. Cela représente presque un retour de x6 en seulement deux ans !

En conclusion, il y a trois points à retenir ici :

  1. Walmart n’avait en fait pas d’autre option que de procéder à cette acquisition intelligente qui n’est même pas trop chère lorsque vous prenez la peine de regarder les chiffres du e-commerce.
  2. L’affrontement entre Marc Lore et Jeff Bezos est toujours d’actualité. Jeff Bezos, leader d’Amazon est lui aussi absolument féroce et très efficace, introduisant toujours plus d’innovations, de sorte que ce secteur devient de plus en plus compétitif et passionnant à suivre !
  3. Enfin, les grands gagnants dans cette histoire sont les investisseurs en capital-risque; une fois de plus, comme sur l’histoire précédente de l’acquisition de Dollar Shave Club par Unilever. En effet, le rachat a vu l’encaissement d’un gros chèque seulement 2 ans après le financement du démarrage. C’est plus qu’impressionnant.

App Store Optimization (ASO), le nouvel enjeu comme le SEO il n’y a pas si longtemps…

Voici un article rédigé par mon fils Val à propos de l’App Store Optimization (ASO). Qu’est-ce que ce nouveau barbarisme ?

C’est bien simple, il y a quelques années (pas si longtemps en fait…), si vous aviez un site web, vous aviez besoin de SEO : Search Engines Optimization. En gros, faire en sorte que Google indexe et classe votre site correctement afin que votre cible potentielle puisse vous trouver sans trop de difficultés. Si vous étiez noyé au-delà de la 3ème page sur Google (suite à une recherche sur les mot-clés qui comptaient pour vous…), c’est que votre référencement (l’autre nom du SEO) laissait vraiment à désirer.

Eh bien, l’ASO, c’est comme le SEO mais pour les applications mobiles qui, vous l’admettrez, sont devenues l’enjeu à la mode désormais. Val, qui connait bien ce domaine va vous en dire plus et mieux que je ne saurais le faire…

======

L’ASO, le nouvel enjeu.

Une fois que vous avez passé une quantité considérable de ressources en temps et en argent à développer et publier votre application dans l’App Store d’Apple, comment les utilisateurs vont-ils la trouver ?

C’est la question qu’on me pose le plus souvent, et pour cause !

Avec plus de 1,2 million d’applications dans l’App Store, le challenge de se faire découvrir est actuellement réel et immense.

C’est là que l’App Store Optimization (ASO) intervient. l’ASO pour l’App Store est comme le SEO pour Google (ou tout autre moteur de recherche). C’est l’arme moderne du référencement pour les applications.

Pour expliquer l’ASO, il s’agit de fournir des données et d’appliquer des stratégies pour augmenter l’exposition d’une application et par conséquent les téléchargements. Je conseille toujours à mes clients de développer un plan de marketing et, bien entendu, l’ASO doit faire partie de ce plan.

Il y a seulement trois façons de découvrir une application dans l’App Store:

  1. Être mis en avant par Apple.
  2. Apparaître en haut du classement des applications.
  3. Apparaître dans les résultats de recherches via mots-clés.

Laissons les deux premières options de côté, car chacune mérite en elle-même un article entier pour bien être bien comprises.

Concentrons-nous sur la dernière option, celle qui nous intéresse car c’est celle sur laquelle nous avons le plus de contrôle : la recherche via mots-clé, c’est ici que nous pouvons/devons intervenir…

C’est à ce niveau que ça se joue et c’est là que mes clients gagnent du terrain rapidement.
Lorsque vous effectuez une recherche sur l’App Store, il y a de nombreux facteurs qui dictent quelles sont les applications qui apparaissent en haut de la liste de recherche. Pour appuyer encore sur l’importance de ce point, voilà une statistique qui va vous plaire : plus de 65% des téléchargements proviennent directement de recherches via mots-clés sur l’App Store.

Il y a quelques leviers importants sur lesquels vous pouvez vous concentrer afin d’amener les utilisateurs potentiels à vous trouver facilement et effectivement télécharger votre application. Voilà les domaines où l’App Store Optimization peut vous aider, en vous assurant que vous donnez à votre application la meilleure visibilité possible.

  • Le nom de l’application et les mots-clés : commençons par l’essentiel en utilisant les mots-clés les plus pertinents et adéquats pour votre application.
  • Icône : C’est la première chose visible dans la page de votre application sur l’app store et elle forme la première impression du visiteur.
  • Visuels : vos captures d’écran d’applications sont les arguments visuels pour séduire le visiteur dans sa décision de télécharger ou non.
  • Descriptif : tout le monde ne va pas la lire (ou du moins, pas entièrement… d’où l’importance de bien choisir les termes dès les premières phrases !). Mais pensez à ceux qui le font. Êtes-vous concis, percutant, convaincant ?
  • Evaluations : les notes de l’application sont directement visibles sur sa page dans l’App Store et plus précisement une par une, si le visiteur le souhaite. Comme tout avis de tiers, ces infos pèsent dans la décision finale de téléchargement.

Voyons maintenant les erreurs les plus souvent rencontrées. Pour reprendre notre parallèle avec le SEO, prenons l’exemple classique de réaliser un site web entièrement en flash, ce qui avait pour conséquence fâcheuse de ne pas avoir de texte ni meta-données spécifiques et pertinentes pour le référencement naturel sur Google… Du coup, votre beau site web tout en flash était tout simplement invisible pour Google… bien joué !

De la même façon, pour l’ASO il y existe une liste d’erreurs les plus communes :

  • ne pas mettre de mots-clés,
  • avoir la même description sur l’App Store (Apple) et sur le Play Store (Google),
  • ne pas mettre de mots-clés dans le titre,
  • ne pas suivre l’évolution des mots-clés utilisés,
  • ne pas publier de belles captures d’écrans,
  • ne pas traduire la page App Store pour chaque pays qui vous intéresse,
  • croire que l’ASO est une opération mineure qui peut être traitée tout à la fin du projet.

Dans la même lignée, il y a de nombreuses illusions à énumérer :

  • il s’agit seulement des mots-clés,
  • c’est rapide, facile,
  • tout le monde fait de l’ASO,
  • Ce sont exactement les mêmes pratiques que le SEO.

Ce qu’il faut comprendre à propos de l’ASO, c’est que chaque cas est particulier, avec un contexte unique à chaque fois et qui mérite donc une analyse et des compétences précise pour tirer son épingle du jeu.

Il n’y a pas de recette parfaite pour tout le monde ni de formule magique, hélas.

De plus il y a des différences entre l’App Store d’Apple et le Play Store de Google (comme par exemple les mots clés qui sont comptabilisés dans la description sur le Play Store et pas sur l’App Store), qui nécessite une approche spécifique pour chaque plateforme afin de maximiser la visibilité de votre application partout.

Il faut savoir que l’App Store évolue tous les 6 mois. Son algorithme de classement change tout comme celui du moteur de recherche de Google. Ce qui fait que l’ASO représente un challenge et une opportunité exactement comme le SEO. D’où la nécessité de mettre à jour sa tactique ASO de façon régulière et continue.

Pourquoi se soucier de l’ASO dès le tout début du projet ?

Petite information très peu connue mais importante : Apple booste votre référencement naturel pour tous vos mots-clés lors de votre lancement sur l’App Store la première semaine (et la première semaine seulement…). Ce qui signifie qu’il est primordial d’implémenter l’ASO en amont, au plus vite pour tirer parti réellement de cette chance en or, au lieu de bêtement gâcher l’opportunité d’un bon lancement.

Pour finir, n’oublions pas les cas d’usurpation, de tricherie et de fraude. Sujet plutôt facheux certes, mais à ne pas ignorer car de plus en plus incontournable.

En effet l’App Store est un domaine où les développeurs ne sont pas toujours très sages.

Votre nom/marque risque de se faire détourner, exploitée si vous n’êtes pas vigilant et proactif dans ce domaine. Prenons l’exemple de Flappy Bird et tout récemment Pokemon Go. Il y a une ribambelle d’applications qui ont surgi autour de ces deux jeux qui ont fait sensation ! Les copies du jeu de Flappy bird ont rapidement noyé les résultats des recherches pour tous les mots-clés semblants. Pareil pour Pokemon Go où des applications non-légitimes se faisaient apparaître comme officielles afin de récolter des téléchargements en masse. Ces applications satellites sont souvent opportunistes dans le meilleur des cas, et mal-intentionnées dans d’autres cas.

Conclusion

Clairement, l’ASO est le nouvel enjeu en cette époque d’application sur les stores d’Apple et Google. l’ASO représente une grande et belle opportunité pour les sociétés, startups et développeurs indépendant qui souhaitent gagner du terrain dans ce vaste monde des applications mobiles.

Tout comme le SEO pour le référencement sur Google, l’ASO est désormais primordiale pour avoir sa chance sur l’App Store.

=====

Vous pouvez retrouvez Val sur son site si vous avez besoin de son aide dans ce domaine.

Les succès significatifs : l’ecommerce, montée et conséquences

Reprenons notre cycle des conférences sur les succès significatifs avec un grand sujet : l’ecommerce…

Cette courte conférence va se limiter à évoquer les conséquences de la situation actuelle ainsi que les perspectives d’avenir, y compris lointain…

Sur le dernier slide, c’est le fondateur d’Alibaba, Jack Ma qui explique les fondements de l’Ecommerce.

 

La solution ChromeBook, une alternative à considérer…

Ce dimanche, je vous ai de nouveau proposé une conférence en direct sur YouTube. Cette fois, il s’agissait d’évoquer la solution Chromebook comme alternative à Windows (trop de souffrance !) ou Mac OS (trop cher pour beaucoup).

Voici le différé de cette petite conférence :

Voici les quelques slides que j’ai utilisé (moins que d’habitude) :
La solution Chromebook from Alain Lefebvre

Prochaine conférence en direct : la solution Chromebook

Dimanche qui vient (le 20 décembre donc) je vous propose une nouvelle conférence en direct : la solution Chromebook.

Oui, nous allons parler d’informatique, encore. Mais vu la place que prennent ces machines dans nos vies, autant essayer de faire le bon choix, non ?

Voici les quelques slides que je vais utiliser (moins que d’habitude) :
La solution Chromebook from Alain Lefebvre

La conférence commence à 20H00 heure FR et il faut suivre ce lien… http://www.youtube.com/c/LefebvreAlain/live

Rendez-vous dimanche donc !

La vidéo de la conférence en direct de ce dimanche sur l’intelligence artificielle

Aujourd’hui, j’ai pu mener à bien ma seconde « conférence Periscope ». Cette fois, vous l’avez compris, le sujet portait sur l’Intelligence artificielle… Voici la vidéo de cette conférence :

Et puis, j’avais tout de même préparé quelques slides… Les voici :
IA, Ia grande question from Alain Lefebvre

Conférence en direct dimanche 22 novembre sur l’intelligence artificielle

Ma première expérience avec Periscope a été strictement privée (seuls mes fils ont assisté à cette conférence sur l’Histoire avec un grand H…), mais, pour la prochaine, vous êtes invités !

Dimanche 22 novembre à 20H00 précise (heure française), je vais remettre cela avec, cette fois, « l’intelligence artificielle, à quoi s’attendre ? » comme sujet. Pour y assister, c’est simple : il vous faut installer l’application Periscope sur votre iPhone, iPad ou appareil Android et me suivre (cherchez « Alain Lefebvre », tout simplement). Lorsque je vais lancer la conférence, vous serez prévenu et invité à me rejoindre…

Pourquoi avoir choisi cette application plutôt que YouTube qui permet aussi des diffusions en direct ?
Eh bien, pour deux raisons : tout d’abord, YouTube est un peu contraignant et terme de configuration (il faut installer un encodeur) et, surtout, YouTube ne permet pas les commentaires en temps réel qui s’affichent sur l’écran du conférencier (alors que c’est justement l’intérêt principal de Periscope, car cela permet une interactivité bienvenue).

Mais, à l’avenir, l’idéal serait de diffuser sur les deux à la fois, si toutefois je décide de poursuivre l’expérience plus régulièrement… Mais n’anticipons pas.

Alors, et ce sujet « l’intelligence artificielle, à quoi s’attendre ? », pourquoi l’avoir choisi ?
Eh bien, j’avais prévu de faire un livre sur ce sujet, mais avouons-le, cet ouvrage n’avance pas pour diverses raisons… D’où l’idée de rebondir en transformant le matériel que j’ai déjà accumulé en une conférence interactive !

Initialement, j’avais justement prévu d’écrire ce livre pour mes fils afin d’attirer leur attention sur ce sujet que je juge important. Mais, avec ces « conférences Periscope », l’objectif est atteint avec une économie de moyens appréciables…

Pour vous préparer au mieux à ce mini-événement, je vous propose de voir (ou de revoir) la petite vidéo de présentation que j’avais préparé pour le livre (qui, finalement, restera à l’état de projet non-achevé) :

Et puis, j’ai tout de même préparé quelques slides… Les voici :
IA, Ia grande question from Alain Lefebvre

Evidemment, après la conférence, je vais publier la vidéo sur ce blog (comme la dernière fois) pour ceux qui auront manqué le rdv ou qui ne veulent pas s’embêter avec Periscope…

L’épineuse question de la sécurité informatique

Voilà un sujet qui concerne tout le monde, vraiment tout le monde désormais et qui, pourtant, est le plus souvent traité avec légèreté, quand il est seulement traité !

Or, ce problème (car c’est un problème, même si vous ne vous en êtes pas encore rendu compte…) va devenir de plus en plus pressant avec notre usage toujours plus large des réseaux, bientôt pour les objets après les PC et les smartphones.

Voilà pourquoi il est important de lire l’article de Laurent Poulain « Le triste état de la cyber-sécurité« . Il porte un regard lucide et pertinent sur l’état des lieux (triste donc).