Quelques prédictions pour 2019

Le début d’année est une période favorable pour les “prévisions/prédictions”, quel que soit le domaine. Dans le notre, j’adore les prédictions annuelles de Cringely (voir à https://www.cringely.com/category/predictions/) et, cette année, je vais ajouter les miennes…

En effet, je crois qu’il y a un certain nombre d’événements qu’il est relativement facile de prévoir (mais on peut se planter grossièrement aussi !) et je vais donc tenter l’exercice !

Tout ce que j’annonce dans ce post est déjà résumé dans la vidéo ci-dessous :

Le webinaire où j’expose certaines de mes prévisions…

Commençons par Intel donc… Le géant des composants va voir sa position s’amenuiser jusqu’au point son déclin sera bien amorcé… Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/le-declin-dintel-est-amorce-par-tsmc

IBM va payer ses erreurs répétées lors de cette année 2019… Forcément, à un moment, Wall Street va siffler la fin de la partie !
Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/la-prochaine-disparition-dibm

Apple et Facebook vont rentrer dans le rang : Facebook a cause des scandales à répétition et Apple à cause de la baisse de la vente des iPhones qui est inévitable (ça a déjà commencé d’ailleurs…). Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/retour-sur-les-gafam-au-cas-par-cas

Après tout cela, j’hésite un peu à vous dire “bonne année”…

Le moment-clé dans le déclin d’IBM

Il y a trente, vingt ou même dix ans, parler du déclin et de la disparition future d’IBM était risible !

Aujourd’hui, ce n’est plus le cas, le déclin d’IBM est une tendance avérée et sa disparition possible (ou son découpage et sa vente par morceaux) n’est plus une spéculation improbable, mais un scénario qui est ouvertement envisagé par les analystes de Wall Street. Comment en est-on arrivé là ? Comment une société aussi puissante et prestigieuse qu’IBM a-t-elle pu tomber si bas ? Quel est l’événement décisif qui amorça son déclin ? Quel est le point de bascule qui la fit passer de leader triomphant à celui d’acteur du passé qui n’a plus vraiment d’influence sur son industrie ?

Quand on évoque le déclin d’IBM, beaucoup vont se référer aux différents épisodes liés au PC et à OS/2, d’autres vont pointer du doigt les ventes successives des divisions PC et serveurs à Lenovo… Et enfin, les derniers vont simplement faire une analyse chiffrée de la chute des ventes et des profits, comme si le déclin était quelque chose de mécaniquement inévitable.

Je pense pour ma part que le moment-clé du déclin remonte plus loin que les débuts du PC, en 1975 plus exactement quand Big Blue décida d’abandonner son projet Future System qui devait assurer une descendance innovante à la ligne des mainframes 360.

À cette époque, il s’agissait pour IBM de refaire le coup de maître de la décennie précédente : parier l’avenir de la compagnie sur un projet technologique ambitieux qui allait permettre d’assurer sa suprématie pour les années suivantes. On a du mal à s’imaginer combien le projet 360 a été un incroyable pari et un défi technique immense couplé à un investissement gigantesque. Les journalistes de l’époque ont évoqué le débarquement en Normandie pour représenter l’ampleur du risque et de la dépense et c’était assez bien trouvé.

Future System était tout aussi ambitieux et tout aussi périlleux. Mais, alors qu’IBM dans les années soixante sut relever le défi et trouver des solutions à tous les problèmes (quelquefois péniblement comme dans le cas de l’OS360 qui s’avéra être un développement logiciel tout à la fois gigantesque et décevant, un cas d’école que Fred Brooks commenta pendant des années en conférence à la suite de son fameux livre “The mythical man-month”), le projet Future System fut lui finalement abandonné, car considéré comme trop difficile à faire aboutir. Tout ne fut pas perdu et les retombées des recherches effectuées dans ce cadre furent utilisées dans de nombreux produits d’IBM (dont le mini 38 et, plus tard, l’AS/400).

System S/38

On peut donc en déduire que la même société échoua à renouveler le même exploit dix ans après, mais était-ce vraiment la même société ?

Car, entretemps, IBM était devenue Big Blue et son management avait commencé à vieillir, les enjeux n’étaient plus les mêmes et la société était déjà dans une position dominante et confortable, capable d’absorber financièrement un échec de cette taille qui l’aurait mit sur en faillite seulement dix ans auparavant. C’est doute ici qu’il faut trouver les vraies raisons du renoncement : l’IBM des années soixante n’avait pas ce luxe, elle était dos au mur et ne pouvait que réussir ou mourir. Dix ans après, la réussite et la fortune permettaient d’envisager d’autres options.

Mais c’est aussi ce confort qui tua l’esprit d’innovation de Big Blue. Cet échec fut le “début de la fin” pour la compagnie. Alors, certes, les efforts de la société américaine en matière de recherches scientiques sont connus et à juste titre (on lui doit le microscope à effet tunnel qui permit de faire les premiers pas dans le domaine de la nanotechnologie, entre autres), mais financer la recherche de pointe et savoir profiter des ses innovations sont deux choses différentes !

Quand IBM se lança dans l’aventure du PC, l’équipe interne savait parfaitement qu’elle devrait faire appel à des sous-traitants spécialisés (comme Microsoft, mais aussi Intel ou Seagate) pour tenir les délais imposés par la direction générale. Même le top management était conscient que la compagnie n’était plus capable de produire un produit aussi radicalement différent de ses ordinateurs habituels dans des délais acceptables. Plus tard, IBM refusa d’être la première à intégrer le processeur Intel 386 dans ces PC (PS/2 alors) pour ne pas risquer de diminuer les ventes de sa division mini-ordinateurs à cause de PC “trop” puissants. Compaq n’eut pas cette hésitation, mais cette jeune organisation n’était pas -encore- devenue une bureaucratie divisée en baronnies toutes-puissantes. Celles-ci se préservaient de la concurrence interne (l’autocannibalisation) par des arbitrages politiques qui paraissaient équilibrés vu de l’intérieur, mais qui n’avaient pas de sens vis-à-vis du marché.

Pris séparément, ces différents événements ne sont pas forcément aussi importants, aussi dramatiques qu’ils n’y paraissent et aucun n’a conduit IBM à une catastrophe immédiate. Mais, reliés entre eux, ils forment une tendance, une pente, une pente déclinante…

La vente des divisions PC puis serveurs d’IBM (en partie) à Lenovo est juste dans la continuité de ses retraits et renoncements successifs. Et, avec le recul, je gage que les historiens sauront identifier l’abandon du projet Future System comme le déclencheur de cette longue descente aux enfers.

Le déclin peut être une période plus ou moins longue selon l’inertie et la gestion du management. Yahoo! a vite disparu de la scène mondiale alors que Big Blue aura longtemps résisté avant de s’effacer (définitivement ?).

Une série de chroniques sur la situation actuelle du marché du cloud computing…

Depuis quelques semaines, je rédige des chroniques pour Redsen (une société de consulting créée par des anciens de SQLI…).

Je vous invite donc à lire celles qui sont déjà en ligne à propos du cloud computing :

Le marché du cloud : situation, perspectives et évolutions, introduction

Apple MacBook Pro : le meilleur et le pire (comme toujours avec Apple…)

Dans notre famille, nous sommes des utilisateurs des produits Apple (MacBook, iPhone, iPad, Airport), mais ne sommes pas “Applemaniaque” pour autant (et encore moins “fan boys”) : les produits Apple ont des bons côtés, mais aussi des mauvais… Essayons de faire le point sur cette balance avec le tout dernier MacBook Pro qu’on vient juste de recevoir.

Mon épouse avait besoin de renouveler son Mac et on lui a donc commandé le top du top : le MacBook Pro 15′ avec le max du max (mémoire, capacité disque, etc.)… Belle bête, mais un peu chère : cette config dépasse les $4000 tout de même !

Déjà, ce premier point (les produits Apple sont chers) fait que de nombreux utilisateurs qui se porteraient mieux avec un Mac qu’avec un windaube passent leur chemin… ça peut se comprendre, mais c’est dommage, car, selon moi, on en a pour son argent. Mais, encore une fois, tout n’est pas parfait dans le monde de la pomme. Continuons sur les défauts, on verra les points positifs après.

1- adieux le magsafe !

Le magsafe était vraiment une bonne idée !
Pourquoi l’avoir abandonné ?

https://www.macg.co/mac/2016/10/dix-ans-apres-apple-enterre-le-magsafe-96101

Sans doute parce que Ive (le designer) a voulu imposer l’uniformité des interfaces (au passage, adieux aussi aux ports USB traditionnels !). Une décision dogmatique (typique de Ive, je déteste ce mec !) qui est un des pires comportements d’Apple.

2- Apple impose l’USB-C

Que ça vous plaise ou non, il n’y a plus un seul port USB traditionnel sur le MacBook Pro. A la place, il y a des ports USB-C qui impose donc d’avoir un adaptateur pour brancher tout ce que vous avez encore et qui (surprise !) n’est pas compatible USB-C… Encore une manie détestable de précéder le mouvement alors qu’on a rien demandé !

3- iCloud toujours aussi lamentable

À l’heure où le cloud est partout, Apple s’accroche encore à son iCloud qui est, tout à la fois, pas pratique et cher. En bref, contrairement à ce qu’on a l’habitude de dire sur les produits Apple, iCloud, ben ça ne marche pas !

Il y a dix ans, Steve Jobs avait viré le manager de l’équipe en charge de MobileMe (déjà, à l’époque, le produit “cloud” d’Apple était un désastre… ça n’a pas changé !). Peut-être faudrait-il faire la même chose aujourd’hui ?

https://gizmodo.com/5033442/steve-jobss-entire-mobileme-is-fail-email

Bon, on vient de voir les principaux points négatifs du nouveau MacBook Pro (encore que, iCloud n’est pas propre au MacBook, mais comme Mac OS s’appuie largement dessus, pour l’utilisateur, c’est pareil…), voyons maintenant les points positifs…

1- un clavier extraordinaire !

Le clavier de l’ancien MacBook Pro était déjà bon (c’est avec lui que je rédige ce post…), mais le nouveau est carrément sensationnel : une merveille, tout simplement. Les touches sont larges, le toucher est agréable, c’est vraiment un progrès.

La fameuse “touch-bar” m’a l’air pas mal aussi, mais là, il me faudra un peu de temps pour me prononcer définitivement.

2- un trackpad vraiment large

Le Trackpad est lui aussi un point positif, ne serait-ce que par sa surface, vraiment plus grande que sur mon MacBook (et là, plus c’est mieux).

3- une finition superbe

Cette nouvelle itération du MacBook Pro est superbe : tout l’appareil dégage une impression de finition soignée (et de design achevé, même si ça m’ennuie de l’avouer, car c’est un point en faveur de Ive) et c’est bien le cas. Mais c’était déjà le cas pour les modèles précédents.

Du coup, on en arrive à lister les points positifs habituels : ça marche, c’est superbe, c’est facile à utiliser, etc. Oui, rien de nouveau sur ces points (et tant mieux), mais c’est important de les souligner encore et encore.

Au final, ça vaut le coup ou pas ?

Eh bien, comme souvent avec les produits coûteux, ça dépend… si vous avez les moyens, oui, trois fois oui. Sinon, voyez plutôt du côté d’un bon Chromebook où le rapport qualité/prix/efficacité sera sans doute (bien) plus favorable.

Un excellent article sur la question de l’IA et la notion de “l’explosion de l’intelligence”

Voilà un excellent article de François Chollet (photo de l’auteur ci-dessous) sur la notion “d’explosion de l’intelligence” qui est souvent mise en avant quand on débat sur l’évolution et le futur de l’IA. Chollet postule (très bien) que l’intelligence est situationnelle. Donc, l’explosion supposée est contradictoire avec le fait que les intelligences des organismes vivants (y compris nous !) sont des intelligences très spécialisées en fonction de leur enveloppes corporelles.

Bref, lisez cet article (très bien rédigé, en plus, cependant, c’est tout en anglais, of course!) => The impossibility of intelligence explosion.

La loi du délai incompressible confirmée

De nos jours, le marché du cloud mobilise les efforts et les spéculations. On voit que les nouveaux géants s’y affrontent à coup de milliards (Amazon, Microsoft, Google) et que les anciens grands acteurs tentent d’y prendre leur place également (IBM, Oracle, SAP, etc.).

Alors que nous sommes presque en 2018, plus personne ne doute que le cloud, avec toutes ses déclinaisons, est désormais le présent et l’avenir de l’informatique d’entreprise. Les clients, même les plus gros, s’y intéressent (au moins) ou s’y précipitent. Plus personne ne clame “le cloud ? jamais chez moi !”. Mais cette évolution qui semble désormais évidente a tout de même pris vingt ans à devenir une évidence.

En effet, c’est en 1998 que la notion d’ASP commence à apparaitre. Salesforce confirma le bien-fondé de la tendance peu après (1999) et les choses n’ont pas cessé de progresser depuis. Mais il a fallu quand même vingt ans pour que “l’Internetisation de l’informatique” (ainsi que je l’appelais dans une chronique parue dans 01 en 1998 justement) prenne forme, se renforce et devienne LE marché, tout simplement. Donc, si vous doutiez encore de la notion de “délai incompressible” (dix ans pour qu’une innovation s’installe, vingt ans pour qu’elle atteigne le premier seuil de généralisation et trente ans pour qu’elle se banalise), repensez au cloud…

“Printers are from hell” ou comment mettre fin à cette malédiction ?

Si vous ne connaissiez pas encore The Oatmeal, voici de quoi commencez sur un bon pied : l’auteur nous explique ici (très bien en plus) pourquoi les imprimantes sont si frustrantes dans leur (non) fonctionnement…

La suite se trouve ici (à voir car c’est drôle en plus !)…

Bref, j’étais intégralement en accord avec The Oatmeal et toutes les expériences que j’ai eu avec des imprimantes étaient, au mieux, frustrantes pour ne pas dire déprimantes…

Et puis, je suis tombé sur cet article :

The Printer We Need

Printers: They don’t work. Here’s my wishlist for one that might.

Et, franchement, Anil Dash (l’auteur de cet article) a parfaitement raison : si on savait se contenter d’une imprimante simple (pas de couleurs, seulement du N&B, etc.), nos soucis avec les imprimantes seraient bien moindre. Donc, je me suis mis à la recherche de cette imprimante “raisonnable donc idéale”… et je crois l’avoir trouvé !

Depuis quelques semaines, j’ai raccordé à notre réseau local un Ricoh SP150 et j’en suis très satisfait. La SP150 est une petite laser N&B toute simple : il n’y a pas de chargeur, pas de wifi, elle ne fait rien d’autre que d’imprimer en N&B et il n’y a pas même de réceptacle… mais ça marche et elle ne coûte que 60 euros !

Les raisons de l’absence (durable) de sécurité informatique

Le dossier de The Economist de cette semaine : “”why computers will never be safe”. Excellent dossier donc voici l’article d’introduction (très bon lui aussi) => http://www.economist.com/news/leaders/21720279-incentives-software-firms-take-security-seriously-are-too-weak-how-manage

Linux a 25 ans et est partout !

Le 25 août 1991, Linus Torvald (21 ans) poste ce message dans un forum : “Je réalise actuellement un système d’exploitation gratuit – c’est juste un hobby, cela n’a pas vocation à devenir aussi important et professionnel que GNU“.

25 ans après, Linux est devenu un élément majeur de notre informatique. Linux est partout !

L’épineuse question de la sécurité informatique

Voilà un sujet qui concerne tout le monde, vraiment tout le monde désormais et qui, pourtant, est le plus souvent traité avec légèreté, quand il est seulement traité !

Or, ce problème (car c’est un problème, même si vous ne vous en êtes pas encore rendu compte…) va devenir de plus en plus pressant avec notre usage toujours plus large des réseaux, bientôt pour les objets après les PC et les smartphones.

Voilà pourquoi il est important de lire l’article de Laurent Poulain “Le triste état de la cyber-sécurité“. Il porte un regard lucide et pertinent sur l’état des lieux (triste donc).

 

IBM, déclin et chûte ? Une critique du livre de Robert Cringely

Le livre de Robert Cringely “The Decline and Fall of IBM: End of an American Icon?” mérite d’être lu (même s’il y a pas de version française, pour le moment) car c’est une analyse en profondeur des raisons qui vont reléguer big blue dans les poubelles de l’histoire !

C’est sans doute triste mais c’est ainsi : IBM était l’incontestable N°1 mondial de l’informatique dans les années 60 et 70, archi dominant même… Bientôt, il ne restera qu’un souvenir de cette domination.

Une série de présentation sur l’histoire de l’informatique moderne, épisode 1 : la préhistoire

L’histoire de l’informatique limitée à sa période moderne : à partir du moment où elle devient une industrie jusqu’au moment où elle devient omniprésente…
Premier épisode : la préhistoire.
La période qui précède juste le moment où l’informatique devient une industrie. Pour comprendre comment s’est fait cette évolution, on est obligé de parler de la préhistoire avant de rentrer dans l’histoire proprement dite…

Il y a vingt ans, le Web…

Le 30 avril 1993, le CERN offrait au domaine public la technologie world wide web et les applications permettant de développer des sites Web. Et mettait en ligne le premier site en www. à l’adresse suivante http://info.cern.ch/hypertext/WWW/Status.html

Le développement du 1er site depuis le poste NeXT de Tim Berners-Lee

Hommage à Turing, Google donne l’exemple !

La communauté scientifique mondiale – ainsi que le géant Google à sa manière (via un petit jeu dans son doodle) – commémorent ce samedi le centenaire de son fils mal aimé et père de l’informatique moderne, le génie des mathématiques britannique Alan Turing.

“Vendre la révolution informatique”, une exposition du Computer History Musuem…

Le site du Computer History Museum est une vraie mine habituellement mais, en ce moment, c’est encore mieux : il y a une exposition sur les brochures commerciales utilisées par les constructeurs pour présenter leurs produits…

Voilà une source à parcourir et à apprécier comme il se doit !

Nécrologie : Jack Tramiel, père du Commodore 64, RIP

Depuis que je tiens ce blog, je constate que les derniers billets concernent surtout des disparitions… Les pionniers les plus célèbres s’éteignent les uns après les autres (les moins célèbres aussi mais on en parle moins !). Cela prouve au moins que l’informatique est désormais vraiment une matière historique…

Cette fois, c’est au tour de Jack Tramiel de nous quitter. Ce précurseur de l’informatique personnelle et de l’univers des jeux vidéo s’est éteint à l’âge de 83 ans.

Créateur de la société Commodore Business Machines en 1955, Jack Tramiel était plus connu du garnd public pour avoir lancé le Commodore 64, un ordinateur personnel lancé en 1982 et qui a connu un immense succès avec plusieurs millions d’exemplaires (de 17 à 25 millions selon les estimations). Le Commodore 64 utilisait un microprocesseur 8-bits 6510, disposait de 64 kiloctets de mémoire vive et livrait alors bataille au ZX Spectrum.

La fiche wikipedia de Jack Tramiel qui fit aussi un passage remarqué au sein d’Atari en 1984…

Un très bon site sur l’histoire du premier Macintosh…

Sur le site de http://www.folklore.org/ vous pourrez trouvez un recueil de textes décrivant par le menu l’histoire de la conception du tout premier Macintosh (une histoire qui remonte à 1981). Même si vous n’êtes pas un “mac-maniac”, cette saga va forcément vous intéresser car elle permet de suivre et de comprendre les méandres d’un projet de cette importance (et ce projet a effectivement marqué l’histoire !)…

Les 40 ans du tout premier microprocesseur… L’Intel 4004

Développé en 1970 par Federico Faggin, Ted Hoff et Stanley Mazor pour Busicom (un fabricant Japonais de calculatrices), le processeur 4004 (4 bits) commença sa carrière commerciale le 15 novembre 1971 (Busicom avait cédé les droits du 4004 à Intel).
Le 4004 était cadencé à 740KHz, il avait autour de 2,300 transistors et était fabriqué en utilisant un processus à 10-micron… On est loin de ces chiffres désormais !