Archives de catégorie : Anecdotes IT

Le moment-clé dans le déclin d’IBM

Il y a trente, vingt ou même dix ans, parler du déclin et de la disparition future d’IBM était risible !

Aujourd’hui, ce n’est plus le cas, le déclin d’IBM est une tendance avérée et sa disparition possible (ou son découpage et sa vente par morceaux) n’est plus une spéculation improbable, mais un scénario qui est ouvertement envisagé par les analystes de Wall Street. Comment en est-on arrivé là ? Comment une société aussi puissante et prestigieuse qu’IBM a-t-elle pu tomber si bas ? Quel est l’événement décisif qui amorça son déclin ? Quel est le point de bascule qui la fit passer de leader triomphant à celui d’acteur du passé qui n’a plus vraiment d’influence sur son industrie ?

Quand on évoque le déclin d’IBM, beaucoup vont se référer aux différents épisodes liés au PC et à OS/2, d’autres vont pointer du doigt les ventes successives des divisions PC et serveurs à Lenovo… Et enfin, les derniers vont simplement faire une analyse chiffrée de la chute des ventes et des profits, comme si le déclin était quelque chose de mécaniquement inévitable.

Je pense pour ma part que le moment-clé du déclin remonte plus loin que les débuts du PC, en 1975 plus exactement quand Big Blue décida d’abandonner son projet Future System qui devait assurer une descendance innovante à la ligne des mainframes 360.

À cette époque, il s’agissait pour IBM de refaire le coup de maître de la décennie précédente : parier l’avenir de la compagnie sur un projet technologique ambitieux qui allait permettre d’assurer sa suprématie pour les années suivantes. On a du mal à s’imaginer combien le projet 360 a été un incroyable pari et un défi technique immense couplé à un investissement gigantesque. Les journalistes de l’époque ont évoqué le débarquement en Normandie pour représenter l’ampleur du risque et de la dépense et c’était assez bien trouvé.

Future System était tout aussi ambitieux et tout aussi périlleux. Mais, alors qu’IBM dans les années soixante sut relever le défi et trouver des solutions à tous les problèmes (quelquefois péniblement comme dans le cas de l’OS360 qui s’avéra être un développement logiciel tout à la fois gigantesque et décevant, un cas d’école que Fred Brooks commenta pendant des années en conférence à la suite de son fameux livre “The mythical man-month”), le projet Future System fut lui finalement abandonné, car considéré comme trop difficile à faire aboutir. Tout ne fut pas perdu et les retombées des recherches effectuées dans ce cadre furent utilisées dans de nombreux produits d’IBM (dont le mini 38 et, plus tard, l’AS/400).

System S/38

On peut donc en déduire que la même société échoua à renouveler le même exploit dix ans après, mais était-ce vraiment la même société ?

Car, entretemps, IBM était devenue Big Blue et son management avait commencé à vieillir, les enjeux n’étaient plus les mêmes et la société était déjà dans une position dominante et confortable, capable d’absorber financièrement un échec de cette taille qui l’aurait mit sur en faillite seulement dix ans auparavant. C’est doute ici qu’il faut trouver les vraies raisons du renoncement : l’IBM des années soixante n’avait pas ce luxe, elle était dos au mur et ne pouvait que réussir ou mourir. Dix ans après, la réussite et la fortune permettaient d’envisager d’autres options.

Mais c’est aussi ce confort qui tua l’esprit d’innovation de Big Blue. Cet échec fut le “début de la fin” pour la compagnie. Alors, certes, les efforts de la société américaine en matière de recherches scientiques sont connus et à juste titre (on lui doit le microscope à effet tunnel qui permit de faire les premiers pas dans le domaine de la nanotechnologie, entre autres), mais financer la recherche de pointe et savoir profiter des ses innovations sont deux choses différentes !

Quand IBM se lança dans l’aventure du PC, l’équipe interne savait parfaitement qu’elle devrait faire appel à des sous-traitants spécialisés (comme Microsoft, mais aussi Intel ou Seagate) pour tenir les délais imposés par la direction générale. Même le top management était conscient que la compagnie n’était plus capable de produire un produit aussi radicalement différent de ses ordinateurs habituels dans des délais acceptables. Plus tard, IBM refusa d’être la première à intégrer le processeur Intel 386 dans ces PC (PS/2 alors) pour ne pas risquer de diminuer les ventes de sa division mini-ordinateurs à cause de PC “trop” puissants. Compaq n’eut pas cette hésitation, mais cette jeune organisation n’était pas -encore- devenue une bureaucratie divisée en baronnies toutes-puissantes. Celles-ci se préservaient de la concurrence interne (l’autocannibalisation) par des arbitrages politiques qui paraissaient équilibrés vu de l’intérieur, mais qui n’avaient pas de sens vis-à-vis du marché.

Pris séparément, ces différents événements ne sont pas forcément aussi importants, aussi dramatiques qu’ils n’y paraissent et aucun n’a conduit IBM à une catastrophe immédiate. Mais, reliés entre eux, ils forment une tendance, une pente, une pente déclinante…

La vente des divisions PC puis serveurs d’IBM (en partie) à Lenovo est juste dans la continuité de ses retraits et renoncements successifs. Et, avec le recul, je gage que les historiens sauront identifier l’abandon du projet Future System comme le déclencheur de cette longue descente aux enfers.

Le déclin peut être une période plus ou moins longue selon l’inertie et la gestion du management. Yahoo! a vite disparu de la scène mondiale alors que Big Blue aura longtemps résisté avant de s’effacer (définitivement ?).

Assembler son propre PC : c’est désormais assez facile…

J’avais décidé de tester la réalité virtuelle avec le masque Oculus Rift CV1 en ce début d’année 2018. Mais, pour cela, il me fallait un PC à la hauteur… Celui que j’utilise en Floride est déjà ancien et plutôt limité. C’était une occasion toute trouvée d’en profiter pour l’assembler moi-même.

Le but était plus de découvrir si j’en étais capable que de vraiment économiser quelques dollars. Car, vu la configuration visée, ça allait être couteux de toute façon. Donc, le 2 janvier, j’ai commandé la configuration suivante à Amazon.com :

  • Microsoft Windows 10 Home USB Flash Drive (pas besoin de DVD donc, W10 sur clé USB, c’était parfaitement logique).
  • Phanteks PH-EC416PSTG_BR Eclipse P400S Silent Edition with Tempered Glass, Black/Red Cases (ça, c’est juste la boite).
  • G.SKILL Flare X Series 16GB (2 x 8GB) 288-Pin DDR4 SDRAM DDR4 3200 (PC4 25600) AMD X370 Memory Model F4-3200C14D-16GFX (la mémoire vive).
  • Intel Core i7-7800X Processor (le processeur, pas le top du top, mais pas mal quand même…).
  • ASUS ROG STRIX GeForce GTX 1080 TI 11GB VR Ready 5K HD Gaming Graphics Card (ROG-STRIX-GTX1080TI-11G-GAMING soit la carte graphique).
  • Corsair CS Series, CS750M, 750 Watt (750W), Semi Modular Power Supply, 80+ Gold Certified (le bloc d’alimentation).
  • Samsung 960 EVO Series – 1TB PCIe NVMe – M.2 Internal SSD (MZ-V6E1T0BW, la toute petite carte portant les puces SSD pour la mémoire de masse).
  • ASUS ROG STRIX Z370-E GAMING LGA1151 DDR4 DP HDMI DVI M.2 Z370 ATX Motherboard with onboard 802.11ac WiFi and USB 3.1 for 8th Generation Intel Core Processors (la carte-mère).
  • Noctua NH-D15 SE-AM4 Premium-Grade 140mm Dual Tower CPU Cooler for AMD AM4 (le refroidisseur du processeur, un truc plutôt impressionnant !).

J’ai tout reçu entre le 4 et le 8/01/2018

Quand j’ai pu commencer le montage, je me suis aperçu que le processeur ne rentrait pas dans la carte-mère ASUS. J’ai donc commandé une autre carte (GIGABYTE X299 UD4) le 9/01 et j’ai renvoyé l’autre à amazon.

J’ai reçu cette nouvelle carte le 11/01 et là, je me suis aperçu que c’est le cooler qui ne se montait pas sur cette carte !

J’ai donc renvoyé le Noctua et j’ai commandé un autre cooler (Cooler Master Hyper 212 EVO RR-212E-20PK-R2 CPU Cooler with 120mm PWM Fan) le 11/01.

J’ai aussi pensé qu’il était plus raisonnable d’ajouter un disque dur interne plutôt que de tout miser sur la carte SSD pour l’installation de l’OS (WD Blue 1TB SATA 6 Gb/s 7200 RPM 64MB Cache 3.5 Inch Desktop Hard Drive (WD10EZEX), commandé le 11/01).

Le 11/01, j’ai tout de même pu mettre en place le processeur au sein de la carte-mère, la mémoire vive (2 barrettes) et la carte SSD. Ainsi que l’alimentation dans le boitier (qui est arrivé en dernier).

Je me suis aussi aperçu qu’il allait me manquer un câble Ethernet (commandé le 09/01), un câble DVI pour le moniteur (commandé le 08/01  et j’ai aussi commandé une souris et un clavier (amazon basics, le 08/01).

Le 12/01, j’ai monté la carte-mère dans le boitier et j’ai commencé les branchements. Je me suis aperçu qu’il me manquait des câbles pour raccorder les ventilateurs du boitier à la carte-mère (Phobya Adapter 3Pin (Plug) to 4Pin PWM (Socket) 30cm – Black, commandés le 12/01).

Le matin du 13/01, je me suis aperçu que j’avais monté l’alimentation à l’envers dans le boitier (ventilateur vers le haut !). Je l’ai donc mis dans la bonne position.

Le 13/01, j’ai reçu les deux derniers éléments : disque dur et cooler. Le disque n’a posé aucun problème (le case est même assez pratique sur ce plan), mais le cooler m’a demandé plus de recherches pour comprendre enfin comment le monter correctement.

Mais, finalement, j’ai pu assembler le tout, y compris la grosse carte graphique et j’ai même commencé à agencer les câbles pour finir.

Le 15/01 au matin, j’ai finalement trouvé comment brancher les ventilateurs système : en connectant les cosses à trois pins sur les connecteurs à 4 pines, tout simplement !

J’ai regardé sur la doc pour repérer l’ordre des fils et j’ai pu mettre les connexions sans problème… reste à tester le tout now !

En fin d’apm, j’ai procédé au premier allumage et miracle, tout à fonctionné du premier coup : les fans tournent, la carte clignote, tout est reconnu !

Après quelques difficultés avec la config du BIOS, j’ai pu lancer l’installation de Windows 10, paramétrage et mise à jour.

Le soir, j’ai enfin pu procéder à l’installation de l’Oculus et, après quelques étapes, j’ai pu « entrer dedans » et la sensation est fantastique !

Le 16/01, j’ai procédé à quelques réglages sur W10 afin de l’optimiser et de me débarrasser de tous les trackings inutiles. J’ai également débloqué le pb qui rendait la carte SSD invisible et j’ai donc deux volumes de 1TO chacun sur ma machine. L’assemblage et configuration est terminé. Tout cela m’a quand même pris une bonne dizaine de jours.

Lors de la semaine du 18 au 20/01, j’ai constaté deux problèmes : la définition de l’écran est limitée à 1440×900 (c’est la limite de l’écran Samsung) et le volant G27 est reconnu, mais ne fonctionne pas dans certains jeux.

Finalement, après beaucoup de recherches, j’ai compris ce qui se passait avec le volant : tous les ports USB sont en 3.0 alors que certains jeux ne supportent pas cette vitesse de transfert trop rapide par rapport au 2.0. J’ai donc commandé une carte d’extension PCI pour avoir des ports USB en 2.0 (carte commandée le 21/01).

Pareil pour la définition : pour monter en 2160×1200 (définition max permise par l’Oculus), il faut un écran qui supporte au moins cette définition (sinon, on est limité par ce que peut supporter l’écran primaire). J’ai donc commandé un écran Acer 24′ qui permet des définitions élevées (écran commandé le 20/01).

Pour arriver à assembler ce bazar, je me suis appuyé sur les bons conseils de ce site http://www.assembler-pc.fr/index.html… Je ne peux que vous recommander chaudement cette source !

Les voitures autonomes au coin de la rue, vraiment ?

Voici une petite vidéo sur un sujet à la mode : les voitures autonomes…

Si on en croit les médias (rappel : il ne faut pas), celles-ci seront bientôt au coin de la rue, la votre, toutes en fait !

En fait, ça ne va pas tout à fait se passer ainsi… explications :

Dans la même veine, je crois qu’il n’est pas inutile de voir (ou de revoir…) également les deux vidéos suivantes :

Vingt après l’IPO de Netscape… Un très bon article de Fortune.

Il y a vingt ans (déjà !) avait lieu l’événement clé qui a dessiné notre présent actuel, rien de moins !

En effet, alors que j’étais en vacances en famille dans les alpes, j’ai lu Les échos le compte rendu de l’introduction en bourse de Netscape. Je connaissais déjà cette société qui était encore, à l’époque, un nain dans un monde dominé par Microsoft, IBM et Oracle, entre autres. C’est pourtant l’arrivée du navigateur de Netscape qui a véritablement ouvert les portes du Web (et donc de l’Internet) au grand public. J’avais eu l’occasion de découvrir le Web en octobre 1994 mais, cette expérience menée sur des stations DEC avec le navigateur Mosaic, ne m’avait pas vraiment convaincu… Tout change en mai 1995 avec Netscape Navigator sur un simple PC équipé de Windows 3.1 : enfin quelque chose de simple, de facile et de pas trop exotique. La vraie découverte du Web que j’ai pu faire à cette occasion m’a marqué à jamais : je savais dès lors que le monde de l’informatique allait changer en profondeur et que je voulais accompagner ce changement.

Bien m’en a pris, ma carrière qui était déjà bien engagée à ce moment pris une encore meilleure tournure. Désormais, c’est en tant que témoin de cette période magique que j’officie, histoire de rendre un peu de ce qui m’a été donné à cette occasion…

Je vous invite donc à lire l’article de Fortune qui se trouve à http://fortune.com/2015/08/09/remembering-netscape/. Cet article est bien écrit et très complet, une vraie mine !

On ne peut pas faire confiance aux acteurs du Cloud et voilà pourquoi…

L’histoire que je vais vous raconter ici est cruciale. Souvent, on ajoute un post sur son blog sans vraiment y accorder d’importance, mais là, je sais que ça va compter. En bref : la tendance de porter « l’informatique dans le nuage » repose, fondamentalement, sur la confiance qu’on peut accorder à ses acteurs. Cela parait évident, mais c’est tout de même bon de le rappeler. Or, la petite aventure que j’ai vécue récemment (et que je vais vous relater ici, vous l’avez compris) m’a convaincu que, non, on ne peut simplement pas leur confiance, fin de l’histoire.

Qu’on ne s’y trompe pas : je n’étais pas anti-cloud, au contraire !

J’ai accueilli cette tendance avec enthousiasme, considérant qu’elle était tout à fait justifiée, bien en ligne avec mes convictions et, ce n’est pas négligeable, avec ce que j’avais écrit sur le domaine année après année (j’ai commencé à écrire sur ce sujet en 1998…). J’étais donc très favorable à l’utilisation des services distants et ça me paraissait même la seule façon rationnelle d’agir, plutôt que de vouloir réinventer la roue encore et toujours comme on le fait trop souvent dans le monde de l’informatique.

Du coup, j’y ai eu recours largement, aussi bien pour mon usage personnel que professionnel, comme pour le LMS que j’ai mis en place à la demande de mon épouse pour son activité de formations Montessori.

Oui, mais, il y avait une condition tout de même, une condition critique, sine qua non comme dirait un juriste. Et cette condition, c’était la confiance dans les prestataires de ces services distants. Eh oui, à quoi bon un service de stockage en ligne si vos fichiers risquent d’être perdus pour un oui ou pour un non (je me contente ici d’un exemple simple, mais vous avez compris le principe…). Mauvaise nouvelle : on ne peut PAS leur faire confiance !

Comment puis-je être aussi catégorique ?

Simplement en acceptant les faits pour ce qu’ils sont : ce que je viens de vivre (de subir devrais-je écrire) démontre que Google n’est pas digne de la confiance qu’on place en lui. Et il ne s’agit pas seulement de Google (ce serait trop beau), c’est pareil pour les autres aussi : Apple, Amazon, Facebook, les fameux GAFA qui dominent désormais notre planète numérique. OK, vous avez assez patienté, passons au déroulé des faits qui parlent par eux-mêmes :

Le 11 décembre, je reçois plusieurs messages des utilisateurs de notre LMS qui s’inquiètent de ne plus avoir accès à certains contenus (les contenus en question, audio et vidéo, sont justement hébergés sur Gdrive…). Habitué à ce genre de message (« ça marche plus… ah ben si finalement, ça marche ! »), je ne me suis pas trop affolé, mais je suis tout de même allé vérifier (c’est beau la conscience professionnelle, hein !). Et là, j’ai bien été obligé de constater l’ampleur des dégâts : plus aucun des contenus stockés sur Gdrive n’était accessible depuis notre plateforme. Si j’allais sur Gdrive je constatais qu’ils étaient encore là (ouf !), mais à travers notre LMS, terminé, fini, plus rien.

Aussitôt, je fais appel au support technique de Google et je me retrouve dans une session de messagerie instantanée pendant près d’une heure avec une interlocutrice (Lala) qui m’a bizarrement fait l’effet d’un robot (ils utilisent déjà des robots pour le support ?). Bref, au bout d’une heure, le robot me dit que mon cas va faire l’objet d’une enquête (investigation). Le même jour, je reçois un premier message email qui me confirme le statut de ma requête :

Hi Lefebvre,

Thank you for contacting Google Drive!

Per our conversation, at this time I have reviewed your case and am currently waiting for my teammates to provide some information. I wanted to let you know that your case is being worked on and I will get back to you as soon as possible.

In the meantime, please do let me know if you discover any additional information that may be helpful in finding a solution.

Thanks for your patience.
If you have any more questions, please reply to this email. I’m happy to help!

Thanks !

Lala
The Google Support Team

googmess1

Le lendemain, je reçois le message suivant :

Hi Lefebvre,

Thank you for your request. I have received an email regarding your Inquiry about your Google Drive contents (a video for example) unable to be previewed from a hosting website. Unfortunately Google Drive discontinued supporting web hosting. You can refer to this link : https://support.google.com/drivekb/answer/6089022

One solution is to upload your video In Youtube and use it to embed links into your hosting site. Just a reminder, Google Drive and Youtube is not fully Integrated yet so you will still need to manually re upload the file to Youtube.

Thanks !

Oliver
The Google Support Team

googmess2N’en croyant pas mes yeux, j’essaye quand même d’aller voir les explications proposées, mais le lien ne débouche sur rien (voir ci-dessous, encore une fois je n’invente rien, hélas !)…

liengoogInutile d’expliquer que Youtube ne pouvait pas être une solution acceptable pour nous puisque la migration s’annonçait mal vu l’absence d’outil. Je réponds donc ceci (en espérant autre chose) :

What do you mean by « Google Drive discontinued supporting web hosting »?

When and where it has been annouced?
And do you realize that migrate my videos from gdrive to youtube will be an huge workload for me (I have dozen and dozen of videos for my LMS !).
The same for all the PDF (I have hundreds!).
And your link  https://support.google.com/drivekb/answer/6089022 send me to nothing… have another url to explain your position ?
Et voici leur réponse (plus que décevante) :

Hi Lefebvre,

Thank you for contacting the Google Drive Team.

I am currently handling your concern and I just need to let you know that the option given to you by the previous representative is the best that we can offer right now. I hope that you understand and you may also send a feedback to Google about supporting web hosting. You may visit : http://www.google.com/tools/feedback/intl/en/learnmore.html

If you have any more questions, please reply to this email. I’m happy to help!

Thanks !

Red
The Google Support Team

googmess3Mon message suivant est plus pressant déjà :

I do not want to be aggressive and I have great respect for what google does overall but … but your responses are completely useless!
I just wonder where is stated that the web hosting support is arrested for GDrive and you are unable to point it out!
One would think that this is stated nowhere and it is an arbitrary decision on your part …
I hope all the same he will find someone to take my request seriously and give me a serious answer, finally.
Regards.
Mais la dernière réponse est du même acabit :

Hi Lefebvre,

Thanks for the reply.

Once again, my apologies for the inconvenience. For the moment the feedback link is just our best option. I hope you understand.

If you have any more questions, please reply to this email. I’m happy to help!

Thanks !

Red
The Google Support Team

googmess4Bref, on (Google) a décidé d’arrêter cette fonction. On est incapable d’expliquer où on a prévenu (si même on a prévenu), mais on espère que notre absence de réponse vous a rendu heureux d’avoir contacté le support… Comme devais-je le prendre ?

Peu importe puisque j’ai passé ensuite deux semaines assez tendues où j’ai été obligé de migrer en catastrophe plus de 600 fichiers sur un de mes serveurs privés équipé de Filezilla (version serveur). Encore heureux qu’on ait pu mettre cela en place rapidement grâce à notre sysadmin hors pair !

Moralité : seules les solutions open source sont pérennes (les grands projets au moins) et seules ces solutions devaient être utilisées par moi, par vous, par tous. Bien entendu, je ne pense pas vous convaincre avec ma petite mésaventure, mais, honnêtement, je ne pouvais pas garder cela pour moi, sous silence. Peut-être que ce récit va éviter à l’un ou à l’autre de se faire avoir par Google et consorts dans une situation du même type.

D’un mal peut sortir un bien et, pour ma part, la leçon a porté : je vais consacrer ce début d’année à me sortir de toutes les dépendances que j’ai avec ces acteurs : terminé Gmail, Facebook, Youtube et autres. Cela va me prendre un peu de temps et, dans certains cas, ça ne sera pas très pratique, mais si je me laisse tromper plusieurs fois, alors je mérite ce qui m’arrive !

Yahoo! va fermer AltaVista !

Le 8 juillet prochain, AltaVista va être fermé par Yahoo!, son propriétaire actuel. Ce moteur de recherche a ouvert la voie à Google et, ne serait-ce que pour cela, mérite d’être garder en mémoire…

AltaVista ou Alta Vista (littéralement « vue d’en haut » en espagnol) est un moteur de recherche du World Wide Web. Il fut mis en ligne à l’adresse web altavista.digital.com en décembre 1995 et développé par des chercheurs de Digital Equipment Corporation. Il fut le plus important moteur de recherche textuelle utilisé avant l’arrivée de Google qui le détrôna.

Bien qu’il y ait une polémique concernant l’auteur de l’idée originale, on s’accorde à dire que les deux principaux contributeurs ont été Louis Monier, qui a écrit le Robot, et Michael Burrows, qui a écrit l’indexeur1.

AltaVista a été le premier moteur de recherche capable d’indexerrapidement une bonne partie des pages web existantes et devint immédiatement très populaire. Il fut également le premier moteur de recherche multilingue (la version française fut ouverte le 15 février 2000), ainsi qu’à lancer la recherche d’images, de fichiers audio et de vidéos.

Une photo d’écran, vite avant la fermeture !

10 personnages importants et pourtant peu connus…

L’histoire de l’informatique est pleine de héros et de personnages riches et célèbres… Mais toutes ses célébrités sont-elles les seules à vraiment avoir écrit cette histoire ?
Bien sûr que non !
Il a plein de héros méconnus qui ont contribué de manière importante, souvent décisive à cette histoire. En voici 10. Une sélection forcément trop restreinte mais que j’espère tout de même significative.

Il y a vingt ans, le Web…

Le 30 avril 1993, le CERN offrait au domaine public la technologie world wide web et les applications permettant de développer des sites Web. Et mettait en ligne le premier site en www. à l’adresse suivante http://info.cern.ch/hypertext/WWW/Status.html

Le développement du 1er site depuis le poste NeXT de Tim Berners-Lee

Gates & Allen, 32 ans après, même photo ou presque !

gates-allen

 

Lors d’une visite de Bill Gates au musée de l’informatique de Seattle (le Living Computer Museum), créé par son ancien complice Paul Allen, les deux compères n’ont pas résisté au plaisir de récréer l’histoire… En effet, à cette occasion, ils ont refait la même photo, entourés de micro de l’époque, pile au moment de la sortie du PC d’IBM.

Hommage à Turing, Google donne l’exemple !

La communauté scientifique mondiale – ainsi que le géant Google à sa manière (via un petit jeu dans son doodle) – commémorent ce samedi le centenaire de son fils mal aimé et père de l’informatique moderne, le génie des mathématiques britannique Alan Turing.

La nécessité de comprendre l’histoire afin d’éviter de (re)faire toujours les mêmes erreurs…

Voilà un excellent article qui illustre bien la nécessité de comprendre l’histoire afin d’éviter de (re)faire toujours les mêmes erreurs… Où Google pourrait être le prochaine Netscape/Sun/Yahoo sur la liste des tristes fins !

à lire à http://www.cio.com/article/702348/Is_Google_Facing_the_Beginning_of_the_End_?page=1&taxonomyId=3119

Un concours sur l’histoire de l’informatique, enfin !

Le site du zéro organise une sympathique concours sur l’histoire de l’informatique (il y a même des lots à gagner !)… Pour participer, il faut s’inscrire sur le site, voyez sur cette page http://www.siteduzero.com/news-62-43074-p1-lancement-du-concours-anniversaire-les-12-ans-du-site-du-zero.html

Une chronique excellente : « Ignorer la sagesse collective » par Laurent Poulain

Ignorer la sagesse collective à http://deselection.wordpress.com/2011/10/28/ignorer-la-sagesse-collective/
Excellent, vraiment une excellente chronique !

Je crois que la phrase la plus significative est « Mais pour créer le prochain Google ou le prochain Facebook, il faut faire quelque chose que personne ne fait. De préférence, quelque chose que personne ne veut faire, afin que la concurrence se moque de votre idée jusqu’à ce qu’il soit trop tard. »… Tout est dit !
J’ai participé à une start-up (qui n’a pas connu le succès, hélas !) et je peux dire que tout ce qu’écrit Laurent est justifié et exact, je peux le confirmer…
Bravo Laurent, well done.

A propos de Steve Jobs, extraits du livre…

La meilleure façon d’évoquer Steve Jobs après sa disparition, c’est encore de le laisser parler… Voici un extrait de notre livre où Steve raconte un épisode clé de son parcours :

On sait que c’est lors de sa visite au Xerox Parc que Steve Jobs va avoir la révélation : tous ses prochains ordinateurs devront reposer sur une interface graphique comme celle qu’il a pu découvrir sur la station Xerox Alto. Jobs raconte ainsi ce qu’il vit ce jour-là :

« Ils me montrèrent trois choses ce jour-là. Mais j’étais si aveuglé par la première que je ne vis même pas vraiment les deux autres. Une des choses qu’ils me montrèrent était la programmation orientée objet mais je n’ai même pas vu cela. L’autre chose qu’ils me montrèrent était un réseau d’ordinateurs connectés… Ils avaient plus d’une centaine d’Alto en réseau qui s’envoyaient des mails et ainsi de suite. Mais je ne vis pas vraiment cela non plus. J’étais complètement ébloui par la première chose qu’ils me montrèrent et c’était l’interface graphique.

Je pensais alors que c’était la plus belle chose que j’avais vue de ma vie. Maintenant, je me souviens qu’elle était pleine de défauts, très incomplète et qu’ils s’étaient trompés sur bien des points. Mais nous ne le savions pas à ce moment et je pense toujours qu’ils avaient là le germe d’une idée puissante. En dix minutes, il paraissait évident que tous les ordinateurs allaient ressembler à ça à terme. »

Steve Jobs étant quelqu’un de très visuel (d’où l’importance qu’il attache à l’esthétique de ses produits), il n’est pas étonnant que l’interface graphique lui ait fait manquer les deux autres innovations qui lui ont été présentées.

Un autre extrait, plus long mais significatif :

L’itinéraire de Steve est très particulier. Ce n’est pas un technicien comme le sont les fondateurs de Google. Ce n’est pas non plus un businessman de formation comme peuvent l’être Jeff Bezos (le fondateur d’Amazon.com) ou Steve Balmer (PDG actuel de Microsoft). Ni même le type d’homme d’affaires que des entrepreneurs amateurs deviennent, comme Bill Gates. Si Steve Jobs est devenu un excellent businessman, sa motivation est très différente de celle du monde des affaires traditionnel. Alors que Bill Gates est intéressé par être le numéro un, Steve Jobs cherche à être le meilleur — nuance subtile (« And our primary goal here is to make the world’s best PC — not to be the biggest or the riches » a-t-il dit dans une interview à Business Week). Steve est en effet un idéaliste. Il ne travaille pas pour l’argent, il ne veut pas forcément conquérir tout un marché, mais cherche à « faire une brèche dans l’univers » (« make a dent in the universe »). Ce n’est sans doute pas par hasard que deux des marques que Steve adore sont Porsche (les voitures de sport) et Miele (les lave-vaisselles). Deux compagnies connues pour vendre des produits de haute qualité -et avec de confortables marges. Alors qu’un homme d’affaire essaiera d’être le plus rationnel et objectif possible, la manière de travailler de Steve est extrêmement émotionnelle et subjective. À commencer par son obsession du design, pas seulement extérieur mais plus généralement la conception. C’est par exemple parce que Steve a suivi un cours de calligraphie à l’université que le Macintosh a eu dès le début des fontes proportionnelles. Pour Jobs, soit un produit est « génial » (« insanely great » était son adjectif favori), soit c’est une « daube » (« crap« ). Soit une personne est géniale, soit c’est un rigolo (« bozo« ). Bien évidemment, Steve ne veut avoir affaire qu’à des produits et personnes du premier type. C’est un perfectionniste qui n’attend que le meilleur de ses troupes.

Microsoft est prêt à vendre n’importe quel type de logiciel du moment que cela rapporte. Apple au contraire ne s’aventure sur un marché que s’il peut créer un produit « génial » qui dépasse tout ce qui existe. Pour Bill Gates le businessman, faire affaire avec IBM lorsque ce dernier cherchait des partenaires pour son futur PC en 1980 était du pain béni : il était évident que travailler avec Big Blue ouvrait la porte à un marché colossal. Mais pour l’idéaliste Steve Jobs cela aurait été impensable -si tant est que Big Blue ait été intéressé de faire affaire avec Apple. Tout d’abord Steve considérait à l’époque IBM comme l’establishment -l’ennemi à abattre. Ensuite il n’aurait jamais accepté de se plier aux exigences d’Armonk et de leur laisser le contrôle sur quoi que ce soit. Il aurait enfin refusé de travailler sur une « daube » comme l’IBM PC. La plupart des particularités de la culture Apple dérivent de ce désir de Steve de « faire une brèche dans l’univers ».

Créer des produits qui dépassent ce qui existe demande une grande créativité et beaucoup d’idées. À ce sujet, Steve se plaît à citer Picasso : « Les bons artistes copient. Les grands artistes volent ». Et sur ce point, Jobs plaide coupable (« We have always been shameless about stealing great ideas »). Le génie de Jobs ne consiste pas à inventer des idées révolutionnaires, mais à les repérer avant tout le monde. Les repérer lorsqu’elles ne sont qu’à l’état embryonnaire et les transformer en un produit destiné à la grande consommation. C’est ce qui fait de Steve Jobs un visionnaire. Ce sont les compétences en électronique de Steve Wozniak qui ont permis à l’Apple// d’exister -il fallait réduire au maximum le nombre de processeurs. Mais c’est Steve Jobs qui a eu la vision d’un ordinateur en tant que produit fini, livré dans un boîtier plastique de qualité. L’interface graphique a été inventée par Xerox. Mais c’est Apple qui l’a commercialisé le premier avec le Lisa puis avec le Macintosh car Steve a été le premier manager à voir l’intérêt d’une telle technologie, a copié l’idée et l’a transformée en un produit. C’est Tony Fadell, alors un contractant indépendant, qui a eu en 2001 la vision d’un baladeur MP3 lié avec une plate-forme de vente de musique. Lui et son partenaire ont frappé à de nombreuses portes pour vendre leur idée. Mais seul Apple a été intéressé et a rapidement embauché Fadell. Et c’est Steve Jobs qui, en étant fortement impliqué dans le développement de l’iPod à quasiment tous les niveaux, a transformé le business modèle de Fadell en un produit culte. Finalement, le marché du smartphone était bel et bien existant avant l’arrivée d’Apple. Mais ce dernier a réussi à créer la sensation avec son iPhone.

La culture d’Apple a beaucoup en commun avec les constructeurs de micro-ordinateurs des années soixante-dix : on conçoit le meilleur produit que l’on peut, et on se distingue principalement par la qualité du produit et/ou le prix -uniquement le produit dans le cas d’Apple. L’un des challenges d’Apple a donc été de créer ces produits. Steve a beau avoir la vision, il faut des gens pour transformer cette vision en réalité. Jobs a tout d’abord été très bon pour attirer les talents pour développer ses produits : Steve Wozniak, Tony Fadell et bien d’autres. Apple a dû également créer une culture centrée autour du produit. Mais pas une culture d’engineering typique où plus on ajoute de fonctionnalités mieux c’est (comme c’est souvent le cas chez les autres comme Microsoft par exemple). Une culture qui prend en compte l’aspect design et qui partage l’obsession de Steve pour les détails et le goût de l’excellence. Pour Microsoft, développer un produit est un moyen, le vendre est une fin. Pour Apple, créer le produit est une fin en soi et la vente est un processus naturel -dans l’esprit de Steve il est évident que le public va acheter ses produits car ils sont les meilleurs. Apple a parfois fait appel à des compagnies externes pour développer ses produits. Un exemple célèbre est pour la souris de son premier Macintosh, où la firme à la pomme a fait appel à la célèbre société de design IDEO. Pour ses premiers iPods, pressé par le temps, Apple s’est basé sur le système d’exploitation de PortalPlayer — ce dernier a cependant dû travailler quasiment exclusivement pour Cupertino et signer un accord de confidentialité draconien. Mais, dans beaucoup de cas, si Apple peut réinventer la roue (en mieux évidemment), Apple le fera. Pour l’interface graphique du Lisa et du Macintosh, Steve Jobs a réussi à obtenir de Xerox que leur équipe de Palo Alto lui montre leur travail sur l’interface graphique. Les développeurs d’Apple s’en sont inspirés pour concevoir leur propre interface graphique. Si la firme à la pomme a tout naturellement démarché de nombreux talents pour développer ses produits, elle n’a que rarement racheté des compagnies pour leur technologie, pratique commune dans l’industrie — une exception notable est le rachat en 2008 de PA Semiconductor afin de gagner de l’expertise en microprocesseurs. Mais Apple n’a racheté aucune compagnie pendant trois ans (de 2002 à 2005). C’est ainsi que l’iPhone a ainsi été grandement conçu en interne. Pour le système d’exploitation de ce dernier, Apple a considéré utiliser Linux, mais Steve Jobs a refusé et Apple a fini par écrire une version portable de Mac OS X. Autrement dit, si Apple n’hésite pas à prendre des idées de l’extérieur, il privilégie la mise en œuvre de ces idées en interne.

Avant son éviction d’Apple (en 1985), Steve avait lancé de nombreux projets au sein de sa compagnie. Mais son passage par NeXT l’a grandement changé, et à son retour à Cupertino (en 1997) il a adopté une position radicalement opposée. L’une de ses premières actions à son retour à la tête d’Apple a été de faire des grandes coupes. La gamme produite a été limitée au strict minimum : ordinateurs portables et ordinateurs de bureau, et les deux lignes de produits avaient une version standard et une version haut de gamme. De nombreux projets internes ont été éliminés. Steve se plaît à dire que des nombreux succès de sa compagnie, les produits qui n’ont pas été lancés comptent autant que les produits qui ont effectivement été lancés. D’ailleurs, les managers d’Apple sont plus souvent évalués sur l’argent qu’ils ne dépensent pas que sur l’argent qu’ils dépensent. Apple n’a aucune dette, est très profitable et a 20 milliards de dollars en banque. La firme à la pomme n’ouvre pourtant que rarement les cordons de sa bourse. Alors que Google et Microsoft — deux autres compagnies avec des milliards en banque — n’hésitent pas à investir des centaines de millions dans des projets sans retour immédiat, Apple n’investit que dans des domaines directement liés à sa gamme de produit existante.

Étant donné qu’il veut se différencier principalement par son produit, Apple a naturellement préféré utiliser un modèle d’intégration verticale dès que possible -modèle qui était commun à tous les constructeurs de son époque. Mais Apple a même été plus loin que sa culture d’origine en concevant son premier microprocesseur : l’Apple A4, pour son iPad (l’A4 est en fait plus customisé à partir de l’architecture ARM qu’entièrement conçu -de même, Apple ne possède pas ses propres fonderies). Les constructeurs de micro-ordinateurs des années soixante-dix concevaient toute l’électronique sauf le microprocesseur, qui aurait demandé beaucoup trop d’investissements. À noter qu’Apple a outsourcé la production même (la firme à la pomme ne possède plus d’usine de production), mais a surtout appliqué l’intégration verticale au niveau de la conception.

Steve est un maniaque du contrôle et veut tout régenter (« I’ve always wanted to own and control the primary technology in everything we do ») — c’est sans doute la raison pour laquelle il a tellement adoré la micro-informatique des années soixante-dix. Or la meilleure manière de tout contrôler est de tout concevoir. Si Apple ne peut bien évidemment pas tout faire (ils ne vont pas commencer à faire leur propre fonderie plastique), ils ont conçu leurs propres composants dès qu’ils peuvent. Mais lorsqu’on est habitué à tout faire tout seul, on n’a qu’une patience limitée avec les partenaires. La firme à la pomme est connue pour être extrêmement exigeante avec ses fournisseurs et partenaires. Étant un négociateur hors pair, Steve Jobs arrive généralement à ce qu’il désire avec ces derniers. Si Microsoft est la main de fer dans un gant de velours, Apple est la main de fer dans un gant de fer, mais un gant tellement séduisant qu’on veut quand même lui serrer la main -même si on le regrette rapidement. Jobs s’est par exemple mis à dos plusieurs maisons de disques (Universal en particulier) lorsqu’il a refusé d’augmenter le prix de la musique qu’Apple vendait en ligne. Pour les fournisseurs, travailler avec Apple n’est pas de tout repos. Par exemple, les fabricants d’accessoires pour iPod apprennent la sortie de nouveaux iPods en même temps que les clients et doivent se ruer pour adapter leurs produits aux nouvelles spécifications. De même, les conditions pour développer des applications pour l’iPhone sont très contraignantes. Accord de confidentialité strict, obligation de passer par l’App Store d’Apple pour distribuer ses applications iPhone, applications qui peuvent être rejetées sans aucune explication, etc.

Apple reste avant tout un fabricant de matériel. La firme à la pomme aime offrir une solution complète et aime vendre un produit fini, packagé. La compagnie se fait certes de l’argent en vendant de la musique en ligne ou des applications pour iPhone, mais les revenus restent sans commune mesure avec les revenus liés à la vente de matériel. Il est intéressant de noter qu’Apple n’est pas très orienté Web. Par exemple, iTunes est un logiciel traditionnel -s’il utilise Internet pour l’achat de musique, il demande d’être installé sur sa machine. Amazon.com utilise son site Web pour vendre sa musique en ligne — pas Apple. Mais tous les vendeurs de matériel ont à gérer un inventaire -le cauchemar de tous les constructeurs. Ne construisez pas assez et vous perdez des ventes. Construisez trop et vous vous retrouvez avec un stock invendu sur les bras. C’est pour cette raison que Steve a embauché Tim Cook, considéré comme un génie dans de l’opérationnel. Et ce dernier a fait un excellent travail chez Apple -la compagnie est désormais extrêmement bien organisée opérationnellement parlant.

Les produits Apple n’ont jamais été bon marché. Cela est dû d’une part à l’intransigeance de Steve sur la qualité de ses produits et d’autre part à son goût prononcé pour les marges confortables -certains disent que Steve ne lance pas un produit s’il ne se fait pas au moins 20% de marge, ce qui est inédit dans le marché des fabricants de matériel. D’ailleurs, de nombreux produits que Steve a lancés ont été des échecs commerciaux en grande partie du fait de leur prix beaucoup trop élevé : l’Apple III, le Lisa, le NeXT et même les premiers Macintosh. Steve a toujours pensé que les gens seraient prêts à payer plus pour un produit de meilleure qualité (cela est vrai, mais uniquement dans une certaine mesure). Il faut dire que les débuts d’Apple n’ont pas fait grand-chose pour dissuader Jobs. Jusque dans les années quatre-vingt Apple a roulé sur l’or uniquement grâce à l’Apple//, une machine parfois surnommée à l’époque la Rolls Royce des micro-ordinateurs. L’Apple// était littéralement dix fois plus cher que d’autres ordinateurs : 10 000 FF (1 500 €) pour l’Apple//, à comparer aux 1 000 FF (150 €) pour le Sinclair ZX-81 (prix de l’époque). Les capacités de ces deux ordinateurs n’avaient peut-être rien à voir, ils se trouvaient néanmoins côte à côte dans les bancs d’essai de la presse de l’époque. Fort des leçons du NeXT, Steve a depuis essayé de limiter le prix tout en conservant des marges confortables. On trouve par exemple des modèles d’iPods d’entrée de gamme comme l’iPod Shuffle à 80 €. Et l’iPhone n’est pas plus cher que les autres smartphones. Il faut dire que pour ce dernier, Steve a trouvé la parade : se payer en touchant une partie de l’abonnement des iPhones.

Lorsque l’on cherche à vendre des produits haut de gamme, on a intérêt à avoir un bon marketing. Et lorsque l’on désire vendre du haut de gamme à un marché principalement grand public, l’aspect émotionnel est important. Sur ce point Apple a su développer une mystique. La firme à la pomme a certes un fan-club très loyal, mais ce n’est pas suffisant pour être en bonne santé. La combinaison de l’innovation et du design fait qu’Apple génère énormément de buzz, même au sein des gens qui n’ont jamais acheté Apple. C’est pour cette raison qu’Apple est une compagnie notoirement extrêmement secrète. Le meilleur moyen de faire parler de soi est de surprendre tout le monde, comme cela a été le cas avec l’iPhone. Et pour surprendre tout le monde lorsqu’on s’appelle Apple, il faut s’assurer qu’il n’y a aucune fuite en amont en prenant des mesures draconiennes.

Mais l’aspect émotionnel est limité lorsque l’on vend en entreprise. De même, réinventer n’est pas forcément du goût des entreprises qui préfèrent la compatibilité avec l’existant. C’est peut-être pour ça que Steve a souvent répété en interne qu’Apple ne vend pas aux entreprises (« Apple is not an enterprise company »). Il existe bien sûr des exceptions. Cupertino vend des serveurs Mac (la gamme Xserve). Il vante désormais l’interconnexion avec Microsoft Exchange de son iPhone comme de la dernière version de Mac OS X. Et pendant longtemps l’édition a été un bastion d’Apple. Mais le marché d’entreprise est rarement un marché stratégique pour Apple.

Les forces d’Apple en font une compagnie idéale pour s’attaquer à des marchés hi-tech non matures. Pour ce type de marché, l’offre manque encore de finition -un domaine où Apple excelle. Lorsqu’un marché devient mature, la différenciation du produit est de moins en moins importante et d’autres facteurs tels que le prix ou le service importent de plus en plus. Pour survivre, Apple doit donc régulièrement trouver de nouveaux marchés. Même si les ventes du Mac se portent bien depuis le retour de Steve, la firme à la pomme a dû son salut à l’iPod. Afin d’éviter de souffrir d’un phénomène de commoditisation des baladeurs MP3, Apple a consolidé sa position en s’attaquant aux marchés adjacents du smartphone et de l’ordinateur de poche/console de jeu de poche en sortant son iPhone puis son iPod Touch. Lorsqu’on cherche à se différencier par ses produits, on est en constante course pour toujours innover. Mais il est intéressant de noter que beaucoup des forces d’Apple (trouver une vision, attirer les talents, séduire des partenaires) sont apportées par Steve Jobs lui-même.

Merci encore Steve.

Steve Jobs

Une belle représentation des multiples facettes de Steve...

25 ans de virus informatique, une rétrospective !

Sur http://www.techyou.fr/2011/08/12/virustory-25-ans-de-virus-informatiques/

Extrait : en 25 ans, les virus informatiques sont passés du stade de gags potaches au rang d’armes de destruction massive. Chronologie d’une contagion galopante.2011 et voici poindre les 25 ans des premiers virus sur PC. Alors que l’on en dénombrait seulement 18 en 1989, leur nombre n’a cessé de croître. Si l’éditeur d’anti-virus Dr Salomon’s en recensait déjà 17745 en 1989, ils ont été nombreux, depuis, à se succéder, avec plus ou moins de voracité, passant du défi au délit.

Linux pour le desktop… 10 après, Ubuntu l’a fait !

Cela fait plus ou moins depuis 10 ans que je surveille l’évolution de Linux afin de voir à quel moment ce dernier sera prêt pour le « desktop », c’est-à-dire représenté une alternative viable à Windows ou même Mac OS. Et, aujourd’hui, j’ai pu constater que c’était fait : installer Ubuntu sur une machine prévue pour Windows est non seulement facile mais également largement profitable !

Les fans de Linux vont se dirent « Lefebvre est gentil mais il retarde : ça fait déjà un bon moment que c’est le cas ! »… Sans doute, mais il fallait que j’en fasse l’expérience moi-même sur un cas concret pour en être certain. Voyons cela en détail…

Mon fils Damien (13 ans) venait de s’acheter (avec son argent) un Netbook HP Mini et celui-ci venait avec Windows Seven Start Edition d’installer. Je connais un peu Windows Seven puisque c’est ce système qui est installé sur ma machine dédiée à la simulation (et qui a ainsi pu remplacer mon vieux Windows XP qui commençait à montrer son âge). Mais je n’imaginais pas que la version « Starter Edition » de Windows Seven était aussi bridée !
En fait, Starter Edition interdit carrément de personnaliser ou même de configurer sa machine correctement, un vrai système vexatoire… On se demande ce qu’avait Microsoft en tête en mettant sur le marché une déclinaison aussi peu utilisable de son dernier Opus en matière d’OS ?

Après le fiasco de Vista, Microsoft a une sacrée pente à remonter et ce n’est pas comme cela que cette société va améliorer son image, surtout auprès des jeunes utilisateurs… Bref, avec Damien, nous nous sommes concertés et j’en suis venu à lui proposer de passer à Linux (vu qu’il n’est pas intéressé par les logiciels Microsoft spécifiques à Windows comme Office et penche plus pour le développement en C, l’évolution vers Linux était naturelle…).

C’est donc ainsi que j’ai pu renouveler mon expérience de Linux (je faisais un essai de loin en loin à peu près une fois par an, sur différentes machines mais jamais dans un vrai cas concret d’utilisation). L’installation est simple et n’appelle aucun commentaire : les différents sous-systèmes (son, réseau, etc.) de la machines sont reconnus sans avoir à configurer quoi que ce soit. Un premier bon point.

Ensuite, pour ajouter des logiciels à ceux déjà présents, il y a l’excellent « Ubuntu Software Center », équivalent de « l’App Store » présent sur Mac OS (et là, Ubuntu est carrément en avance sur Windows où l’on attend encore une initiative dans ce domaine). Grâce au Software Center, l’installation de nouveaux logiciels (auparavant souvent problématique sous Linux, sauf à savoir comment choisir les bons « packages » et aussi savoir où les mettre…) est transparente. C’est ainsi que Damien a pu installer (seul) Google Chrome qu’il préfère à Firefox.

Enfin et c’est là que j’attendais Ubuntu au tournant, vient le dernier test « monde réel »… L’installation d’une imprimante !
Chez nous, les différentes imprimantes sont partagées en réseau local grâce à un vieux Mac Mini qui termine sa carrière ainsi. J’ai donc voulu voir comme Ubuntu reconnaît cela et rendait facile l’ajout d’une imprimante dans sa configuration. Eh bien, là aussi 10 sur 10 : la Laserjet (partagée en réseau avec le protocole « bonjour » d’Apple ») est reconnue du premier coup sans même avoir à lui indiquer le chemin ou le serveur. Bon et l’impression est-elle correcte (le driver est-il bon ? car avec la Laserjet 1020, c’est un point crucial !) ?
Une fois de plus, Ubuntu passe le test haut la main…

Ma petite série de test (installation système, installation d’applications et d’imprimantes) paraîtra sans doute légère à certains mais, pour moi, ce sont là les éléments essentiels pour prétendre au label « utilisation concrète dans le monde réel ». Avec Ubuntu, Linux est donc « desktop-ready » longtemps après avoir conquis le monde des serveurs (où là, c’est plutôt à la concurrence de remonter la pente !).

Ce délai nécessaire (mettons 10 ans) à la maturation d’une offre système pour poste client me fait penser que lorsque Google Chrome OS sera enfin disponible, il lui faudra encore un peu de temps avant d’être capable de franchir mes petits tests aussi confortablement qu’Ubuntu.

En tout cas, cette évolution ne dit rien de bon pour l’avenir de Microsoft. Certes, l’éditeur de Redmond a encore des réserves (de cash !) et l’inertie naturelle du marché fait qu’un grand acteur de l’informatique met un peu de temps avant de tomber. Mais quand la perte de « mind share » est patente, la perte de « market share » suit inévitablement derrière… Cela s’est toujours passé ainsi et je ne vois pas pourquoi Microsoft échapperait à la règle.

 

Le tout premier « jeu vidéo » date de 1958 !

Il est toujours difficile de pointer sur la toute première occurrence de quoi que ce soit et encore plus quand il s’agit d’informatique : le premier ordinateur, le premier mini, le premier micro et ainsi de suite… Pareil pour le domaine ô combien riche est varié des jeux vidéo !

Mais là, c’est clair qu’il s’agit d’un ancêtre et sans doute bien le tout premier… L’origine remonte à 1958, conçu par William Higginbotham au « Brookhaven National Labs » de Long Island, NY :

Le projet SABRE… Vu par IBM !

Sabre a été créé dans les années 50-60 pour répondre à la demande d’American Airlines… Le système est toujours en place, 60 ans plus tard !
SABRE est un des grands projets qui a fait avancer la technique informatique. Par exemple, c’est avec SABRE que les premiers disques durs de stockage ont été utilisés.

Extrait du livre à ce sujet :

Premier réseau informatique à but commercial, SABRE (Semi Automated Business Related Environment) a été réalisé par IBM au début des années soixante. Au moment de sa mise en service, il va relier 1 200 téléscripteurs à travers les Etats-Unis pour la réservation des vols de la compagnie American Airlines. Cette compagnie faisait face à de sérieux problèmes dans son processus de réservation dans les années 1950. Le système de réservation historique d’American Airlines était alors entièrement manuel. Un processus plus automatisé était nécessaire pour faire entrer American Airline dans l’ère du transport aérien à grande échelle.
En 1953 un commercial de haut niveau d’IBM, Blaire Smith, rencontre C. R. Smith, président d’American Airlines, à l’occasion d’un voyage d’affaires et ils discutent de leurs activités professionnelles respectives. À cette époque-là, IBM travaillait justement pour l’US Air Force sur le projet SAGE… Il n’a pas échappé aux deux businessmen que le principe fonctionnel de SAGE pouvait être adapté aux besoins d’American Airline en matière de réservation. 30 jours après cette rencontre, IBM soumet une proposition de recherche à American Airlines, suggérant d’étudier le problème plus avant et d’évaluer l’opportunité d’utiliser un « cerveau électronique ».
Un contrat formel pour le développement est signé en 1957, et le premier système expérimental déployé en 1960. Le système est un succès — et un succès nécessaire, notamment en raison de son coût astronomique de 40 millions de dollars (de l’époque, soit environ 350 millions de dollars d’aujourd’hui) pour le développement et l’installation. À partir de 1964, toutes les réservations American Airlines sont gérées par ce système.
Les recherches nécessaires autour du projet SABRE ont aussi amené leur lot d’innovations. En 1956, IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo.

L’aventure de l’IBM 360 vue par… IBM !

C’est Fred Brooks qui raconte cette histoire passionnante : les débuts du projet 360, le premier mainframe standard qui permit la domination d’IBM sur le marché de l’informatique pendant des décennies. Brooks s’est occupé de l’OS/360.

Extrait du livre à ce sujet :

En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : 5 milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 !
Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré mais la nouvelle « salle blanche » allait demander plus de $450 pour la même surface !) mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.

IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un « quitte ou double » pour la compagnie mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 63, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ?
La première option était spectaculaire et assurait un impact maximum mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était le hit de Big Blue à ce moment-là) !
Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…

L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 qui avait pour particularité d’être entièrement compatible avec l’IBM 1401 (déjà évoqué dans le chapire un). Le H200 était entièrement compatible avec le 1401 mais en utilisant une électronique plus avancée, Honeywell obtient un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique !
L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
En dépit de l’effort titanesque effectué par la compagnie sur le « new product line » (« la nouvelle ligne de produit », nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à « mettre le paquet » sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs…
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle acceptait 40 modèles de périphériques dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail mais bien un ajout intelligent permettant à la base installée de « glisser » en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de $5 milliards, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme « l’ordinateur fait par IBM qui a fait IBM » et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant 30 ans et a défini l’architecture de base des mainframes encore en usage aujourd’hui !
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du 360 résidait dans son système d’exploitation System/360 dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai) mais, de toute façon, le traitement par lots représentait probablement plus de 95% l’informatique de l’époque !

Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.

Une préface pour un livre sur PHP… En 1999 !

Voilà un texte rédigé en 1999 pour la préface d’un livre sur PHP…

La décennie 90 est une des plus agitée de l’histoire de l’informatique : elle commence par l’explosion du client-serveur et se termine sur la généralisation du Web !

Dans ce tumulte, on a assisté à une prolifération inattendue des langages de programmation. Inattendue car la période précédente avait plutôt éteint les espoirs des challengers (tels que Pascal ou Smaltalk) de déloger Cobol et le C de leurs positions dominantes dans leurs domaines respectifs.

Passons rapidement sur les nombreux L4G (très peu ont survécu finalement) qui ont accompagné le mouvement client-serveur et revenons sur les premiers pas du Web. Il y a quelques années, les développeurs de sites Web interactifs n’avaient pas le choix, pour activer des traitements sur le serveur invoqués depuis une page HTML, il fallait passer par l’interface CGI. Toutefois, cette dernière vous laissait libre du langage à employer. Et, plutôt que le langage C, les concepteurs de sites se sont massivement rués sur PERL. En effet, ce langage, orienté production de rapports, était particulièrement à l’aise dans les manipulations de chaînes de caractères, plutôt pratique pour générer des pages HTML !

Le succès de PERL dans ce domaine a permis de contribuer à la reconnaissance du mouvement des logiciels à code source ouvert (ou logiciels libres) puisque ce langage fait partie intégrante de cette mouvance au même titre qu’Apache (le serveur HTTP le plus répandu sur le Net) ou Linux (qu’on ne présente plus !).

Le développement sur le Web ne s’est pas cantonné dans le recours à l’interface CGI, de nombreux serveurs d’applications sont apparus (la plupart reposant progressivement sur Java) et même PERL s’est affranchi de CGI grâce au module mod_perl qui lui permet d’être pris en charge par Apache pour de meilleures performances à l’exécution. Mais la situation n’a pas tourné au statut quo pour autant et le succès confirmé de PERL n’a pas empêché l’émergence d’un autre langage, lui aussi dans le cadre des logiciels libres, et cette fois véritablement spécialisé développement Web, PHP.

Une plaisanterie prétend que les lettres PHP signifient « People Hate Perl » (les gens détestent PERL !). La vérité c’est que le « préprocesseur hypertexte » prend une place laissée vacante : celle de langage dédié pour le Web.

Évidemment, il existe d’autres langages qui sont nés avec et exclusivement pour le Web tel que Cold Fusion mais il s’agit la plupart du temps de L4G commerciaux (Cold Fusion est la propriété de son éditeur Allaire corp.), PHP est le seul langage « libre » uniquement orienté Web et ce n’est pas rien. C’est de cette combinaison (spécialisation et développement collectif) que PHP tire tout son dynamisme.

Il n’est pas inutile de revenir sur le mécanisme de cercle vertueux qui donne aux logiciels libres un tel avantage sur les logiciels commerciaux mais permettez-moi d’abord une remarque : on n’a pas encore perçu toutes les conséquences de la lame de fond des OSS (Open Source Software) puisqu’elle remet aussi en question un des principes constatés dans le fonctionnement du marché des logiciels commerciaux, à savoir la règle « le vainqueur prend tout ».

Cette règle dévastatrice donne un avantage démesuré à l’éditeur du logiciel dominant sa catégorie puisque, effet de réseau aidant, son produit se retrouve assez rapidement en position de quasi-monopole (comme Microsoft Office sur la bureautique). La montée en puissance de PHP dans un secteur où PERL avait déjà un enracinement solide démontre que cette règle n’a pas cours avec le logiciel libre et c’est heureux !

Au moment où les entreprises découvrent à la fois les bénéfices du logiciel libre et la nécessité de tirer parti du Web pour son informatique et pour ses affaires, il n’est pas difficile de prédire à PHP un brillant avenir.

Biographie vidéo, au tour de Steve Jobs !

Incontournable Steve Jobs, impossible d’y échapper depuis dix ans… Cependant, quels que soient ses mérites (et ils y en a !), notre Steve est un peu comme Gates : il n’ a rien inventé et son influence sur la technique est quasi-nulle. Cependant, il a su « sentir » les tendances et en tirer parti (tout comme Bill d’ailleurs).

De l’arrivée des PC aux « systèmes ouverts »

Les années quatre-vingt débutent par un événement de taille : le lancement de l’IBM PC. L’engagement du spécialiste de l’informatique traditionnelle donne un tout autre poids à la micro-informatique. A-t-on conscience, à cette époque, du bouleversement que cela va provoquer ?

Difficile de dire si l’industrie, au sens large, était consciente des bouleversements à venir mais les acteurs impliqués étaient eux bien conscient de l’importance de l’entrée en lice du N°1 mondial. Apple par exemple a même été jusqu’à acheter une pleine page dans le Wall Street Journal avec pour seul message un grand « Welcome » pour marquer l’arrivée de ce concurrent de taille.

En revanche, il est clair que, à part quelques avant-gardistes comme Bruno Lussato, la plupart des observateurs n’imaginent pas une seconde que les micro-ordinateurs reliés en réseaux pourraient représenter une architecture alternative aux grands mainframes.

Jusque-là, le choix du matériel était déterminant. On choisissait IBM, Digital, Bull ou Sperry. Les notions de réputation du constructeur, de performance du matériel, étaient intimement liées à la notion d’application. Comment l’intérêt pour le logiciel va-t-il naître dans les entreprises ?

En fait, l’intérêt des entreprises a toujours été grand pour le logiciel, c’est pour le progiciel qu’il va naître progressivement. Il faut préciser que pendant une longue période, l’offre de logiciels sur étagère est pratiquement inexistante. Les clients sont habitués au « développement à la maison » (house programming) parce que, de toute façon, il n’y a pas d’autres moyens d’obtenir ce qu’on veut ou même ce dont on a besoin.

Les notions d’applicatifs et d’ordinateurs étaient tellement liées que l’idée même qu’il puisse y avoir des éditeurs de logiciels indépendants était étrangère à la plupart des gens. Ceux qui étaient assez clairvoyants pour avoir envie de se lancer dans ce nouveau business étaient souvent découragés par les professionnels qui n’imaginaient pas de place autrement que pour des acteurs fortement intégrés comme l’étaient alors tous les constructeurs.

IBM va choisir un petit éditeur, auteur d’un Basic, pour le développement du système d’exploitation de son PC. C’est une rupture à la fois avec l’approche traditionnelle (le constructeur met lui-même au point son système d’exploitation) et le début de standardisation autour de CPM de Digital Research. Cela aura-t-il des conséquences sur l’évolution future des logiciels applicatifs ?

Il faut d’abord se souvenir qu’IBM n’a pas choisi cette démarche, en rupture avec la logique (Digital Research, éditeur de CP/M, était l’incontestable leader de marché qui était alors encore assez réduit) et surtout avec ses propres habitudes (le syndrome du « not invented here » était très présent chez Big Blue), par sa seule volonté mais plutôt par accident : les juristes d’IBM ont effrayé les dirigeants de Digital Research avec leur NDA (non disclosure agreement), du coup, l’affaire n’a pu se conclure et ils sont retournés voir Microsoft trop content de récupérer aussi la réalisation du système d’exploitation (alors qu’à l’origine, IBM n’avait approché Microsoft que pour obtenir les droits sur le MS Basic).

Mais, il faut remonter à la genèse du projet PC pour comprendre pourquoi IBM s’est résolu à aller faire son marché auprès des leaders naissants de ce marché embryonnaire de la micro-informatique. IBM voulait investir ce marché dès 1978 mais les différents projets proposés ont été refusés par la direction pour diverses raisons. En 1980, le N°1 mondial n’avait toujours rien à proposer alors que, pendant ce temps, ce marché commençait à prendre de l’ampleur.

C’est donc en « mode panique » que l’état-major d’IBM a dépêché un commando chargé de boucler un projet viable en quelques mois… D’où la démarche de prendre des composants standards (et le processeur chez Intel) et des logiciels du marché.

C’est également cette conception « vite fait, mal fait » à base d’éléments largement disponibles qui rendit le PC si facilement copiable malgré les protections juridiques qu’IBM avait cru suffisantes.

L’autre conséquence, c’est qu’IBM a donné involontairement un large crédit à ses « fournisseurs » et ainsi a permis l’essor d’une catégorie d’acteurs qui, auparavant, n’existait presque pas : les éditeurs de logiciels. Les PC ont été copiés et vendus à très large échelle et les clients ont commencé à s’habituer à acheter des logiciels sur étagères, d’abord pour les PC mais la suite était facile à prévoir.

Assez rapidement, les utilisateurs vont d’abord « acheter un logiciel ». Un PC, c’est surtout Word et Multiplan. Un peu plus tard, un Macintosh, ce sera Mac Write et Excel. Ce qui semble clair dans le domaine, jeune, de la micro-informatique, a-t-il des répercussions dans le domaine de lamini-informatique, à l’époque exclusivement propriétaire ?

Dans un premier temps, pratiquement pas. Ce n’est que très progressivement, par le biais des L4G (comme Progress) et des SGBDR (comme Oracle) que les minis et d’abord les Vax de DEC ont commencé à connaître une offre logicielle un peu plus étoffée.

D’ailleurs, le discours de ces éditeurs (avec Oracle comme porte-drapeau) était précisément de se libérer de l’emprise des constructeurs grâce à leurs produits qui étaient naturellement multiplates-formes. En effet, un éditeur indépendant avait forcément besoin de « porter » son produit sur les différents minis disponibles à l’époque afin d’élargir son marché. Les portages étaient de qualité très inégale mais la couverture était quasiment totale.

On peut dire, en quelque sorte, que les éditeurs ont donné l’exemple d’abord par leur politique commerciale. Petit à petit, l’idée qu’on pouvait être indépendant des plates-formes matérielles à fait son chemin, on a même fini par appeler cela les « systèmes ouverts »…

Au tour de la bio (vidéo) de Bill Gates…

Bill Gates n’a pas eu une influence très importante sur l’évolution de la technique informatique. Il est même juste de dire qu’il n’a rien inventé. Mais, pour le comparer à d’autres illustres personnages de l’histoire des USA, s’il n’a pas été Edison, on peut dire qu’il a été le « Rockfeller » de son temps !

En effet, bien plus que sa faible influence sur la technique, on retiendra sa très forte influence sur l’industrie du logiciel et le marché informatique, sans conteste cette fois…