Quelques nouvelles de mon projet de livre « histoire critique de l’informatique moderne »

Il y a longtemps que je n’avais pas donné de nouvelles de ce projet mais c’est le dilemne classique : avancer concrétement (en clair passer son temps à rédiger) ou commenter (comme donner des nouvelles du projet sur le blog ou Facebook…) et, ces derniers temps, j’ai plutôt choisi d’avancer !

Aujourd’hui, tout de même, j’estime que l’avancement est suffisamment significatif pour vous en faire part… Alors, voici les principales news :

  • Laurent Poulain est désormais co-auteur de cet ouvrage.
  • Philippe Nieuwbourg en est toujours l’éditeur (à travers le musée de l’informatique) et, d’un commun accord avec lui, nous avons décidé de repousser la sortie du livre à septembre (on sera pas prêt avant anyway…).
  • Les deux premières parties (matériel/constructeurs et logiciel/éditeurs) sont quasiment terminées et en voici les pdf (quand j’écris « terminées », il s’agit juste de la partie rédaction… Il reste encore les illustrations, les notes de base de page, la mise en page, les corrections, etc.). Pour ceux qui avaient déjà lu la première partie, vous pouvez y revenir car elle a beaucoup bougé !

Bref, ça avance et vos contributions et témoignages (ça commence à venir, vous pourrez le voir dans les pdfs) sont toujours les bienvenus… Liens supprimés.

Désormais, nous nous consacrons à la rédaction de la 3ème partie : l’ère du réseau (histoire du réseau local et d’Internet) et c’est déjà bien partit !

Livre : Richard Stallman et la révolution du logiciel libre

Je viens de finir le livre suivant : Richard Stallman et la révolution du logiciel libre. Une biographie autorisée par Sam Williams, Richard Stallman & Christophe Masutti… Le livre est disponible à télécharger en version pdf (entre autres) à http://www.framabook.org/stallman.html
Photo du 62567927-02- à 17.22

Comme vous pouvez le voir, j’en ai profiter pour convertir ce pdf en version mobipocket afin de pouvoir lire ce livre confortablement sur mon Cybook… Pour vous évitez d’avoir à faire cette conversion, voici le fichier :
stallman_v1_gnu-fdl
Il va sans dire que je vous recommande la lecture de cet ouvrage : elle permet de mieux comprendre comment ce mouvement (en faveur du logiciel libre) est né et a évolué… Et, promis, désormais je dirais « GNU-Linux » et non plus simplement « Linux »… ça ira comme cela Richard ?

Quelques nouvelles de mon projet en cours (livre sur l’histoire IT) avec quelques « previews »

Mon projet de livre sur l’histoire de l’informatique avance bien. Après l’ère des constructeurs, je suis en train de rédiger l’ère des éditeurs et j’ai pensé que c’était une bonne idée que de partager quelques extraits de cette grosse section à venir…

Voici donc l’histoire des débuts des SGBD Relationnels suivit du parcours de SAP… Vos commentaires, suggestions, corrections sont les bienvenues, ça va sans dire, hein !

Lire la suite

Vidéo de ma conférence sur Facebook & Twitter lors du 300ème First

Je l’avais promis dans le billet sur ce sujet

300ème First : « Quelle est la valeur ajoutée des réseaux sociaux ? » – Jeudi 5 nov. FER Genève

Et… ça a mis un peu de temps à arriver. Enfin, elle est là, la vidéo de mon intervention lors de cette conférence. J’y parle de Facebook et de Twitter dans un cadre marketing et comme je n’avais que 15 minutes de temps de parole, je me suis contenté de détailler deux exemples d’utilisation pertinente (selon moi) de ces médias sociaux : iRacing.com et macosmetoperso.com

J’ai bien aimé le défi de faire tenir mon intervention en 15 minutes, une performance inhabituelle dans ce cadre et que j’ai été le seul à accomplir ce soir là (les autres intervenants ont largement dépassé… de plus, ils étaient aussi un peu hors sujet selon moi…).

Alain Lefebvre – Twitter et Facebook dans un cadre marketing from Rezonance on Vimeo.

La partie « constructeurs » de mon livre sur « l’histoire critique de l’informatique moderne »…

Je viens de terminer le premier jet… Manque encore plein de choses bien sûr : illustrations, notes, (vos) témoignages, corrections, etc.

Mais ce premier jet est déjà lisible et permet de se faire une idée générale sur le ton et le contenu de l’ouvrage… Alors, si ça vous dit, le pdf est là : lien supprimé.

Documents intéressants sur l’histoire de l’informatique…

Pendant que je travaille sur mon livre « histoire critique de l’informatique moderne », je trouve plein de documents intéressants… Plutôt que de tout garder pour moi, j’ai pensé les partager avec vous…

Tout d’abord, il s’agit de la démo « historique » de Douglas Engelbart réalisée en décembre 1968. A l’occasion de cette démonstration incroyable pour l’époque, Engelbart montre l’usage de la souris avec l’interface utilisateur associée (déjà très avançée pour l’époque) ainsi que d’une vidéo-conférénce avec un autre utilisateur, rien que cela !

Pour comprendre l’importance de l’événement, rappelez-vous la date : décembre 1968…

L’autre pièce de choix, c’est le documentaire « Triumphs of the nerds » réalisé en 1996 par Robert Cringely… Ce film retrace la naissance de l’industrie du PC de façon précise et amusante… Un « must-seen », sans conteste. A déguster à http://www.youtube.com/view_play_list?p=4D5CD637F73C24C7

Dans le même genre mais en plus romancé, vous avez aussi le film « Pirates of the silicon valley » avec la même histoire, les mêmes personnages mais avec un peu plus de détails sur certains épisodes clés… J’ai créé une playlist pour que vous puissiez visonner l’ensemble.

Enfin, finissons sur une note marrante (« un peu d’humour ne fait jamais de mal » comme disent les inconnus dans le sketch « télématin »…) avec l’acteur Noal Wyle qui joue le rôle de Steve Jobs dans « Pirates of the Silicon Valley » et qui imite le vrai Steve lors de la Keynote de MacWorld 1999, enjoy! :

Prologue du livre « histoire critique de l’informatique moderne »

Ce projet avance (voir ici http://www.alain-lefebvre.com/it/sommaire-provisoire-de-mon-livre-sur-lhistoire-de-linformatique/ et là http://www.alain-lefebvre.com/it/un-questionnaire-pour-mon-livre-sur-lhistoire-recente-de-linformatique/ les détails de ce projet en cours).

Voici une version (provisoire, bien sûr) de l’introduction et du prologue :

Introduction

Voilà un livre sur l’histoire de l’informatique moderne. J’insiste sur cet adjectif car mon objectif était bien de rédiger un ouvrage différent des livres d’histoire qu’on peut déjà trouver.

Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXème siècle mais cela a déjà été fait de nombreuses fois. Mon but était plutôt de focaliser sur les cinquantes dernières années de notre industrie afin de retracer les évolutions majeures et d’en comprendre les mécanismes.

En effet, pour comprendre comment on en est arrivé là, il faut décrypter ce passé récent. Ainsi seulement, on pourra faire une analyse objective de la situation présente et proposer une nouvelle direction pour la prochaine phase. Car, et c’est là le second volet de ce travail; il ne s’agit pas seulement de s’intéresser à l’histoire moderne de l’informatique mais aussi de le faire avec un oeil critique !

Est-on satisfait de la situation actuelle ?

Peut-on dresser un bilan de l’informatique professionnelle ?

Quelles règles peut-on en déduire ?

Pourrait-on faire mieux ?

Comment faire mieux ?

C’est pour répondre à ces questions que j’avais proposé en 2004 “le manifeste pour une informatique raisonnable” et la dernière partie de ce livre est une mise à jour de cette proposition replacée dans le contexte d’un bilan de l’informatique moderne.

Mais, avant d’en arriver là, il faut pouvoir poser les bases de cette exploration. C’est-à-dire, répondre aux questions suivantes :

Quand commence l’informatique moderne ?

Que s’est-il passé d’important pendant la “préhistoire” ?

Le premier chapitre débute avec l’identification de l’événement créateur de l’informatique moderne : le lancement de l’IBM 360, ancêtre des mainframes et véritable début de l’industrie informatique telle que nous la connaissons. Avant cela, ce n’était ni le chaos ni le néant mais une période que nous pourrions appeler la “préhistoire” : l’informatique existe déjà belle et bien mais pas encore sous la forme d’une industrie structurée avec un marché, des clients et des usages bien définis.

Prologue

On ne peut retracer l’histoire récente de l’informatique sans être lucide sur sa nature profonde. Et les idées reçues sont nombreuses dans ce domaine !

Tout d’abord, il est juste de dire que les évolutions significatives sont lentes et  relativement peu fréquentes.

Comme l’écrivait Jeff Gould dans la préface de mon ouvrage “Le 3ème tournant” (paru en 2001 aux éditions Eyrolles) : En dépit de notre obsession pour la nouveauté technologique, les vraies révolutions sont en réalité beaucoup plus rares que l’on s’imagine. Le progrès de l’informatique ne passe pas par des ruptures. C’est plutôt un travail cyclique, où l’industrie et les utilisateurs remâchent le même concept deux, trois, quatre fois de suite, avant de sortir enfin une version suffisamment robuste pour s’imposer comme standard de fait.

Bien entendu, il serait tout aussi erroné de prétendre que l’industrie informatique est restée figée lors de ces cinquante dernières années. Pour prendre une analogie, on peut comparer ce domaine à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement qui ne cesse de progresser et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Une situation contrastée qui n’est pas une anomalie

Cette dichotomie qui pourrait passer pour une anomalie mais c’est là qu’il faut comprendre que l’accroissement des capacités vient surtout des progrès réalisés dans le domaine de l’électronique. L’informatique profite donc de ces progrès permanents mais, du coup, le logiciel est toujours en retard par rapport aux avancées du matériel (par exemple, quand les serveurs passent aux processeurs 64 bits, il faut un certain temps -qui se chiffre en années- avant que les logiciels systèmes soient capablent de les exploiter et c’est ensuite au tour des logiciels applicatifs de se mettre à niveau… Cette évolution séquentielle est toujours lente alors que, de son côté, les composants continuent à progresser en permanence).

Le logiciel forcément en retard sur le matériel

Il ne s’agit pas de dire que ceux qui s’occupent du matériel sont des génies et que ceux qui programment les logiciels sont des ânes !

Pour expliquer la lenteur des progrès côté logiciel, il faut mettre en avant le rôle des tests. En effet, écrire un logiciel est -relativement- rapide mais le mettre au point est terriblement plus lent…

Les tests logiciels sont lents et complexes. Lents car il y a de nombreuse possibilités à vérifier et il faut tout revérifier à chaque modification. Complexes car le contexte est important et pour un logiciel système (par exemple), il faut pouvoir tester chaque plate-forme dans toutes les configurations possibles… On imagine vite ce que cela représente !

Logiciels et turbines à gaz, même combat !

Prenons un exemple, celui d’un “accident industriel” célèbre : celui des turbines à gaz GT24/GT26 d’Alsthom qui se sont avérées defectueuse au début des années 2000. Pourquoi des engins aussi coûteux et complexes ont-ils été mis sur le marché sans être testés de fond en comble (ce qui aurait évité de commercialiser des turbines de grande puissance comportant un défaut de conception) ?

Tout simplement parce qu’il aurait fallu laisser tourner ces turbines pendant des années (4 à 5 ans minimum !) avant que le défaut ne se manifeste… La rentabilité du programme ne pouvait s’accomoder de tests aussi longs, la direction de l’époque a donc pris le risque de se contenter des tests habituels qui eux étaient tout à fait satisfaisant…

La vraie différence entre capacités et fonctionnalités

Ceci permet de comprendre pourquoi les tests jouent un rôle clé dans la lenteur de l’évolution du logiciel et font que l’informatique avance sur deux faces : très vite sur le plan du maériel, très lentement sur le plan du logiciel. Or, le matériel n’amène seulement que des capacités (autrement dit, des fonctionnements potentiels) alors que c’est le logiciel qui apporte les vrais fonctionnalités (qui elles débouchent sur des traitements bien réels)…

Ces éclairages permettent de répondre à la question “pourquoi l’évolution technique de l’informatique suit-elle deux pentes aussi différentes ?”.

Une évolution timide, un marketing tonitruant !

Il y a donc loin entre la réalité du terrain et les apparences projetées par les acteurs de l’industrie : d’un côté on a des progrès lents et obtenus avec difficultés, de l’autre, on a un cirque médiatique permanent qui promet la lune avec constance et où l’innovation réside surtout dans les étiquettes dont on affuble les “nouveaux” produits.

Car, depuis que l’informatique moderne est sortie de sa préhistoire, son évolution technique timide est contrabalançée fortement par un marketing de tous les instants qui lui est tout sauf timide !

Les ravages du FUD

Ce marketing est même à double détente : d’une part, il faut faire croire au marché qu’on lui propose la pointe de la technique (tous les produits sont systématiquement présentés comme étant sur le “bord tranchant” de la technologie la plus sophistiquée du moment) pour tout ce qui provient du “courant principal” de l’offre. D’autre part, le second rôle de ce marketing est de disqualifier par tous les moyens (y compris le mensonge, la calomnie et les manipulations les plus éhontée… Le concept marketing le plus en vogue dans cette industrie lors de ces dernières décenies est le FUD pour Fear, Incertanity, Doubt ou CID : Crainte, Incertitude, Doute) pour tout ce qui viendrait menacer le “courant principal”. Les alternatives au paradigme dominant du moment sont donc systématiquement combattus avec vigueur et mauvaise foi car il s’agit de protéger le statut quo, générateur de profits juteux pour les acteurs dominants.

Un comportement récurrent, génération après génération

Cette leçon est bien comprise, retenue et appliquée par les générations d’acteurs qui se succèdent au sommet. Ainsi, l’éditeur de logiciels pour PC qui luttait contre le grand constructeur de mainframes était-il victime du FUD quand il était encore dans le camp “alternatif”… Mais quand son côté a fini par triompher et devenir le “courant principal”, à son tour, il employa les mêmes tactiques avec abondance pour discréditer les acteurs émergeants représentant de la nouvelle technique alternatives.

On a vu et revu ce mouvement de balancier de nombreuses fois depuis cinquante ans : les fabricants de minis contre les constructeurs de mainframes, les éditeurs de logiciels et assembleurs de PC contre les tenants de l’informatique centralisée, les promoteurs de l’open source contre les partisans du logiciel propriétaires, les offreurs de SAS (Software as a Service) contre les éditeurs de logiciels et ainsi de suite…

Un impact spectaculaire sur le quotidien

On constate donc que l’informatique moderne repose sur un paradoxe et un mensonge : le paradoxe d’une évolution technique dont les progrès dépendent surtout de l’électronique et le mensonge permanent d’un marketing outrancier. Cependant, il ne s’agit pas pour autant de nier ce qui a été accomplit qui est considérable et souvent spectaculaire. Jeff Gould insiste sur l’impact qu’a eu l’informatique sur le quotidien de nos contemporrains :

…l’impact de l’informatique non seulement sur le quotidien des utilisateurs, mais aussi et peut-être surtout sur les organisations de la vie moderne. Je m’explique par quelques exemples (qui te paraitront évidents)…

(1) Les grands systèmes de réservation, rendus possible par les mainframes des les années 60, et développés beaucoup plus tard sur le web. Sans ces systèmes, le transport aérien et ferroviaire moderne à l’échelle actuelle ne serait pas possible. Si on devait tenir des livres de réservation à la main comme cela se faisait encore dans les années 50, ce serait tout simplement impossible de gérer des dizaines de milliers de vols et des centaines de milliers de places réservées par jour. C’est donc une question de « scale » : sans informatique, beaucoup d’organisations modernes ne pourraient exister.

(2) Même chose pour les grands réseaux bancaires et les systèmes de paiement par carte de crédit. Aujourd’hui on voyage partout dans le monde développé sans se soucier des moyens de paiement. Mais dans le passe, même jusqu’aux années 60, les voyageurs se déplaçaient avec des devises qu’ils changeaient à la frontière de chaque nouveau pays.

(3) Même chose pour le commerce en ligne (Amazon, EBay, etc). Je sais que c’est la l’aspect le plus évident de l’impact récent de l’informatique. Mais au fond c’est le même phénomène que les systèmes de réservation aériens appliques à un nouveau domaine. L’architecture d’Amazon de nos jours (un ordinateur central gère des stocks et exécute des transactions commerciales pour des milliers d’utilisateurs remote assis devant des terminaux, pardon, browsers web) ressemble comme deux gouttes d’eau à celui du réseau Sabre à base de mainframes et de terminaux 3270 des années 80.

(4) La productivité individuelle a explose, grâce au PC et à la bureautique. La productivité des groupes de travail col blanc quant à elle a explosé grâce à l’email. La productivité des employés de bureau et dans les « customer facing roles » (guichetiers dans les banques, caissières dans les supermarchés, etc) a explosé grâce aux terminaux remote sur grands systèmes, donc grâce aux réseaux (et aussi grâce aux écrans, aux scanners, etc.). Ces bonds immenses de productivité ont joué un rôle majeur dans la croissance économique de ces 30 dernières années (même si on a tendance à oublier la vraie ampleur de cette croissance et à trop focaliser sur la récession actuelle).

(5) La banalisation des mémoires numériques (disque, RAM, Flash) a permis la révolution du contenu numérique.

(6) Le web a tué la presse écrite classique, et grâce aux blogs est en train de gêner les habitudes du pouvoir politique dans tous les pays (les élites qui nous dirigent ont beaucoup plus de mal à garder leurs secrets maintenant que les bloggeurs ont cassé le monopole de l’information détenu par la presse complaisante).

(7) Enfin, l’informatique « embedded » a permis la révolution des mobiles, grâce aux chips dans les cell phones et dans les réseaux télécom.

Tout cela est exact, important et doit être souligné. Mais on peut et on doit se poser la question suivante : les mêmes résultats n’auraient-ils pas pu être obtenus avec moins de moyens, moins de gâchis ?

C’est ce que le paradigme de “l’informatique raisonnable” tente de promouvoir. Mais peut-être est-on là dans l’utopie et que l’évolution constatée (avec tous ses travers, ses erreurs et ses mensonges) était-elle inéluctable ?

C’est justement pour le savoir qu’il faut retracer ce cheminement aujourd’hui et avec un oeil critique. Les livres qui font la louange (y compris exagérée) de cette industrie ne manquent pas, il fallait donc un ouvrage qui offre une autre perspective…

J’interviens à la conférence Rézonance sur la valeur ajoutée des réseaux sociaux

300ème First : « Quelle est la valeur ajoutée des réseaux sociaux ? » – Jeudi 5 nov. FER Genève

Extrait de la présentation de la conférence par l’organisateur :
Plus d’un milliard de personnes ont ouvert un profil sur un réseau social !
Plus de 300 millions sur Facebook, plus d’un million sur Twitter entre autres. Et chaque mois, de nouvelles communautés en ligne sont créées. Aucune association, marque, organisation ou mouvement d’opinion n’est lancé sans avoir prévu une communauté. Avec quelle valeur ajoutée pour les entreprises et les individus ?

Le titre de mon intervention : Comprendre la nature réelle de Twitter (et Facebook) afin de l’utiliser efficacement dans un cadre marketing.

Pour s’inscrire, il faut aller sur cette page

Un questionnaire pour mon livre sur l’histoire récente de l’informatique…

Dans le cadre de mon futur ouvrage sur le l’histoire récente de l’industie informatique, j’ai fait un appel à témoignage et j’anime le collectif ainsi rassemblé sur le forum du groupe « musée de l’informatique sur Facebook. Pour aider les contributeurs, j’ai eu l’idée d’un questionnaire afin de guider les contributions (j’ai déjà pratiqué ainsi pour mon livre sur le Simracing). Voici donc les questions que j’ai imaginé (mais j’espère bien que les contributeurs les plus zélés sauront aller au-delà de ce modeste questionnaire…) :

Pour toutes ces question le préfixe « selon vous » est toujours de rigueur !

Ici, on ne vous demande que votre avis, pas d’établir une vérité intangible… Donc, sentez-vous libre de répondre ce qui VOUS parait juste et non ce qui serait politiquement correct ou en ligne avec la « pensée unique »…

L’idéal dans vos réponses serait de ne pas simplement indiquer un nom d’acteur ou un événement mais aussi de développer un peu en expliquant le « pourquoi » de votre réponse (par exemple en précisant les circonstances de votre choix)… Mais une réponse courte et simple, ce sera déjà pas mal !

– quel est (ou quel a été) le rôle de la presse spécialisée IT dans l’évolution de l’informatique ?

suggestions : moyen de progresser techniquement, de se tenir informé, de trouver un job (grâce aux petites annonces), négatif car participe trop au « hype », etc.

– quel est votre perception de l’évolution de la presse spécialisée IT à travers les différentes ères et, éventuellement, comment a-t-elle évolué (votre perception) ?

suggestions : en perte de vitesse, toujours pareil, je lisais beaucoup cette presse il y a encore quelques années et plus du tout aujourd’hui car tout se passe désormais sur le web, etc.

– quel est, selon vous, le plus gros mensonge proféré par l’industrie informatique à travers les différentes ères ?

suggestions : le bureau « sans papier », la programmation visuelle, le développement facile (ou par objets ou autres), Java, l’IA, autres.

– quel est, selon vous, l’acteur le plus « nocif » de l’industrie ?

suggestions : SCO, Microsoft, IBM (pour ces deux derniers à cause de l’accusation récurrent « d’abus de position dominante »), autres.

– quel est (ou quel a été) l’acteur le plus innovant de l’industrie ?

suggestions : Apple, Google, Adobe, la communauté open source, autres.

– quelle a été l’innovation la plus marquante ?

suggestions : l’interface graphique, l’epaper, l’imprimante laser, autres.

– quelle a été la période la plus excitante ?

suggestions : la naissance de la micro-informatique, les L4G, l’essor du décisionnel, l’irruption de l’Internet, autres.

– quelle est (ou quelle a été) la plus forte constante dans cette industrie ?

suggestions : l’intertie des mentalités, la prédominance de la silicon valley, le poids des grands comptes, le caractère moutonnier du grand public, l’inertie technique, autres.

– quelle est (ou quelle a été) la plus grande variable dans cette industrie ?

suggestions : le nombre de bugs à la ligne de code, le prix d’un développeur à la journée selon les pays, la qualité des projets, la part de chance nécessaire à la réussite d’un projet, le niveau de compétence des directeurs informatique, le budget des grands comptes rapporté à leur CA, autres.

– quelle a été la plus grande réussite sur le plan technique ?

suggestions : Google Maps, l’iPhone, Mac OS, Linux, PHP, Cobol, les bases de données SQL, autres.

– quelle a été la plus grande réussite sur le plan business ?

suggestions : Microsoft, IBM, Google, Adobe, Salesforce.com, Dell, autres.

– quel a été le plus grand flop sur le plan technique ?

suggestions : Java, OS/2, l’IA, les systèmes d’exploitation orientés objet, Microsoft Vista, autres.

– quel a été le plus grand flop sur le plan business ?

suggestions : Computer Associates, Sun, SCO, Compaq, Novell, autres.

– quelle a été la personnalité la plus marquante dans cette industrie ?

suggestions : Bill Gates, Linus Torvald, John Von Neumann, Tim Berners-Lee, autres.

– quel a été le projet le plus intéressant de votre carrière ?

suggestions : pas de suggestion, c’est une question vraiment personnelle !

– quelle a été la crise la plus importante que vous ayez vécu ?

suggestions : l’éclatement de la bulle Internet (2001), la crise actuelle, autres.

===

En plus des suggestions ci-avant, j’ai moi-même répondu à ces questions ci-après histoire de vous donner d’autres pistes ou de vous rappeler quelques souvenirs…

– quel est (ou quel a été) le rôle de la presse spécialisée IT dans l’évolution de l’informatique ?

Je ne sais pas si la presse a eu une influence sur l’industrie car elle a surtout joué le rôle de relais de propagande tout au long de son évolution (perdant une partie de sa crédibilité en ne filtrant pas assez le message marketing des acteurs… cette faiblesse a été particulièrement visible tout au long de « l’affaire Java » !). En revanche, l’influence de la presse sur la grande masse des professionnels était indéniable dans les années 70 et 80 car il n’y avait alors rien d’autre pour s’informer. L’opinion des informaticiens de l’époque était donc grande modelée par ce qui s’écrivait dans les colonnes d’hebdo comme O1 Informatique…

– quel est votre perception de l’évolution de la presse spécialisée IT à travers les différentes ères et, éventuellement, comment a-t-elle évolué (votre perception) ?

Au début de ma carrière, la presse spécialisée IT a joué un rôle énorme : c’est elle qui me permettait de progresser techniquement (un peu) mais surtout qui m’ouvrait des horizons en me faisant découvrir des secteurs ou des domaines que je ne connaissais pas du tout. En ce sens, elle jouait le rôle de formation professionnelle permanente. Du coup, je dévorais 01 et LMI à chaque fois que je pouvais mettre la main dessus. Dans le domaine de la micro, c’est Byte qui a « fait mon éducation initiale »…

Par la suite, la presse IT a aussi joué un grand rôle dans ma carrière mais autrement : c’est elle qui faisait la promotion (gratuite !) de nos études comparatives (réalisées par mon équipe à SQLI) et nous permettait à la fois de nous faire connaitre et d’en vendre un bon paquet. Enfin, les hebdomadaires et magazines du milieu m’ont aussi aidé à me faire connaitre car j’y collaborais via une chronique périodique où j’apparaissais même en photo. Bref, pour moi, la presse IT m’a fait un bien considérable.

Donc, pour moi, la presse spécialisée était un organe de référence indispensable, crédible et utile.

Mais, à partir de la fin des années 90, début des années 2000, je dois avouer que je me suis détourné de la presse papier pour m’orienter plutôt sur les titres qui publiaient sur le web, tant sur le plan lecture que pour la collaboration sous forme d’articles ou de chroniques. Du coup, ma perception de la presse spécialisée sur papier s’est un peu effacé : comme je ne la consulte plus, j’ai bien du mal à savoir comment elle a évolué (mais des signes comme la disparition de LMI ne me rende pas optimiste à son égard…).

– quel est, selon vous, le plus gros mensonge proféré par l’industrie informatique à travers les différentes ères ?

Tout d’abord, il faut dire que la propagande (le plus souvent mensongère, ça aussi il faut le dire) a été omniprésente tout au long des différentes ères de l’informatique !

Donc, on a vu des modes se succèder comme l’IA, le groupware, le bureau « sans papier », la programmation visuelle, le KM, le CRM (la liste serait longue !), etc.

Cependant, selon moi, c’est incontestablement Java qui a été au centre du plus gros mensonge de l’industrie lors de ces 50 dernières années (et les candidats étaient nombreux pour cette « récompense » !). Pourquoi Java ?

Parce que là, non seulement le mensonge était gros mais la propagande pour le faire passer a été énorme et touchait absolument tous les acteurs (c’est dur de se rendre compte de l’ampleur de ce phénomène quand on ne l’a pas vécu en direct). On peut mesurer l’ampleur du trucage en posant simplement cette question : des ambitions de départ -de Java, sensé être le langage universel capable de s’exécuter sur tout-, il est reste quoi aujourd’hui ?

La petitesse de la réponse se passe de commentaire (significatif : je n’arrive pas à avoir de débat sérieux avec les partisans -il en reste- de Java…).

– quel est, selon vous, l’acteur le plus « nocif » de l’industrie ?

Encore une question polémique (mais j’aime cela car on est pas là pour faire un livre où « tout le monde il est beau, tout le monde il est gentil »… Il faut de temps en temps dire la vérité sur un domaine, y compris quand il s’agit d’informatique) !

Aujourd’hui, quand on parle « d’abus de position dominante », on pense tout de suite à Microsoft (et, dans quelques années, ce sera peut-être au tour de Google ?) mais c’est oublié un peu vite qu’IBM a aussi un beau palmarès en la matière…

Au début de ma carrière, j’éprouvais une vrai détestation pour « big blue » car cette société symbolisait (selon moi) tout l’immobilisme dans le domaine technique contre lequel il fallait lutter, forcément. Avec le temps, j’ai appris à nuancer un peu mon opinion sur ce sujet en m’apercevant que n’importe quel acteur tente « l’abus de position dominante » dès qu’il le peut à son échelle. Ceci dit, la palme du plus « nocif » ira tout de même à SCO pour avoir tenté de s’approprier des contenus open source (mais cet acteur a été bien puni depuis… Comme quoi la justice immanente existe bien !).

– quel est (ou quel a été) l’acteur le plus innovant de l’industrie ?

Il ne faut pas se faire trop d’illusions sur le penchant à l’innovation des grands acteurs… Quand ils prennent le risque d’innover, c’est souvent avec une technologie qu’ils viennent juste de racheter car leur structure et leur mode de gestion étouffe la créativité de leurs propres équipes.

Ceci dit, je pense qu’Apple a sa place dans ce contexte après les précautions d’usage ci-avant (toujours dans ce cadre, il n’est pas absurde de citer Google). L’innovation d’Apple est surtout commerciale car la société invente peu mais sais utiliser les inventions des autres (comme dans le cas de l’imprimante laser).

Pour ce qui est de la vrai innovation technique, c’est plutôt au sein de la communauté open source qu’on la trouve, selon moi toujours.

– quelle a été l’innovation la plus marquante ?

Pour moi, c’est sans conteste l’interface graphique mais ça remonte déjà à quelques décennies !

Il faut se souvenir qu’au milieu des années 80, les débuts des premières interfaces graphiques ont été un vrai choc pour tous les témoins de l’époque… cela induisait un tel changement dans les usages, une telle facilité de manipulation par rapport à la très rustique interface caractère…

Plus proche d’aujourd’hui, je mettrais mon choix sur l’epaper dont les prolongements et les conséquences n’ont pas encore été clairement mesurées mais cette technologie va avoir un impact énorme, encore un fois sur les usages, permettant enfin aux « écrans » de sortir en pleine lumière (et ça n’est pas rien) !

– quelle a été la période la plus excitante ?

Je répond pour mon cas personnel (c’est le but de ce questionnaire) mais je dirais 1995-1997 quand le Web a fait irruption dans notre quotidien. En 1995, je cherchais la technologie qui permettrait de donner un second souffle au client-serveur qui, à ce moment-là, butait encore sur de très sérieuses limitations (en particulier sur le « mur du déploiement »). Certains pensaient qu’il fallait bifurquer vers le décisionnel (et cela a donné la mode du « datawarehouse » pour ceux qui s’en souviennent) mais j’ai vu que le Web était la voie à suivre et que l’horizon était radieux.

Je ne puis dire combien j’ai été enthousiasmé par cette perspective : là où la plupart des observateurs voyait le Web comme un média, j’y voyais une plate-forme de développement inédite, souple et particulièrement bien adaptée. Je dois avouer que j’ai vécu là les mois les plus intéressants de ma carrière professionnelle, un grand moment et un souvenir inoubliable !

– quelle est (ou quelle a été) la plus forte constante dans cette industrie ?

C’est clairement l’intertie des mentalités. La technologie change en permanence mais la plupart des gens continue de penser selon les schémas d’hier (ce n’est pas propre à la technologie d’ailleurs, on retrouve ce décalage dans tous les secteurs de la vie moderne…).

– quelle est (ou quelle a été) la plus grande variable dans cette industrie ?

Là aussi, c’est clairement le niveau de compétence des directeurs informatique. Pour certains, on se demande ce qu’ils font dans cette profession alors que d’autres sont effectivement au top de leur métier. D’une façon générale, j’ai plutôt été souvent déçu par cette classe de managers, trop conformistes et moutonniers pour être à la hauteur des enjeux (mais, là comme ailleurs, on trouve de brillantes exceptions).

– quelle a été la plus grande réussite sur le plan technique ?

Dans mon panthéon personnel, je réserve la place de choix pour les bases de données SQL mais j’y accepte aussi PHP et Linux (mets-y la plate-forme LAMP pendant que tu y es !).

– quelle a été la plus grande réussite sur le plan business ?

Selon moi, la récompense doit aller à Salesforce.com qui a été le premier a faire vraiment du business avec le concept SAS et ce n’est pas rien. Mais à une certaine époque, ce qu’avait accompli Dell n’était pas mal non plus…

– quel a été le plus grand flop sur le plan technique ?

On a déjà évoqué Java alors concentrons-nous sur un cas plus récent : Vista.

Je dois dire que j’ai été vraiment surpris que Microsoft puisse se planter aussi profond sur Vista. C’est pour moi le signe que quelque chose à vraiment changé à Redmond et ça n’augure rien de bon pour la suite…

– quel a été le plus grand flop sur le plan business ?

Pour les plus jeunes, le nom de Computer Associates ne va pas dire grand chose mais pour les « vieux », ça parle !

Il faut se rappeler que CA est le tout premier éditeur de logiciel a avoir franchi la barre du Milliard de Dollars de chiffre d’affaires, ça n’était pas rien (bien avant Microsoft ou Oracle). Et puis, la vérité a éclaté, CA était un « Enron du logiciel » : le succès apparent de CA reposait sur des montages douteux et le président s’est retrouvé en prison (une affaire « Enron » avant la lettre donc mais de moindre ampleur tout de même).

– quelle a été la personnalité la plus marquante dans cette industrie ?

J’ai un faible pour Linus Torvald mais je désigne tout de même Tim Berners-Lee (l’inventeur du Web avec Robert Cailliau) car il a su maintenir sa conception à base de liens faibles du web là où tous les spécialistes de l’hypertexte de l’époque (début des années 90) préconisaient des liens forts et c’est la justesse de sa vision qui a donné l’incroyable infrastructure que nous utilisons tous aujourd’hui…

– quel a été le projet le plus intéressant de votre carrière ?

Sans conteste quand nous avons nos premiers tests qui ont débouché sur nos études comparatives (1992/1993) sur le fonctionnement client-serveur et les outils de développement graphiques. A ce moment-là, rien n’existait de concret (et encore moins de chiffré !) sur le mode de fonctionnement client-serveur et nous avions vraiment l’impression d’explorer une terre inconnue, c’était exaltant. Faire ainsi de la « recherche appliquée » pouvait paraitre être un caprice de technicien mais nous avons su en rentabiliser largement les résultats par la suite…

– quelle a été la crise la plus importante que vous ayez vécu ?

Les crises sont récurrentes dans le monde de l’informatique. Les SSII en éprouvent une tous les cinq ans environ. Je me souviens surtout de celle de 1985 où l’industrie de ma micro-informatique a connu sa première « correction sévère » et où les ventes se sont brusquement repliées après des années de croissances continues.

Sommaire provisoire de mon livre sur l’histoire de l’informatique…

Je relance mon projet de livre sur l’histoire récente (1960-2010) de l’informatique (voir le premier billet sur le projet à http://www.alain-lefebvre.com/ce-blog/premiere-version-de-lintroduction-et-du-prologue-de-mon-nouvel-ouvrage-histoire-critique-de-linformatique-moderne/).

Voici donc le sommaire -provisoire car va évoluer avec les propositions et réactions des contributeurs potentiels- que j’ai prévu :

titre (provisoire lui aussi) : Histoire critique de l’informatique moderne

Introduction :
Quand commence l’informatique moderne ?
Peut-on identifier des tendances récurrentes dans son évolution ?

Première ére : les constructeurs
L’informatique moderne débute avec la naissance de l’industrie informatique
L’ère du matériel, des mainframes aux PC
De l’intégration verticale aux composants standards
Le logiciel sous forme de service, naissance des SSII
Une vague oubliée : la mini-informatique, une évolution qui annonçait les autres
Un changement raté : l’évolution de l’interface utilisateur, remise à plus tard

Seconde ére : les éditeurs
L’élargissement du marché marginalise le « house programing »
Le PC transforme le contexte : émergence d’un marché de masse
Les deux évolutions qui changent le contexte : le modèle client-serveur et l’interface graphique
La bascule du marché vers les progiciels (aidée par le « bug de l’an 2000 »)
L’apparition de nouveaux domaines applicatifs comme le décisionnel
Une autre voie : l’open source

Troisième ère : les géants de l’Internet
Irruption de l’Internet via « les autoroutes de l’information »
L’interface Web impose l’Intranet au sein des entreprises
Apparition de nouveaux acteurs
L’informatique commence son « internetisation » par l’email
Développement de la notion du SAS, l’exemple de Salesforce.com

Conclusion : vers une informatique enfin raisonnable ?
Un début de contestation des « pratiques sacrées » avec l’article « IT don’t matter » puis le livre « Does IT matter? ».
La quête du « plus vite, plus simple, moins cher » pour le système d’informations
Un manifeste de l’informatique raisonnable comme point de départ des nouvelles pratiques

Fans de « Hacking », voici le chapitre 5 !

Well, l’histoire suit son cours et commence même à accélérer un avec ce chapitre 5 intitulé « Youri entre en scène »…

Les chapitre font autour de 5000 mots chacun et, à chaque fois, je remet l’intégralité des chapitres précédents en un seul document car, au fur et à mesure, j’intégre des corrections et des ajouts qui me viennent afin de garder sa cohérence à l’histoire.

Bref, voici l’ouvrage dans son « stade actuel d’achévement » : tapuscrit-hacking

Le nouvel Mac OS X : une démarche innovante et un résultat spectaculaire !

La version « Snow Leopard » de Mac OS X (la version 10.6 en fait) est une vraie réussite. Je m’explique : ça fait presque 30 ans que je suis un observateur avisé et critique du monde informatique. En 30 ans, j’en ai vu de toutes les couleurs mais ce que vient de faire Apple avec cette dernière mouture de Mac OS X, ça je ne l’avais encore jamais vu !

En effet, une nouvelle version d’un logiciel signifie presque toujours « nouvelles fonctionnalités » et, en particulier, une nouveauté « de la mort qui tue » sensée justifier à elle seule l’achat de la nouvelle version… Or, cette fois, il n’y PAS de nouvelle fonction, rien, zéro, aucune… Mais alors, pourquoi se précipiter sur cette version 10.6, simplement pour faire plaisir à Steve Jobs ?

Nan, je ne suis pas encore un zombie dévoué corps et âme à la secte des macmaniaques, rassurez-vous (ou plutôt, tremblez car la « terrible vérité » est encore pire !). Cette version « Snow Leopard » est attractive pour une raison bien plus rationnelle : elle est sérieusement op-ti-mi-sée… Voilà !

Moins de place disque utilisée, chargement et lancement des programmes plus rapides et plus fiable. Ce dernier point est particulièrement important pour moi car j’ai horreur des plantages et de devoir rebooter (ce qui pour un utilisateur de windaube est « normal »). Selon moi, la version 10.3 de Mac OS X était vraiment la plus fiable de toutes : jamais un blocage, rien. Je suis passé à la 10.4 parce que je voulais pouvoir utiliser « HotSpot » (le moteur de recherche interne, un vrai progrès) et j’ai migré vers la 10.5 en espérant retrouver la fiabilité sans défaut de la 10.3 mais j’ai été déçu.

Entendons-nous bien : la 10.5 n’est pas aussi « sans défaut » que la 10.3 mais ça n’a rien à voir avec le niveau de fiabilité de n’importe quelle version de vindoze, on se comprend…

Bon alors, cette fameuse optimisation, ça donne quoi ?

Avant l’installation, il me restait seulement 9,84 Go de libres… Mais 19,8 après… Soit quasiment le double, une progression (sous forme de retrait…) spectaculaire !

Le lancement des programmes semble plus rapide mais là, c’est moins évident à mesurer. Pour ce qui est de la fiabilité, faut laisser du temps au temps, je vous dirais dans quelques mois.

Il reste que la démarche d’Apple est inédite (selon moi) et mérite d’être encouragée : voilà une bonne manière d’améliorer vraiment un logiciel (qui était déjà excellent à la base, faut dire).

Mon nouveau projet : les deux premiers chapitres

Mon nouveau projet de livre s’appelle « Hacking » et voilà de quoi il s’agit :

La DGSE monte une opération destinée à pièger un allié. Pour ce faire, elle confie une mission “d’attaque préventive” sur ses propres serveurs à une SSII spécialisée dans le domaine de la sécurité informatique…
Cette histoire est l’occasion de suivre les tribulations du chef de projet de cette SSII à qui est confié cette mission délicate. A première vue, il s’agit d’une classique histoire d’espionnage où mensonges, tromperies et double-jeux sont au rendez-vous à tous les étages.
Mais c’est aussi l’occasion pour moi de raconter tout ce que je sais du monde informatique après l’avoir vécu de l’intérieur pendant plus de vingt ans…

L’idée est également de faire un livre qui soit vraiment accessible même pour les néophytes complets en la matière : je vais ajouter des notes de bas de page à chaque fois que nécessaire afin d’expliquer (brièvement) la notion utilisée. Il ne s’agit pas de faire un ouvrage encyclopédique sur le hacking, simplement de ne pas rebuter les « gens normaux » avec un jargon compréhensibles seulement par les geeks de haut niveau (et non, je ne vais pas utiliser le « elite speak », même pas au niveau 1).

Je vous propose aujourd’hui de télécharger les deux premiers chapitres (je suis en train de rédiger le 3ème…) dans le PDF dont le lien est ci-dessous…

Attention : ces deux premiers chapitres vont sont livrés « tel quels »… Pas encore de vraie relecture ni correction, les notes de bas de pages seront insérées seulement au moment de la finition de l’ouvrage. Je n’ai pas encore d’éditeur pour ce projet alors, si vous êtes intéressés, faites-moi signe (alefebvre@gmail.com) !

Le fichier tapuscript-hacking-chap1&2.pdf se trouve à http://www.mediafire.com/?gluwmztmmzn

Un nouveau projet de livre : « Hacking »

Après mon livre sur le SimRacing et la bio de Soheil Ayari, j’avais besoin de changer de domaine. Il y a quelques temps que j’ai de nouveau envie d’écrire sur l’informatique mais d’une façon différente. En effet, j’ai déjà pas mal donné dans le livre technique (3 ouvrages), le livre de présentation et d’analyse d’un domaine (les réseaux sociaux, 2 éditions) ou le livre prospectif sur l’industrie (« le troisième tournant »).

Cette fois, je voulais écrire un livre de fiction qui évoquerait différents aspects de ce domaine (y compris l’univers peu connu des SSII) tout en étant très didactif (pas question d’écrire un livre qui ne sera lisible que par les geeks) avec des notes de base de page à chaque fois que nécessaire, le but étant que le livre final soit lisible et compréhensible par tous et toutes. Un brin d’ambition ne fait jamais de mal…

Bref, je viens de boucler le chapitre 1 (que je publierais sur mon blog dans quelques temps), il est temps de vous révéler de quoi il s’agit…

La DGSE mandate la SySec (SSII spécialisé dans la sécurité informatique) pour mener des attaques préventives sur ses serveurs (pratique classique permettant d’identifier les vulnérabilités et de les corriger avant que des vrais pirates puissent les exploiter). La petite équipe de la SySec va utiliser toutes les ressources du hacking pour tenter de forcer les serveurs de la DGSE (force brute, ingénierie sociale, tracking, injection de code, spoofing, etc.) mais va tourner en rond jusqu’à ce qu’un couple un peu particulier de vrais hackers (le génie et son « canalisateur ») viennent s’intégrer au sein du team.

Bien entendu, mensonges, tromperies et trahison sont les ingrédients principaux de cette histoire où rien n’est conforme à ce qui est annoncé et où tous (ou presque) jouent un double jeu. C’est une histoire où l’espionnage sert de trame à une description variée de l’univers informatique à travers nombre de ces composants.

Pour le moment, je n’ai pas encore d’éditeur pour cet ouvrage et je n’ai même pas cherché : je suis « pris » par l’histoire (qui m’est venue une nuite suite à un rêve) et je me contente de suivre ce chemin aussi vite et intensément que possible !

Analyses sur l’industrie informatique

A une époque, j’écrivais beaucoup d’articles d’analyse sur l’industrie informatique… Aujourd’hui, je laisse cela à mon ami Laurent Poulain qui a un vrai talent et une solide objectivité pour analyser les forces et faiblesses des principaux acteurs de ce secteur. En particulier, je vous recommande son dernier post sur la « culture Apple » à http://deselection.wordpress.com/2009/06/26/la-culture-apple/

Au contraire de moi, Laurent n’est pas un Macmaniaque et c’est pourquoi on ne peut taxer son article de partialité. Son analyse est juste, profonde et totalement objective. Son blog regorge d’autres articles tout aussi valable en particulier sur Microsoft… Une source qui gagne à être connue.

Sur l’enfer technologique et absurde qui se referme sur nous…

C’est un article sur slate.fr que je viens de lire et que je vous recommande (lire aussi les commentaires qui prouvent que l’auteur n’invente rien !) : « Un enfer technologique » à http://www.slate.fr/story/3741/un-enfer-technologique

Intro : Le monde de l’informatique, d’Internet et des télécommunications, outils des bureaucraties, tolère encore les humains, pour combien de temps?

Enfin un article intelligent sur la question Mac/PC…

Bien évidemment, il vaut mieux choisir un Mac… Mais c’est mieux aussi d’expliquer pourquoi !

Dans cet article de Slate.fr « L’éternelle guerre Mac contre PC » à http://www.slate.fr/story/3725/microsoft-pc-mac-apple la différence entre les deux choix est bien présentée à travers le biais des campagnes de pub actuellement menées par Microsoft… Une stratégie gagnante à court terme mais désastreuse sur le long terme… à vous de voir.

Moi, je continue sur mes Mac (et toute ma famille aussi !)…

La mini-app que je voudrais sur Facebook…

Depuis que j’ai lâché 6nergies, je n’utilise plus que Facebook comme réseau social (j’y vais quasiment tous les jours) et non, la nouvelle homepage ne me dérange pas (il est bien connu que les utilisateurs n’aiment PAS les changements de design web !).

Donc, sur Facebook, il y a une mini-app que j’aimerais bien trouver, installer et utiliser : une sorte de « friends reminder »…

Cette mini-app t’afficherait un rappel pour écrire à tes amis (sorte de reminder mais pas sur l’anniversaire ou le nom)… Quelqu’un connait cela ?
L’idéal : une mini-app qui t’incite à envoyer un petit mot à un ami différent chaque jour…

Je veux une incitation à écrire un petit mot, donner de mes nouvelles à chacun de mes contacts de temps en temps… Cette mini-app serait une aide pour y penser. La mini-app te dirait quelque chose comme « et si aujourd’hui tu écrivais à xx ? ça fait n jours que tu ne l’as pas fait… Voilà ce que je veux !

Si vous connaissez cela ou si vous avez envie de développer une mini-app Facebook pour faire connaître vos talents de programmeur, prenez contact avec moi et je vais m’occuper du design de cette mini-app… Un gros succès en vue !

Comment vivre heureux même avec un PC sous Windows : mes conseils à appliquer à la lettre !

Précision : cette chronique est un rewrite d’une « terrible vérité » déjà rédigée et publiée en janvier 2004 sur mon ancien blog… Plus de 5 ans après, je m’aperçois que les conseils ci-dessous sont toujours nécessaires et j’ai donc pris le temps d’actualiser un peu ce contenu (à suivre à la virgule près !).

Donc, si vous faites partie des gens utilisant MS Windows avec un PC avec une connexion Internet permanente, lisez ce qui suit, appliquez ces conseils (tous !) et vous vivrez mieux (comprendre, cette grosse daube de Windows va vous laisser tranquille un peu plus souvent qu’avant…). Si vraiment vous voulez vivre dix fois mieux, simple, achetez un Mac (merci qui ?).

Dans le monde solide (IRL = In Real Life), des catastrophes arrivent tous les jours : les bateaux coulent, les avions s’écrasent, les immeubles brûlent sans même parler des causes naturelles comme les tempêtes, glissement de terrains, inondations, etc.

Bien que les gens l’acceptent de moins en moins (où plutôt, on leur distille à l’oreille que ces événements inévitables sont inacceptables…), tout cela arrive avec régularité. Eh bien sur le Net, c’est pareil : on y trouve des choses formidables à côté de pages répugnantes, il y a des endroits sûrs qui coexistent avec des endroits où on est certain d’attraper quelque chose de nocif, c’est ainsi. Car, en la matière, la terrible vérité est que l’Internet n’est pas différent du monde réel, du monde solide où nous évoluons tous.

Il ne faut pas s’en étonner (pourquoi le Net serait-il une place plus propre que la surface de notre planète ?) ni s’en désoler, il faut agir !
Car la bonne nouvelle, c’est qu’on peut se protéger contre les toutes les nuisances qui polluent l’Internet et c’est même relativement facile…

Un avertissement avant d’aller plus loin : je dois avouer que je ne suis pas un expert en matière de sécurité informatique. Pire, pendant ma carrière dans le milieu informatique, c’est même un domaine qui ne m’a jamais vraiment intéressé. J’ai trop souvent vu des informaticiens se retrancher derrière l’argument sécurité pour ne pas entreprendre le projet innovant que j’essayais de leur vendre !
Du coup, j’en étais arrivé à rejeter systèmatiquement les précautions et procédures recommandées par les experts reconnus, persuadé qu’il ne s’agissait là que de propagande (commerciale). J’ai changé d’avis en 2003.

Cette année là, j’ai tout eu ou presque : crash de disque dur, détournement de carte visa (8000 euros débités par des pirates suédois, ça permet de comprendre le problème…), defacing de site web (changement de la page d’accueil d’alain-lefebvre.com contre mon gré) et ainsi de suite, il n’y a guère que l’infection par virus à laquelle j’ai échappé !

Cette suite d’événements m’a poussé à comprendre que le danger était réel et qu’il était désormais bien présent. J’en ai également profité pour creuser les protections disponibles et me faire une opinion sur la question… C’est cette dernière que je vous livre aujourd’hui. Rassurez-vous, ce sera pas technique, rien que du bon sens.

Les lignes qui suivent concernent seulement les utilisateurs de Windows XP (si vous avez le malheur d’être sous Vista, essayez donc de revenir sous XP tant que c’est encore possible !) qui, je crois, concerne l’immense majorité d’entre vous (si vous utilisez Linux ou le Mac, bonne pioche, vous êtes épargnés !).

1er niveau : l’e-mail
La plupart des problèmes arrivent sur votre machine en utilisant le canal de l’e-mail, c’est donc à ce niveau là qu’il faut être le plus vigilant. Car, en matière de sécurité, la règle est simple, c’est pas une affaire de technique, c’est une question de comportement !

Donc, au minimum, il ne faut PAS ouvrir les messages qui contiennent une pièce jointe si vous ne connaissez pas l’expéditeur et, même dans ce cas, votre interlocuteur est peut-être déjà infecté, sans doute à son insu !

Donc, méfiance sur les pièces jointes, toutes les pièces jointes. Mais si on ne peut plus échanger de fichiers via l’e-mail, cela va beaucoup diminuer son intérêt allez-vous me dire…
En effet, et c’est bien pour cela qu’on va continuer à s’en servir, y compris pour échanger des pièces jointes mais en ayant pris quelques précautions : ne pas ouvrir ce qui est suspect (et tout ce qui vient d’inconnus est suspect) et se débarrasser du spam en amont. 

Avec les virus, l’autre grand problème de l’e-mail c’est le spam. D’une certaine manière, les deux sont liés. Une bonne partie des pièces jointes nocives que vous recevez viennent de messages non-sollicités d’expéditeurs inconnus.
Donc, en éliminant l’un vous supprimez aussi d’une partie de l’autre par la même opération !

C’est pourquoi je ne peux que vous recommander d’utiliser SpamPal (voir à http://spampal.free.fr/) qui est un filtre anti-spam simple, efficace et gratuit (de plus, SpamPal est un projet Open Source ce qui a son importance, nous y reviendrons).
Mais il en restera toujours quelques-uns (des messages suspects avec une pièce jointe attachée)… Et comment reconnaît-on un message suspect ?
Simple, la réponse est dans la question : à partir du moment où il y a le moindre début de doute, zou, à la poubelle direct sans même le lire !

Enfin, un autre problème bien réel qui arrive via l’e-mail : le scam (voir à http://fr.wikipedia.org/wiki/Fraude_4-1-9). Le scam n’est pas du spam, c’est bien pire !

Le scam est un message qui à l’apparence d’une vraie demande venant d’un organisme que vous connaissez et avec lequel vous êtes en affaires (via un abonnement ou autres). Le message en question va vous demander de confirmer votre inscription, de préciser vos données d’identification et autres informations sensibles. Le décor du message, son expéditeur apparent, les adresses employées, tout est fait pour donner l’apparence d’un vrai message venant bien de l’entité supposée… sauf que ce n’est pas le cas, ce n’est jamais le cas.

Les grands sites du web comme Amazon, Yahoo, Ebay, Paypal et autres n’envoient JAMAIS ce genre de message. En revanche, les pirates les plus malins qui ont récupéré votre adresse e-mail en écumant les pages d’Ebay  (lorsque vous y avez mis un objet en vente, voilà pour Ebay, les méthodes sont diverses pour les autres) vous faire un usage frauduleux de vos données (jusqu’au détournement de carte bancaire mais, même cela, ce n’est pas le plus grave).

Aux USA en ce moment, il y a une vague de délits basée sur le détournement d’identité. Le scam est un moyen habile pour les pirates de voler les informations utiles, ne leur facilitons pas la tâche.
Je répète : les vrais sites ne vous demandent jamais ce type de confirmation et surtout pas par e-mail !

2ème niveau : l’anti-virus
La plupart des gens qui se retrouvent infectés par un virus ne comprennent pas pourquoi : après tout, ils avaient un anti-virus en bonne et due forme sur leur machine !
Ben voyons…
Encore une terrible vérité, l’anti-virus c’est comme l’air bag : c’est pas parce qu’on en a un qu’on doit pas boucler quand même sa ceinture !

Autrement dit, l’anti-virus va vous protéger des infections connues, pas des toutes dernières nouveautés (qui, par définition, sont toujours les plus répandues à l’instant T). En effet, pour que l’anti-virus intervienne et bloque le programme malicieux, encore faut-il qu’il le reconnaisse. C’est pourquoi tous les anti-virus du marché viennent avec leur base de « signatures » des virus connus. Et pour les virus qui sont pas dans cette base alors ?
Et bien c’est simple, à moins que ce virus se conduise sur votre système de manière évidente (criant partout « hé, j’suis un virus, j’suis un virus, attrape-moi si tu le peux !), votre anti-virus restera bien tranquille face à l’intrus.

Fondamentalement, je pense qu’il vaut mieux appliquer mes conseils du premier niveau (ne pas ouvrir les pièces jointes qui arrivent par email venant d’inconnus) et, ainsi, pas besoin d’anti-virus qui provoquent souvent pas mal de problèmes (comme si on en avait pas assez).

Restez à l’écart des programmes connus comme Norton et autres : chers, contraignants et pas plus efficaces les uns que les autres. Si vous voulez absolument un anti-virus (encore une fois, comportez-vous comme il faut et vous ne choperez PAS ces virus…), je vous recommande free-av.com et seulement la version « classic » (gratuite en plus, voir à http://www.free-av.com/).

Ceci dit (j’insiste !), vous m’avez bien compris : même un système de protection up to date ne vous épargne pas de prendre des précautions minimum… donc n’ouvrez pas cette prétendue présentation powerpoint rigolote que vous envoi un inconnu, ah mais !

3ème niveau : les logiciels habituels
OK, on a vu comment traiter la question de l’e-mail et de l’anti-virus, on a fait le principal mais il reste des zones de risques… Les logiciels eux-mêmes.
Sans sombrer dans le banal et peu productif anti-microsoftisme primaire et viscéral, il faut bien reconnaître que plus on se passera de Outlook Express et d’Internet Explorer et mieux cela sera.

Et pourquoi donc s’il vous plait ? 
Parce que ces deux logiciels, omniprésents sous Windows et très, très utilisés sont aussi très, très buggés. Certes, l’éditeur diffuse régulièrement des correctifs pour l’un et l’autre mais, outre que ces correctifs sont nombreux et quelquefois contradictoires (il faut les passer dans l’ordre prévu, ce qui n’est pas toujours évident…), on sait bien que l’utilisateur moyen n’est pas toujours très assidu de ce côté-là (et cela peut se comprendre : voilà une tâche qui n’apporte rien de plus, c’est donc une contrainte). 
Bref, si vous utilisez Outlook et Internet Explorer, vous utilisez aussi des logiciels qui sont pleins de failles que peuvent exploiter des programmes malicieux, voire même des pages web contenant du code malicieux (et là, même pas besoin de pièce jointe pour attaquer votre système).

Et bien sûr, revient toujours la même question : comment faire autrement que d’utiliser ces logiciels ?
Ce sont ceux qui sont proposés en standard et si je veux pouvoir utiliser mes sites habituels, il ne faut pas que je sorte du standard sinon, je n’aurais pas de recours si ça marche pas et mon support technique habituel m’enverra bouler quand je vais demander de l’aide !

C’est une objection légitime mais, dans le cas présent, elle n’est tout de même pas recevable : l’alternative que je vous propose n’est pas un obscur programme connu seulement de quelques initiés mais bien la valeur montant actuelle de l’Internet, le seul projet qui peut prétendre à être un vrai challenger pour Outlook et Internet Explorer (et bien meilleur que ces deux derniers sur bien des aspects) : le navigateur Web Firefox (voir à http://www.mozilla-europe.org/fr/).

Pendant que vous y êtes, maintenant que vous avez une -bonne- alternative à IE (Internet Explorer, le navigateur web par défaut de Windows), profitez-en pour remplacer aussi votre client email par défaut (Outlook) par Thunderbird (voir à http://www.mozilla-europe.org/fr/products/thunderbird/) qui vient de la même source… Excellent, facile à utiliser et blindé côté sécurité (on peut pas en dire autant d’Outlook !).
Voyez ce que dit Wikipedia de ces deux projets majeurs :http://fr.wikipedia.org/wiki/Firefox ethttp://fr.wikipedia.org/wiki/Mozilla_Thunderbird

Mêmes raisons et même traitement pour les macros vicieuses qui pourraient s’exécuter au sein d’Excel ou de Word : remplacez votre suite MS Office par Open Office qui est 100% compatible, libre, gratuite (pas de passage à la caisse à chaque évolution, voir àhttp://fr.openoffice.org/index.html) en français et, une fois encore, supérieure à l’originale sur bien des points (par exemple : Open Office vous permet de générer directement des documents au format Acrobat -des pdf quoi-, quand donc MS Office vous permettra-t-elle cela ?).
Encore une fois, voyez ce que dit wikipedia sur Open Office :http://fr.wikipedia.org/wiki/Open_Office

4ème niveau : le système lui-même.
Allez, courage, on a presque fini !
Après avoir domestiqué votre e-mail et remplacé vos logiciels plein de trous, que reste-t-il à faire pour être vraiment en sécurité ?

Tout d’abord, la sécurité à 100% ça n’existe pas !
Ou alors, il ne faut pas être connecté au net, ne pas installer de nouveaux programmes, ne pas accepter ni disquettes, ni cd-rom… retirez donc aussi le clavier pendant que vous y êtes (car un hacker motivé pourrait y taper un code sournois après s’être introduit chez vous !).

Bon, mais il y a encore quelques précautions et réflexes élémentaires qu’il est bon de suivre. Si vous êtes relié au net via l’ADSL, ne restez pas connecté en permanence, même la nuit quand vous ne faites rien avec votre machine. Eteignez le modem chaque fois que c’est possible, inutile de laisser ainsi une voie d’accès grande ouverte tout le temps.

Sachez que quelques méchants hackers sont toujours à la recherche d’hôtes innocents pour y déposer codes et objets en vue d’opérations diverses (comme des attaques distribuées où VOUS serez mis en cause et pas eux). On va donc leur corser un peu la tâche…

Si je vous parle de « backdoor, raw-socket, port ip, failles et exploits », ça va rien vous évoquer mais c’est les moyens qu’utilisent les « méchants » pour transformer votre machine en zombie (grâce à une « porte de service » ou backdoor) entièrement à leurs ordres (sans même que vous vous en rendiez compte parfois !). 

Pour éviter cette malencontreuse prise de contrôle à distance, vous allez verrouiller votre Windows et combler ces failles les plus béantes. Je ne vous recommande pas d’installer un firewall (pare-feu) que, de toutes les façons, vous ne saurez pas configurer mais d’utiliser quelques utilitaires développés par Steve Gibson (un américain qui s’y connaît lui, en matière de failles et d’exploits) pour corriger les aspects les plus permissifs de votre système Windows.

Donc, Je ne puis que vous recommander de télécharger (et d’exécuter) quelques utilitaires gratuits réalisés par Steve Gibson (voir à http://www.grc.com/stevegibson.htm), un type qui sait de quoi il parle en la matière :
    •    Unplug n’ pray (voir àhttp://www.grc.com/UnPnP/UnPnP.htm) : permet de désactiver une désastreuse fonction interne de Windows XP… bravo MS et merci Steve !
    •    XPdite (voir à http://www.grc.com/xpdite/xpdite.htm) : un patch utile, évite le service pack 1, super-utile !
    •    Shoot the Messenger (voir àhttp://www.grc.com/stm/ShootTheMessenger.htm) : pour désactiver le service Messenger, la dernière forme de Spam…
Je recommande impérativement d’installer et de lancer au moins « Unplug n’ pray ».

Et il y a encore plein d’autres utilitaires inédits (orientés sécurité pour la plupart) à découvrir à http://grc.com/freepopular.htm.

Le thème de la sécurité est inépuisable mais si, comme moi, vous avez déjà appliqué tout ce que je vous recommande, vous serez déjà mieux armé pour éviter les ennuis sur le Net…
Sinon, plus simple encore : achetez un Mac (oui je sais, j’insiste mais c’est pour votre bien !).

Désélection naturelle, le nouveau blog de Laurent Poulain

Cet article pour vous annoncer le lancement de « Désélection Naturelle » (accessible à http://deselection.wordpress.com/), le nouveau blog de mon ami Laurent Poulain.

Cela faisait longtemps que je me régalais en lisant les articles de Laurent sur son blog en anglais (toujours accessible à http://analysisofitnews.blogspot.com/) : ses analyses sont toujours pertinentes et bien vues (j’aurais aimé les écrire, c’est tout dire !). Mais, voilà, le trafic restait très maigre… C’est pourquoi j’ai conseillé à Laurent de basculer dans une version en français, ce qui est enfin le cas avec « Désélection Naturelle »… Longue vie à ce blog qui promet d’être passionnant !

Web 2.0, fin de partie et suite

Je ne suis pas le seul à ressentir une certaine « web 2.0 fatigue » : ses leaders se perdent en vaines disputent (voir la polémique entre Loic Le Meur et Michael Arrington à http://fr.techcrunch.com/2008/12/14/fr-baston-de-bloggeurs/) ou disent haut et fort qu’ils sont dégoûtés (voir Chappaz et le dernier billet de son blog à http://www.kelblog.com/2008/12/tout-envoyer-promener.html).
Bref, ça sent la fin de partie. Il faut dire qu’on a eu une déferlante très importante de services pendant ces dernières années, certains très utiles et bien réalisés, d’autres moins. On se rend bien compte que cette vague du Web 2.0 ne va pas laisser que des souvenirs impérissables à quelques exceptions près.

Il faut dire qu’il faut du temps avant de digérer vraiment des nouveaux services qui induisent de nouveaux usages. Le web 2.0 a d’abord provoqué beaucoup de consommation de temps : temps passé à découvrir ces nouveaux services et temps passé à les utiliser. Car ces nouveaux services et usages sont très chronophages.
Gérer son identité numérique, ça prend du temps, tenir un blog, ça prend du temps et ainsi de suite. Or, on s’aperçoit vite que dans notre société d’abondance, in fine, le temps, c’est ce qu’on a le moins !

Je me suis rendu compte qu’on était en train de vivre un tournant quand mon fils ainé m’a annoncé qu’il avait supprimé MSN de son Mac : « ça prend trop de temps ce truc » explique-t-il. Voilà une geste que je n’attendais pas de sa part vu combien il était accro au chat, comme ses frères et ses copains.
Que finalement, il décide que l’email permettait aussi d’échanger sans consommer autant de temps que le chat (alors qu’auparavant l’email était tout juste bon pour des « vieux » comme moi…) me semblait être un signe qu’on était effectivement en train de tourner une page et que tous ces services étaient en train de perdre au moins une partie de leur magie…

Je ne suis pas en train de vous prédire que l’Internet va s’enfoncer dans une crise comparable à ce qu’on a vécu en 2002 et que l’innovation sa s’éteindre ou même se mettre en pause. Simplement, on va se rendre compte que le cours de l’évolution du web est déjà « passé à autre chose »…
Et cet « autre chose », c’est quoi selon toi ?

Eh bien, il suffit de regarder les tendances fondamentales que ces dernières années nous ont enseigné :
1- les gens aiment échanger entre eux.
2- les gens aiment créer du contenu quand c’est facile à faire (attention, l’aspect « facile à faire » est vraiment important ici… Car quand c’est trop compliqué, les gens zappent).
3- les gens aiment que ce contenu soit « personnalisé » (comprendre, porte sur eux).
4- les gens aiment que ce contenu puisse être vu par leurs amis.

Donc, à partir de là, il est facile d’en déduire que le « user generated content » ne va pas faiblir et va même au contraire s’étendre puisqu’on a déjà les sites qui permettent de publier et de diffuser ces contenus (Youtube et Facebook par exemple), il ne manque plus que les sites qui permettent de réaliser facilement ces contenus. Et c’est justement ce qui est en train d’arriver.

Un exemple : JibJab. Ce site était déjà connu pour diffuser des petites animations humoristiques comme le très réussi « This land is my land » que vous pouvez revoir ci-dessous :

Eh bien Jibjba met désormais l’accent sur la possibilité de créer des petites animations où ce sont VOS photos qui vont illustrer les personnages. Comme dans la séquence des luttins qui dansent qui a été réalisée par ma femme et que j’ai ensuite intégré dans cette vidéo :

Oui, je pense vraiment que c’est là une des voies d’évolution du Web après la frénésie du Web 2.0 et tant mieux.

Première version de l’introduction (et du prologue) de mon nouvel ouvrage « histoire critique de l’informatique moderne »

Ce projet est en cours de lancement… Si tout va bien, je pourrais vous en dire plus sur les « parrains » de ce projet dans les semaines à venir.

Ce nouveau livre devait sortir avant juin 2009, sans doute avec mon éditeur habituel : M21 Editions.

Voici une toute première version de l’introduction :

Introduction

Voilà un livre sur l’histoire de l’informatique moderne. J’insiste sur cet adjectif car mon objectif était bien de rédiger un ouvrage différent des livres d’histoire qu’on peut déjà trouver.
Certes, il est utile de replacer l’émergence de l’informatique dans les méandres du bouillonnement technique du XXème siècle mais cela a déjà été fait de nombreuses fois. Mon but était plutôt de focaliser sur les quarante dernières années de notre industrie afin de retracer les évolutions majeures et d’en comprendre les mécanismes.

En effet, pour comprendre comment on en est arrivé là, il faut décrypter ce passé récent. Ainsi seulement, on pourra faire une analyse objective de la situation présente et proposer une nouvelle direction pour la prochaine phase. Car, et c’est là le second volet de ce travail; il ne s’agit pas seulement de s’intéresser à l’histoire moderne de l’informatique mais aussi de le faire avec un oeil critique !

  • Est-on satisfait de la situation actuelle ?
  • Peut-on dresser un bilan de l’informatique professionnelle ?
  • Quelles règles peut-on en déduire ?
  • Pourrait-on faire mieux ?
  • Comment faire mieux ?

C’est pour répondre à ces questions que j’avais proposé en 2004 “le manifeste pour une informatique raisonnable” et la dernière partie de ce livre est une mise à jour de cette proposition replacée dans le contexte d’un bilan de l’informatique moderne.

Mais, avant d’en arriver là, il faut pouvoir poser les bases de cette exploration. C’est-à-dire, répondre aux questions suivantes :
Quand commence l’informatique moderne ?
Que s’est-il passé d’important pendant la “préhistoire” ?

Le premier chapitre débute avec l’identification de l’événement créateur de l’informatique moderne : le lancement de l’IBM 360, ancêtre des mainframes et véritable début de l’industrie informatique telle que nous la connaissons. Avant cela, ce n’était ni le chaos ni le néant mais une période que nous pourrions appeler la “préhistoire” : l’informatique existe déjà belle et bien mais pas encore sous la forme d’une industrie structurée avec un marché, des clients et des usages bien définis.

Et donc, voici le prologue consacré à la « préhistoire » :

Prologue : la préhistoire de l’informatique moderne

Les vrais pionniers de l’informatique telle qu’on la connait aujourd’hui sont peu connus… Il s’agit d’un binome : P. Eckert et J. Mauchly.
En 1946, ce sont eux qui sont à l’origine de l’ENIAC (Electronic Numerical Integrator and Computer). Ce sont encore ces deux là qui lance la première start-up informatique afin de commercialiser des ordinateurs. La première commande vient de l’US Navy pour le BINAC en août 1949. En 1951, P. Eckert et J. Mauchly, ayant revendu leur compagnie à Remington Rand, lancent l’UNIVAC I (UNIversal Automatic Computer). Il s’agit du premier ordinateur commercial de l’histoire. Le premier fût vendu au bureau de recensement Americain.
Mais c’est grâce au flair marketing de Remington Rand que le premier “coup médiatique”, véritable événement fondateur de l’informatique, est réalisé : Remington Rand (Unisys aujourd’hui…) proposa à CBS d’organiser une prévision des résultats par ordinateur pour le soir des élections présidentielles américaine de 1952. Walter Cronkite (le présentateur vedette de CBS) était septique mais la soirée fut un succès car la prévision donnée par UNIVAC était exacte à 1% près !
Cette soirée eu un grand retentissement dans l’opinion publique américaine et contribua à faire connaître la notion “d’ordinateur” au grand public de l’époque. Depuis ses débuts à la fin de la Seconde Guerre mondiale, l’informatique évoluait rapidement mais de façon chaotique :  c’est une période où tout est à inventer et où les innovations marquantes sont obligatoires. Mais, dans ce déferlement, il était impossible de bâtir quelque chose de durable car les changements techniques où chaque nouveauté, chaque nouvelle génération de machines démodait instantanément la précédente.
Ce contexte convenait à peu près à la communauté scientifique mais pas du tout au monde des affaires. Dans un premier temps, c’est UNIVAC (division de Remington Rand après le rachat de la start-up de P. Eckert et J. Mauchly) qui domine l’embryon d’industrie qui est en train de se former mais IBM, l’acteur dominant du marché des tabulatrices, va s’efforcer de revenir dans la course.

Il va y parvenir grâce à ses propres efforts (en particulier avec le modèle 1401) mais aussi en étant impliqué dans les deux projets majeurs de cette époque : les projets SAGE et SABRE…
Ces projets conduirent à l’invention de la notion de “fonctionnement temps réel”. Jusque-là, les quelques ordinateurs vendus et installés étaient utilisés sans aucune imagination : du batch, encore du batch et toujours du batch. Ces calculateurs étaient modernes dans leur conception mais ils étaient employés avec les mêmes démarches et processus que les systèmes mécanographiques qu’ils remplaçaient. L’invention du “temps réel” allait permettre de changer cela (mais cela se fit très progressivement).

Le projets SAGE, le réseau informatique de défense Américain SAGE (Semi Automated Ground Environment)
Le Whirlwind crée au MIT par Jay Forrester, Ken Olsen (le futur fondateur de Digital Equipment) et leur équipe est le tout premier ordinateur temps réel (1949-1951). En 1952, IBM est contacté pour mettre en chantier la production des ordinateurs du réseau SAGE dont le Whirlwind était le prototype. Une cinquantaine de machines, portant le nom AN/FSQ7, sera produite. Le projet SAGE consistait à coordonner un flux de messages, à l’aide d’une série de gros ordinateurs, depuis des radars jusqu’aux unités d’interception de l’US Air Force, permettant ainsi de réduire significativement le temps requis pour contrer une attaque éventuelle de bombardiers.
Juillet 1958 : Le premier bunker du réseau SAGE (système de défense Américain) devient opérationnel. L’ordinateur AN/FSQ7 dans chaque bunker est capable de gérer 400 avions simultanément. Le dernier bunker du réseau SAGE fermera en Janvier 1984.
Le projet SAGE  a été bien moins célèbre que le projet SABRE mais il eut beaucoup d’importance dans la montée en puissance d’IBM dans le nouveau  (pour l’époque) domaine de l’informatique. Comme l’a plus tard avoué Tom Watson Jr (dirigeant historique d’IBM dans la seconde moitié du XXème siècle) “…c’est la guerre froide qui aida IBM a devenir le roi du secteur informatique…”.

Le projet SABRE
Premier réseau informatique à but commercial : SABRE (Semi Automated Business Related Environment) réalisé par IBM. Il relie 1200 téléscripteurs à travers les Etats-Unis pour la réservation des vols de la compagnie American Airlines. Cette compagnie faisait face à de sérieux problèmes dans son processus de réservation dans les années 1950. Le système de réservation historique d’American Airlines était alors entièrement manuel. Un processus plus automatisé était nécessaire pour faire entrer American Airline dans l’ère du transport aérien à grande échelle.
En 1953 un commercial de haut niveau d’IBM, Blaire Smith, rencontre C. R. Smith, président d’American Airlines, à l’occasion d’un voyage d’affaires et ils discutent de leurs activités professionnelles respectives.
A cette époque là, IBM travaillait justement pour l’US Air Force sur le projet SAGE… Il n’a pas échappé aux deux businessmen que le principe fonctionnel de SAGE pouvait être tout à fait adapté aux besoins d’American Airline en matière de réservation.
30 jours après cette rencontre, IBM soumet une proposition de recherche à American Airlines, suggérant d’étudier le problème plus avant et d’évaluer l’opportunité d’un « cerveau électronique ».
Un contrat formel pour le développement est signé en 1957, et le premier système expérimental déployé en 1960. Le système est un succès – et un succès nécessaire, notamment en raison de son coût astronomique de 40 millions de dollars (de l’époque, soit environ 350 millions de dollars d’aujourd’hui) pour le développement et l’installation. A partir de 1964, toutes les réservations American Airlines sont gérées par ce système.
Les recherches nécessaires autour du projet SABRE ont aussi amené leur lot d’innovations. En 1956, IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo. Ce périphérique a été développé pour le projet SABRE, système de réservation temps réel pour la compagnie aérienne American Airlines.
Les projets SAGE et SABRE ont également provoqué des retombées positives sur le plan humain en formant des milliers de programmeurs qui se sont ensuite dissiminés dans tous le pays, contribuant ainsi à créer une vaste  et nouvelle catégorie socio-professionnelle : les informaticiens.
L’IBM 1401 à la suite du 650
On l’a vu, le projet SAGE fut vraiment profitable à IBM et pas seulement sur le plan financier mais aussi sur le plan technique. IBM fut invité à examiner les détails du Whirlwind et s’en inspira largement pour concevoir ses premiers ordinateurs commerciaux : le 701 destiné à des usages scientifiques et militaires ainsi que le 702, la version destinée aux usages civils (gestion des entreprises).
IBM proposa ainsi une série de machines durant les années cinquante qui étaient toutes des très petites séries utilisant les techniques de pointe de l’époque. Les choses commencent à changer avec le modèle 650. Il fut le premier au monde à avoir vraiment été fabriqué en “grande” série. Il a été annoncé en 1954, et plus de 2000 unités ont été produites entre la première livraison en 1954 et l’arrêt de cette production en 1962.
Le 650 a été le premier succès commercial d’IBM dans le secteur des ordinateurs. Mais cette réussite restait limitée : l’essentiel de l’activité de la compagnie restait liée à la production de machines mécanographiques et les principaux clients continuaient à privilégier cette technologie déjà ancienne mais fiable et économique. C’est avec cela en tête qu’IBM conçu le successeur du modèle 650 : le 1401.
Le modèle 1401 était le premier ordinateur reposant sur des transistors. Il était plus rapide que le 650 mais surtout plus fiable et moins coûteux. Ce nouveau “mainframe” fut annoncé en octobre 1959 et les installations commencèrent dès le début de 1960. Les prévisions de livraison d’IBM pour ce modèle s’établissaient à 1000 exemplaires. Mais, finalement, plus de 120000 exemplaires du 1401 furent assemblés et installés chez les clients…
Comment expliquer que les prévisions d’IBM aient été aussi pessimistes ?
Le succès inattendu du 1401 vient du fait qu’il ne s’agissait pas d’un ordinateur isolé, aussi sophistiqué qu’il pouvait l’être mais d’un véritable “système” : un processeur entouré par des périphériques innovants.
En particulier une imprimante rapide (le modèle 1403) qui était capable d’imprimer 600 lignes par minute alors que les modèles précédents se contentaient de 150 lignes par minutes. C’est cette offre qui a vraiment décidé la base des clients traditionnels d’IBM à basculer de la mécanographie à l’informatique…

Honeywell modèle H200
Le succès du 1401 inspira le premier “copieur” de l’industrie informatique : en 1963, Honeywell annonça le modèle H200 qui avait pour particularité d’être entièrement compatible avec l’IBM 1401 (grâce à un logiciel de conversion des programmes nommé « Liberator »…). Pour la première fois, les clients avaient une alternative à IBM sans devoir refaire tous leurs programmes…
Alors que les “sept nains” (c’était le surnom des concurrents d’IBM dans les années 60…) s’épuisaient à lutter frontalement avec IBM, Honneywell inventait la stratégie de l’ordinateur compatible (une stratégie qui sera suivie des années plus tard par Amdhal, Comparex et les constructeurs Japonais comme Fujitsu). Honneywell bénéficia d’un certain succès avec cette démarche mais elle démontrait surtout que le point clé du succès résidait désormais dans le verrouillage qu’impliquait l’écriture et la réécriture des programmes. Verrouillage qui devenait bien plus important que l’attrait des derniers progrès en matière d’électronique et les gains de performances qui y étaient liés…
Le logiciel commence à sortir des limbes avec les premiers compilateurs (Fontran et Cobol). Du côté de l’électronique, le transistor a remplacé le tube à vide fragile, encombrant et grand consommateur d’électricité. Noyce à Fairchild et kilby à  Texas Instrument ont inventé le circuit intégré. Tout est en place pour que l’histoire moderne commence.
La préhistoire a permis de passer d’un secteur d’activité quasiment artisanale  mais très innovante à une industrie structurée et aux pratiques technologiques bien établies.

C’est IBM qui a suscité ce tournant et c’est aussi IBM qui en a le plus profité, et c’est logique car cette évolution a aussi été l’occasion de séparer deux types d’acteurs : ceux qui avaient une logique contractuelle et ceux qui avaient une volonté industrielle.
Les premiers faisaient financer la recherche technique par les grands donneurs d’ordres (typiquement l’armée) et n’envisageaient pas d’investir leurs propres moyens afin de se ménager une avance et d’en faire bénéficier ensuite leurs clients. Ces acteurs raisonnaient au coup par coup, ils étaient seulement intéressés par la perspective du prochain contrat, non par celle de construire un marché.

À l’opposé de ce comportement passif, on trouve quelques acteurs comme IBM ou NCR qui se situent dans une logique industrielle et adoptent un comportement actif : investir eux-mêmes dans la recherche afin de pouvoir proposer une offre adaptée au marché de masse. Il est naturel que ce soient IBM et (dans une moindre mesure) NCR qui soient à l’origine de ce changement d’échelle puisqu’eux-mêmes se situaient plus sur le marché industriel que sur le marché contractuel (les solutions de mécanographies pour IBM, les caisses enregistreuses pour NCR).

Ce premier niveau de maturité de l’industrie se traduit par deux conséquences : le ralentissement de l’innovation et l’apparition du marketing afin d’élargir et de dynamiser le marché potentiel…

Ce mécanisme en trois temps (innovations rapides afin de concrétiser la nouvelle percée, puis apparition d’acteurs imposant une logique de masse, et enfin prise de relais par le marketing afin d’élargir le marché) va se reproduire à chaque tournant de l’histoire de l’informatique dans sa période “moderne”…

Voilà, ça ne fait que commencer !

Interview sur les réseaux sociaux et la politique

Je suis souvent interrogé par des journalistes mais aussi des étudiants sur le sujet « réseaux sociaux » suite à mes livres, bien entendu.

Je répond bien volontiers, y compris quand c’est dans un cadre « non-public » (c’est-à-dire qui n’est pas destiné à être publié). Or, mercredi dernier, j’ai été interrogé par Sandrine CAMPESE (Diplômée de Science Po Aix et titulaire d’un Master II « Communication Politique et Sociale » à Paris I – La Sorbonne) pour un mémoire qu’elle prépare sur le sujet « réseaux sociaux et utilisation par les politiques. Sandrine ayant eu la délicatesse de m’envoyer la transcription de cet « interview » (qui a été réalisé via Skype), je me suis dit que je pouvais aussi vous en faire « profiter »…

Attention : certaines de mes réponses pourront paraitre âpres mais c’était dans le feu de la conversation… Il faut replacer cela dans le contexte et je suis prêt à expliquer mes prises de positions si nécessaire.

INTERVIEW ALAIN LEFEBVRE

MERCREDI 5 NOVEMBRE

PAR SKYPE.

Quand avez –vous créé votre profil sur Facebook ?

J’ai créé mon profil au printemps 2007, au moment où Facebook commençait à prendre de l’ampleur.

Avez-vous une sensibilité politique ?

Je ne suis pas du tout politisé, et j’ai même du mal à comprendre comment on peut s’y intéresser. Je trouve que le miroir dans lequel se reflète notre monde est très moche. Il n’y a pas de sincérité, ni d’efficacité, pas de fond, rien ! La classe politique donne l’illusion d’avoir du pouvoir, d’avoir la main sur la société, alors que le vrai pouvoir est économique. 

Dans votre dernier ouvrage,  vous évoquez l’intérêt des réseaux sociaux,  notamment au niveau professionnel. Avez-vous  eu l’occasion de réfléchir à leur utilisation politique ?

Dans la première édition de mon livre, j’avais évoqué les pratiques des élections présidentielles de 2004 aux Etats-Unis.  Un site de réseau social, spécialisé dans les rencontres, MeetUp, avait été très utilisé par un candidat aux primaires, Howard Dean. Cela avait contribué à le faire connaître, puisque tous les militants de son bord l’avaient systématiquement utilisé.

Que pensez-vous des politiques français qui rejoignent en masse le réseau Facebook ? 

Quand on est une personnalité publique, de surcroit politique, il faut savoir gérer son identité numérique, et cela passe par les réseaux sociaux. Il est nécessaire de créer un profil sur Facebook ne serait-ce que pour faire disparaître les « fake ». Il vaut mieux préempter son propre espace plutôt que de le laisser en jachère à des malveillants.

Sur les réseaux sociaux, la politique, c’est comme la guerre ou l’espionnage. On est dans l’action, mais aussi dans la contre-action. Si je voulais nuire à un candidat, je créerais le « fake » le plus crédible possible !

Selon vous, est-il important, pour un homme politique, d’avoir beaucoup d’ « amis » ?

Je pense que plus anecdotique qu’autre chose. Le nombre d’amis n’intéressent que ce qui n’ont pas bien saisi le fonctionnement du système. Ce qui compte, c’est la présence réelle de l’homme politique sur le réseau : tient-il ses contacts au courant de son activité, met-il à jour son statut, etc ?  L’effet positif, à court ou moyen terme : c’est la transparence. En utilisant Facebook comme un vecteur de communication auprès des jeunes, l’homme politique se rend accessible.

Comment un homme politique peut-il maximiser son utilisation d’Internet ?

Les politiques ont toujours été terriblement maladroits dans leur utilisation du net au sens large, et ce avant même l’apparition des réseaux sociaux.  On a pu observer que, dans le meilleur des cas, leurs sites étaient travaillés sur l’aspect visuel mais très médiocres sur le fond. 

Or, lorsqu’un site web n’est pas régulièrement mis à jour, lorsque le contact indiqué n’est pas valable, lorsqu’on n’obtient pas de réponse après avoir envoyé un message ou posté un commentaire, alors ce site est disqualifiant pour celui qui l’a créé ! Mieux vaut ne pas être présent sur le net que l’être de cette manière !

Justement, quel conseil donneriez-vous à un politique pour bien utiliser le réseau Facebook ?

Je lui conseillerai de commencer par bien utiliser Facebook, et de ne pas s’éparpiller sur tous les réseaux !

En communication, la règle d’or, c’est d’utiliser peu d’outils internet, mais de bien les utiliser. Par exemple, si on a seulement le temps d’envoyer des mails, eh bien on n’utilisera que des mails. De la même façon, on peut n’utiliser que Twitter,  si on n’a pas le temps de poster sur un forum. Sur Facebook, je considère que le minimum qu’un homme politique peut faire, c’est actualiser son statut. 

Autre conseil : refuser systématiquement toutes les « mini-applications ». Un profil qui en est truffé, ça ne fait pas sérieux et on tombe dans le « gadget ».

Les réseaux sociaux vont –ils prendre la place des blogs ?

La réponse classique consiste à dire que les blogs et les réseaux sociaux sont complémentaires : l’un ne remplace pas l’autre, il faut avoir les deux.

En vérité, il ne faut avoir que ce dont on se sert. Ce que les gens oublient parfois, c’est que tout ce qui est fait sur Internet a un impact soit positif, soit négatif, mais jamais neutre. Donc oui pour avoir un blog, mais s’il n’est pas entretenu, c’est négatif ! Oui pour être présent sur les réseaux sociaux, mais si on n’est pas disponible, si on ne répond pas aux sollicitations, c’est négatif ! Internet n’est qu’une loupe grossissante des qualités mais aussi des défauts de chacun.

Vous avez choisi  de parler des réseaux sociaux parce que c’est la mode en ce moment. Cela ne veut pas forcément dire que c’est le meilleur dispositif à utiliser.

Quel est l’intérêt de Facebook par rapport aux blogs ?

Il y a plus de monde sur Facebook. De plus, le blog demande du suivi, un effort de lecture, plus d’investissement.  Les réseaux sociaux permettent d’accéder à plus de monde, plus facilement, et la rentabilité des efforts est  plus grande. Mais on peut aussi créer un blog sur Facebook et publier des articles.

Quelles sont, selon vous, les limites des réseaux sociaux comme Facebook ?

Il ne faut pas oublier que le fond vient de l’utilisateur, jamais de l’outil. Un blog où sont publiées des choses sans intérêt ne marchera pas ! De la même façon, Ségolène Royal aura beau utiliser n’importe quel outil du web, elle restera « nunuche ».

Peut-on imaginer qu’un candidat créé son propre réseau social dans une perspective électorale ?

Oui, bien sûr, mais ça me paraît plus intéressant d’aller chercher les gens où ils sont. Je leur conseillerais d’aller simplement sur Facebook plutôt que d’essayer d’orienter l’audience sur un service particulier. Tout ce travail de mobilisation doit être fait de façon intelligente, subtile…

Croyez-vous qu’Internet puisse devenir un cinquième pouvoir ?

Je ne crois pas trop à cette idée de « cinquième pouvoir ». Il y a 5 ans, beaucoup ont dit que le Web 2, participatif allait changer les choses, revitaliser la démocratie, la participation. Or l’échec a été total.

Quand on regarde de plus près les sites participatifs, on ne peut que remarquer la vacuité des débats, la nullité des échanges, les torrents de boue publiés sur Agoravox ! Certes on y trouve quelques très bons articles publiés par des amateurs éclairés. Mais quand on lit les commentaires qui suivent, on est effondré.  C’est déprimant, cette armée de trolls qui met des commentaires absurdes sans même avoir lu l’article. Et c’est cela qu’on appelle « participation » ? 

Internet a permis au plus grand nombre de s’exprimer et a démontré dans le même temps, que le plus grand nombre ne valait pas grand-chose ! C’est la règle des 80-20 (cf le nombre de Pareto). Il n’y a rien à attendre de la masse. Internet ne redonnera pas gout de la politique au citoyen. Depuis  5 ans, le niveau moyen intellectuel, culturel, s’effondre complètement. Tout ça à cause de la manipulation globale organisée par les média et leur rôle d’abrutissement généralisé.  Les hommes politiques devraient dire : « arrêtez de consommer des médias ! », mais ils ne peuvent pas, puisqu’ils en ont eux-mêmes besoin.

Etes-vous d’accord pour dire que le règne de l’opinion a remplacé celui de la connaissance ?

Le règne de l’opinion, c’est désastreux. On est passé d’une petite oligarchie d’experts et d’universitaires verrouillant l’accès à la connaissance, à un système où n’importe quel « crétin » peut s’exprimer au même rang que quelqu’un de censé. Le retour de balancier est trop fort. Le problème du village global, c’est l’idiot du village global ! Or, ils sont plus nombreux que ce qu’on avait supposé au départ. 

Le mot de la fin ?

En résumé, Facebook c’est bien, parce que c’est à la mode et que c’est un outil de diffusion rapide qui permet de rassembler et d’offrir le meilleur retour sur investissement.  Mais Facebook ne fait pas de miracle et il faut se méfier de ses effets négatifs !

Une compilation de pages « anti-Java »…

Avertissement : c’est une chronique spécial geeks là !
Avertissement complémentaire : si vous êtes un fana de Java, passez votre chemin car, sinon, vous allez avoir mal… Dans la série « tuons les idées reçues », aujourd’hui, occupons-nous du « cas Java » !

Je n’en fait pas mystère : je déteste Java !

C’est pour moi la plus grosse escroquerie intellectuelle de ces 15 dernières années. Donc, j’ai eu l’idée de réunir ici une petite liste de liens pointant vers des pages expliquant pourquoi Java est -toujours encore aujourd’hui- une grosse daube… Enjoy!

Si vous connaissez d’autres articles (du même genre of course), n’hésitez pas à les signaler…


Tout vient à point à qui sait attendre… Andreessen l’admet : PHP mieux que Java !

Tout d’abord, il faut lire cet article publié sur CNET ou Mark Andreessen (le co-fondateur de Netscape pour ceux qui débarquent) admet que PHP est supérieur à Java !

Ce qui est savoureux dans cet « aveu » c’est que Mark était un fervent adepte de Java dans les années 90, prédisant à qui voulait l’entendre que Java allait inévitablement « casser la baraque ». Or, on le sait aujourd’hui, il n’en a rien été…

Dernièrement, j’ai eu l’occasion de renouer avec Amy Porter (lors de la conférence que j’ai donné au Cercle Suédois). Avec Amy, j’ai eu des joutes mémorables à l’époque où elle représentait Sun (et donc Java). Aujourd’hui, Amy admet volontiers que Java est loin d’avoir atteint les promesses d’alors…

Ce qui est encore plus savoureux pour moi, c’est que je me souviens avec précision de ma rencontre avec ce même Mark Andreessen : cela se passait en juin 1997 (ou peut-être un autre mois, je ne sais plus bien sur ce point…) au CNIT lors d’une grande convention Netscape (Tristan Nitot doit s’en souvenir également…). J’avais été convié par Netscape France à venir interrogé le « maitre » car j’étais identifié comme analyste. L’interview s’était plutôt mal passé : le « maitre » ne comprenait pas pourquoi je n’étais pas de son avis quand il m’expliquait que la réécriture (en cours à ce moment-là… ça n’a pas duré !) de Netscape Navigator en Java allait résoudre tous leurs problèmes et finir d’écraser Microsoft. Mon septicisme irritait Andreessen au plus haut point et il me tourna le dos pour me signifier que l’interview était terminé. L’attaché de presse eu le plus grand mal à le convaincre de revenir me parler… ambiance !

Dans mon livre « Web client-serveur » j’expliquais dès 1998 que Java n’étais pas LA solution pour les applications Web…
Dans de nombreuses chroniques et tribunes publiées dans la presse informatique de l’époque, j’étais une des rares voix à ne pas céder à l’hystérie en faveur de Java (hystérie complétement injustifiée, on s’en rend enfin compte à présent).

Open Office version 3, enfin pour Mac OS !

Je n’ai jamais été très fan d’Open Office dans ses versions précédentes : trop lent au démarrage, reposant trop sur Java (beuark !) et pas de support de Mac OS en natif (obligé de passer par du X11 ou sur des portages dérivés…).

Il semble que tout cela soit corrigé dans la version 3 que je teste depuis hier : démarrage plus rapide (sans être foudroyant toutefois), l’interface Mac OS est bien supportée (ça se voit tout de suite puisque le dialogue d’ouverture d’un fichier ou d’impression sont les dialogues natifs habituels) et le design général est en nette progression par rapport à la version II… Bref, encore une démonstration que la qualité en progression constante est bien du côté des projets Open Source !

Vous pouvez trouvez Open Office ici, essayez-le, c’est gratuit et sans risque…

Un projet à venir : l’histoire critique de l’informatique moderne

J’ai un projet en tête : écrire une histoire critique de l’informatique moderne.

Il y a deux mots importants dans le titre de ce futur ouvrage : critique et moderne. Critique car il ne s’agit pas de simplement de récapituler ce qui est arrivé mais plutôt de comprendre comment (et pourquoi) on en est arrivé là. D’où le focus sur l’informatique *moderne* plutôt que sur toute l’histoire de ce domaine.

Quand commence l’informatique moderne ?
J’ai déjà traité ce sujet dans mon livre « le troisième tournant » (d’ailleurs, tous mes livres professionnels contiennent peu ou prou ce retour sur l’évolution historique de cette industrie, il est donc logique que je souhaite en faire le sujet principal d’un ouvrage autonome) : l’informatique moderne commence vraiment avec le système 360 d’IBM.

Bref, il ne s’agit encore que d’un projet mais j’espère pouvoir le monter avec des partenariat avec le Musée de l’informatique par exemple. Ce projet (si j’arrive à le faire naitre…) ne va pas se faire en autarcie mais plutôt de façon ouverte : en ouvrant un wiki pubic et en appelant à une large collaboration. En effet, j’aimerais bien inclure des témoignages réels pour illustrer les différentes phases de cette histoire.

Me rencontrer : prochaine occasion au RSI de Lyon le 14/10…

L’hermite des montages sort de sa cachette !

En effet, j’ai eu la faiblesse d’accepter une invitation à intervenir en conférence lors du salon RSI qui va se tenir à Lyon le 14 octobre. Et, histoire de ne pas faire les choses à moitié, je vais même mettre mon grain de sel dans 2 conférences : DSI3 à 13H30 (à propos de l’Open Source, un sujet qui m’est cher) et WEB6 à 17H00 (à propos des réseaux sociaux… quelle surprise !).

Entre les deux, il est également prévu que je fasse une séance de signature de la seconde édition de « les réseaux sociaux » qui est désormais largement disponible en librairie.

Voilà, vous savez tout, à bientôt peut-être…

L’avenir du Web… Côté technique.

A la demande de Denis Failly, j’ai rédigé un petit article sur l’avenir technique du Web. Vous pouvez trouver « L’Après Web sur le plan technique » à cette adresse => http://entretiens-du-futur.blogspirit.com/archive/2008/09/25/l-apes-web-sur-le-plan-technique.html