Le projet SABRE… Vu par IBM !

Sabre a été créé dans les années 50-60 pour répondre à la demande d’American Airlines… Le système est toujours en place, 60 ans plus tard !
SABRE est un des grands projets qui a fait avancer la technique informatique. Par exemple, c’est avec SABRE que les premiers disques durs de stockage ont été utilisés.

Extrait du livre à ce sujet :

Premier réseau informatique à but commercial, SABRE (Semi Automated Business Related Environment) a été réalisé par IBM au début des années soixante. Au moment de sa mise en service, il va relier 1 200 téléscripteurs à travers les Etats-Unis pour la réservation des vols de la compagnie American Airlines. Cette compagnie faisait face à de sérieux problèmes dans son processus de réservation dans les années 1950. Le système de réservation historique d’American Airlines était alors entièrement manuel. Un processus plus automatisé était nécessaire pour faire entrer American Airline dans l’ère du transport aérien à grande échelle.
En 1953 un commercial de haut niveau d’IBM, Blaire Smith, rencontre C. R. Smith, président d’American Airlines, à l’occasion d’un voyage d’affaires et ils discutent de leurs activités professionnelles respectives. À cette époque-là, IBM travaillait justement pour l’US Air Force sur le projet SAGE… Il n’a pas échappé aux deux businessmen que le principe fonctionnel de SAGE pouvait être adapté aux besoins d’American Airline en matière de réservation. 30 jours après cette rencontre, IBM soumet une proposition de recherche à American Airlines, suggérant d’étudier le problème plus avant et d’évaluer l’opportunité d’utiliser un « cerveau électronique ».
Un contrat formel pour le développement est signé en 1957, et le premier système expérimental déployé en 1960. Le système est un succès — et un succès nécessaire, notamment en raison de son coût astronomique de 40 millions de dollars (de l’époque, soit environ 350 millions de dollars d’aujourd’hui) pour le développement et l’installation. À partir de 1964, toutes les réservations American Airlines sont gérées par ce système.
Les recherches nécessaires autour du projet SABRE ont aussi amené leur lot d’innovations. En 1956, IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo.

Publié dans Anecdotes IT | Laisser un commentaire

L’aventure de l’IBM 360 vue par… IBM !

C’est Fred Brooks qui raconte cette histoire passionnante : les débuts du projet 360, le premier mainframe standard qui permit la domination d’IBM sur le marché de l’informatique pendant des décennies. Brooks s’est occupé de l’OS/360.

Extrait du livre à ce sujet :

En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : 5 milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 !
Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré mais la nouvelle « salle blanche » allait demander plus de $450 pour la même surface !) mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.

IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un « quitte ou double » pour la compagnie mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 63, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ?
La première option était spectaculaire et assurait un impact maximum mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était le hit de Big Blue à ce moment-là) !
Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…

L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 qui avait pour particularité d’être entièrement compatible avec l’IBM 1401 (déjà évoqué dans le chapire un). Le H200 était entièrement compatible avec le 1401 mais en utilisant une électronique plus avancée, Honeywell obtient un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique !
L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
En dépit de l’effort titanesque effectué par la compagnie sur le « new product line » (« la nouvelle ligne de produit », nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à « mettre le paquet » sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs…
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle acceptait 40 modèles de périphériques dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail mais bien un ajout intelligent permettant à la base installée de « glisser » en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de $5 milliards, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme « l’ordinateur fait par IBM qui a fait IBM » et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant 30 ans et a défini l’architecture de base des mainframes encore en usage aujourd’hui !
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du 360 résidait dans son système d’exploitation System/360 dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai) mais, de toute façon, le traitement par lots représentait probablement plus de 95% l’informatique de l’époque !

Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.

Publié dans Anecdotes IT | Laisser un commentaire

Critique du livre « Comprendre l’Empire » d’Alain Soral, excellent ouvrage !

Comme je l’explique dans la vidéo ci-dessous, je ne connaissais pas du tout Alain Soral mais cette découverte est d’autant plus réjouissante !

Dans cette vidéo, j’explique pourquoi, en tant qu’homme libre, vous devriez lire ce livre…

Une courte critique vidéo du dernier livre d’Alain Soral, « Comprendre l’Empire » est un chef d’oeuvre que tout le monde devrait lire avec avidité !

Sous forme d’avant-goût, je vous recommande aussi de visionner les six vidéos publiées par Alain sur son site perso à propos de cet ouvrage justement… C’est par ici http://www.alainsoral.com/2011/03/comprendre-l%E2%80%99empire-entretien-avec-alain-soral-2/

Publié dans Livres | 3 commentaires

Demain soir, tous devant la télé !

Oui, c’est moi qui lance ce mot d’ordre : mardi 15 mars, il FAUT regarder la télé, pour une fois (le reste du temps, non, il ne faut pas…).

Oui mais pas n’importe quoi bien sûr : amateurs de football, de TF1 et autres M6, vous allez être déçus… C’est sur Arte à 20:40 qu’il faut regarder l’excellent documentaire « Notre poison quotidien » dont voici la bande annonce :

Plus de détails et d’autres vidéos à http://www.arte.tv/fr/Comprendre-le-monde/Notre-poison-quotidien/3673928.html

Publié dans La terrible vérité | 2 commentaires

Quelques éléments intéressants sur la mentalité humaine… Ou pourquoi la « pensée unique » a de l’avenir !

Pourquoi la « pensée unique » existe-t-elle et est-elle si répandue ?

Tout simplement parce qu’il est dans la nature humaine de se « mettre en conformité » avec le groupe… Septique ?
Vous ne devriez pas pourtant… Abraham Maslow l’a bien compris en mettant le « besoin d’appartenance » dans sa hiérarchie des besoins humains (voir à http://fr.wikipedia.org/wiki/Pyramide_des_besoins_de_Maslow). Mais ce que Maslow ne soupçonnait pas, c’est que la satisfaction de ce besoin (le besoin d’appartenance ou d’intégration) pousse l’individu à tricher pour s’aligner sur « la pensée unique »… Et c’est ce que « l’expérience de Asch » a démontré !

Commençons donc par l’expérience de « Asch » (imaginée par Solomon Asch, voir à http://fr.wikipedia.org/wiki/Solomon_Asch) :

expérience de Ash, le conformisme par ldn67

Continuons par l’expérience de Leyens (chercheur Belge, expérience réalisée en 1986) :

Expérience de leyens par Super_Resistence

Allez, une autre sur le même principe (avec un commentaire très intéressant à la fin de Leyens justement) :

Expérience Leyens – Soumission à l’autorité par Super_Resistence

Enfin, terminons ce bref tour d’horizon édifiant par la bien connue « expérience de Milgram » (voir à http://fr.wikipedia.org/wiki/Exp%C3%A9rience_de_Milgram) :


L’expérience de Milgram par Super_Resistence

Alors, convaincu ?

Publié dans La terrible vérité | Un commentaire

« Water makes money », un documentaire à ne pas manquer le 22 mars sur Arte !

Informez vos amis et connaissances et tous les médias de la date de
diffusion du film « Water makes money » sur ARTE : le 22 mars à 20h40″

Plus il y a de gens qui attendent sa diffusion, plus cette date a des chances d’être maintenue !

Veolia porte plainte contre le film documentaire « Water Makes Money »

Après Paris, Berlin?

Ceux qui portent plainte contre le film „Water Makes Money“ doivent
affronter une tempête. A Berlin, Veolia ne peut plus cacher derrière
des contrats secrets sa « machine à sous » qui lui a rapporté dans
les 10 dernières années 1,3 milliard d’euros grâce à la distribution
publique de l’eau. Les habitants de Berlin ont décidé, par
référendum, que ces contrats doivent être publiés. Et voilà qu’il
arrive exactement la même chose que ce que le film montre avec
l’exemple de Paris, Bordeaux et Toulouse : des juristes attentifs
mettent le doigt sur les astuces juridiques et les coups-bas cachés
dans le contrat du groupement, qui permettent aux acteurs mondiaux de
générer des milliards grâce à la distribution communale de l’eau.
Selon le directeur de l’Institut pour le droit en matière d’énergie
et de la concurrence de l’Université Humboldt à Berlin, Hans-Peter
Schwintowski, une évaluation juridique minutieuse de ces contrats
amène forcément au constat de leur invalidité. La garantie de
bénéfices serait, de fait, une subvention de la Communauté européenne
qui aurait dû recevoir une autorisation, et l’appel d’offres pour
l’attribution du contrat n’aurait pas non plus été réalisé
correctement. Donc, la privatisation partielle de la distribution de
l’eau à Berlin serait entachée de nullité et la voie serait ouverte
pour la remunicipalisation. Certes, il faudrait rembourser le prix
d’achat d’environ 1,8 milliard d’euros à Veolia&Co, mais, en
contrepartie, les bénéfices de 1,3 milliard d’euros devront également
être remboursés.

Nous n’en sommes pas encore là, à Berlin, mais le premier pas
important sur la voie de la remunicipalisation est fait, comme à
Paris et à Bordeaux il y a 5 ans…..

L’opinion publique s’éveille
Un grand merci à toutes celles et à tous ceux qui ont lu et envoyé
notre article sur l’action en justice de Veolia contre Water Makes
Money ! C’est tout simplement incroyable combien la société civile de
libres penseurs et de gens prêts à agir responsablement a grandi en
force et en influence. La nouvelle a déclenché une vraie vague de
l’attention publique, en France comme en Allemagne et dans les pays
voisins. Les journaux Rue 89, Tele Premiere, Télérama en France, et
Die TAZ, Hamburger Abendblatt, Stuttgarter Zeitung, Berliner
Morgenpost, Junge Welt, Badische Zeitung en Allemagne sont quelques
exemples de l’énorme écho qu’a trouvé cette affaire dans la presse.
Des chaînes de télévision ont également manifesté leur intention de
traiter ce sujet. Et quand on regarde notre carte on constate qu’il y
a énormément de nouvelles projections de notre film – c’est
magnifique!!!!!!

Ils vont devoir montrer leurs cartes
Nous apprendrons seulement pendant le procès quels points concrets du
film sont concernés par la plainte de Veolia, car le groupe n’est pas
obligé de montrer ses « cartes » avant le procès (chose impossible en
droit allemand!). Mais sous la pression de l’opinion publique,
l’avocat de VEOLIA a entre-temps donné quelques précisions : ils
veulent obtenir des « dommages-intérêts justes » pour la diffamation
du groupe. Ils veulent porter plainte contre l’accusation de
corruption, et surtout contre l’utilisation du mot « corruption »
dans le film.

La corruption active d’élus communaux, la nomination de représentants
du groupe dans des organes de la Communauté européenne qui décident
de l’attribution de marchés au groupe même, les invitations de hauts
représentants de l’Etat et de membres de commissions sur des yachts à
Saint-Tropez peu avant l’attribution de contrats de plusieurs
millions d’euros… tous ces exemples relatés dans le film n’auraient
rien à voir avec de la « corruption »?

Ils commencent à trembler
L’attitude d’ARTE dans cette situation est jusqu’ici fantastique. Le
directeur des programmes déclare dans une interview: « Nous soutenons
le film ». ARTE France organise une grande conférence de presse le 23
février 2011 au sujet de « Water Makes Money » dans le centre du « pouvoir « , à Paris !

Mais depuis que le PDG de Suez a appelé la présidente d’ARTE pour
protester contre la diffusion du film, on commence à trembler dans
les bureaux de la chaîne. Certes, il n’est pas déshonorant de
trembler. Face au pouvoir des global players Veolia et Suez, on a
raison de trembler ! Quand un boss d’une entreprise mondiale n’a rien
de plus important à faire que d’intervenir pour empêcher la diffusion
de Water Makes Money, on peut bien évidemment parler d’un grand
honneur pour le film ! Mais cela montre aussi combien il est
important pour ces grands groupes – chacun à sa manière – de bannir
ce film de l’espace public. Contrairement à la chaîne allemande NDR,
pour laquelle selon les dires de Veolia il suffisait en 2006 d’une
intervention de l’entreprise pour bannir du petit écran le film
précédent « Wasser unterm Hammer » (« L’eau aux enchères ») , ARTE et
sa présidente soutiennent toujours Water makes Money et maintiennent
la date prévue de diffusion le 22 mars 2011 à 20h40 ! Mais avant ce
jour-là, il y aura certainement un autre coup de téléphone, une autre
attaque.

Apprendre du passé
Ce n’est malheureusement pas un fait unique que les grands groupes du
business mondial de l’eau essaient d’empêcher la diffusion de
documentaires embarrassants. Ainsi, le film « Flow » avait été
attaqué en justice par SUEZ après sa diffusion sur ARTE. En première
instance, c’est le film qui a gagné, mais Suez a déjà fait appel du
jugement…

L’exemple actuel de l’auteur de Canal+, Denis Robert, montre
également ce qui pourrait être possible dans le procès en diffamation
avec demande de dommages-intérêts contre Water Makes Money. Lui aussi
avait été attaqué pour diffamation et confronté à des réclamations
énormes de dommages-intérêts quand il a dénoncé le blanchiment
d’argent chez Clearstream. Avec ce procès, l’entreprise l’a presque
poussé au désespoir et à la faillite. Il a perdu dans toutes
les instances. Seulement maintenant, après 10 années de procédures
judiciaires, la Cour de cassation a constaté que ces récits étaient,
pour l’essentiel, corrects !

Le traitement des journalistes par la justice française a été
désapprouvé plus d’une fois par les instances européennes.

L’ouverture du procès contre « Water Makes Money » n’interviendra
peut-être que dans un an. N’acceptez pas que Water makes Money
devienne un nouveau « Clearstream »!

Pour cette raison : Aidez-nous à diffuser ces informations !

Chaque nouvelle diffusion du film, chaque DVD commandé compliquent
les projets de Veolia et Suez !

Informez vos amis et connaissances et tous les médias sur la date de
diffusion sur ARTE : le 22 mars à 20h40 ! Plus il y a de gens qui
attendent la diffusion, plus cette date sera sûre !

Et nous souhaitons que le 22 mars à 20h40 procure à ARTE le succès d’audimat
que cette chaîne et ses collaborateurs ont d’ores et déjà mérité !

Publié dans La terrible vérité | 2 commentaires

Un documentaire sur l’histoire de l’informatique par la BBC en 1991

Tourné en 1991, ce documentaire de la BBC avait pour titre « The dream machine » :

Publié dans Anecdotes IT | 4 commentaires

La version papier de mon livre « Publier sur iPad & Kindle »

Bien entendu, il est plus logique d’acheter la version numérique de cet ouvrage (c’est d’ailleurs celle qui se vend le mieux) mais avoir une version papier est toujours utile… Voici deux photos qui illustrent l’aspect et le contenu de mon dernier livre en date :

La couverture de "Publier pour iPad & Kindle"

La couverture de "Publier pour iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

Vous pouvez acheter ce livre sur TheBookEdition pour 10€ (hors frais d’envoi).

Publié dans Informatique, Livres | 3 commentaires

La candidature « Annecy 2018 », réflexions pertintentes d’un Canadien…

Non, je ne vais pas gloser sur les déboires du comité de candidature d’Annecy aux JO d’hier pour 2018, on ne tire pas sur une ambulance dit-on…

Mais je voudrais joindre ma voix à tous ceux et celles qui ne veulent PAS des JO à Annecy et pour illustrer les raisons de ce refus, je voudrais vous renvoyer sur l’excellent article de Robert Cossette, un Canadien installé à Annecy et qui partage avec nous quelques réflexions sur l’intérêt des JO que je trouve particulièrement pertinentes (cela rejoint exactement ce que j’écris sur le sujet depuis des années !). C’est à lire (et à savourer) à http://papouvb74.wordpress.com/2011/02/11/annecy-2018-les-vrais-infos/

Publié dans La terrible vérité | Un commentaire

Une préface pour un livre sur PHP… En 1999 !

Voilà un texte rédigé en 1999 pour la préface d’un livre sur PHP…

La décennie 90 est une des plus agitée de l’histoire de l’informatique : elle commence par l’explosion du client-serveur et se termine sur la généralisation du Web !

Dans ce tumulte, on a assisté à une prolifération inattendue des langages de programmation. Inattendue car la période précédente avait plutôt éteint les espoirs des challengers (tels que Pascal ou Smaltalk) de déloger Cobol et le C de leurs positions dominantes dans leurs domaines respectifs.

Passons rapidement sur les nombreux L4G (très peu ont survécu finalement) qui ont accompagné le mouvement client-serveur et revenons sur les premiers pas du Web. Il y a quelques années, les développeurs de sites Web interactifs n’avaient pas le choix, pour activer des traitements sur le serveur invoqués depuis une page HTML, il fallait passer par l’interface CGI. Toutefois, cette dernière vous laissait libre du langage à employer. Et, plutôt que le langage C, les concepteurs de sites se sont massivement rués sur PERL. En effet, ce langage, orienté production de rapports, était particulièrement à l’aise dans les manipulations de chaînes de caractères, plutôt pratique pour générer des pages HTML !

Le succès de PERL dans ce domaine a permis de contribuer à la reconnaissance du mouvement des logiciels à code source ouvert (ou logiciels libres) puisque ce langage fait partie intégrante de cette mouvance au même titre qu’Apache (le serveur HTTP le plus répandu sur le Net) ou Linux (qu’on ne présente plus !).

Le développement sur le Web ne s’est pas cantonné dans le recours à l’interface CGI, de nombreux serveurs d’applications sont apparus (la plupart reposant progressivement sur Java) et même PERL s’est affranchi de CGI grâce au module mod_perl qui lui permet d’être pris en charge par Apache pour de meilleures performances à l’exécution. Mais la situation n’a pas tourné au statut quo pour autant et le succès confirmé de PERL n’a pas empêché l’émergence d’un autre langage, lui aussi dans le cadre des logiciels libres, et cette fois véritablement spécialisé développement Web, PHP.

Une plaisanterie prétend que les lettres PHP signifient « People Hate Perl » (les gens détestent PERL !). La vérité c’est que le « préprocesseur hypertexte » prend une place laissée vacante : celle de langage dédié pour le Web.

Évidemment, il existe d’autres langages qui sont nés avec et exclusivement pour le Web tel que Cold Fusion mais il s’agit la plupart du temps de L4G commerciaux (Cold Fusion est la propriété de son éditeur Allaire corp.), PHP est le seul langage « libre » uniquement orienté Web et ce n’est pas rien. C’est de cette combinaison (spécialisation et développement collectif) que PHP tire tout son dynamisme.

Il n’est pas inutile de revenir sur le mécanisme de cercle vertueux qui donne aux logiciels libres un tel avantage sur les logiciels commerciaux mais permettez-moi d’abord une remarque : on n’a pas encore perçu toutes les conséquences de la lame de fond des OSS (Open Source Software) puisqu’elle remet aussi en question un des principes constatés dans le fonctionnement du marché des logiciels commerciaux, à savoir la règle « le vainqueur prend tout ».

Cette règle dévastatrice donne un avantage démesuré à l’éditeur du logiciel dominant sa catégorie puisque, effet de réseau aidant, son produit se retrouve assez rapidement en position de quasi-monopole (comme Microsoft Office sur la bureautique). La montée en puissance de PHP dans un secteur où PERL avait déjà un enracinement solide démontre que cette règle n’a pas cours avec le logiciel libre et c’est heureux !

Au moment où les entreprises découvrent à la fois les bénéfices du logiciel libre et la nécessité de tirer parti du Web pour son informatique et pour ses affaires, il n’est pas difficile de prédire à PHP un brillant avenir.

Publié dans Anecdotes IT | Laisser un commentaire

Biographie vidéo, au tour de Steve Jobs !

Incontournable Steve Jobs, impossible d’y échapper depuis dix ans… Cependant, quels que soient ses mérites (et ils y en a !), notre Steve est un peu comme Gates : il n’ a rien inventé et son influence sur la technique est quasi-nulle. Cependant, il a su « sentir » les tendances et en tirer parti (tout comme Bill d’ailleurs).

Publié dans Anecdotes IT | Laisser un commentaire

De l’arrivée des PC aux « systèmes ouverts »

Les années quatre-vingt débutent par un événement de taille : le lancement de l’IBM PC. L’engagement du spécialiste de l’informatique traditionnelle donne un tout autre poids à la micro-informatique. A-t-on conscience, à cette époque, du bouleversement que cela va provoquer ?

Difficile de dire si l’industrie, au sens large, était consciente des bouleversements à venir mais les acteurs impliqués étaient eux bien conscient de l’importance de l’entrée en lice du N°1 mondial. Apple par exemple a même été jusqu’à acheter une pleine page dans le Wall Street Journal avec pour seul message un grand « Welcome » pour marquer l’arrivée de ce concurrent de taille.

En revanche, il est clair que, à part quelques avant-gardistes comme Bruno Lussato, la plupart des observateurs n’imaginent pas une seconde que les micro-ordinateurs reliés en réseaux pourraient représenter une architecture alternative aux grands mainframes.

Jusque-là, le choix du matériel était déterminant. On choisissait IBM, Digital, Bull ou Sperry. Les notions de réputation du constructeur, de performance du matériel, étaient intimement liées à la notion d’application. Comment l’intérêt pour le logiciel va-t-il naître dans les entreprises ?

En fait, l’intérêt des entreprises a toujours été grand pour le logiciel, c’est pour le progiciel qu’il va naître progressivement. Il faut préciser que pendant une longue période, l’offre de logiciels sur étagère est pratiquement inexistante. Les clients sont habitués au « développement à la maison » (house programming) parce que, de toute façon, il n’y a pas d’autres moyens d’obtenir ce qu’on veut ou même ce dont on a besoin.

Les notions d’applicatifs et d’ordinateurs étaient tellement liées que l’idée même qu’il puisse y avoir des éditeurs de logiciels indépendants était étrangère à la plupart des gens. Ceux qui étaient assez clairvoyants pour avoir envie de se lancer dans ce nouveau business étaient souvent découragés par les professionnels qui n’imaginaient pas de place autrement que pour des acteurs fortement intégrés comme l’étaient alors tous les constructeurs.

IBM va choisir un petit éditeur, auteur d’un Basic, pour le développement du système d’exploitation de son PC. C’est une rupture à la fois avec l’approche traditionnelle (le constructeur met lui-même au point son système d’exploitation) et le début de standardisation autour de CPM de Digital Research. Cela aura-t-il des conséquences sur l’évolution future des logiciels applicatifs ?

Il faut d’abord se souvenir qu’IBM n’a pas choisi cette démarche, en rupture avec la logique (Digital Research, éditeur de CP/M, était l’incontestable leader de marché qui était alors encore assez réduit) et surtout avec ses propres habitudes (le syndrome du « not invented here » était très présent chez Big Blue), par sa seule volonté mais plutôt par accident : les juristes d’IBM ont effrayé les dirigeants de Digital Research avec leur NDA (non disclosure agreement), du coup, l’affaire n’a pu se conclure et ils sont retournés voir Microsoft trop content de récupérer aussi la réalisation du système d’exploitation (alors qu’à l’origine, IBM n’avait approché Microsoft que pour obtenir les droits sur le MS Basic).

Mais, il faut remonter à la genèse du projet PC pour comprendre pourquoi IBM s’est résolu à aller faire son marché auprès des leaders naissants de ce marché embryonnaire de la micro-informatique. IBM voulait investir ce marché dès 1978 mais les différents projets proposés ont été refusés par la direction pour diverses raisons. En 1980, le N°1 mondial n’avait toujours rien à proposer alors que, pendant ce temps, ce marché commençait à prendre de l’ampleur.

C’est donc en « mode panique » que l’état-major d’IBM a dépêché un commando chargé de boucler un projet viable en quelques mois… D’où la démarche de prendre des composants standards (et le processeur chez Intel) et des logiciels du marché.

C’est également cette conception « vite fait, mal fait » à base d’éléments largement disponibles qui rendit le PC si facilement copiable malgré les protections juridiques qu’IBM avait cru suffisantes.

L’autre conséquence, c’est qu’IBM a donné involontairement un large crédit à ses « fournisseurs » et ainsi a permis l’essor d’une catégorie d’acteurs qui, auparavant, n’existait presque pas : les éditeurs de logiciels. Les PC ont été copiés et vendus à très large échelle et les clients ont commencé à s’habituer à acheter des logiciels sur étagères, d’abord pour les PC mais la suite était facile à prévoir.

Assez rapidement, les utilisateurs vont d’abord « acheter un logiciel ». Un PC, c’est surtout Word et Multiplan. Un peu plus tard, un Macintosh, ce sera Mac Write et Excel. Ce qui semble clair dans le domaine, jeune, de la micro-informatique, a-t-il des répercussions dans le domaine de lamini-informatique, à l’époque exclusivement propriétaire ?

Dans un premier temps, pratiquement pas. Ce n’est que très progressivement, par le biais des L4G (comme Progress) et des SGBDR (comme Oracle) que les minis et d’abord les Vax de DEC ont commencé à connaître une offre logicielle un peu plus étoffée.

D’ailleurs, le discours de ces éditeurs (avec Oracle comme porte-drapeau) était précisément de se libérer de l’emprise des constructeurs grâce à leurs produits qui étaient naturellement multiplates-formes. En effet, un éditeur indépendant avait forcément besoin de « porter » son produit sur les différents minis disponibles à l’époque afin d’élargir son marché. Les portages étaient de qualité très inégale mais la couverture était quasiment totale.

On peut dire, en quelque sorte, que les éditeurs ont donné l’exemple d’abord par leur politique commerciale. Petit à petit, l’idée qu’on pouvait être indépendant des plates-formes matérielles à fait son chemin, on a même fini par appeler cela les « systèmes ouverts »…

Publié dans Anecdotes IT | Laisser un commentaire

Au tour de la bio (vidéo) de Bill Gates…

Bill Gates n’a pas eu une influence très importante sur l’évolution de la technique informatique. Il est même juste de dire qu’il n’a rien inventé. Mais, pour le comparer à d’autres illustres personnages de l’histoire des USA, s’il n’a pas été Edison, on peut dire qu’il a été le « Rockfeller » de son temps !

En effet, bien plus que sa faible influence sur la technique, on retiendra sa très forte influence sur l’industrie du logiciel et le marché informatique, sans conteste cette fois…

Publié dans Anecdotes IT | Laisser un commentaire

Le numérique, voie royale de l’autoédition

Dans mon dernier livre, « Publier sur iPad & Kindle« , j’ai inclus un chapitre sur l’autoédition… Voici le texte de ce chapitre (sans les illustrations) :

Le numérique, voie royale de l’autoédition

Bien entendu, tout ce que je vous décris dans cet ouvrage, c’est normalement à votre éditeur de le faire… À ce niveau, j’ai une bonne et une mauvaise nouvelle.

Commençons par la mauvaise : soyons clair, il est de plus en plus difficile de trouver un éditeur, point.

Et la bonne maintenant : rassurez-vous, l’autoédition n’a jamais été aussi facile et profitable !

Je vais revenir sur la « pénurie » des éditeurs, expliquer pourquoi il est de plus en plus difficile de faire publier son livre par ces intermédiaires et les raisons de cet état de fait. Mais, d’abord, voyons quel était le rôle des éditeurs dans ce que j’appellerais « l’ancienne situation »…

Ce que faisaient les éditeurs

Dans le couple auteur/éditeur, les rôles sont plus ou moins équilibrés : c’est l’auteur qui produit le contenu et c’est l’éditeur qui rend ce contenu publiable afin de le distribuer ensuite le plus largement possible. Le travail de l’éditeur comporte donc trois phases : 1- finaliser l’ouvrage (une fois qu’il a accepté le tapuscrit de l’auteur), 2- le fabriquer, 3- le promouvoir et le diffuser.

Rendre le contenu publiable, cela signifie déjà pas mal d’étapes : relectures, corrections, mise en page, réalisation de la couverture pour ne citer que les plus évidentes. C’est un gros travail qui fait appel à des intervenants spécialisés. C’est quelquefois long et toujours coûteux mais ce n’est rien par rapport aux deux dernières phases : fabriquer et diffuser l’ouvrage.

Fabriquer un livre qu’on vient de finaliser n’est pas si simple : il faut donner les éléments nécessaires à l’imprimeur, c’est-à-dire connaître les contraintes techniques propres à ce secteur. Éventuellement, il faudra aussi suivre le travail du relieur si celui-ci est différent de l’imprimeur.

Une fois fabriqué (en n milliers d’exemplaires, rarement moins d’un millier), on peut passer à sa diffusion…

Il faut d’abord assurer sa promotion : publicité (coûteuse), distribution gratuite aux journalistes et critiques sont à la base de cet exercice. Sans promotion, votre ouvrage a peu de chances d’être remarqué par sa cible naturelle. Enfin, il faut distribuer le livre dans le réseau des libraires et des revendeurs (grandes surfaces par exemple) et, pour cela, les petits éditeurs passent un accord avec un distributeur, un autre intermédiaire spécialisé de cette « chaîne de l’édition »…

Les contrats d’édition : beaucoup de contraintes, peu de profits

Les contrats qui unissent les auteurs et les éditeurs sont souvent ressentis comme léonins par les premiers… Les auteurs ont l’impression de ne recueillir que les miettes de leur travail. En effet, même pour les écrivains vedettes, les droits d’auteur dépassent rarement 10 % du prix de vente public du livre objet du contrat.

De plus, l’auteur est lié à l’éditeur pour ses ouvrages suivants (une clause plus ou moins théorique mais bien présente) et perd son pouvoir de décision sur son œuvre (ce n’est pas lui qui choisit par qui l’ouvrage sera traduit le cas échéant et ainsi de suite). Je ne vais pas entrer dans les détails de ce type de contrat mais il suffit de dire qu’il est assez mal vécu par la partie « auteur »…

Crise sur le marché de l’édition

En vérité, les auteurs ne peuvent pas se plaindre car ce sont les éditeurs qui assument les risques financiers liés à la publication d’un livre alors que l’auteur lui ne risque que sa réputation. Et les risques financiers liés à la publication d’un livre papier sont bien réels, ils peuvent même être assez lourds… En fait, c’est l’éditeur qui doit investir beaucoup en amont pour espérer un retour plus ou moins hypothétique en aval. C’est l’éditeur qui paye la finalisation de l’ouvrage (rappel : relecture, corrections, couverture…), c’est l’éditeur qui paye l’imprimeur et le relieur (et quand on imprime des milliers d’exemplaires, la facture se monte en milliers d’euros) et enfin, c’est l’éditeur qui avance les livres aux libraires, ceux-ci ne payant que les exemplaires effectivement vendus, le distributeur se chargeant de renvoyer le surplus (les invendus) à l’éditeur, à ses frais bien entendu !

Si, après ça, vous voulez toujours vous lancer dans le monde de l’édition, bon courage…

Certes, quand on a la chance (ou plutôt quand on bien fait son travail de promotion oui !) d’avoir un ouvrage qui se vend bien, l’édition peut-être une activité très rentable mais avant cela, que de risques !

Étonnez-vous avec cela que les éditeurs puissent être frileux avec les nouveaux auteurs… D’autant que, lors de ces dix dernières années, le contexte du marché de l’édition a radicalement changé : le nombre de lecteurs (ou, au moins, d’acheteurs de livres) a baissé et l’offre de son côté a explosé… En effet, le nombre de nouveaux livres mis sur le marché lors des grands rendez-vous périodiques a considérablement augmenté.

Et, si ça ne suffisait pas, une concurrence déloyale commence à apparaître : certains éditeurs des pays de l’est n’hésitent pas à reproduire intégralement certains ouvrages pour les vendre sur les circuits habituels (c’est de la contrefaçon, comme pour des produits de luxe mais les libraires n’ont pas les moyens de s’en apercevoir).

C’est un éditeur Belge spécialisé dans les ouvrages sur le sport automobile qui m’a expliqué en détail cette évolution lors qu’en 2008, je cherchais un éditeur pour la biographie du pilote Soheil Ayari que j’étais en train d’écrire (finalement, cette biographie a été autoéditée grâce aux efforts de Sassan, le frère de Soheil, qui s’occupe aussi de sa diffusion).

Avec tout cela, le marché de l’édition est en crise. Il est donc de plus en plus difficile pour un nouvel auteur de percer avec son premier ouvrage. On dit souvent que tout est affaire de relations vis-à-vis de ce délicat problème et je pense que c’est au moins en partie vrai : j’en ai vécu un exemple concret avec mon livre SimRacing publié chez Pearson en 2009. Pendant presque un an, j’avais tenté de prendre contact avec cet éditeur pour lui proposer ce projet mais sans succès : on ne répondait même pas à mes courriers ou emails. Et puis, j’ai pu évoquer ce projet avec une relation connaissant bien le directeur général de Pearson France… Aussitôt, le directeur des publications prit contact avec moi et une semaine après je recevais le contrat !

L’autoédition aux temps héroïques

Pour contourner cette barrière, les auteurs indépendants ont recours à l’autoédition. Comme toujours, c’est une pratique qui existe depuis longtemps mais, auparavant, on appelait souvent cela « édition à compte d’auteur » (encore que, cette notion n’est pas tout à fait comparable avec l’autoédition telle que je l’évoque ici mais passons) et c’était plutôt mal vu. En gros, celui qui avait recours à l’édition à compte d’auteur n’était simplement pas assez talentueux pour mériter les services d’un « vrai » éditeur et il devait payer pour permettre à son ouvrage de voir le jour (mais pas forcément de rejoindre les vitrines des libraires, nuance !). Les Anglo-Saxons ont même une appellation péjorative « vanity publishing » pour désigner cette pratique considérée comme désespérée par les professionnels du secteur…

Le principal problème de l’autoédition à l’ancienne manière, c’est qu’il fallait soi-même passer par les services d’un imprimeur (une fois votre ouvrage finalisé et prêt à être imprimé et à condition d’avoir assimilé toutes les contraintes techniques liées à cet exercice… Rien d’insurmontable quand on a le temps et la volonté de se plonger là-dedans !) et que ce dernier n’acceptait votre travail qu’à condition de commander au moins un millier (voir deux) d’exemplaires de votre livre. En effet, l’imprimerie traditionnelle (offset) demande la réalisation de « plaques » d’impression et le calage de celles-ci… Et cette procédure n’était pas rentable pour des petits volumes (en dessous du millier d’exemplaires). Du coup, vous étiez obligé d’avancer une somme considérable (mettons que votre livre fasse 200 pages et que son coût d’impression s’établisse à cinq euros, il vous fallait faire un chèque de 5000 euros…) pour repartir avec de nombreux cartons contenant vos livres. Libre à vous ensuite de trouver comment diffuser ce volume !

Nous avons connu cette expérience puisque les deux livres rédigés par ma femme ont d’abord été édités ainsi avant de connaître une version numérique. Le premier, La pédagogie Montessori Illustrée, a d’abord connu trois éditions papier avant d’être disponible pour l’iPad (voir à http://blog.montessori.fr/nos-livres/). Le second, 365 jours d’école à la maison, continue à bien se vendre à travers son site dédié (voir à www.ecolealamaison.org) mais c’est nous qui assurons tout le travail (promotion, expédition, etc.)…

L’autoédition remis au goût du jour par l’impression à la demande

Ce qui a relancé l’autoédition, c’est la montée de « l’impression à la demande ». Grâce aux progrès de la chaîne de production numérique et à de nouveaux matériels, les imprimeurs ont pu réduire drastiquement les coûts d’impression unitaire jusqu’au point où il est rentable d’imprimer un seul exemplaire d’un livre !

Des sites spécialisés comme Lulu.com se sont emparés de cette possibilité pour offrir un service intégré d’autoédition à tous les auteurs capable de télécharger un tapuscrit finalisé sur Internet. J’utilise TheBookEdition.com (un service français comme son nom ne l’indique pas !) pour diffuser la version papier de certains de mes livres et c’est une bonne solution car vous n’avez plus rien à faire (si ce n’est la promotion, encore et toujours !) une fois votre ouvrage en ligne et prêt à être vendu et expédié.

Cependant, on est toujours face à un livre papier qui reste coûteux à imprimer et lourd à expédier par La Poste (et ces frais d’envoi s’ajoutent au prix du livre). Ci fait qu’on se retrouve avec une offre relativement peu compétitive face à celle des gros éditeurs ou alors, on minimise sa marge pour proposer un livre à un prix abordable (lors du processus de publication sur le site d’impression à la demande, c’est vous qui fixez la marge que vous souhaitez toucher sur chaque vente, celle-ci va s’ajouter au coût d’impression pour établir le prix de vente final et public).

Le numérique simplifie tout !

C’est ici que le numérique entre en scène et vient apporter sa touche finale à l’apogée de l’autoédition !

Avec le numérique, terminé les contraintes du papier : mise en page, coût d’impression et coût d’expédition… Reste un produit plus facile à finaliser, plus souple, moins cher et plus rentable… À condition d’arriver à le diffuser !

Reste la question de la distribution et de la promotion

Car, bien sûr, la promotion et la distribution restent plus que jamais les facteurs clés dans le succès d’un nouveau livre. Avec le numérique, vous avez les outils nécessaires et suffisant pour remplacer avantageusement votre éditeur au niveau de la finalisation et de la fabrication/publication de votre ouvrage mais il faut encore se consacrer à la troisième phase : assurer la distribution la plus large et la promotion la plus visible… Et là, rien ne remplace vos propres efforts.

Pour la distribution, j’en ai parlé dans le chapitre 13 de ce livre, il faut passer par un intermédiaire spécialisé comme Immatériel et cela en vaut la peine (ne serait-ce que pour simplifier la publication sur Itunes pour l’iPad…). Pour la promotion, il vous faut, au minimum, tenir un blog ou une page sur Facebook où vous allez promouvoir votre ouvrage en mettant en avant son actualité.

Ici, on sort du cadre de ce livre, il existe bien des ouvrages sur la question et je ne peux que vous souhaitez bon courage et de prendre exemple sur ce que j’ai fait pour mon ouvrage sur l’histoire de l’informatique : site dédié à www.histoireinformatique.com, page Facebook à http://www.facebook.com/pages/Histoire-de-linformatique/145612858819024 et compte twitter à http://twitter.com/#!/histoireit.

Publié dans Livres, Mes livres | Laisser un commentaire

La biographie de l’autre Steve d’Apple : « Woz » (Steve Wozniak)…

Après la bio de Tom Watson Junior, continuons notre panorama des personnages célèbres et influents dans l’informatique… Aujourd’hui, voici « Woz », la magicien !

Certes, désormais il est moins célèbre que « l’autre Steve » (Jobs) mais, au début d’Apple, rien n’aurait pu se passer sans lui… Un personnage à découvrir !

Publié dans Anecdotes IT | Laisser un commentaire

Tous les extraits de notre livre sur Scribd

Vous pouvez retrouvez tous nos extraits à http://www.scribd.com/my_document_collections/2854262

Publié dans Making-of livre IT | Laisser un commentaire

Une biographie vidéo de Tom Watson Junior (IBM)…

Continuons à nous intéresser aux grands hommes de l’histoire de l’informatique… Aujourd’hui, je vous propose cette série de vidéos réalisée par « Bio Channel » sur Thomas Watson Junior, le fils du fondateur d’IBM, célèbre pour avoir définit la devise de la compagnie (« Think » !). Le mérite principal de Tom Junior est d’avoir accompagné voir même forcé la bascule de Big Blue de la mécanographie (où la compagnie était également leader) vers l’informatique…

Publié dans Anecdotes IT | Laisser un commentaire

Fred Brooks revient sur le pari de l’IBM 360…

Dans cette vidéo (d’origine IBM), Fred Brooks (le chef du projet OS/360) revient sur le lancement du projet IBM 360 et sur le pari que cela représentait à l’époque pour big blue…

Publié dans Anecdotes IT | Laisser un commentaire

Présentation vidéo de mon livre « Publier sur iPad & Kindle »…

Voici une petite présentation de mon dernier livre :

Publier sur iPad & Kindle

Réalisez votre ebook : démarche et outils, étape par étape

Ce livre est un guide pratique, étape par étape et très illustré (79 images réparties tout au long des quinze chapitres) sur « comment publier un livre pour les plates-formes numériques » avec un focus sur l’iPad et sur le Kindle. Ce n’est pas un ouvrage technique sur le format Epub dans le détail, c’est plutôt une démarche basée sur l’expérience pour passer du tapuscrit à l’ouvrage publié et référencé sur les principaux sites de vente d’ebooks.

J’en profite pour signaler qu’il est également disponible sur iBookstore (iPad), of course !

IMG_0015

Publié dans Mes livres | Laisser un commentaire

Ken Olsen (fondateur de DEC) est mort aujourd’hui…

Ken Olsen, le fondateur (avec Harman Anderson qu’on voit sur le montage photo en haut à gauche, avec des lunettes) et patron de DEC jusqu’en 1992 vient de mourrir aujourd’hui… Quoi qu’on pense de ses déclarations sur le PC, c’était une des figures de l’histoire de l’informatique. On peut même dire que c’est lui qui a donné naissance au mouvement dit de la mini-informatique. Sa fiche wikipedia et l’article du NYT annonçant son décés.

Ken Olsen (avec Harlan Anderson en haut à gauche) à différentes époques...

Publié dans Nécrologie IT | 2 commentaires

Hommage à Seymour Cray

Un petit documentaire (6 minutes seulement !) sur Seymour Cray, le fondateur de Cray Research, la première société spécialisée dans les super-ordinateurs. ce documentaire a été produit par sa société et titré « the Father of the Supercomputing Industry ».

Publié dans Anecdotes IT | Laisser un commentaire

Publier sur iPad & Kindle – Mon dernier livre sur la publication numérique !

Voilà, après deux mois de travail, j’ai pu boucler mon nouveau livre : Publier sur iPad & Kindle – Réalisez votre ebook : démarche et outils, étape par étape.
Ce livre est un guide pratique, étape par étape et très illustré (79 images réparties tout au long des quinze chapitres) sur « comment publier un livre pour les plates-formes numériques » avec un focus sur l’iPad et sur le Kindle. Ce n’est pas un ouvrage technique sur le format Epub dans le détail, c’est plutôt une démarche basée sur l’expérience pour passer du tapuscrit à l’ouvrage publié et référencé sur les principaux sites de vente d’ebooks.
Je sais qu’un ouvrage de ce type était attendu par certain(e)s d’entre vous… Je crois que c’est le premier en français dans sa catégorie.

Voici une petite présentation vidéo de cet ouvrage :

Il est déjà disponible sur Amazon pour le Kindle mais, bizarrement, le prix ne correspond pas à ce que j’ai fixé (et ne vous précipitez pas sur la version pour le Kindle car la qualité des images est vraiment basse sur le Kindle lui-même -à cause des caractéristiques techniques de cette tablette de lecture qui, vraiment, ne favorise pas les illustrations !- , sauf quand on visualise le livre à travers l’application Kindle sur une bonne plateforme, genre iPad où là, c’est vraiment mieux !).

publier sur ipad & kindle

La version Epub est déjà disponible sur le site de la Fnac.com, librairie Dialogues.fr, réseau ePagine et Feedbooks

publier sur ipad & kindle

Il y a aussi une version papier (110 pages en N&B, 79 illustrations) disponible à TheBookEdition… 10€, c’est raisonnable !

Le livre Publier sur iPad & Kindle

Et, bien sûr, il est disponible sur l’iBookstore pour l’iPad…

IMG_0015

Publié dans Mes livres | 8 commentaires

Comment rater ses relations avec la presse – critique

Pierre Zimmer vient de sortir un nouveau livre avec Bernard Giroud : « Comment rater ses relations avec la presse ». Je connais Pierre mais pas Bernard.

GirouxZimmer

Parution le 12 janvier 2011 – 18,95 €

ISBN : 978-2-8098-0434-8 – 140 x 225  mm – 200 pages env.

Décryptage et coulisses d’un univers controversé

Beaucoup se demandent encore, et notamment bien des dirigeants, à quoi peuvent bien servir les relations avec la presse. Ce livre est fait pour conforter leurs doutes : non, les relations avec la presse ne servent à rien ! Si ce n’est à développer sa notoriété et sa visibilité, à améliorer la lisibilité de son image et de son positionnement, voire à se faire un peu de publicité.

Il est donc urgent de s’en passer, pour trois bonnes raisons : 1°) qui dit relations dit dépendance et soumission ; 2°) qui dit presse dit journalistes, engeance infréquentable ; 3°) il existe bien d’autres moyens de se faire connaître.

Toutefois, si vous ne pouvez y couper, voici comment planter votre plan média en beauté, en appliquant quelques règles simples…

– Confondez allègrement information, communication, publicité et propagande,

– Nourrissez quelques idées arrêtées sur les journalistes et les attaché(e)s de presse,

– Affichez des préjugés, véhiculez poncifs et clichés,

– Montrez-vous ignorant, négligent, méprisant, incompétent et désinvolte.

Alors que nous vivons à l’heure de la « médiacratie », les relations avec l’omniprésent « 4e pouvoir » demeurent un champ d’étude en friche. Cet antimanuel, humoristique mais pas trop, truffé d’exemples réels et d’anecdotes vécues, n’est pas destiné aux seuls communicants et journalistes. Mitonné par deux spécialistes des médias, il a pour objet caché de révéler les rouages des rapports conflictuels entre information et communication, deux bestioles bizarres à ne pas confondre.

Bernard Giroux et Pierre Zimmer proposent un panorama de la presse, bousculée par les nouvelles technologies de l’information, ainsi qu’un portrait de la « planète com », astéroïde nombriliste que tout un chacun est amené à fouler un jour ou l’autre.

Pierre Zimmer, ancien journaliste à France Inter, au Monde et à L’Express, est conseiller en communication et spécialiste des relations avec la presse. Il a enseigné au Celsa, à l’EFAP et à l’ESCP. Il est le coauteur, notamment, de Survivre dans ce monde hypocrite (Presses de la Cité, 1993), Surtout, ne changez rien ! (éd. d’Organisation, 2005), Et l’intolérance bordel ! (Palio, 2008).

Bernard Giroux a dirigé pendant quinze ans le service de presse du CNPF devenu Medef. Depuis 2003, il a rejoint comme directeur des relations avec la presse l’Assemblée des Chambres françaises de commerce et d’industrie (ACFCI). Il enseigne dans les écoles de journalisme et de communication (EFAP, CELSA, ESJ, IEJ…). Il est l’auteur de Merci la télé, souvenirs d’un téléphage (Bayard, 2001) et Mystère à Zarzis (Albin Michel, 2003).

Un anti manuel pour tout savoir tout ce qu’il faut faire (et ne pas faire) en matière de RP

Un ouvrage ludique et accessible qui mêle explications, exemples et anecdotes

Les auteurs, deux spécialistes de la com’, seront les premiers à faire parler de leur livre

On l’aura compris, cet ouvrage met les points sur les « i » de celles et ceux qui s’occupent de relations publiques. Ludique ?
Pas vraiment : le style à contre-pied employé systématiquement tout au long de ce livre est un peu fatiguant à la longue. De plus, les auteurs sont volontiers flagorneurs : les journalistes stars (et il y en a toute une galerie) qui sont cités sont systématiquement parés des plus grandes qualités même quand ce ne sont que de vulgaires suppôts du système.

De plus, quoique bien documenté, l’ouvrage n’est pas épargné par les approximations… En voici une qui est savoureuse :

3heures

Oui, vous avez bien lu « chaque Français« … Pour ceux qui, comme moi, ne regardent jamais ce torrent de boue qu’est devenue la « télévision », c’est agréable de se sentir ramener ainsi dans la masse !
Mais si être flagorneur avec les journalistes (avec les stars surtout !), c’est bien, être adepte de la pensée unique et le clamer bien haut, c’est encore mieux… Voici un autre exemple qui démontre que les auteurs ont bien compris qu’il fallait toujours hurler avec les loups :

pentagone

Donc, si vous avez un doute légitime sur la version officielle (abondamment relayée par les médias, surtout en France…), sachez que vous faites partie des gens infréquentables et que vous côtoyer devient infamant… C’est agréable !

Bref, il s’agit d’un livre qui aura sans doute un certain succès (gageons qu’il va bénéficier d’une bonne couverture presse, vu les efforts des auteurs, ce serait mérité !) mais dont vous pouvez vous passer avec profit.

Publié dans Livres | 2 commentaires

Le GP d’Espagne de F1 1970… Grâce à « Wheelbase » !

Voilà un reportage vidéo tout à fait remarquable sur le déroulement du GP d’Espagne 1970, le tout premier disputé à Jarama. Terriblement mal organisé par les espagnols de cette époque, ce GP est le second de la saison après celui d’Afrique du Sud remporté par Jack Brabham… Cette manche de Jarama failli avoir des conséquences dramatiques avec le terrible accident dont fut victime Jacky Ickx au premier tour, percuté par la BRM de Jacky Oliver et où sa Ferrari prit feu immédiatement.

Heureusement, Ickx s’en sortit et Stewart remporta la victoire : sa seule de l’année et la seule de la nouvelle équipe March.

Publié dans Sport-auto | Laisser un commentaire

Témoignage : un avis de lecteur sur notre livre…

Voici le témoignage que nous venons de recevoir :

J’ai pris beaucoup de plaisir à la lecture de cet ouvrage qui traite de l’informatique sous un aspect rarement évoqué : son histoire.

Le travail (souvent minutieux) des auteurs nous apporte les liens entre toutes ces petites histoires qui ont façonnées l’évolution de l’informatique.

PS : Je n’aurais qu’un reproche : la mise en page inégale et quelques coquilles (dans la version eBook tout au moins).

Name: Florent
Email: cornuf@xxxmail.fr (véritable adresse email volontairement modifiée ici)

Vous aussi, vous pouvez témoigner et voir votre avis posté ici

Publié dans Ce blog | Laisser un commentaire

Petit retour sur iRacing et bilan d’une saison…

Je viens de terminer la saison 2010/4 en catégorie Grand Am sur iRacing et c’est l’occasion de faire un petit retour/bilan sur cette simulation…

logo_s_grandam

Cette nouvelle série qui mixte les Riley de type « Daytona Prototypes » et les Ford Mustang a connu une forte participation puisqu’il y a 1148 classés au bout des douze semaines de compétition, c’est pas mal !

Je termine 158ème sur 1148 (je manque de peu la tranche des 10% meilleurs) et 3ème de la division 9 avec 485 pts. C’est correct mais c’est moins bien que ce j’avais réussi lors de la saison 2010/1 où j’avais disputé le challenge « Radical Racing » et où j’avais terminé 56ème sur 685 avec 589 pts et donc, dans la bonne tranche des 10%. J’ai été moins compétitif avec la lourde Riley qu’avec la légère Radical (on le voit au nombre de points marqués) mais, en revanche, j’ai été bien meilleur sur la fiabilité car j’ai terminé la saison avec seulement 42 incidents alors que j’en avais eu 74 en Radical… Sur ce point là au moins, je me suis bien amélioré (et cela se ressent sur mon SR qui est désormais bien au-dessus de 4 et qui se maintient à ce niveau.

radical

Mon iRating a également progressé puisqu’il est désormais à 1460 et j’arrive à le maintenir au-dessus des 1400 sans trop de difficultés. Bref, quelques motifs de satisfactions tout de même. Pour la prochaine saison (2011/1), je vais tenter de me consacrer à l’oval avec la nouvelle Sprint Car où bien, à l’Indycar qui mixte circuits routiers et ovals, on verra bien…

Passons en revue l’ensemble des circuits et voitures aujourd’hui disponible en « road » (je laisse tout ce qui est oval de côté car je ne suis pas encore assez « expert » de l’oval pour en parler de façon correcte…). Grâce au très bon site d’Alain Mest, j’ai pu récupérer toutes les copies d’écrans ci-dessous…

Commençons par les circuits, il y a ceux que j’aime bien et ceux que je déteste… Voici pourquoi :

Barber Motorsport Park

barber_inf

Alors, celui-là, je déteste franchement !

C’est vraiment un « mickey mouse » dans toute sa splendeur : tracé torturé et sans intérêt. Du coup, j’évite de courir dessus, quelle que soit la catégorie concernée.

Brands Hatch GP

brandshatch_inf

Là, au contraire, j’adore !
C’est un des rares tracés « historiques » qui soit resté quasiment intact tout au long des années. Et c’est un tracé qui a un sacré caractère : quasiment pas un seul freinage n’est droit !
Il faut continuellement soigner son placement et les enchainements n’offrent aucun répit (c’est un peu un mini « ring »). L’endroit que je préfère : le virage N°8, j’adore le freinage en plonger. l’endroit que je redoute le plus : le virage N°9 car on est jamais sûr d’avoir freiné assez (et alors c’est la sortie assurée) ou alors, c’est trop et on perd du temps. J’aime bien la version courte aussi. le fait que j’ai gagné au moins une course sur chaque version doit aider aussi au fait que j’apprécie ce circuit…

Charlotte Motor Speedway

charlotte_road_inf

C’est « l’infield » d’un oval utilisé seulement pour les « petites » catégories… J’aime bien ce circuit quoiqu’il soit très glissant et l’entrée du virage N°1 est particulièrement difficile…

Daytona Road Course

daytona_road_inf

J’aime bien Daytona avec son infield qui n’est pas très sélectif (sauf  l’entrée de la chicane, virage N°9). L’entrée du virage N°1 est également particulièrement difficile.

Homestead Miami Road B

homestead_road_b_inf

Encore un tracé « routier » au sein d’un oval… Pas génial mais pas une daube non plus. Le freinage du virage N°2 est assez tangent et j’aime bien l’enchainement des virage 7 & 8.

Indianapolis Road

indianapolis_road_inf

La version GP du fameux « brickyard ». J’aime bien sans plus. L’entrée du virage N°4 est délicate, je ne crois pas l’avoir passé de façon vraiment satisfaisante une seule fois !

Infineon

infineon_long_inf

Clairement, j’aime pas. Je ne cours plus sur ce tracé depuis des mois. Il fait partie des rendez-vous que j’évite systématiquement car c’est comme Barber pour moi : barbant (OK, c’était facile !).

Laguna Seca

laguna_inf

Voici une piste incontournable !
Pas facile, certes (même super difficile même en fait !) mais ô combien jouissif quand on arrive à boucler un tour correct. Mon spot préféré : le virage N°5. Le coin le plus redouté : le Corkscrew (virage N°8) évidemment !

Lime Rock Park

limerock_inf

Avec le temps, j’ai fini par apprendre à aimer cette piste. Certes, c’est petit et étroit (et piégeux, surtout la sortie en dos d’âne du virage N°5) mais c’est « challenging » et quand on arrive à dompter le virage N°7, c’est très gratifiant. Pour survivre d’une course sur ce tracé, une seule règle : la patience…

Mosport

mosport_inf

Magnifique, encore un tracé historique qui nous est parvenu intact ou presque. L’entrée du virage N°2 est sans doute un défi majeur et j’adore l’enchainement des virages 9 & 10.

Phillip Island

phillip_island_inf

Un circuit magnifique et excitant, que demander de plus ?
Ce tracé exaltant (je n’exagère pas !) est assez difficile avec, en particulier, le freinage aveugle et sur bosse du virage N°10 mais arriver à prendre à la bonne vitesse le virage N°1 n’est pas donné à tout le monde non plus… J’aime beaucoup le virage N°2 aussi.

Road America

roadamerica_inf

Voilà mon circuit préféré, c’est clair. Je considère qu’on peut toujours s’améliorer sur ce tracé qui parait simple mais qui est truffé de petits pièges subtils comme le freinage en aveugle (et sur bosse) du virage N°6, également en aveugle, le virage 13A. Mon spot préféré : le long freinage du virage N°5.

Road Atlanta

roadatlanta_inf

Un beau circuit et très difficile avec ses enchainements en montée et en descente (du virage N°1 au virage N°5). Mon spot préféré : le S N°10. L’endroit que je redoute le plus : il y en a deux en fait, le virage N°3 et le N°7…

Sebring

sebring_int_inf

Clairement, je préférais sa version 1970… Mais bon, ce tracé dans sa version « moderne » est acceptable sans plus mais trop bosselé pour pouvoir régler sa voiture comme il faut. Je n’aime vraiment pas l’entrée du virage N°15 que je n’arrive jamais à prendre correctement (je sous-vire toujours ici !).

Silverstone

silverstone_inf

Comment gâcher un tracé intéressant ? Faites comme à Silverstone, tout simplement !
La version « années 70 » de ce circuit plat était pas mal mais le tracé actuel est vraiment déprimant. Seul endroit un peu intéressant : le freinage du virage 14.

Spa Francorchamps

spa_francorchamps

Je ne connais personnage qui n’aime pas Spa (même si je préfère l’ancienne version de 14 kms…). La version, toute récente, faite par iRacing va demander une mise à jour car elle est un peu exigeante en ressources systèmes et trop sévère quand on mord les vibreurs. A part ces défauts mineurs, c’est bien le grand Spa avec son enchainement de l’Eau Rouge, Pouhon ou La Source, rien que des morceaux de bravoure. J’aime beaucoup l’enchainement du virage N°12 au N°15 et je déteste la toute dernière version de la chicane (N°18 & 19).

Summit Point

summit_inf

Un « petit » circuit : on n’y court qu’avec les catégories inférieures mais j’aime beaucoup (peut-être parce que j’y ai gagné !). Le virage N°10 est très « challenging » et j’aime beaucoup le freinage du N°5.

Virginia International Raceway

virginia_full_inf

Normalement, ce devrait être une belle piste mais je la trouve trop étroite et aussi trop sinueuse (des enchainements à grande vitesse en plus !). Du coup, c’est un tracé vraiment-vraiment difficile, le plus dur de tous à mon avis !
Avouons-le, je n’arrive jamais à y boucler un tour vraiment correct… De plus, je trouve que la partie lente (du virage 3 au virage 5) est carrément ridicule. Et je redoute plus que tout l’horribel cuvette  du virage 17-17A !

Watkins Glen (boot)

watkins_boot_inf

Au « Glen », je me sens chez moi !
Aucun problème sur ce circuit (même si l’entrée de la chicane -5A- est toujours délicate) et j’aime particulièrement l’enchainement des virage 10 & 11.

Zandvoort

zandvoort_inf

J’aimais vraiment l’ancienne version des années 70 et 80 mais il n’en reste que la première partie (des virage 1 -le fameux « Tarzan corner » !- au virage N°6). A partir du virage N°7, ça se gâche franchement jusqu’à devenir ridicule avec les virage 10 & 11… Dommage, ça aurait pu être un circuit avec un certain caractère.

Au tour des voitures maintenant (toujours limité aux seules voitures « routières », les « ovales » seront traitées une autre fois…) :

Pontiac Solstice

solstice_ss_2_screen_full

Clairement de la merde, j’ai toujours détesté ce petit coupé sans intérêt… Et dire que c’était la voiture avec laquelle il fallait débuter sur iRacing, quelle faute !

Mazda MX-5

mx5_ss_7_screen_full

Bien meilleure que la Pontiac mais pas de quoi pousser des cris de joie selon moi.

Ford Spec racer

specracer_ss_3_screen_full

Avec cette voiture, on commence les choses sérieuses : très limitée en puissance mais avec un comportement intéressant. En revanche, ne supporte pas qu’on coupe les gaz en appui, vous êtes prévenus !

Ford Mustand FR500S

fr500s_ss_4_screen_fullLourde et avec des réactions molles, j’aime vraiment pas (bien que facile à piloter), une déception.

VW Jetta TDI

jetta_ss_7_screen_fullCette voiture est une bonne surprise et pourtant, j’aurais juré le contraire avant de l’essayer (pensez, une diesel, je ne supporte déjà pas dans la vie réelle alors c’est pour s’embêter avec ça en simulation !). Le comportement est intéressant (surtout pour une traction avant…) et les courses avec elle sont toujours très serrées, à découvrir !

Skip Barber F2000

fsb2000_ss_2_screen_fullIncontournable et vraiment pas facile pour aller vite avec, voilà la monoplace d’entrée. Trop sur-vireuse à mon goût mais permet de vraiment goûter au pilotage façon iRacing.

Ford Falcon V8

fordv8_ss_1_screen_fullJ’aime pas : difficile à piloter, difficile à régler et bouffe du pneus à toute vitesse… Une grosses déception.

Star Mazda formula

fmazda_ss_6_screen_fullBien mieux que la Skip Barber et facile à emmener. Attention à son setup car elle n’aime pas être trop chargée à l’avant. sinon, c’est un régal mais les courses avec elle sont comme des affrontements au couteau tellement il y a du monde, des furieux et des aliens avec un niveau incroyable !

Lotus 79 F1

lotus_ss_6_screen_fullSelon moi, la plus grosse déception d’iRacing… J’attendais beaucoup de cette voiture mais, malgré plusieurs mises à jour, elle reste avec un défaut majeur : un train avant qui flotte qui m’ôte tout plaisir à la piloter.

Corvette C6R

c6r_ss_1_screen_fullVoilà une « voiture d’hommes » mais je ne dois pas être assez viril car je n’arrive pas à m’habituer à son instabilité au freinage… Je ne désespère pas d’y arriver un jour et/ou de trouver un setup miracle qui réglerait cela car, en dehors de ce défaut majeur, c’est un régal à piloter !

Radical SR8

radical_ss_2_screen_fullUne valeur sûre : facile à piloter et très joueuse, il n’y a que l’effet de pompage du train avant (ça ne se produit pas tout le temps, hreusement) qui gâche un peu le tableau. De plus, l’aileron AR a une plage de réglages trop étroite, ce qui n’arrange rien.

Riley Daytona Prototype

riley_ss_3_screen_fullEncore une valeur sûre : la voiture des gentlemen drivers !

Facile à piloter et à régler mais affecté d’un sous-virage congénital qui est difficile à combattre (les « moustaches » avant -dive plane- ne sont utilisables que sur les tracés lents).

Dallara Indycar

dallara_ss_3_screen_fullSelon moi, la meilleure voiture d’iRacing mais plutôt complexe à régler (surtout sur oval). Mais alors, un vrai plaisir à piloter !

Williams F1 FW31

fw31_ss_5_screen_fullUne grosse déception : très peu de feeling (tout le contraire de la Dallara) et un son pas terrible. Je m’attendais à bien mieux et je ne suis pas le seul… Mais peut-être que les F1 modernes sont comme cela ?

Enfin, pour terminer ce récapitulatif sur iRacing, je ne peux que vous recommander les différentes sections du site d’Alain Mest… Bravo Alain et un grand merci !

Publié dans Sports mécaniques virtuels | Un commentaire

L’histoire d’Apple vu par le NYT

Le New York Times propose un dossier consacré à l’histoire d’Apple… C’est un petit diaporama, date par date avec quelques images rares :

Publié dans Anecdotes IT | Laisser un commentaire

« Champions forever », superbe documentaire sur la F1 de 1973 !

Voici un documentaire qui contient quelques superbes images sur la F1 à l’époque où elle méritait encore d’être vue et suivit…

Certains passages sont un peu longs et inutiles (comme Cevert à la plage par exemple) mais d’autres sont de vraies perles quand Stewart explique les pièges du « ring » par exemple… Comme ce doc est posté en HD, je vous recommande de le regarder plein écran, c’est encore mieux ainsi !

Publié dans Sport-auto | Un commentaire

Allez voir « Inside Job » !

Voici LE film qu’il faut voir en ce moment : Inside Job. C’est un documentaire et non, ce n’est pas vraiment « grand public » mais si vous vous intéressez aux « grands événements » et voulez les comprendre, alors il s’agit vraiment d’un « must see » (ah oui, c’est en VO aussi…).

Donc, bien entendu, la diffusion est un peu confidentielle et il vous faudra chercher une salle pour le voir. J’ai été obligé d’aller à Albertville (environ une heure de chez moi) pour pouvoir le voir et nous étions trois (3) dans la salle… Oui, vous avez bien lu, trois, pas trente (ce qui aurait déjà été ridicule). Voilà encore une démonstration, s’il en était besoin, que les gens ne s’intéressent pas à la vérité, ils veulent seulement des distractions (le syndrome « orchestre du Titanic »).

Bref, c’est tout de même un super film et il y a des moments carrément drôles comme les interviews de Frederic Mishkin qui ressemble terriblement à Darry Cowl et, en plus, il se comporte un peu comme lui (il bégaye lors les questions deviennent délicates !). Il y aussi d’autres « morceaux de bravoures » avec les interviews de Gleen Hubbard qui se révèle être un des méchants de l’histoire… C’est pas souvent que je vous recommande d’aller voir un truc au ciné alors, croyez-moi, ça vaut la peine, allez-y !

Voici la bande annonce et quelques extraits :

Pour en savoir plus :

http://fr.wikipedia.org/wiki/Inside_Job

http://www.sonyclassics.com/insidejob/site/#/synopsis

Publié dans Ce blog, La terrible vérité | 4 commentaires

L’histoire de l’évolution de Mac OS… Dans le contexte de la montée des GUI

Voici une autre série de vidéos (4) qui retrace l’évolution de Mac OS depuis 1984… La musique en background est un peu énervante et la vidéo est quelquefois de vraiment basse qualité mais certaines images sont assez rares (comme celles où Steve Jobs fait une démo de NeXT OS dans un contexte Windows NT !) :

Publié dans Anecdotes IT | Laisser un commentaire