Notre documentaire vidéo, épisode 1 : la préhistoire

Voici le premier épisode (une vingtaine de prévue !) de notre série vidéo sur l’histoire de l’informatique : « la préhistoire »…

Publié dans documentaires IT | Laisser un commentaire

Deux documentaires à vous recommander…

Une petite vidéo où je vous recommande deux documentaires à voir ET à partager :

L’extrait de « Alerte à Babylone » où l’on peut voir l’excellent Claude Bourguigon :

Le lien vers « Inside Job » chez amazon.fr (mais vous pouvez aussi le trouver ailleurs of course !).

Et « Solutions locales pour un désordre global » :

Publié dans Ce blog, La terrible vérité | 3 commentaires

« Prédictions » sur les mobiles… à lire !

Une chronique percutante et bien vue de Laurent Poulain, à lire à http://deselection.wordpress.com/2011/04/01/predictions-sur-les-mobiles/

Publié dans Ce blog | Laisser un commentaire

Un documentaire sur l’histoire de l’informatique en préparation… L’introduction

C’est le projet sur lequel je travaille en ce moment :

ça va prendre des mois mais j’ai déjà rassemblé pas mal de matière !

Publié dans Informatique | Un commentaire

Notre documentaire sur l’histoire de l’informatique en préparation… L’introduction

Nous sommes en train de préparer un documentaire vidéo basé sur le déroulement de notre livre… Voici déjà l’introduction mais une vingtaine « d’épisodes » devraient suivre lors des prochains mois, soyez patients !

Publié dans documentaires IT | Laisser un commentaire

Paul Baran est mort…

Le New-York Times l’annonce aujourd’hui : Paul Baran vient de mourir.

Paul Baran

Paul Baran

Extrait du livre le concernant :

La commutation de paquets a été inventée séparément par Paul Baran, un Américain, (1926-2011) et Donald Davies (1924-2000), un Britannique. Baran avait étudié la vulnérabilité du réseau à une attaque nucléaire, question cruciale pour les militaires dans la période de guerre froide des années soixante. Il avait découvert que lʼon pouvait obtenir une robustesse élevée avec un réseau maillé comportant une redondance relativement faible (il faut relier chaque nœud au réseau par trois ou quatre liens au lieu dʼun seul, et équiper chaque nœud dʼune table de routage adaptative). Les travaux de Baran sont à lʼorigine de la réputation selon laquelle Internet aurait été conçu pour répondre à des besoins militaires.

Tous les opérateurs de télécom en général et AT&T en particulier étaient hostiles aux idées de Baran. Il faut se rappeler quʼà cette époque (début des années soixante) les commutateurs du réseau téléphonique étaient électromécaniques, la commutation électroni- que ne devant intervenir que dans les années soixante-dix; le circuit établi entre deux interlocuteurs avait donc une continuité et une réali- té physiques en quelque sorte palpables. Les ordinateurs relevaient dʼun autre univers technique que celui des télécoms. « Ils se compor- taient comme sʼils savaient tout et que ceux qui nʼappartenaient pas au Bell System ne savaient rien », dira Baran. « Quelquʼun dʼextérieur ne pouvait pas comprendre la complexité de leur système. Et voilà quʼun idiot sʼamène : il ne comprend visiblement pas comment le système fonctionne et il prétend que les choses sont simples ! » En dʼautres termes, un cow-boy osait trouver une route différente et plus efficace que celle utilisée par les compagnies de chemins de fer de- puis des décennies !

Sans minimiser les apports de Baran et Davies, il faut aussi mentionner Leonard Kleinrock, professeur à lʼUCLA, qui a fourni les ba- ses théoriques pour les réseaux de paquets en 1962.

Publié dans Nécrologie IT | Laisser un commentaire

Vidéo : 60 ans d’informatique en 270 images !

C’est un résumé en images de 60 ans d’informatique : de l’Univac à Androïd !

Publié dans Anecdotes IT | Laisser un commentaire

Le projet SABRE… Vu par IBM !

Sabre a été créé dans les années 50-60 pour répondre à la demande d’American Airlines… Le système est toujours en place, 60 ans plus tard !
SABRE est un des grands projets qui a fait avancer la technique informatique. Par exemple, c’est avec SABRE que les premiers disques durs de stockage ont été utilisés.

Extrait du livre à ce sujet :

Premier réseau informatique à but commercial, SABRE (Semi Automated Business Related Environment) a été réalisé par IBM au début des années soixante. Au moment de sa mise en service, il va relier 1 200 téléscripteurs à travers les Etats-Unis pour la réservation des vols de la compagnie American Airlines. Cette compagnie faisait face à de sérieux problèmes dans son processus de réservation dans les années 1950. Le système de réservation historique d’American Airlines était alors entièrement manuel. Un processus plus automatisé était nécessaire pour faire entrer American Airline dans l’ère du transport aérien à grande échelle.
En 1953 un commercial de haut niveau d’IBM, Blaire Smith, rencontre C. R. Smith, président d’American Airlines, à l’occasion d’un voyage d’affaires et ils discutent de leurs activités professionnelles respectives. À cette époque-là, IBM travaillait justement pour l’US Air Force sur le projet SAGE… Il n’a pas échappé aux deux businessmen que le principe fonctionnel de SAGE pouvait être adapté aux besoins d’American Airline en matière de réservation. 30 jours après cette rencontre, IBM soumet une proposition de recherche à American Airlines, suggérant d’étudier le problème plus avant et d’évaluer l’opportunité d’utiliser un « cerveau électronique ».
Un contrat formel pour le développement est signé en 1957, et le premier système expérimental déployé en 1960. Le système est un succès — et un succès nécessaire, notamment en raison de son coût astronomique de 40 millions de dollars (de l’époque, soit environ 350 millions de dollars d’aujourd’hui) pour le développement et l’installation. À partir de 1964, toutes les réservations American Airlines sont gérées par ce système.
Les recherches nécessaires autour du projet SABRE ont aussi amené leur lot d’innovations. En 1956, IBM commercialise le premier disque dur, le RAMAC 305 (Random Access Method of Accounting and Control). Il est constitué de 50 disques de 61 cm de diamètre et peut stocker 5 Mo.

Publié dans Anecdotes IT | Laisser un commentaire

L’aventure de l’IBM 360 vue par… IBM !

C’est Fred Brooks qui raconte cette histoire passionnante : les débuts du projet 360, le premier mainframe standard qui permit la domination d’IBM sur le marché de l’informatique pendant des décennies. Brooks s’est occupé de l’OS/360.

Extrait du livre à ce sujet :

En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : 5 milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 !
Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré mais la nouvelle « salle blanche » allait demander plus de $450 pour la même surface !) mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.

IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un « quitte ou double » pour la compagnie mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 63, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ?
La première option était spectaculaire et assurait un impact maximum mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était le hit de Big Blue à ce moment-là) !
Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…

L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 qui avait pour particularité d’être entièrement compatible avec l’IBM 1401 (déjà évoqué dans le chapire un). Le H200 était entièrement compatible avec le 1401 mais en utilisant une électronique plus avancée, Honeywell obtient un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique !
L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
En dépit de l’effort titanesque effectué par la compagnie sur le « new product line » (« la nouvelle ligne de produit », nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à « mettre le paquet » sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs…
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle acceptait 40 modèles de périphériques dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail mais bien un ajout intelligent permettant à la base installée de « glisser » en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de $5 milliards, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme « l’ordinateur fait par IBM qui a fait IBM » et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant 30 ans et a défini l’architecture de base des mainframes encore en usage aujourd’hui !
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du 360 résidait dans son système d’exploitation System/360 dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai) mais, de toute façon, le traitement par lots représentait probablement plus de 95% l’informatique de l’époque !

Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.

Publié dans Anecdotes IT | Laisser un commentaire

Critique du livre « Comprendre l’Empire » d’Alain Soral, excellent ouvrage !

Comme je l’explique dans la vidéo ci-dessous, je ne connaissais pas du tout Alain Soral mais cette découverte est d’autant plus réjouissante !

Dans cette vidéo, j’explique pourquoi, en tant qu’homme libre, vous devriez lire ce livre…

Une courte critique vidéo du dernier livre d’Alain Soral, « Comprendre l’Empire » est un chef d’oeuvre que tout le monde devrait lire avec avidité !

Sous forme d’avant-goût, je vous recommande aussi de visionner les six vidéos publiées par Alain sur son site perso à propos de cet ouvrage justement… C’est par ici http://www.alainsoral.com/2011/03/comprendre-l%E2%80%99empire-entretien-avec-alain-soral-2/

Publié dans Livres | 3 commentaires

Demain soir, tous devant la télé !

Oui, c’est moi qui lance ce mot d’ordre : mardi 15 mars, il FAUT regarder la télé, pour une fois (le reste du temps, non, il ne faut pas…).

Oui mais pas n’importe quoi bien sûr : amateurs de football, de TF1 et autres M6, vous allez être déçus… C’est sur Arte à 20:40 qu’il faut regarder l’excellent documentaire « Notre poison quotidien » dont voici la bande annonce :

Plus de détails et d’autres vidéos à http://www.arte.tv/fr/Comprendre-le-monde/Notre-poison-quotidien/3673928.html

Publié dans La terrible vérité | 2 commentaires

Quelques éléments intéressants sur la mentalité humaine… Ou pourquoi la « pensée unique » a de l’avenir !

Pourquoi la « pensée unique » existe-t-elle et est-elle si répandue ?

Tout simplement parce qu’il est dans la nature humaine de se « mettre en conformité » avec le groupe… Septique ?
Vous ne devriez pas pourtant… Abraham Maslow l’a bien compris en mettant le « besoin d’appartenance » dans sa hiérarchie des besoins humains (voir à http://fr.wikipedia.org/wiki/Pyramide_des_besoins_de_Maslow). Mais ce que Maslow ne soupçonnait pas, c’est que la satisfaction de ce besoin (le besoin d’appartenance ou d’intégration) pousse l’individu à tricher pour s’aligner sur « la pensée unique »… Et c’est ce que « l’expérience de Asch » a démontré !

Commençons donc par l’expérience de « Asch » (imaginée par Solomon Asch, voir à http://fr.wikipedia.org/wiki/Solomon_Asch) :

expérience de Ash, le conformisme par ldn67

Continuons par l’expérience de Leyens (chercheur Belge, expérience réalisée en 1986) :

Expérience de leyens par Super_Resistence

Allez, une autre sur le même principe (avec un commentaire très intéressant à la fin de Leyens justement) :

Expérience Leyens – Soumission à l’autorité par Super_Resistence

Enfin, terminons ce bref tour d’horizon édifiant par la bien connue « expérience de Milgram » (voir à http://fr.wikipedia.org/wiki/Exp%C3%A9rience_de_Milgram) :


L’expérience de Milgram par Super_Resistence

Alors, convaincu ?

Publié dans La terrible vérité | Un commentaire

« Water makes money », un documentaire à ne pas manquer le 22 mars sur Arte !

Informez vos amis et connaissances et tous les médias de la date de
diffusion du film « Water makes money » sur ARTE : le 22 mars à 20h40″

Plus il y a de gens qui attendent sa diffusion, plus cette date a des chances d’être maintenue !

Veolia porte plainte contre le film documentaire « Water Makes Money »

Après Paris, Berlin?

Ceux qui portent plainte contre le film „Water Makes Money“ doivent
affronter une tempête. A Berlin, Veolia ne peut plus cacher derrière
des contrats secrets sa « machine à sous » qui lui a rapporté dans
les 10 dernières années 1,3 milliard d’euros grâce à la distribution
publique de l’eau. Les habitants de Berlin ont décidé, par
référendum, que ces contrats doivent être publiés. Et voilà qu’il
arrive exactement la même chose que ce que le film montre avec
l’exemple de Paris, Bordeaux et Toulouse : des juristes attentifs
mettent le doigt sur les astuces juridiques et les coups-bas cachés
dans le contrat du groupement, qui permettent aux acteurs mondiaux de
générer des milliards grâce à la distribution communale de l’eau.
Selon le directeur de l’Institut pour le droit en matière d’énergie
et de la concurrence de l’Université Humboldt à Berlin, Hans-Peter
Schwintowski, une évaluation juridique minutieuse de ces contrats
amène forcément au constat de leur invalidité. La garantie de
bénéfices serait, de fait, une subvention de la Communauté européenne
qui aurait dû recevoir une autorisation, et l’appel d’offres pour
l’attribution du contrat n’aurait pas non plus été réalisé
correctement. Donc, la privatisation partielle de la distribution de
l’eau à Berlin serait entachée de nullité et la voie serait ouverte
pour la remunicipalisation. Certes, il faudrait rembourser le prix
d’achat d’environ 1,8 milliard d’euros à Veolia&Co, mais, en
contrepartie, les bénéfices de 1,3 milliard d’euros devront également
être remboursés.

Nous n’en sommes pas encore là, à Berlin, mais le premier pas
important sur la voie de la remunicipalisation est fait, comme à
Paris et à Bordeaux il y a 5 ans…..

L’opinion publique s’éveille
Un grand merci à toutes celles et à tous ceux qui ont lu et envoyé
notre article sur l’action en justice de Veolia contre Water Makes
Money ! C’est tout simplement incroyable combien la société civile de
libres penseurs et de gens prêts à agir responsablement a grandi en
force et en influence. La nouvelle a déclenché une vraie vague de
l’attention publique, en France comme en Allemagne et dans les pays
voisins. Les journaux Rue 89, Tele Premiere, Télérama en France, et
Die TAZ, Hamburger Abendblatt, Stuttgarter Zeitung, Berliner
Morgenpost, Junge Welt, Badische Zeitung en Allemagne sont quelques
exemples de l’énorme écho qu’a trouvé cette affaire dans la presse.
Des chaînes de télévision ont également manifesté leur intention de
traiter ce sujet. Et quand on regarde notre carte on constate qu’il y
a énormément de nouvelles projections de notre film – c’est
magnifique!!!!!!

Ils vont devoir montrer leurs cartes
Nous apprendrons seulement pendant le procès quels points concrets du
film sont concernés par la plainte de Veolia, car le groupe n’est pas
obligé de montrer ses « cartes » avant le procès (chose impossible en
droit allemand!). Mais sous la pression de l’opinion publique,
l’avocat de VEOLIA a entre-temps donné quelques précisions : ils
veulent obtenir des « dommages-intérêts justes » pour la diffamation
du groupe. Ils veulent porter plainte contre l’accusation de
corruption, et surtout contre l’utilisation du mot « corruption »
dans le film.

La corruption active d’élus communaux, la nomination de représentants
du groupe dans des organes de la Communauté européenne qui décident
de l’attribution de marchés au groupe même, les invitations de hauts
représentants de l’Etat et de membres de commissions sur des yachts à
Saint-Tropez peu avant l’attribution de contrats de plusieurs
millions d’euros… tous ces exemples relatés dans le film n’auraient
rien à voir avec de la « corruption »?

Ils commencent à trembler
L’attitude d’ARTE dans cette situation est jusqu’ici fantastique. Le
directeur des programmes déclare dans une interview: « Nous soutenons
le film ». ARTE France organise une grande conférence de presse le 23
février 2011 au sujet de « Water Makes Money » dans le centre du « pouvoir « , à Paris !

Mais depuis que le PDG de Suez a appelé la présidente d’ARTE pour
protester contre la diffusion du film, on commence à trembler dans
les bureaux de la chaîne. Certes, il n’est pas déshonorant de
trembler. Face au pouvoir des global players Veolia et Suez, on a
raison de trembler ! Quand un boss d’une entreprise mondiale n’a rien
de plus important à faire que d’intervenir pour empêcher la diffusion
de Water Makes Money, on peut bien évidemment parler d’un grand
honneur pour le film ! Mais cela montre aussi combien il est
important pour ces grands groupes – chacun à sa manière – de bannir
ce film de l’espace public. Contrairement à la chaîne allemande NDR,
pour laquelle selon les dires de Veolia il suffisait en 2006 d’une
intervention de l’entreprise pour bannir du petit écran le film
précédent « Wasser unterm Hammer » (« L’eau aux enchères ») , ARTE et
sa présidente soutiennent toujours Water makes Money et maintiennent
la date prévue de diffusion le 22 mars 2011 à 20h40 ! Mais avant ce
jour-là, il y aura certainement un autre coup de téléphone, une autre
attaque.

Apprendre du passé
Ce n’est malheureusement pas un fait unique que les grands groupes du
business mondial de l’eau essaient d’empêcher la diffusion de
documentaires embarrassants. Ainsi, le film « Flow » avait été
attaqué en justice par SUEZ après sa diffusion sur ARTE. En première
instance, c’est le film qui a gagné, mais Suez a déjà fait appel du
jugement…

L’exemple actuel de l’auteur de Canal+, Denis Robert, montre
également ce qui pourrait être possible dans le procès en diffamation
avec demande de dommages-intérêts contre Water Makes Money. Lui aussi
avait été attaqué pour diffamation et confronté à des réclamations
énormes de dommages-intérêts quand il a dénoncé le blanchiment
d’argent chez Clearstream. Avec ce procès, l’entreprise l’a presque
poussé au désespoir et à la faillite. Il a perdu dans toutes
les instances. Seulement maintenant, après 10 années de procédures
judiciaires, la Cour de cassation a constaté que ces récits étaient,
pour l’essentiel, corrects !

Le traitement des journalistes par la justice française a été
désapprouvé plus d’une fois par les instances européennes.

L’ouverture du procès contre « Water Makes Money » n’interviendra
peut-être que dans un an. N’acceptez pas que Water makes Money
devienne un nouveau « Clearstream »!

Pour cette raison : Aidez-nous à diffuser ces informations !

Chaque nouvelle diffusion du film, chaque DVD commandé compliquent
les projets de Veolia et Suez !

Informez vos amis et connaissances et tous les médias sur la date de
diffusion sur ARTE : le 22 mars à 20h40 ! Plus il y a de gens qui
attendent la diffusion, plus cette date sera sûre !

Et nous souhaitons que le 22 mars à 20h40 procure à ARTE le succès d’audimat
que cette chaîne et ses collaborateurs ont d’ores et déjà mérité !

Publié dans La terrible vérité | 2 commentaires

Un documentaire sur l’histoire de l’informatique par la BBC en 1991

Tourné en 1991, ce documentaire de la BBC avait pour titre « The dream machine » :

Publié dans Anecdotes IT | 4 commentaires

La version papier de mon livre « Publier sur iPad & Kindle »

Bien entendu, il est plus logique d’acheter la version numérique de cet ouvrage (c’est d’ailleurs celle qui se vend le mieux) mais avoir une version papier est toujours utile… Voici deux photos qui illustrent l’aspect et le contenu de mon dernier livre en date :

La couverture de "Publier pour iPad & Kindle"

La couverture de "Publier pour iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

L'intérieur de mon livre "Publier sur iPad & Kindle"

Vous pouvez acheter ce livre sur TheBookEdition pour 10€ (hors frais d’envoi).

Publié dans Informatique, Livres | 3 commentaires

La candidature « Annecy 2018 », réflexions pertintentes d’un Canadien…

Non, je ne vais pas gloser sur les déboires du comité de candidature d’Annecy aux JO d’hier pour 2018, on ne tire pas sur une ambulance dit-on…

Mais je voudrais joindre ma voix à tous ceux et celles qui ne veulent PAS des JO à Annecy et pour illustrer les raisons de ce refus, je voudrais vous renvoyer sur l’excellent article de Robert Cossette, un Canadien installé à Annecy et qui partage avec nous quelques réflexions sur l’intérêt des JO que je trouve particulièrement pertinentes (cela rejoint exactement ce que j’écris sur le sujet depuis des années !). C’est à lire (et à savourer) à http://papouvb74.wordpress.com/2011/02/11/annecy-2018-les-vrais-infos/

Publié dans La terrible vérité | Un commentaire

Une préface pour un livre sur PHP… En 1999 !

Voilà un texte rédigé en 1999 pour la préface d’un livre sur PHP…

La décennie 90 est une des plus agitée de l’histoire de l’informatique : elle commence par l’explosion du client-serveur et se termine sur la généralisation du Web !

Dans ce tumulte, on a assisté à une prolifération inattendue des langages de programmation. Inattendue car la période précédente avait plutôt éteint les espoirs des challengers (tels que Pascal ou Smaltalk) de déloger Cobol et le C de leurs positions dominantes dans leurs domaines respectifs.

Passons rapidement sur les nombreux L4G (très peu ont survécu finalement) qui ont accompagné le mouvement client-serveur et revenons sur les premiers pas du Web. Il y a quelques années, les développeurs de sites Web interactifs n’avaient pas le choix, pour activer des traitements sur le serveur invoqués depuis une page HTML, il fallait passer par l’interface CGI. Toutefois, cette dernière vous laissait libre du langage à employer. Et, plutôt que le langage C, les concepteurs de sites se sont massivement rués sur PERL. En effet, ce langage, orienté production de rapports, était particulièrement à l’aise dans les manipulations de chaînes de caractères, plutôt pratique pour générer des pages HTML !

Le succès de PERL dans ce domaine a permis de contribuer à la reconnaissance du mouvement des logiciels à code source ouvert (ou logiciels libres) puisque ce langage fait partie intégrante de cette mouvance au même titre qu’Apache (le serveur HTTP le plus répandu sur le Net) ou Linux (qu’on ne présente plus !).

Le développement sur le Web ne s’est pas cantonné dans le recours à l’interface CGI, de nombreux serveurs d’applications sont apparus (la plupart reposant progressivement sur Java) et même PERL s’est affranchi de CGI grâce au module mod_perl qui lui permet d’être pris en charge par Apache pour de meilleures performances à l’exécution. Mais la situation n’a pas tourné au statut quo pour autant et le succès confirmé de PERL n’a pas empêché l’émergence d’un autre langage, lui aussi dans le cadre des logiciels libres, et cette fois véritablement spécialisé développement Web, PHP.

Une plaisanterie prétend que les lettres PHP signifient « People Hate Perl » (les gens détestent PERL !). La vérité c’est que le « préprocesseur hypertexte » prend une place laissée vacante : celle de langage dédié pour le Web.

Évidemment, il existe d’autres langages qui sont nés avec et exclusivement pour le Web tel que Cold Fusion mais il s’agit la plupart du temps de L4G commerciaux (Cold Fusion est la propriété de son éditeur Allaire corp.), PHP est le seul langage « libre » uniquement orienté Web et ce n’est pas rien. C’est de cette combinaison (spécialisation et développement collectif) que PHP tire tout son dynamisme.

Il n’est pas inutile de revenir sur le mécanisme de cercle vertueux qui donne aux logiciels libres un tel avantage sur les logiciels commerciaux mais permettez-moi d’abord une remarque : on n’a pas encore perçu toutes les conséquences de la lame de fond des OSS (Open Source Software) puisqu’elle remet aussi en question un des principes constatés dans le fonctionnement du marché des logiciels commerciaux, à savoir la règle « le vainqueur prend tout ».

Cette règle dévastatrice donne un avantage démesuré à l’éditeur du logiciel dominant sa catégorie puisque, effet de réseau aidant, son produit se retrouve assez rapidement en position de quasi-monopole (comme Microsoft Office sur la bureautique). La montée en puissance de PHP dans un secteur où PERL avait déjà un enracinement solide démontre que cette règle n’a pas cours avec le logiciel libre et c’est heureux !

Au moment où les entreprises découvrent à la fois les bénéfices du logiciel libre et la nécessité de tirer parti du Web pour son informatique et pour ses affaires, il n’est pas difficile de prédire à PHP un brillant avenir.

Publié dans Anecdotes IT | Laisser un commentaire

Biographie vidéo, au tour de Steve Jobs !

Incontournable Steve Jobs, impossible d’y échapper depuis dix ans… Cependant, quels que soient ses mérites (et ils y en a !), notre Steve est un peu comme Gates : il n’ a rien inventé et son influence sur la technique est quasi-nulle. Cependant, il a su « sentir » les tendances et en tirer parti (tout comme Bill d’ailleurs).

Publié dans Anecdotes IT | Laisser un commentaire

De l’arrivée des PC aux « systèmes ouverts »

Les années quatre-vingt débutent par un événement de taille : le lancement de l’IBM PC. L’engagement du spécialiste de l’informatique traditionnelle donne un tout autre poids à la micro-informatique. A-t-on conscience, à cette époque, du bouleversement que cela va provoquer ?

Difficile de dire si l’industrie, au sens large, était consciente des bouleversements à venir mais les acteurs impliqués étaient eux bien conscient de l’importance de l’entrée en lice du N°1 mondial. Apple par exemple a même été jusqu’à acheter une pleine page dans le Wall Street Journal avec pour seul message un grand « Welcome » pour marquer l’arrivée de ce concurrent de taille.

En revanche, il est clair que, à part quelques avant-gardistes comme Bruno Lussato, la plupart des observateurs n’imaginent pas une seconde que les micro-ordinateurs reliés en réseaux pourraient représenter une architecture alternative aux grands mainframes.

Jusque-là, le choix du matériel était déterminant. On choisissait IBM, Digital, Bull ou Sperry. Les notions de réputation du constructeur, de performance du matériel, étaient intimement liées à la notion d’application. Comment l’intérêt pour le logiciel va-t-il naître dans les entreprises ?

En fait, l’intérêt des entreprises a toujours été grand pour le logiciel, c’est pour le progiciel qu’il va naître progressivement. Il faut préciser que pendant une longue période, l’offre de logiciels sur étagère est pratiquement inexistante. Les clients sont habitués au « développement à la maison » (house programming) parce que, de toute façon, il n’y a pas d’autres moyens d’obtenir ce qu’on veut ou même ce dont on a besoin.

Les notions d’applicatifs et d’ordinateurs étaient tellement liées que l’idée même qu’il puisse y avoir des éditeurs de logiciels indépendants était étrangère à la plupart des gens. Ceux qui étaient assez clairvoyants pour avoir envie de se lancer dans ce nouveau business étaient souvent découragés par les professionnels qui n’imaginaient pas de place autrement que pour des acteurs fortement intégrés comme l’étaient alors tous les constructeurs.

IBM va choisir un petit éditeur, auteur d’un Basic, pour le développement du système d’exploitation de son PC. C’est une rupture à la fois avec l’approche traditionnelle (le constructeur met lui-même au point son système d’exploitation) et le début de standardisation autour de CPM de Digital Research. Cela aura-t-il des conséquences sur l’évolution future des logiciels applicatifs ?

Il faut d’abord se souvenir qu’IBM n’a pas choisi cette démarche, en rupture avec la logique (Digital Research, éditeur de CP/M, était l’incontestable leader de marché qui était alors encore assez réduit) et surtout avec ses propres habitudes (le syndrome du « not invented here » était très présent chez Big Blue), par sa seule volonté mais plutôt par accident : les juristes d’IBM ont effrayé les dirigeants de Digital Research avec leur NDA (non disclosure agreement), du coup, l’affaire n’a pu se conclure et ils sont retournés voir Microsoft trop content de récupérer aussi la réalisation du système d’exploitation (alors qu’à l’origine, IBM n’avait approché Microsoft que pour obtenir les droits sur le MS Basic).

Mais, il faut remonter à la genèse du projet PC pour comprendre pourquoi IBM s’est résolu à aller faire son marché auprès des leaders naissants de ce marché embryonnaire de la micro-informatique. IBM voulait investir ce marché dès 1978 mais les différents projets proposés ont été refusés par la direction pour diverses raisons. En 1980, le N°1 mondial n’avait toujours rien à proposer alors que, pendant ce temps, ce marché commençait à prendre de l’ampleur.

C’est donc en « mode panique » que l’état-major d’IBM a dépêché un commando chargé de boucler un projet viable en quelques mois… D’où la démarche de prendre des composants standards (et le processeur chez Intel) et des logiciels du marché.

C’est également cette conception « vite fait, mal fait » à base d’éléments largement disponibles qui rendit le PC si facilement copiable malgré les protections juridiques qu’IBM avait cru suffisantes.

L’autre conséquence, c’est qu’IBM a donné involontairement un large crédit à ses « fournisseurs » et ainsi a permis l’essor d’une catégorie d’acteurs qui, auparavant, n’existait presque pas : les éditeurs de logiciels. Les PC ont été copiés et vendus à très large échelle et les clients ont commencé à s’habituer à acheter des logiciels sur étagères, d’abord pour les PC mais la suite était facile à prévoir.

Assez rapidement, les utilisateurs vont d’abord « acheter un logiciel ». Un PC, c’est surtout Word et Multiplan. Un peu plus tard, un Macintosh, ce sera Mac Write et Excel. Ce qui semble clair dans le domaine, jeune, de la micro-informatique, a-t-il des répercussions dans le domaine de lamini-informatique, à l’époque exclusivement propriétaire ?

Dans un premier temps, pratiquement pas. Ce n’est que très progressivement, par le biais des L4G (comme Progress) et des SGBDR (comme Oracle) que les minis et d’abord les Vax de DEC ont commencé à connaître une offre logicielle un peu plus étoffée.

D’ailleurs, le discours de ces éditeurs (avec Oracle comme porte-drapeau) était précisément de se libérer de l’emprise des constructeurs grâce à leurs produits qui étaient naturellement multiplates-formes. En effet, un éditeur indépendant avait forcément besoin de « porter » son produit sur les différents minis disponibles à l’époque afin d’élargir son marché. Les portages étaient de qualité très inégale mais la couverture était quasiment totale.

On peut dire, en quelque sorte, que les éditeurs ont donné l’exemple d’abord par leur politique commerciale. Petit à petit, l’idée qu’on pouvait être indépendant des plates-formes matérielles à fait son chemin, on a même fini par appeler cela les « systèmes ouverts »…

Publié dans Anecdotes IT | Laisser un commentaire

Au tour de la bio (vidéo) de Bill Gates…

Bill Gates n’a pas eu une influence très importante sur l’évolution de la technique informatique. Il est même juste de dire qu’il n’a rien inventé. Mais, pour le comparer à d’autres illustres personnages de l’histoire des USA, s’il n’a pas été Edison, on peut dire qu’il a été le « Rockfeller » de son temps !

En effet, bien plus que sa faible influence sur la technique, on retiendra sa très forte influence sur l’industrie du logiciel et le marché informatique, sans conteste cette fois…

Publié dans Anecdotes IT | Laisser un commentaire

Le numérique, voie royale de l’autoédition

Dans mon dernier livre, « Publier sur iPad & Kindle« , j’ai inclus un chapitre sur l’autoédition… Voici le texte de ce chapitre (sans les illustrations) :

Le numérique, voie royale de l’autoédition

Bien entendu, tout ce que je vous décris dans cet ouvrage, c’est normalement à votre éditeur de le faire… À ce niveau, j’ai une bonne et une mauvaise nouvelle.

Commençons par la mauvaise : soyons clair, il est de plus en plus difficile de trouver un éditeur, point.

Et la bonne maintenant : rassurez-vous, l’autoédition n’a jamais été aussi facile et profitable !

Je vais revenir sur la « pénurie » des éditeurs, expliquer pourquoi il est de plus en plus difficile de faire publier son livre par ces intermédiaires et les raisons de cet état de fait. Mais, d’abord, voyons quel était le rôle des éditeurs dans ce que j’appellerais « l’ancienne situation »…

Ce que faisaient les éditeurs

Dans le couple auteur/éditeur, les rôles sont plus ou moins équilibrés : c’est l’auteur qui produit le contenu et c’est l’éditeur qui rend ce contenu publiable afin de le distribuer ensuite le plus largement possible. Le travail de l’éditeur comporte donc trois phases : 1- finaliser l’ouvrage (une fois qu’il a accepté le tapuscrit de l’auteur), 2- le fabriquer, 3- le promouvoir et le diffuser.

Rendre le contenu publiable, cela signifie déjà pas mal d’étapes : relectures, corrections, mise en page, réalisation de la couverture pour ne citer que les plus évidentes. C’est un gros travail qui fait appel à des intervenants spécialisés. C’est quelquefois long et toujours coûteux mais ce n’est rien par rapport aux deux dernières phases : fabriquer et diffuser l’ouvrage.

Fabriquer un livre qu’on vient de finaliser n’est pas si simple : il faut donner les éléments nécessaires à l’imprimeur, c’est-à-dire connaître les contraintes techniques propres à ce secteur. Éventuellement, il faudra aussi suivre le travail du relieur si celui-ci est différent de l’imprimeur.

Une fois fabriqué (en n milliers d’exemplaires, rarement moins d’un millier), on peut passer à sa diffusion…

Il faut d’abord assurer sa promotion : publicité (coûteuse), distribution gratuite aux journalistes et critiques sont à la base de cet exercice. Sans promotion, votre ouvrage a peu de chances d’être remarqué par sa cible naturelle. Enfin, il faut distribuer le livre dans le réseau des libraires et des revendeurs (grandes surfaces par exemple) et, pour cela, les petits éditeurs passent un accord avec un distributeur, un autre intermédiaire spécialisé de cette « chaîne de l’édition »…

Les contrats d’édition : beaucoup de contraintes, peu de profits

Les contrats qui unissent les auteurs et les éditeurs sont souvent ressentis comme léonins par les premiers… Les auteurs ont l’impression de ne recueillir que les miettes de leur travail. En effet, même pour les écrivains vedettes, les droits d’auteur dépassent rarement 10 % du prix de vente public du livre objet du contrat.

De plus, l’auteur est lié à l’éditeur pour ses ouvrages suivants (une clause plus ou moins théorique mais bien présente) et perd son pouvoir de décision sur son œuvre (ce n’est pas lui qui choisit par qui l’ouvrage sera traduit le cas échéant et ainsi de suite). Je ne vais pas entrer dans les détails de ce type de contrat mais il suffit de dire qu’il est assez mal vécu par la partie « auteur »…

Crise sur le marché de l’édition

En vérité, les auteurs ne peuvent pas se plaindre car ce sont les éditeurs qui assument les risques financiers liés à la publication d’un livre alors que l’auteur lui ne risque que sa réputation. Et les risques financiers liés à la publication d’un livre papier sont bien réels, ils peuvent même être assez lourds… En fait, c’est l’éditeur qui doit investir beaucoup en amont pour espérer un retour plus ou moins hypothétique en aval. C’est l’éditeur qui paye la finalisation de l’ouvrage (rappel : relecture, corrections, couverture…), c’est l’éditeur qui paye l’imprimeur et le relieur (et quand on imprime des milliers d’exemplaires, la facture se monte en milliers d’euros) et enfin, c’est l’éditeur qui avance les livres aux libraires, ceux-ci ne payant que les exemplaires effectivement vendus, le distributeur se chargeant de renvoyer le surplus (les invendus) à l’éditeur, à ses frais bien entendu !

Si, après ça, vous voulez toujours vous lancer dans le monde de l’édition, bon courage…

Certes, quand on a la chance (ou plutôt quand on bien fait son travail de promotion oui !) d’avoir un ouvrage qui se vend bien, l’édition peut-être une activité très rentable mais avant cela, que de risques !

Étonnez-vous avec cela que les éditeurs puissent être frileux avec les nouveaux auteurs… D’autant que, lors de ces dix dernières années, le contexte du marché de l’édition a radicalement changé : le nombre de lecteurs (ou, au moins, d’acheteurs de livres) a baissé et l’offre de son côté a explosé… En effet, le nombre de nouveaux livres mis sur le marché lors des grands rendez-vous périodiques a considérablement augmenté.

Et, si ça ne suffisait pas, une concurrence déloyale commence à apparaître : certains éditeurs des pays de l’est n’hésitent pas à reproduire intégralement certains ouvrages pour les vendre sur les circuits habituels (c’est de la contrefaçon, comme pour des produits de luxe mais les libraires n’ont pas les moyens de s’en apercevoir).

C’est un éditeur Belge spécialisé dans les ouvrages sur le sport automobile qui m’a expliqué en détail cette évolution lors qu’en 2008, je cherchais un éditeur pour la biographie du pilote Soheil Ayari que j’étais en train d’écrire (finalement, cette biographie a été autoéditée grâce aux efforts de Sassan, le frère de Soheil, qui s’occupe aussi de sa diffusion).

Avec tout cela, le marché de l’édition est en crise. Il est donc de plus en plus difficile pour un nouvel auteur de percer avec son premier ouvrage. On dit souvent que tout est affaire de relations vis-à-vis de ce délicat problème et je pense que c’est au moins en partie vrai : j’en ai vécu un exemple concret avec mon livre SimRacing publié chez Pearson en 2009. Pendant presque un an, j’avais tenté de prendre contact avec cet éditeur pour lui proposer ce projet mais sans succès : on ne répondait même pas à mes courriers ou emails. Et puis, j’ai pu évoquer ce projet avec une relation connaissant bien le directeur général de Pearson France… Aussitôt, le directeur des publications prit contact avec moi et une semaine après je recevais le contrat !

L’autoédition aux temps héroïques

Pour contourner cette barrière, les auteurs indépendants ont recours à l’autoédition. Comme toujours, c’est une pratique qui existe depuis longtemps mais, auparavant, on appelait souvent cela « édition à compte d’auteur » (encore que, cette notion n’est pas tout à fait comparable avec l’autoédition telle que je l’évoque ici mais passons) et c’était plutôt mal vu. En gros, celui qui avait recours à l’édition à compte d’auteur n’était simplement pas assez talentueux pour mériter les services d’un « vrai » éditeur et il devait payer pour permettre à son ouvrage de voir le jour (mais pas forcément de rejoindre les vitrines des libraires, nuance !). Les Anglo-Saxons ont même une appellation péjorative « vanity publishing » pour désigner cette pratique considérée comme désespérée par les professionnels du secteur…

Le principal problème de l’autoédition à l’ancienne manière, c’est qu’il fallait soi-même passer par les services d’un imprimeur (une fois votre ouvrage finalisé et prêt à être imprimé et à condition d’avoir assimilé toutes les contraintes techniques liées à cet exercice… Rien d’insurmontable quand on a le temps et la volonté de se plonger là-dedans !) et que ce dernier n’acceptait votre travail qu’à condition de commander au moins un millier (voir deux) d’exemplaires de votre livre. En effet, l’imprimerie traditionnelle (offset) demande la réalisation de « plaques » d’impression et le calage de celles-ci… Et cette procédure n’était pas rentable pour des petits volumes (en dessous du millier d’exemplaires). Du coup, vous étiez obligé d’avancer une somme considérable (mettons que votre livre fasse 200 pages et que son coût d’impression s’établisse à cinq euros, il vous fallait faire un chèque de 5000 euros…) pour repartir avec de nombreux cartons contenant vos livres. Libre à vous ensuite de trouver comment diffuser ce volume !

Nous avons connu cette expérience puisque les deux livres rédigés par ma femme ont d’abord été édités ainsi avant de connaître une version numérique. Le premier, La pédagogie Montessori Illustrée, a d’abord connu trois éditions papier avant d’être disponible pour l’iPad (voir à http://blog.montessori.fr/nos-livres/). Le second, 365 jours d’école à la maison, continue à bien se vendre à travers son site dédié (voir à www.ecolealamaison.org) mais c’est nous qui assurons tout le travail (promotion, expédition, etc.)…

L’autoédition remis au goût du jour par l’impression à la demande

Ce qui a relancé l’autoédition, c’est la montée de « l’impression à la demande ». Grâce aux progrès de la chaîne de production numérique et à de nouveaux matériels, les imprimeurs ont pu réduire drastiquement les coûts d’impression unitaire jusqu’au point où il est rentable d’imprimer un seul exemplaire d’un livre !

Des sites spécialisés comme Lulu.com se sont emparés de cette possibilité pour offrir un service intégré d’autoédition à tous les auteurs capable de télécharger un tapuscrit finalisé sur Internet. J’utilise TheBookEdition.com (un service français comme son nom ne l’indique pas !) pour diffuser la version papier de certains de mes livres et c’est une bonne solution car vous n’avez plus rien à faire (si ce n’est la promotion, encore et toujours !) une fois votre ouvrage en ligne et prêt à être vendu et expédié.

Cependant, on est toujours face à un livre papier qui reste coûteux à imprimer et lourd à expédier par La Poste (et ces frais d’envoi s’ajoutent au prix du livre). Ci fait qu’on se retrouve avec une offre relativement peu compétitive face à celle des gros éditeurs ou alors, on minimise sa marge pour proposer un livre à un prix abordable (lors du processus de publication sur le site d’impression à la demande, c’est vous qui fixez la marge que vous souhaitez toucher sur chaque vente, celle-ci va s’ajouter au coût d’impression pour établir le prix de vente final et public).

Le numérique simplifie tout !

C’est ici que le numérique entre en scène et vient apporter sa touche finale à l’apogée de l’autoédition !

Avec le numérique, terminé les contraintes du papier : mise en page, coût d’impression et coût d’expédition… Reste un produit plus facile à finaliser, plus souple, moins cher et plus rentable… À condition d’arriver à le diffuser !

Reste la question de la distribution et de la promotion

Car, bien sûr, la promotion et la distribution restent plus que jamais les facteurs clés dans le succès d’un nouveau livre. Avec le numérique, vous avez les outils nécessaires et suffisant pour remplacer avantageusement votre éditeur au niveau de la finalisation et de la fabrication/publication de votre ouvrage mais il faut encore se consacrer à la troisième phase : assurer la distribution la plus large et la promotion la plus visible… Et là, rien ne remplace vos propres efforts.

Pour la distribution, j’en ai parlé dans le chapitre 13 de ce livre, il faut passer par un intermédiaire spécialisé comme Immatériel et cela en vaut la peine (ne serait-ce que pour simplifier la publication sur Itunes pour l’iPad…). Pour la promotion, il vous faut, au minimum, tenir un blog ou une page sur Facebook où vous allez promouvoir votre ouvrage en mettant en avant son actualité.

Ici, on sort du cadre de ce livre, il existe bien des ouvrages sur la question et je ne peux que vous souhaitez bon courage et de prendre exemple sur ce que j’ai fait pour mon ouvrage sur l’histoire de l’informatique : site dédié à www.histoireinformatique.com, page Facebook à http://www.facebook.com/pages/Histoire-de-linformatique/145612858819024 et compte twitter à http://twitter.com/#!/histoireit.

Publié dans Livres, Mes livres | Laisser un commentaire

La biographie de l’autre Steve d’Apple : « Woz » (Steve Wozniak)…

Après la bio de Tom Watson Junior, continuons notre panorama des personnages célèbres et influents dans l’informatique… Aujourd’hui, voici « Woz », la magicien !

Certes, désormais il est moins célèbre que « l’autre Steve » (Jobs) mais, au début d’Apple, rien n’aurait pu se passer sans lui… Un personnage à découvrir !

Publié dans Anecdotes IT | Laisser un commentaire

Tous les extraits de notre livre sur Scribd

Vous pouvez retrouvez tous nos extraits à http://www.scribd.com/my_document_collections/2854262

Publié dans Making-of livre IT | Laisser un commentaire

Une biographie vidéo de Tom Watson Junior (IBM)…

Continuons à nous intéresser aux grands hommes de l’histoire de l’informatique… Aujourd’hui, je vous propose cette série de vidéos réalisée par « Bio Channel » sur Thomas Watson Junior, le fils du fondateur d’IBM, célèbre pour avoir définit la devise de la compagnie (« Think » !). Le mérite principal de Tom Junior est d’avoir accompagné voir même forcé la bascule de Big Blue de la mécanographie (où la compagnie était également leader) vers l’informatique…

Publié dans Anecdotes IT | Laisser un commentaire

Fred Brooks revient sur le pari de l’IBM 360…

Dans cette vidéo (d’origine IBM), Fred Brooks (le chef du projet OS/360) revient sur le lancement du projet IBM 360 et sur le pari que cela représentait à l’époque pour big blue…

Publié dans Anecdotes IT | Laisser un commentaire

Présentation vidéo de mon livre « Publier sur iPad & Kindle »…

Voici une petite présentation de mon dernier livre :

Publier sur iPad & Kindle

Réalisez votre ebook : démarche et outils, étape par étape

Ce livre est un guide pratique, étape par étape et très illustré (79 images réparties tout au long des quinze chapitres) sur « comment publier un livre pour les plates-formes numériques » avec un focus sur l’iPad et sur le Kindle. Ce n’est pas un ouvrage technique sur le format Epub dans le détail, c’est plutôt une démarche basée sur l’expérience pour passer du tapuscrit à l’ouvrage publié et référencé sur les principaux sites de vente d’ebooks.

J’en profite pour signaler qu’il est également disponible sur iBookstore (iPad), of course !

IMG_0015

Publié dans Mes livres | Laisser un commentaire

Ken Olsen (fondateur de DEC) est mort aujourd’hui…

Ken Olsen, le fondateur (avec Harman Anderson qu’on voit sur le montage photo en haut à gauche, avec des lunettes) et patron de DEC jusqu’en 1992 vient de mourrir aujourd’hui… Quoi qu’on pense de ses déclarations sur le PC, c’était une des figures de l’histoire de l’informatique. On peut même dire que c’est lui qui a donné naissance au mouvement dit de la mini-informatique. Sa fiche wikipedia et l’article du NYT annonçant son décés.

Ken Olsen (avec Harlan Anderson en haut à gauche) à différentes époques...

Publié dans Nécrologie IT | 2 commentaires

Hommage à Seymour Cray

Un petit documentaire (6 minutes seulement !) sur Seymour Cray, le fondateur de Cray Research, la première société spécialisée dans les super-ordinateurs. ce documentaire a été produit par sa société et titré « the Father of the Supercomputing Industry ».

Publié dans Anecdotes IT | Laisser un commentaire

Publier sur iPad & Kindle – Mon dernier livre sur la publication numérique !

Voilà, après deux mois de travail, j’ai pu boucler mon nouveau livre : Publier sur iPad & Kindle – Réalisez votre ebook : démarche et outils, étape par étape.
Ce livre est un guide pratique, étape par étape et très illustré (79 images réparties tout au long des quinze chapitres) sur « comment publier un livre pour les plates-formes numériques » avec un focus sur l’iPad et sur le Kindle. Ce n’est pas un ouvrage technique sur le format Epub dans le détail, c’est plutôt une démarche basée sur l’expérience pour passer du tapuscrit à l’ouvrage publié et référencé sur les principaux sites de vente d’ebooks.
Je sais qu’un ouvrage de ce type était attendu par certain(e)s d’entre vous… Je crois que c’est le premier en français dans sa catégorie.

Voici une petite présentation vidéo de cet ouvrage :

Il est déjà disponible sur Amazon pour le Kindle mais, bizarrement, le prix ne correspond pas à ce que j’ai fixé (et ne vous précipitez pas sur la version pour le Kindle car la qualité des images est vraiment basse sur le Kindle lui-même -à cause des caractéristiques techniques de cette tablette de lecture qui, vraiment, ne favorise pas les illustrations !- , sauf quand on visualise le livre à travers l’application Kindle sur une bonne plateforme, genre iPad où là, c’est vraiment mieux !).

publier sur ipad & kindle

La version Epub est déjà disponible sur le site de la Fnac.com, librairie Dialogues.fr, réseau ePagine et Feedbooks

publier sur ipad & kindle

Il y a aussi une version papier (110 pages en N&B, 79 illustrations) disponible à TheBookEdition… 10€, c’est raisonnable !

Le livre Publier sur iPad & Kindle

Et, bien sûr, il est disponible sur l’iBookstore pour l’iPad…

IMG_0015

Publié dans Mes livres | 8 commentaires

Comment rater ses relations avec la presse – critique

Pierre Zimmer vient de sortir un nouveau livre avec Bernard Giroud : « Comment rater ses relations avec la presse ». Je connais Pierre mais pas Bernard.

GirouxZimmer

Parution le 12 janvier 2011 – 18,95 €

ISBN : 978-2-8098-0434-8 – 140 x 225  mm – 200 pages env.

Décryptage et coulisses d’un univers controversé

Beaucoup se demandent encore, et notamment bien des dirigeants, à quoi peuvent bien servir les relations avec la presse. Ce livre est fait pour conforter leurs doutes : non, les relations avec la presse ne servent à rien ! Si ce n’est à développer sa notoriété et sa visibilité, à améliorer la lisibilité de son image et de son positionnement, voire à se faire un peu de publicité.

Il est donc urgent de s’en passer, pour trois bonnes raisons : 1°) qui dit relations dit dépendance et soumission ; 2°) qui dit presse dit journalistes, engeance infréquentable ; 3°) il existe bien d’autres moyens de se faire connaître.

Toutefois, si vous ne pouvez y couper, voici comment planter votre plan média en beauté, en appliquant quelques règles simples…

– Confondez allègrement information, communication, publicité et propagande,

– Nourrissez quelques idées arrêtées sur les journalistes et les attaché(e)s de presse,

– Affichez des préjugés, véhiculez poncifs et clichés,

– Montrez-vous ignorant, négligent, méprisant, incompétent et désinvolte.

Alors que nous vivons à l’heure de la « médiacratie », les relations avec l’omniprésent « 4e pouvoir » demeurent un champ d’étude en friche. Cet antimanuel, humoristique mais pas trop, truffé d’exemples réels et d’anecdotes vécues, n’est pas destiné aux seuls communicants et journalistes. Mitonné par deux spécialistes des médias, il a pour objet caché de révéler les rouages des rapports conflictuels entre information et communication, deux bestioles bizarres à ne pas confondre.

Bernard Giroux et Pierre Zimmer proposent un panorama de la presse, bousculée par les nouvelles technologies de l’information, ainsi qu’un portrait de la « planète com », astéroïde nombriliste que tout un chacun est amené à fouler un jour ou l’autre.

Pierre Zimmer, ancien journaliste à France Inter, au Monde et à L’Express, est conseiller en communication et spécialiste des relations avec la presse. Il a enseigné au Celsa, à l’EFAP et à l’ESCP. Il est le coauteur, notamment, de Survivre dans ce monde hypocrite (Presses de la Cité, 1993), Surtout, ne changez rien ! (éd. d’Organisation, 2005), Et l’intolérance bordel ! (Palio, 2008).

Bernard Giroux a dirigé pendant quinze ans le service de presse du CNPF devenu Medef. Depuis 2003, il a rejoint comme directeur des relations avec la presse l’Assemblée des Chambres françaises de commerce et d’industrie (ACFCI). Il enseigne dans les écoles de journalisme et de communication (EFAP, CELSA, ESJ, IEJ…). Il est l’auteur de Merci la télé, souvenirs d’un téléphage (Bayard, 2001) et Mystère à Zarzis (Albin Michel, 2003).

Un anti manuel pour tout savoir tout ce qu’il faut faire (et ne pas faire) en matière de RP

Un ouvrage ludique et accessible qui mêle explications, exemples et anecdotes

Les auteurs, deux spécialistes de la com’, seront les premiers à faire parler de leur livre

On l’aura compris, cet ouvrage met les points sur les « i » de celles et ceux qui s’occupent de relations publiques. Ludique ?
Pas vraiment : le style à contre-pied employé systématiquement tout au long de ce livre est un peu fatiguant à la longue. De plus, les auteurs sont volontiers flagorneurs : les journalistes stars (et il y en a toute une galerie) qui sont cités sont systématiquement parés des plus grandes qualités même quand ce ne sont que de vulgaires suppôts du système.

De plus, quoique bien documenté, l’ouvrage n’est pas épargné par les approximations… En voici une qui est savoureuse :

3heures

Oui, vous avez bien lu « chaque Français« … Pour ceux qui, comme moi, ne regardent jamais ce torrent de boue qu’est devenue la « télévision », c’est agréable de se sentir ramener ainsi dans la masse !
Mais si être flagorneur avec les journalistes (avec les stars surtout !), c’est bien, être adepte de la pensée unique et le clamer bien haut, c’est encore mieux… Voici un autre exemple qui démontre que les auteurs ont bien compris qu’il fallait toujours hurler avec les loups :

pentagone

Donc, si vous avez un doute légitime sur la version officielle (abondamment relayée par les médias, surtout en France…), sachez que vous faites partie des gens infréquentables et que vous côtoyer devient infamant… C’est agréable !

Bref, il s’agit d’un livre qui aura sans doute un certain succès (gageons qu’il va bénéficier d’une bonne couverture presse, vu les efforts des auteurs, ce serait mérité !) mais dont vous pouvez vous passer avec profit.

Publié dans Livres | 2 commentaires