En effet, le 7 avril 1964 (je suis en retard de quelques jours !), IBM annonce enfin le système 360, la gamme 360 et c’est un événement énorme !
Revenons sur cet épisode, il le mérite bien…
Situation chaotique chez IBM
Au début des années soixante, IBM est dans une situation délicate. En effet, son activité informatique commence à vraiment prendre de l’ampleur (chez IBM, le chiffre d’affaires généré par les ordinateurs dépassa celui des tabulatrices mécanographiques en 1962), mais la situation est chaotique : en effet, IBM ne produit pas moins de sept modèles d’ordinateurs différents en 1960. Ce fractionnement de l’offre vient de la politique commerciale qui consiste à adresser chaque marché séparément, à les traiter comme des niches distinctes.
De plus, avant 1960, les connaissances des besoins, des modes d’utilisation, des technologies et de leur évolution future n’étaient pas suffisantes pour définir des standards qui auraient pu servir de base à une famille d’ordinateurs universels compatibles. Et IBM a toujours encouragé la concurrence interne en matière de développement. La politique commerciale d’IBM a toujours été de coller au plus près de chaque marché, mais sa politique technique a toujours été de le faire avec le moins de matériels différents possibles (ce qu’elle n’a pas toujours été capable de faire d’ailleurs).
IBM, un géant éparpillé !
Sur le plan industriel, IBM ne tirait alors aucun bénéfice de sa taille puisque chaque type de machine était assemblé avec des composants différents. Pas moins de 2 500 circuits électroniques distincts sont fabriqués cette année-là (en 1960) pour ces ordinateurs, tous différents et qui n’ont presque rien en commun. Idem pour les périphériques.
La division ordinateurs d’IBM de cette époque ressemblait à une fédération de PME, chacune travaillant dans son coin avec ses propres équipes (tout était dupliqué : études, fabrication, marketing et même forces de vente !) sans aucune coordination ni même l’embryon d’une politique commune.
Non seulement le problème était bien présent au niveau matériel, mais il était encore plus aigu au niveau logiciel : la prolifération des lignes d’ordinateurs avait engendré la multiplication des combinaisons logicielles associées. Les équipes de programmeurs d’IBM étaient submergées par la nécessité d’écrire et de réécrire les systèmes d’exploitation et les applications pour les différentes familles de systèmes et il paraissait clair qu’à brève échéance, cette situation n’était pas tenable.
À côté de cela, la division mécanographique était bien mature et alignée sur la série 400 qui satisfaisait l’ensemble des clients. La rationalisation de la production de la série 400 avait réduit les coûts à un point tel qu’IBM n’avait plus vraiment de concurrence sur le marché des machines de bureau à cartes perforées.
La question de la migration fragilise la position de “Big Blue”
Le problème du fractionnement des gammes de systèmes touchait aussi les clients. Les ordinateurs ciblaient leurs niches de façon si étroite qu’il n’était pas possible d’étendre les capacités d’un système plus que d’un facteur deux. Donc, quand une société avait besoin d’accroître son système informatique au-delà de cette limite, elle n’avait pas d’autre choix que de changer de type de machine. Mais, bien sûr, ce passage d’une gamme à l’autre impliquait forcément la réécriture des applications (toutes !) précédemment développées…
Cette migration coûtait souvent aussi cher sinon plus que le nouvel ordinateur. Et si les clients devaient changer de système complètement, ils pouvaient tout aussi bien changer de fournisseur sans augmenter l’impact négatif puisque tout était à refaire de toute façon… La direction d’IBM comprit bien qu’il y avait là un danger potentiel à tous les niveaux qu’il fallait adresser au plus vite. La solution : le concept de famille de systèmes compatibles.
Le défi d’un “système universel”…
Tous ces éléments poussaient IBM à adopter le concept d’une famille de systèmes compatibles au plus tôt. Mais, dans le cas d’IBM, c’était un challenge encore plus considérable que pour ses concurrents. Tout d’abord à cause du large spectre représenté par les clients de la compagnie. Un système “universel” devait convenir et s’adapter à toutes les tailles et à tous les secteurs.
Un vrai défi tant sur le plan matériel (une gamme étendue était nécessaire, mais cela concernait aussi les périphériques qui devaient être communs à toute la gamme de systèmes) que sur le plan logiciel (tous les logiciels devaient être capables de tourner sans aucune modification de la plus petite machine au plus gros mainframe… Sinon, le concept de famille compatible n’avait pas de sens). Ensuite parce que le fractionnement des systèmes au sein d’IBM avait aussi entraîné un fractionnement des intérêts… Des baronnies s’étaient créées et il y avait beaucoup de résistances au sein même de la compagnie pour faire “tomber les murs” et travailler enfin ensemble.
Un groupe de travail pour sortir de l’impasse : le SPREAD
En octobre 1961, la direction d’IBM avait nommé un groupe de travail (le SPREAD) afin d’établir un rapport prévisionnel sur ce projet de systèmes compatibles. À la fin de l’année 61, le SPREAD avait remis son rapport dont les conclusions étaient radicales. Les estimations de dépenses étaient à la hauteur des ambitions du projet : le groupe avait prévu qu’il faudrait dépenser $125 millions rien que pour le logiciel alors que la compagnie se contentait alors de $10 millions par an pour toute son activité logicielle… Bien entendu, ces estimations qui paraissaient alors délirantes étaient bien en dessous de la réalité et c’est quatre fois plus qui sera finalement englouti par le seul système d’exploitation du 360 (pour un résultat médiocre en plus !).
Un projet secret et de grande ampleur
Cependant, le projet fut tout de même lancé au début de l’année 1962 et mené sur plusieurs sites (y compris en Angleterre) dans le plus grand secret. Le budget alloué était colossal : cinq milliards de dollars de l’époque, soit encore plus que pour le projet Manhattan qui permit la mise au point de la bombe atomique en 1945 !
Les études coûtèrent $500 millions à elles seules et le développement dix fois plus… C’est l’usine de semi-conducteurs qui consomma le plus de ressources (les ateliers d’assemblage classiques coûtaient $120 le mètre carré, mais la nouvelle “salle blanche” allait demander plus de $450 pour la même surface !), mais cet énorme investissement assura l’avenir d’IBM dans ce domaine pendant des années.
IBM fait un pari risqué avec le 360
Ce projet pharaonique était vraiment un “quitte ou double” pour la compagnie, mais la direction de l’époque était consciente qu’elle n’avait pas le choix. Fin 1963, le développement était en plein boom et la direction commença à réfléchir à la question du lancement… Fallait-il annoncer l’ensemble de la famille de systèmes en une seule fois ou, plus prudemment, faire une série d’annonces progressivement ?
La première option était spectaculaire et assurait un impact maximum, mais elle était aussi la plus risquée : face à cette nouveauté, les clients risquaient de délaisser les anciens systèmes complètement (et en particulier le 1401 qui était la meilleure vente de Big Blue à ce moment-là) !
Heureusement pour le management d’IBM, c’est un événement extérieur qui trancha le dilemme…
L’annonce du modèle H200 d’Honeywell précipite le lancement du 360
En décembre 1963, Honeywell mis sur le marché le modèle H200 (déjà évoqué dans le chapitre un) qui avait pour particularité d’être entièrement compatible avec l’IBM 1401. Le H200 était entièrement compatible avec le 1401, mais en utilisant une électronique plus avancée, Honeywell obtint un rapport prix/performance plus de quatre fois supérieur à la machine vedette d’IBM !
Et comme le H200 était effectivement compatible en tous points, les clients pouvaient rendre leur 1401 loué à IBM et le remplacer par un système Honeywell pour bien moins cher à performances égales ou bien plus performant pour un coût équivalent… Une proposition séduisante. Et le marché fut immédiatement séduit : durant la première semaine qui suivit l’annonce du H200, Honeywell reçut plus de commandes que lors des huit années précédentes de son activité sur ce marché informatique !
L’arrivée du H200 coupa net le flux des commandes pour le 1401 et les prévisions étaient alarmantes : chez IBM, on redoutait que plus des 3/4 des utilisateurs du 1401 allaient basculer sur le H200… Le moment était critique pour Big Blue, après avoir investi massivement sur sa nouvelle gamme, voici qu’un concurrent asséchait son cash-flow avec une nouveauté fracassante !
Une ultime hésitation avant le grand saut
En dépit de l’effort titanesque effectué par la compagnie sur le “new product line” (“la nouvelle ligne de produits”, nom de code interne pour le projet 360), l’engagement envers le 360 n’était pas encore définitif… Preuve des hésitations internes, une évolution du 1401 (appelée 1401S) était parallèlement en chantier. Mais l’initiative d’Honeywell décida la direction d’IBM à “mettre le paquet” sur la nouvelle ligne et de tourner ainsi résolument le dos au passé. Le lancement du 360 fut spectaculaire : une grande mobilisation médiatique et marketing qu’on n’avait encore jamais vue pour le lancement d’une gamme d’ordinateurs (les journalistes parlèrent du “projet Manhattan de l’informatique” pour qualifier le projet 360 qui, il est vrai, représentait le plus gros investissement privé de l’Histoire !).
La gamme (limitée au départ à cinq modèles) fut annoncée le 7 avril 1964. Elle comprenait 40 modèles de périphériques, dont la fameuse imprimante 1403 introduite avec l’ordinateur commercial 1401 (et qui sera utilisée jusqu’aux années quatre-vingt). De plus, le système 360 comportait en standard un émulateur de 1401. Ce dernier point n’était pas un détail, mais bien un ajout intelligent permettant à la base installée de “glisser” en douceur de l’ancien système vers le nouveau : l’émulateur était capable d’exécuter les programmes conçus pour le 1401 sur le 360 sans réécriture ni modification, de quoi effectuer la migration progressivement. Ainsi, les clients du 1401 n’étaient plus tentés de passer à Honeywell puisqu’IBM offrait une voie d’évolution vers le haut qui paraissait attrayante…
Pari risqué, pari gagné !
Et le résultat de ce pari risqué dépassa les espérances : immédiatement, des milliers de commandes affluèrent et, pendant deux ans, IBM ne fut capable d’honorer que la moitié des 9000 commandes en attente. Dans les trois années qui suivirent le lancement du 360, les ventes et revenus des locations montèrent à plus de cinq milliards de dollars, IBM ouvrit de nouvelles usines et fit monter ses effectifs jusqu’à employer presque 250 000 personnes dans le monde… Le 360 a été décrit comme “l’ordinateur fait par IBM qui a fait IBM” et c’était tout à fait vrai : ce système a alimenté la croissance de la compagnie pendant trente ans et a défini l’architecture de base des mainframes jusque dans les années 2000 !
Avancée mais pas trop…
Le marketing vantait l’avancée révolutionnaire qu’apportait la nouvelle famille d’ordinateurs de Big Blue pourtant la technologie employée par IBM n’était pas si avancée que cela : les processeurs SLT (Solid Logic Technology) du 360 étaient basés sur un mixte entre la seconde et la troisième génération de l’électronique de l’époque (la première génération d’électronique était basée sur les tubes à vide, la seconde sur les transistors, la troisième sur les circuits intégrés). Pire, la plus grande faiblesse du système 360 résidait dans son système d’exploitation, OS/360, dont le développement avait coûté fort cher et pour un résultat médiocre : les milliers de développeurs avaient consommé plus de $100 millions pour aboutir à un système qui supportait à peine le temps partagé. Il y avait bien des moniteurs de télétraitement dans les premières versions d’OS/360 (BTAM et QTAM, peu utilisés il est vrai), mais, de toute façon, le traitement par lots représentait encore probablement plus de 95% de l’informatique de l’époque !
Le quasi-échec de l’OS/360
Le chef du projet OS/360 était Frederick Brooks et celui-ci expliqua dans un livre célèbre (The Mythical Man-Month) toutes les difficultés de ce projet dantesque : les retards s’accumulaient, les bugs étaient nombreux, le système était très lent et incomplet.
Pour tenter de tenir les délais et les objectifs, le management augmentait continuellement les effectifs : d’une centaine au départ, les programmeurs seront plus de 1000 au pic du projet et on compta plus de 5000 intervenants sur les différentes parties du projet (tests et documentations). Le budget (déjà conséquent au départ) explosa puisqu’IBM dépensa finalement quatre fois plus que prévu pour un OS buggé, lent et incomplet… À la suite du lancement du 360, l’OS demanda encore plusieurs années avant d’être corrigé et complété.
Loi de Brooks : ajouter plus de programmeurs à un projet en retard ne fera que le retarder plus encore…
Ce quasi-fiasco a été très documenté (et pas seulement dans le livre de Brooks), car c’était la première “horror-story” qui concernait le logiciel, une “matière” encore relativement nouvelle à cette époque.
Mais comme le développement de ce projet avait tout de même coûté fort cher, IBM entendait bien rentabiliser un maximum cette opération et pour cela, il n’était pas encore question de miniaturiser les machines ni de faire profiter les clients des formidables avancées réalisées lors de ces années de progrès rapides. En effet, comparé à l’IBM 650 (mis sur le marché en 1954), le 360/30 arrivé dix ans plus tard avait 66 fois plus de mémoire et fonctionnait 43 fois plus vite. Le coût relatif à l’exécution d’une instruction avait diminué d’un facteur 40… Pourtant, les ordinateurs de Big Blue étaient tout de même devenus plus chers : en 1955, un mois de location d’un 650 coûtait $3500 alors qu’en 1965, un mois de location d’un 360/30 revenait à $7000… Mais l’immense majorité des clients n’était pas capable de faire cette comparaison et réclamait toujours plus de puissance, pas des petites machines moins chères.
Epilogue…
IBM ne sut pas refaire ce pari dans les années 70 avec le projet “future system” qui échoua et fut abandonné discrètement. Au lieu de cela, Big Blue fit évoluer de façon incrémental ses mainframes (370 puis 390) et la véritable évolution technique prit un autre chemin avec les minis puis surtout les PC.