De l’arrivée des PC aux “systèmes ouverts”

Les années quatre-vingt débutent par un événement de taille : le lancement de l’IBM PC. L’engagement du spécialiste de l’informatique traditionnelle donne un tout autre poids à la micro-informatique. A-t-on conscience, à cette époque, du bouleversement que cela va provoquer ?

Difficile de dire si l’industrie, au sens large, était consciente des bouleversements à venir mais les acteurs impliqués étaient eux bien conscient de l’importance de l’entrée en lice du N°1 mondial. Apple par exemple a même été jusqu’à acheter une pleine page dans le Wall Street Journal avec pour seul message un grand « Welcome » pour marquer l’arrivée de ce concurrent de taille.

En revanche, il est clair que, à part quelques avant-gardistes comme Bruno Lussato, la plupart des observateurs n’imaginent pas une seconde que les micro-ordinateurs reliés en réseaux pourraient représenter une architecture alternative aux grands mainframes.

Jusque-là, le choix du matériel était déterminant. On choisissait IBM, Digital, Bull ou Sperry. Les notions de réputation du constructeur, de performance du matériel, étaient intimement liées à la notion d’application. Comment l’intérêt pour le logiciel va-t-il naître dans les entreprises ?

En fait, l’intérêt des entreprises a toujours été grand pour le logiciel, c’est pour le progiciel qu’il va naître progressivement. Il faut préciser que pendant une longue période, l’offre de logiciels sur étagère est pratiquement inexistante. Les clients sont habitués au « développement à la maison » (house programming) parce que, de toute façon, il n’y a pas d’autres moyens d’obtenir ce qu’on veut ou même ce dont on a besoin.

Les notions d’applicatifs et d’ordinateurs étaient tellement liées que l’idée même qu’il puisse y avoir des éditeurs de logiciels indépendants était étrangère à la plupart des gens. Ceux qui étaient assez clairvoyants pour avoir envie de se lancer dans ce nouveau business étaient souvent découragés par les professionnels qui n’imaginaient pas de place autrement que pour des acteurs fortement intégrés comme l’étaient alors tous les constructeurs.

IBM va choisir un petit éditeur, auteur d’un Basic, pour le développement du système d’exploitation de son PC. C’est une rupture à la fois avec l’approche traditionnelle (le constructeur met lui-même au point son système d’exploitation) et le début de standardisation autour de CPM de Digital Research. Cela aura-t-il des conséquences sur l’évolution future des logiciels applicatifs ?

Il faut d’abord se souvenir qu’IBM n’a pas choisi cette démarche, en rupture avec la logique (Digital Research, éditeur de CP/M, était l’incontestable leader de marché qui était alors encore assez réduit) et surtout avec ses propres habitudes (le syndrome du « not invented here » était très présent chez Big Blue), par sa seule volonté mais plutôt par accident : les juristes d’IBM ont effrayé les dirigeants de Digital Research avec leur NDA (non disclosure agreement), du coup, l’affaire n’a pu se conclure et ils sont retournés voir Microsoft trop content de récupérer aussi la réalisation du système d’exploitation (alors qu’à l’origine, IBM n’avait approché Microsoft que pour obtenir les droits sur le MS Basic).

Mais, il faut remonter à la genèse du projet PC pour comprendre pourquoi IBM s’est résolu à aller faire son marché auprès des leaders naissants de ce marché embryonnaire de la micro-informatique. IBM voulait investir ce marché dès 1978 mais les différents projets proposés ont été refusés par la direction pour diverses raisons. En 1980, le N°1 mondial n’avait toujours rien à proposer alors que, pendant ce temps, ce marché commençait à prendre de l’ampleur.

C’est donc en « mode panique » que l’état-major d’IBM a dépêché un commando chargé de boucler un projet viable en quelques mois… D’où la démarche de prendre des composants standards (et le processeur chez Intel) et des logiciels du marché.

C’est également cette conception « vite fait, mal fait » à base d’éléments largement disponibles qui rendit le PC si facilement copiable malgré les protections juridiques qu’IBM avait cru suffisantes.

L’autre conséquence, c’est qu’IBM a donné involontairement un large crédit à ses « fournisseurs » et ainsi a permis l’essor d’une catégorie d’acteurs qui, auparavant, n’existait presque pas : les éditeurs de logiciels. Les PC ont été copiés et vendus à très large échelle et les clients ont commencé à s’habituer à acheter des logiciels sur étagères, d’abord pour les PC mais la suite était facile à prévoir.

Assez rapidement, les utilisateurs vont d’abord « acheter un logiciel ». Un PC, c’est surtout Word et Multiplan. Un peu plus tard, un Macintosh, ce sera Mac Write et Excel. Ce qui semble clair dans le domaine, jeune, de la micro-informatique, a-t-il des répercussions dans le domaine de lamini-informatique, à l’époque exclusivement propriétaire ?

Dans un premier temps, pratiquement pas. Ce n’est que très progressivement, par le biais des L4G (comme Progress) et des SGBDR (comme Oracle) que les minis et d’abord les Vax de DEC ont commencé à connaître une offre logicielle un peu plus étoffée.

D’ailleurs, le discours de ces éditeurs (avec Oracle comme porte-drapeau) était précisément de se libérer de l’emprise des constructeurs grâce à leurs produits qui étaient naturellement multiplates-formes. En effet, un éditeur indépendant avait forcément besoin de « porter » son produit sur les différents minis disponibles à l’époque afin d’élargir son marché. Les portages étaient de qualité très inégale mais la couverture était quasiment totale.

On peut dire, en quelque sorte, que les éditeurs ont donné l’exemple d’abord par leur politique commerciale. Petit à petit, l’idée qu’on pouvait être indépendant des plates-formes matérielles à fait son chemin, on a même fini par appeler cela les « systèmes ouverts »…

Ce contenu a été publié dans Anecdotes IT. Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *