Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Celluon - clavier virtuel

Souvenirs d'un informaticien.

D'hier à aujourd'hui (I)

Les personnes nées après la naissance de la micro-informatique (1975) et même la génération d'avant se demandent parfois comment nos parents travaillaient sans informatique; l'ordinateur personnel n'existait pas, il n'y avait pas d'Internet pas plus que de téléphone portable ou de baladeur. La vidéo était anecdotique et limitée à la toute jeune télévision. Personne n'utilisait les technologies multimédia qui étaient encore à l'état de concept dans les laboratoires de recherches. Ce n'est que durant les "Golden sixtees" que le numérique fit son entrée dans les grandes entreprises mais il faudra encore patienter une génération pour que le public puisse en bénéficier.

Né à une époque où l'informatique était enseignée dans des écoles supérieures souvent uniquement équipées de mainframe IBM et entrait timidement dans les grandes sociétés au prix d'une location fort onéreuse, en tant qu'informaticien j'ai eu l'occasion de vivre de l'intérieur l'évolution prodigieuse et la véritable révolution culturelle que furent les inventions du micro-ordinateur, des réseaux et d'Internet ainsi que de tous les systèmes périphériques, les logiciels bureautiques, les bases de données, les langages de programmation et les moyens de sureté qui les accompagnent.

Il m'a semblé intéressant de revenir sur les origines de ces outils que nous utilisons tous les jours dans la plus grande indifférence pour apprécier tout le chemin parcouru depuis le siècle dernier.

Le concept de machine de Turing

L'informatique telle que nous la concevons aujourd'hui avec sa partie matérielle et logicielle (hardware, software) et toute sa logique programmée distribuée entre le centre de calcul et sa mémoire, remonte à 1936.

Alan Turing, licencié en mathématiques de l'Université d'Oxford publia dans l'Oxford Journal un article fondamental intitulé "On Computable Numbers, with an Application to the Entscheidungsproblem", c'est-à-dire portant "sur une méthode calculable appliquée au problème de la décision". Dans cet article Turing répond aux problèmes de logiques soulevés par David Hilbert au cours de la conférence du Congrès International des Mathématiciens qui s'était tenue à Bologne en 1928.

Génie autant que visionnaire, Turing proposa une méthode ambitieuse basée sur un langage formalisé pour décider si une proposition (une relation), est démontrable ou non, vraie ou fausse, principe qui est à la base de toute prise de décision ainsi que nous l'expliquerons à propos de la philosophie des sciences.

Alan Turing lors de son admission à l'Université de Princeton en 1936, à 24 ans, où il obtiendra son PhD en 1938.

Alors âgé de 24 ans, Turing répondit par la négative en prouvant qu'un langage formalisé n'est pas réduit à quelques axiomes et signes primitifs (conclusion à laquelle était déjà parvenu Alonzo Church la même année d'une toute autre manière).

C'est également en 1936 que Turing entama son doctorat à l'Université de Princeton où il travailla justement pendant deux ans sous la direction d'Alonzo Church, son directeur de thèse.

En mai 1938, Turing présenta sa thèse dans laquelle il répondit aux problèmes de logique soulevés par Hilbert et Church en décrivant la logique de l'hypercalcul, un concept où des "machines de Turing" (l'expression fut inventée par Church) sont associées à des "oracles" dans le but d'analyser des problèmes qui ne peuvent pas être résolus de manière algorithmique (par un processus systématique d'étapes conduisant au résultat).

Mais à cette époque, son travail resta purement théorique et Turing ne s'intéressa pas encore à la création d'une machine (un ordinateur dans son sens moderne).

Son doctorat en poche, Turing déclina l'offre de John von Neumann de travailler sur un projet d'ordinateur et retourna en Angleterre travailler sur le décryptage des messages de la machine allemande Enigma. Puis en 1945, il mis au point une machine de cryptage ce qui le conduisit à s'intéresser à l'électronique.

Ayant lu l'article de von Neumann sur la conception d'un ordinateur et les méthodes de programmation, Turing rédigea finalement ce que beaucoup considèrent comme le premier projet détaillé d'ordinateur : ACE (Automatic Computing Engine). Il ne vit toutefois le jour qu'en 1951. On y reviendra.

En 1948, son ancien professeur Max Newman contacta Turing afin qu'il dirige son laboratoire de calcul à l'Université de Manchester. Turing s'occupa de la programmation de l'ordinateur Manchester Mark I (voir plus bas).

Malheureusement, dans le contexte sociopolitique d'alors, sa vie privée (son homosexualité) allait bientôt compromettre son avenir et Alan Turing fut condamné pour sa "dépravation" et se suicida en 1954. Il avait 42 ans.

En 2009, au nom du  Gouvernement britannique, Gordon Brown s'excusa publiquement d'avoir "été inhumain envers Alan Turing".

Qu'avons-nous hérité d'Alan Turing ?

En résumé, Turing imagina la "technologie de l'information" et par là même provoqua un changement de paradigme majeur de toute la société qui dorénavant allait construire des ordinateurs toujours plus rapides et plus puissants pour nous aider au quotidien pour finir par ne plus pouvoir se passer de l'informatique, avec tout ce que cela sous-entend comme risques et opportunités.

En 1938, Thomas Watson, Jr, président d'IBM fit une prédiction : "Si les 25 dernières années peuvent servir de critère, alors IBM est prédestiné à se développer au cours des 25 prochaines années jusqu'à surpasser nos plus tendres rêves... Les 25 prochaines années seront les plus productives de notre vie. Et ce que nous ferons sera déterminé par ce que nous aurons produit durant cette période. Et c'est la raison pour laquelle j'affirme que notre époque a un merveilleux avenir, et je vous presse à faire de votre mieux...".

Et de fait, au cours de la génération qui suivit, IBM élabora des changements technologiques majeurs en dotant notamment ses ordinateurs de tubes à vide (les "lampes") puis de transistors et de disques durs, et tira profit de Telstar, le premier satellite de télécommunication. On y reviendra.

1944, Harvard Mark I

Encouragés par les travaux de John von Neumann sur l'architecture de l'ordinateur qu'il imagina constitué d'une unité arithmétique et logique (l'UAL comprenant le CPU), d'une unité de contrôle, d'une mémoire et d'entrées/sorties, et forts de l'expérience d'Alan Turing, en 1944, à la demande de l'Université d'Harvard, Howard H.Aiken d'IBM et son équipe d'ingénieurs fabriquèrent le tout premier ordinateur : l'ASCC (Automatic Sequence Controlled Calculator), surnommé "Harvard Mark I".

Fidèle au projet d'Alan Turing, cette machine était totalement automatisée, c'est un ordinateur qui, une fois le programme démarré ne demandait plus aucune intervention humaine jusqu'au résultat.

De plus, bien que constitué de 765000 composants élecromécaniques (comprenant des engrenages, des arbes mécaniques, des interrupteurs et des relais et des centaines de kilomètres de câbles), il était très fiable.

Comme on le devine sur la photographie ci-dessous, il était également très grand avec une longueur de 16 m, 2.4 m de hauteur et 0.5 m de profondeur pour un poids d'environ 4.5 tonnes.

L'axe de rotation de 15 m du système électromécanique était mis en route grâce à un moteur électrique de 4 kW.

L'Harvard Mark I d'IBM en 1944.

La caractéristique de cet ordinateur est d'avoir séparé physiquement les données des instructions selon l'architecture Harvard développée spécialement pour cette machine : l'unité de calcul (le processeur) est reliée à deux unités spécifiques de mémoires, l'une réservée aux données, l'autre au programme, et transitent chacune par des bus distincts. L'avantage est de pouvoir traiter simultanément les données et les instructions. Ce modèle d'architecture s'oppose toutefois à celle de von Neumann qui sera finalement adoptée dans les années 1950.

Bien que l'architecture Harvard soit en théorie plus rapide que l'architecture von Neumann, sa complexité la rendit finalement peu performante. En effet, sa puissance de calcul restait très limitée. L'Harvard Mark I était capable d'effectuer 3 opérations simples par seconde (addition ou soustraction) mais demandait plusieurs dizaines de secondes voire plus d'une minute pour effecuer des divisions ou calculer un logarithme. Sa programmation était assurée par des cartes perforées lues séquentiellement. Son architecture ne permettait pas d'effectuer de branchement conditionnel si bien que les programmes exigeant des boucles logiques étaient très longs.

Ce modèle sera suivi par les Harvard Mark II (1947), Mark III (1949) et Mark IV (1952), ce dernier utilisant des semi-conducteurs et une mémoire centrale magnétique à tore de ferrite. Ils seront utilisés par la Navy et l'USAF.

1946, ENIAC

John von Neumann en collaboration avec J.G. Chamey appliquèrent concrètement le concept de "machine de Turing" en inventant le fameux calculateur ENIAC (Electronic Numerical Integrator And Calculator) en 1946. Il fut construit par Wallace J. Eckert et John W. Maulchy (qu'on retrouvera en 1962) et installé à l'Université de Pennsylvanie.

ENIAC occupait une surface de 72 m2, il comprenait près de 19000 tubes à vide (vaccum tube en américain, thermionic valve en anglais), pesait plus de 30 tonnes et consommait 140 kW ! L'horloge d'ENIAC était cadencée à 100 kHz et il effectuait environ 330 opérations par seconde.

Les prémices de l'ordinateur moderne. A gauche, une étonnante publicité de 1943 pour les bons du Trésor mettant en avant l'effort de guerre et les perspectives de la recherche, notamment de concevoir un "Notebook", le concept d'un enregistreur audio et vidéo électronique comprenant 4 tubes à vides imaginé par Bell & Howell. Notons que le français Constantin Senlecq avait déjà proposé l'idée de l'enregistreur vidéo mécanique en 1909. Au centre, le calculateur ENIAC installé à l'Université de Pennsylvanie en 1946. Il comprenait plus de 18000 tubes à vide et pesait plus de 30 tonnes. A droite, le premier transitor avec point de contact développé par les Bell Labs fin 1947.

C'était une machine monotâche mais ENIAC offrait l'avantage de disposer d'une logique opératoire universelle à la place des relais électromécaniques : il disposait d'un langage de programmation. Mais en ce temps là, la programmation s'effectuait en langage binaire.

ENIAC servit essentiellement aux militaires à des fins balistiques pour calculer les tables de tirs des canons et autres fusées, y compris la forme des ogives.

Devant les performances de cette machine, le ministère de la Défense américain voulut qu'on en fabrique en série afin de les installer dans toutes les bases stratégiques. Mais à peine fut-il opérationnel qu'il fut déjà dépassé par la technologie, notamment par les découvertes réalisées par les ingénieurs des Bell Labs et d'IBM.

Compte-tenu des investissements consentis, l'ENIAC traversa malgré tout la décennie et ne fut déclassé qu'en 1955.

1947, premier bug

Le premier "bug". Document U.S.Navy.

Pour l'anecdote, c'est avec la sortie du Harvard Mark II qui fut livré à la Navy en 1947 qu'est né la notion de "bug". Alors que l'ordinateur était en phase de test, le 9 septembre 1947 un insecte (bug en anglais) s'était fait grillé dans les circuits et l'incident fut consigné par le technicien dans le log d'activité avec ce commentaire : "First actual case of bug being found" (premier cas avéré de bug ayant été trouvé) !

Dommage que le mot francisé (bogue) n'ait pas conservé cette référence historique qui en fait toute la poésie.

La même année, le mathématicien et polymate John Von Neumann publia un article dans lequel il décrivit un ordinateur à programme enregistré qu’il baptisa l’EDVAC (Electronic Discrete Variable Automatic Computer). Il servit notamment de base au Whirlwind de l'USAF (voir plus bas).

1948, invention du transitor à point de contact

Entre-temps, les Bell Labs essayaient de trouver une alternative aux tubes à vide qui souffraient de plusieurs défauts. Constitués d'ampoules en verre, ils étaient fragiles, leur production coûtait relativement cher, ils étaient encombrants et consommaient énormément d'énergie dont une grande partie était dissipée sous forme de chaleur.

Des inventeurs avaient bien déposés des brevets de transistors à semi-conducteurs en 1926 et en 1935 mais la technologie basée sur des matériaux comme le tellurium, le vanadium ou l'iodine ne permettait pas d'atteindre des facteurs d'amplification du courant très important.

En revanche, en 1931, l'Anglais A.H.Wilson de l'Emmanuel College de Cambridge avait publié un article dans lequel il décrivit mathématiquement les propriétés électroniques des semi-conducteurs au silicium, mais reconnaissait qu'il ne pouvait démontrer leur efficacité, la technologie d'alors ne le permettant pas.

Il faudra attendre 16 ans pour que le 23 décembre 1947, John Bardeen, Walter Brattain et William Shockley des Bell Labs mirent au point le premier transistor avec point de contact (point-contact transistor, voir photo ci-dessus) et déposent le brevet en 1948. Ses caractéristiques seront publiées dans la "Physical Review" quelques mois plus tard.

En pleine Guerre froide, l'invention sera immédiatement communiquée aux militaires qui financeront les Bell Labs afin qu'ils fabriquent le premier ordinateur à transistors. On y reviendra.

1948, IBM SSEC

La concurrence ne resta pas inactive. Début 1948, Wallace J. Eckert d'IBM termina la mise au point du SSEC (Selective Sequence Electronic Calculator), un ordinateur beaucoup plus rapide que le Mark I. L'accès aux régistres mémoires prenait entre 1 et 20 millisecondes et sa logique arithmétique fut modifiée à partir du multiplicateur électronique IBM 603.

Deux machines utilisées en 1948, notamment par l'USAF et ses contractants. A gauche l'IBM SSEC, au centre un gros-plan sur sa console (située au fond de l'image de gauche, derrière les deux lecteurs de cartes). A droite, le Whirlwind. Notons que la salle du SSEC comprenait au milieu trois colonnes de soutien qui ont été soigneusement effacées pour la presse comme le révèle cette autre image non retouchée fournie par l'Université de Columbia. Les personnages sont Bill McClelland debout devant l'unité de lookup à gauche, Betsy Stewart à la console et un ingénieur à droite, devant un tableau contenant notamment un générateur de signaux utilisé à des fins de test.

Le SSEC était capable d'effectuer 9000 multiplications de nombres décimaux en une seconde. Il fut le dernier et aussi le plus gros ordinateur électromécanique et de ce fait il consolida définitivement le savoir-faire et la réputation d'IBM.

Cet ordinateur permit aux universités et aux observatoires nationaux de calculer toutes les tables d'éphémérides de la Lune et des planètes (le calcul de chaque position de la Lune tenant compte de 1600 termes prenait 7 minutes), tables qui furent utilisées par la suite comme base de calcul par la NASA durant le programme Apollo. Le SSEC fut opérationnel jusqu'en 1952.

1948, Whirlwind

En 1948, Jay Forrester, Ken Olson et leur équipe du MIT développèrent l'ordinateur Whirlwind à la demande de l'USAF qui cherchait un ordinateur rapide, capable de suivre des avions en temps-réel.

L'un des calculateurs du réseau SAGE de l'USAF.

Whirlwind est le premier système dans lequel la mémoire jusqu'alors faite de tubes électrostatiques est remplacée par des mémoires à tore de ferrite, basées sur des anneaux en céramique ferromagnétique. Ces mémoires vives (RAM) étaient deux fois plus rapides que les tubes, offraient un débit quatre fois plus élevé et nécessitaient des maintenances deux fois moins nombreuses que les tubes.

Ce modèle servit de prototype aux ordinateurs AN/FSQ-7 qui furent installés dans les bunkers de l'USAF et reliés au réseau SAGE (Semi Automated Ground Environment) du Ministère de la Défense américain qui fut opérationnel en 1963.

Chaque ordinateur était capable de suivre 400 avions simultanément. Le réseau SAGE ne sera démantelé qu'en 1984.

En août 1949, Wallace J. Eckert et John W. Mauchly fondent leur propre entreprise Eckert-Mauchly Computer Corporation et fabriquèrent le BINAC, un ordinateur bi-processeur pour l'USAF. L'avantage de son architecture est d'effectuer les mêmes opérations sur les deux processeurs en parallèle, une manière d'augmenter la fiabilité des calculs.

1949, EDSAC

En mai 1949, Maurice V.Wilkes et son équipe de l'Université de Cambridge fabriquèrent l'EDSAC (Electronic Delay Storage Automatic Compter) sur base de l'EDVAC imaginé par John von Neumann. L'EDSAC disposait d'une horloge cadencée à 500 kHz et d'une mémoire 1 KB (512 bytes de 17 bits). Il consommait environ 12 kW.

Comme les ordinateurs modernes, l'EDSAC disposait d'une mémoire digitale. A l'époque, il s'agissait d'une mémoire à ligne retardée au mercure (delay line) qui offrait l'avantage de pouvoir être rafraîchie mais contrairement aux mémoires RAM modernes, cette mémoire à ligne retardée était à accès séquentiel.

Comme on le voit sur les photos ci-dessous, la mémoire était composée de 32 racks d'environ 1 mètre de long contenant chacun 250 tubes à vide (valves) soit 3000 tubes à vide au total. L'EDSAC pouvait gérer 32 nombres de 17 bits dont le signe de parité.

L'EDSAC était lent mais plus fiable que l'architecture à tubes. Programmable au moyen de bandes de papier, il fut notamment utilisé pour calculer les nombres premiers et les racines carrées. En 1951, on répertoria 87 subroutines dédiées aux calculs en virgule flottante. Cet ordinateur fut également utilisé par les chercheurs britanniques ce qui permit à trois d'entre eux de gagner des prix Nobel. Ce modèle fut remplace par l'EDSAC 2 en 1958.

En 2011, la Computer Conservation Society annonça qu'elle allait construire une réplique de l'EDSAC grâce à l'aide de vétérans qui avaient participé à la fabrication du modèle original dont l'anglais James Barr. Le problème est que les plans de construction rédigés par Wilkes n'ont pas été conservés et que le modèle original subit plusieurs modifications durant sa construction. Il a donc fallut plusieurs mois aux vétérans pour simplement comprendre à partir des photographies comme les 3000 tubes étaient organisés. Aujourd'hui, le projet est terminé et cette réplique est installée au Musée National de l'Informatique (TNMOC) de Milton Keynes (80 km au nord de Londres).

A gauche, l'EDSAC construit en 1949 et à droite sa réplique construite entre 2011 et 2015 par James Barr et son équipe de vétérans. La machine est exposé au Musée National de l'Informatique (TNMOC) de Milton Keynes (GB). Documents Computer Laboratory/U.Cambridge et BBC.

1949, Manchester et Ferranti Mark I

En 1949, l'équipe d'IBM dirigée par Frederic Colland Williams (l'inventeur du "tube de Williams", un type de mémoire constituée d'un tube cathodique utilisé dans les ordinateurs à architecture de von Neumann) et Max Newman de l'Université de Manchester fabriquèrent le Manchester "Mark I", le premier calculateur analytique électromécanique. Comprenant 2500 tubes à vide et pesant plusieurs dizaines de tonnes, il occupait toute une salle. Mais cette machine n'était pas encore programmable.

Le Mark I était équipé d'un nouveau type de mémoire constituée de tubes cathodiques pouvant stocker un seul état logique soit 1 bit par tube. Il disposait de 1024 tubes cathodiques et pouvait effectuer 3 opérations sur 23 chiffres par seconde, assez proche de la machine analytique de Babbage imaginée en 1833 (comprenant déjà une unité centrale, une mémoire, un registre et des cartes performées en entré).

La particularité du Mark I était d'utiliser un registre d'index, ce qui permettait d'accélérer la lecture séquentielle du programme.

Mais son emploi était lent et complexe. Pour réaliser une opération, il fallait allumer un point sur le tube cathodique. Pour lire le résultat, il fallait mesurer la tension sur son électrode. Les branchements conditionnels n'étaient pas possibles.

Avec 1 KB de mémoire, le calcul de la moindre équation balistique contenant des dizaines de paramètres durait des dizaines de minutes. Néanmoins le Mark I calculait 100 fois plus vite que la plus simple calculatrice moderne.

En 1949, ce modèle servira de prototype à un nouveau calculateur, le Ferranti Mark I, considéré comme le premier ordinateur généraliste commercialisé dans le monde. Il fut livré à l'Université de Manchester en 1951, un mois avant la livraison de l'UNIVAC I au Bureau Census américain (voir plus bas).

Plusieurs brevets du Mark I seront réutilisés dans les IBM 701 et 702 commercialisés à partir de 1972.

1950, invention du langage Assembleur

Jusqu'à présent les programmeurs devaient entrer toutes leurs données et effectuer les calculs en langage binaire, un travail long et pénible, source de beaucoup d'erreurs.

En 1950, Maurice V.Wilkes développa l'Assembleur (Assembly language) qui permet de traduire le code binaire dans un langage codé compréhensible par l'homme (LDA pour Load, etc), ce qui facilite la programmation, y compris la détection des erreurs. Le programme doit ensuite être compilé pour être traduit en langage binaire, le seul compréhensible par la machine.

Aujourd'hui, au grand regret des étudiants, ce langage est toujours enseigné dans les écoles d'informatique, étant considéré comme le langage fondamental de la logique programmable. Son côté abstrait rebute beaucoup d'élèves si bien que ceux qui parviennent à réaliser un programme en Assembleur sont presque assurés d'obtenir leur diplôme, les autres langages de programation n'étant qu'une version enrichie ou plus élaborée de ce langage de deuxième génération.

A télécharger : EMU8086 Original Microprocessor Emulator

1951, ACE

C'est Alan Turing qui élabora le premier véritable projet détaillé d'ordinateur : l'ACE (Automatic Computing Engine).

Le prototype fut fabriqué en 1950 en Angleterre par le National Physical Laboratory (NPL) et livré en 1951 mais sans la participation de Turing qui avait quitté l'institut trois ans plus tôt pour incompatibilité d'humeur.

L'ACE comportait 8000 tubes à vide et utilisait des lignes à retard (un composant électrnique qui retarde le signal électrique) au mercure comme mémoire centrale. Cette mémoire passa d'une capacité de 128 bytes en 1951 à 4 KB en 1954. L'horloge était cadencée à 1 MHz, un record en Grande-Bretagne (l'UNIVAC sorti la même année était cadencé à 2.25 MHz).

L'ACE est le premier calculateur capable d'effectuer des calculs en virgule flottante (par. ex 1234.5 en virgule fixe s'écrit 1.2345x103 en virgule flottante), ce qui permet de gérer beaucoup plus de nombres réels que le système en virgule fixe.

L'une de ses caractéristiques est de ne pas utiliser de circuits dédiés pour calculer les multiplications ou les divisions en virgule fixe : ces opérations étaient programmées, c'est-à-dire exécutées à partir d'un algorithme codé sur des cartes perforées. Cela permit également de facilement programmer l'ACE afin qu'il travaille en virgule flottante, une demande pressante des scientifiques.

La puissance de calcul de l'ACE dépendait de l'emplacement des instructions dans les lignes à retard. Ainsi une simple addition pouvait prendre entre 64 et 1024 microecondes. L'ACE fut déclassé en 1955 et figure aujourd'hui au Science Museum de Londres.

1951, UNIVAC, le symbole de l'informatique

A partir de 1951, Wallace J. Eckert, John W. Mauchly et Douglas Engelbart, l'inventeur de la souris, mirent au point l'ordinateur UNIVAC (Universal Automatic Computer). Leur société deviendra en 1950 une division de Remington Rand qui sera elle-même absorbée par Sperry Corporation qui fusionnera avec Burroughs en 1986 pour devenir Unisys, certaines unités étant reprises par Honeywell.

L'UNIVAC occupait une surface de 35.5 m2. Cadencé à 2.25 MHz, il réalisait 1905 opérations par seconde, pesait 13 tonnes et consommait 125 kW.

Comme nous l'avons expliqué, il n'a pas été le premier ordinateur utilisé à des fins commerciales comme beaucoup l'écrivent mais le second, précédé d'un mois par le Ferranti Mark I d'IBM (voir plus haut). Toutefois, par sa réputation et le nombre de ventes l'UNIVAC n'a pas démérité ce titre.

En 1951, l'UNIVAC fut proposé au prix de 159000$ mais en quelques années son prix atteignit 1.2 à 1.5 millions de dollars, soit plus de 11 millions de dollars actualisés (2016) !

A voir : Billion Dollar Brain - Trailer

mettant en vedette Mickael Caine, Paul Walder et... l'UNIVAC

Quelques photographies des différents modèles d'UNIVAC commercialisés entre 1951 et les années 1970. Les trois premières images concernent l'UNIVAC I (1951-1954), les suivantes sont les modèles transistorisés. La troisième image ci-dessus est une publicité de juillet 1956. Les images ont été corrigées par l'auteur.

Ci-dessus, deux images du modèle transistorisé UNIVAC III de 1962 qui sera par la suite équipé d'un disque dur magnétique, l'UNIVAC 418 II (UNIVAC 1219) de 1964 qui servit également au contrôle de mise à feu des missiles Mk76 et au contrôle radar de l'US Navy. Ci-dessous, deux images de l'UNIVAC 494 (successeur du 492 utilisé par la NASA durant le programme Apollo) et le 9400 sorti vers 1965 et équivalent à l'IBM 360/30.

L'UNIVAC frappa longtemps les esprits car non seulement ce fut le premier ordinateur accessible aux civils mais à la demande de CBS, il prédit avec succès les résultats de l'élection présidentielle de 1952 (l'élection d'Eisenhower) alors que les sondages manuels prédisaient le contraire.

L'UNIVAC symbolisa toute la puissance de l'informatique et depuis cette idée n'a plus jamais quitté cette technologie. Il figura dans "Objectif Lune" de Hergé et dans le film "Billion Dollar Brain" (Un cerveau d'un milliards de dollars) de Ken Russel sorti en 1967.

L'UNIVAC sera d'abord utilisé par le Bureau Census (mars 1951) qui établit toutes les statistiques de la population américaine, puis par le Pentagone (USAF) et le service de cartographie de l'U.S. Army (1952), l'Université de New York pour la Commission de l'Energie Atomique et l'U.S. Navy (1953), par Remington Rand, General Electric, Metropolitan Life et Du Pont (1954), etc.

Il sera remplacé par l'UNIVAC 1004 en 1955 puis par l'UNIVAC Solid State, transistorisé, en 1958, en réponse à l'IBM 650. Remington Rand puis Sperry produiront 53 modèles de l'UNIVAC jusqu'en 1983.

A partir de 1953, les ingénieurs eurent à leur disposition l'IBM 650 transistorisé qui fut produit en grande série et disposant du premier disque dur. On y reviendra. Cet ordinateur était vendu 200000$ soit plus de 1.7 millions de dollars actualisés (2016). Il pouvait également se louer pour 3200$ par mois (28000$ actualisés).

La même année, General Electric fabriqua l'OARAC qui fut notamment utilisé par les militaires de l'USAF.

Encombrante, lourde, instable et énergivore, la technologie mécanique ou électronique de ces ordinateurs sera remplacée par les semi-conducteurs.

La console de l'IBM 650 (gauche), l'OARAC (centre) et le TRADIC embarqué à bord d'un B-52.

1954, TRADIC, le premier ordinateur transistorisé

L'invention du transistor à semi-conducteur représentait une importante avancée technologique car elle permettait dorénavant de traiter les signaux numériquement avec tous les avantages que cela procure dans le traitement de l'information.

En 1954, les transistors seront utilisés dans les premières radios portatives, les fameux "transistors" de Texas Instruments, qui seront commercialisés en Europe à partir de 1955 et qui feront le succès d'une petite société japonaise appelée... Sony, le début d'une grande aventure.

En janvier 1954, grâce au support des militaires, les prolifiques ingénieurs des Bell Labs mirent au point le premier ordinateur transistorisé, le TRADIC (TRAnsistorized DIgital Computer). Dès ce jour, les "lampes" seront considérées comme des pièces d'archéologie industrielle et reléguées sur les étages des musées ou dans la vitrine de quelques amateurs nostalgiques !

Avec un volume d'environ un mètre cube, TRADIC était 300 fois plus petit que l'ENIAC. Il comprenait environ 800 transistors et 10000 cristaux au germanium (rectificateurs).

TRADIC pouvait effectuer 1 million d'opérations par seconde, il était aussi rapide que les systèmes à lampes les plus performants, mais avec le gros avantage de consommer moins de 100 watts.

Seul inconvénient, un seul transistor coûtait 20$, soit 20 fois le prix d'un tube à vide. Mais selon la loi de Moore indiquant que le prix des composants électroniques diminue de moitié tous les deux ans, il était certain que le prix du prochain ordinateur diminuerait, ce n'était qu'une question de temps.

TRADIC sera utilisé par l'armée américaine et installé à bord des bombardiers B-52.

A gauche, l'IBM 704. Le prix de sa programmation en Assembleur et de sa maintenance coûtaient plus chers que le prix du matériel. Pour résoudre ce problème, en 1954 IBM donna carte blanche à John Backus qui développa sur cette machine le langage "Speedcoding" qui deviendra le FORTRAN. La première release fut distribuée en 1957. Au centre, le TRADIC sorti en 1954 fut le premier ordinateur transistorisé. H.Felker (avec un genoux au sol, manipulant un panneau de plug-in) et J.R. Harris (debout et manipulant les switches) sont à la programmation. Tout le système occupe environ un mètre cube et peut effectuer 1 million d'opérations par seconde. A droite, le mainframe NCR 304 commercialisé en 1957 fut l'un des premiers ordinateurs industriels totalement transistorisé. Il fut notamment utilisé par l'US Marine Corps et les banques.

L'invention du transistor allait inciter les chercheurs à développer des ordinateurs plus compacts et plus performants. Le mainframe NCR 304 transistorisé fut commercialisé en 1957. IBM ne sortira son modèle 1401 transistorisé qu'en 1959.

1956, RAMAC et le premier disque dur

A une époque où les données étaient sauvegardées sur des cartes perforées ou des bandes magnétiques, en 1956 l'IBM 305 RAMAC fut le premier ordinateur (toujours à tubes à vide) équipé d'un disque dur.

Il fallait trois personnes pour utiliser le RAMAC : une personne gérant les processeurs, une pour le stockage des données et une autre pour gérer la mémoire RAM à coeur de ferrite.

Transport d'un disque dur IBM 305 RAMAC de... 5 MB en 1956. A droite, son embarquement dans un avion de la PanAm en 1956.

Le disque dur du RAMAC était fixe et formait un cylindre d'environ 70 cm de haut et 65 cm de diamètre contenant 40 plateaux de 24" de diamètre d'une capacité totale équivalente à 3.75 MB (5 millions de bytes de 6 bits souvent assimilée à un disque de 5 MB). Le système tournait à la vitesse de 100 rpm et pouvait accéder à un enregistrement en 600 ms. La technologie RAMAC deviendra un standard.

En 1957, un disque dur RAMAC 305 de 350 plateaux se louait 3200$ par mois soit 27000$ actualisés (2016) et pouvait s'acheter pour environ 160000$ soit 1.3 millions de dollars actualisés (2016) !

Al Hoagland qui travailla 28 ans chez IBM et participa à la fabrication des disques durs du RAMAC se rappelle que "rien ne pouvait rivaliser avec un disque dur, mais je ne pouvais pas imaginer jusqu'où cela irait".

En 1961, IBM mis au point l'unité de stockage IBM 1301 qui offrit 13 fois plus d'espace disque que celui du RAMAC soit environ 50 MB et dont les plateaux tournaient à 1800 rpm. Ce disque dur était équipé de têtes flottantes aérodynamiques qui survolaient la surface des plateaux à une distance de 250 micro inches (1 micro inch = un millionième de inch) soit 0.00635 mm - 1/8e de l'épaisseur d'un cheveu -, soit cinq fois plus près et 18 fois plus vite que les têtes de lecture du disque dur du RAMAC !

En 1963, IBM fabriqua le premier disque dur amovible, le 1311. De la taille d'un lave-vaisselle, il contenait six plateaux de 14" d'une capacité totale de 2.6 MB. Cette unité sera commercialisée jusqu'au milieu des années 1970.

Il faudra attendre l'IBM S/370 pour que la capacité des disques durs atteignent 100 MB (disque dur IBM 3330 commercialisé en 1970) et les dépasse ensuite largement.

En 1979, Al Shugart qui aida IBM à fabriquer ses disques durs, fonda la société Seagate Technology Corp., qui devint le plus grand fabricant de disques durs dans le monde.

La technologie se perfectionnant, les disques durs furent bientôt placés dans des racks superposés puis leur taille se réduisit progressivement et leur densité augmenta.

A gauche, l'IBM 305 RAMAC en 1956. On distingue le disque dur de 40 plateaux de 24" derrière l'opératrice. Au centre, le professeur Al Hoagland travailla 28 ans chez IBM et participa à la fabrication du disque dur RAMAC sur lequel il est appuyé. Récemment il participa à leur restauration. A sa droite, une publicité pour l'IBM RAMAC et son disque dur de "5 millions de caractères" (de 6 bits soit d'une capacité de 3.75 MB). A l'extrême droite, 55 ans séparent ces deux technologies. Cette personne tient entre ses doigts le plateau d'un disque dur Seagate Barracuda XT de 3 TB de 3.25" (avec son boîtier contenant son contrôleur) en technologie SMR fabriqué en 2011 comparé aux plateaux du RAMAC de 3.75 MB de 1956. Documents IBM, ComputerWorld et ZDNet.

C'est en 1980 que Seagate inventa le disque dur à petit "facteur de forme", terme qui définit des spécifications techniques et physiques d'un matériel, en proposant le disque dur ST506 de 5.25" qui offrait la même capacité que celui du RAMAC mais en version 8 bits, soit 5 MB. Il pouvait lire ou écrire plus de 12 documents simultanément en moins d'une seconde. En 1987, un disque dur de 10 MB valait encore 3398$ comme le montre cette publicité.

Et le progrès continua. En 2011, Seagate fabriqua un disque dur de 3 TB de 3.25" en technologie SMR (Barracuda), puis de 5 TB en 2013 et envisage atteindre 20 TB vers 2020. A l'avenir on pourait atteindre une capacité de 200 TB par cm2 voire davantage.

L'évolution de la bande magnétique : DDS et LTO

Parallèlement au disque dur qui allait connaître un prodigieux avenir, le lecteur de bande magnétique (lecteur de tape) inventé pour l'UNIVAC en 1951 continua à se vendre, IBM ayant quasiment le monopole des lecteurs. C'est l'époque de ces fameuses grandes armoires vitrées contenant deux bandes magnétiques de 10.5" de diamètre.

Bien que l'accès était séquentiel et donc très lent (plusieurs dizaines de secondes pour localiser un enregistrement aléatoire), la bande magnétique offrait l'avantage de pouvoir stocker digitalement entre 5 MB et 140 MB de données par bande (selon la densité variant entre 800 et 6240 cpi), près de 1 GB de données en ligne avec 7 lecteurs, soit bien plus que les disques durs de l'époque pour un prix d'achat nettement inférieur.

Les bandes magnétiques ont progressievement diminué de taille (7", 5", 3.5" etc) tout en augmentant de capacité et furent utilisées sur les mainframes et les mini-ordinateurs jusqu'à la fin des années 1980.

Les tapes et autres DDS survivront mais au format de cassette et de cartouche magnétiques numériques grâce aux technologies DAT et LTO.

En 2013, Oracle annonça un record de capacité de 8.5 TB non compressés sur une cartouche LTO offrant un débit de 252 MB/sec, soit à peine 3 fois inférieur à celui des disques durs de LaCie ou de Seagate. Leur fonction est toutefois réduite à celle de l'archivage.

En 2014, Sony et IBM ont annoncé qu'ils étaient capables d'enregistrer 148 gigabits sur un 1" de bande magnétique grâce à une nouvelle technologie de film mince de nanoparticules (7 nm) sous vide, portant la capacité réelle des tapes à 185 TB, soit 75 fois la capacité d'une cassette LTO-6 Ultrium !

Pourquoi continuer à utiliser des bandes magnétiques ? Malgré les apparences, la bande magnétique est un support plus fiable que le disque dur ou le CD-ROM. En effet, à l'inverse d'un disque dur, une bande magnétique peut tomber par terre sans endommager le support magnétique. Au pire, on rebobine la bande magnétique dans un nouvelle cassette et elle est à nouveau opérationnelle, alors que le disque dur sera crashé et irrémédiablement inutilisable. Quant au CD-ROM et autre Blu-ray, le format disparaîtra à terme et avec lui tous les lecteurs capables de lire l'information.

Preuve de la fiabilité des bandes magnétiques, en 2017 le data center du CERN avait archivé ses 200 pétabytes de données sur tapes qu'il gardait en ligne et à la disposition des physiciens pendant 20 ans.

Demain et après demain la bande magnétique existera donc toujours à côté des disques SSD. Toutes ces technologies ne disparaîtront sans doute que le jour où la future mémoire ADN sera commercialisée et deviendra un support voire un consommable aussi banal que nos accessoires actuels.

1957, création de l'ordinateur TX0 et du FORTRAN

En 1957, le laboratoire de Lincoln créa le TX0. C'était un ordinateur très performant disposant d'un processeur de 18 bits, de 3500 transistors et d'une mémoire de 64 KB. Il consommait 1000 watts. Il disposait des entrées-sorties habituelles, clavier, écran et imprimante complétées par un stylo optique. Rendez-vous compte du progrès réalisé en 10 ans, depuis l'ENIAC...

La même année IBM distribua la première version du FORTRAN (FORmula TRANslator), le nouveau langage de programmation universel créé en 1954 par John Backus sur un IBM 704. Le FORTRAN est toujours utilisé aujourd'hui, y compris sur les superordinateurs.

1958, premier circuit intégré monolithique

Un an après la fondation de la société Fairchild Semiconductor qui allait fabriquer ce qu'ils appellaient des "circuits unitaires", les futurs circuits intégrés à la base des microprocesseurs et les chips de mémoire, en 1958, Jack Kilby de Texas Instruments fabriqua le premier circuit intégré monolithique.

Le circuit intégré - le fameux composant ayant plus d'une dizaine de "pattes" ou pins, cf. ce chip Intel 8088 -, est au coeur de tous les appareils électroniques. Il s'agit d'un circuit électronique de faible dimension tracé à l'échelle microscopique (technologie HMOS, VLSI, etc) sur une fine couche de silicium. Il se compose d'un semi-conducteur contenant des composants actifs et passifs (résistance, capacités) scellés hermétiquement. La connexion entre les composants est établie en soudant de fins fils à leurs extrémités. Organisé en circuits imprimés, les circuits intégrés assurent toute les fonctions logiques de l'ordinateur et représentent en quelque sorte leur "intelligence".

A gauche, le premier circuit intégré monolithique fabriqué par Texas Instruments en 1958. On distingue ses "pattes" ou pins qui permettent de le relier aux autres composants. A droite, le premier transistor à circuit intégré mis au point par Robert Noyce de Fairchild Semiconductor en 1961.

J.Kilby recevra le Prix Nobel de Physique en 2000. Son invention allait révolution la micro-électronique et l'informatique; le micro-ordinateur était en vue.

L'IBM 1401, le DEC PDP-1 et la loi de Moore

En 1959, IBM sortit son nouveau mini-ordinateur transistorisé IBM 1401 dédié aux travaux administratifs et aux traitements de données. Vendu 2 millions de dollars, la première version disposait de... 1.4 KB de mémoire rapidement étendue à 4 KB et exceptionnellement et sur devis à... 32 KB ! Le catalogue d'options comprenait un lecteur de cartes perforées, une imprimante de 600 lignes/minute et un lecteur de bandes de 5" aussi volumineux qu'une armoire !

A son époque, l'IBM 1401 était à la pointe du progrès et pourtant il n'effectuait que 4000 opérations par seconde. Aujourd'hui, le smartphone le plus simple tient dans la main et est 250000 fois plus rapide ! A lui seul, l'IBM 1401 symbolise toute la loi de Moore.

Son concurrent Digital Equipment Corporation (DEC) venait de sortir son premier mini-ordinateur, le PDP-1 dédié aux travaux scientifiques et d'ingénierie et déjà équipé d'un crayon optique. Il disposait d'un processeur de 18 bits contenant 2700 transistors et 3000 diodes. Sa vitesse d'horloge était de 200 kHz. Il disposait d'une extension mémoire de 64 KB et d'options similaires au modèle d'IBM. Mais à la différence de l'IBM, le PDP-1 effectuait entre 100000 et 200000 opérations par seconde.

En 1959, les ordinateurs les plus puissants étaient de la génération des IBM 1401 (à gauche dont voici la légende), DEC PDP-1 (à droite) et autre NCR 304. Ils utilisaient des cartes perforées et des bandes magnétiques. Il s'agissait des premiers mini-ordinateurs, ceux qui aideront notamment la NASA à développer son programme spatial et qu'on retrouva dans les grandes universités, les sociétés à la pointe du progrès, dans les banques et sociétés d'assurance ainsi que quelques écoles d'ingénieurs. Ces systèmes étaient déjà beaucoup plus compacts et modulables que leurs monstrueux ancêtres qu'étaient les ENIAC, IBM SSEC et autre UNIVAC I.

A cette époque, les commerciaux d'IBM ou de DEC ne parlaient même pas de vitesse CPU avec les clients mais essayaient avant tout de comprendre leurs besoins et insistaient sur la qualité du support technique, bien nécessaire à cette époque (et qui l'est toujours pour les mainframes).

Rappelons qu'à la fin des années 1950, les ingénieurs de la toute jeune NASA et de l'ARPA travaillaient toujours avec des règles à calculer (cela dit vingt ans plus tard, le candidat ingénieur que j'étais apprenait encore son maniement !) et la plupart utilisaient encore des calculateurs IBM à lampes à peine capables de réaliser 9000 opérations par seconde et qui surchauffaient rapidement affichant des résultats inattendus.

Dans les années 1960 sont apparus les premiers mainframes IBM de la série 360. Le premier IBM 360-30 était équipé d'un lecteur de cartes perforées et d'un lecteur de cassettes magnétiques. C'est à partir du modèle S/360-50 dont voici une photographie prise en 1964 que tous les mainframes IBM furent équipés de disques durs amovibles.

C'est avec de tels ordinateurs et surtout les UNIVAC 490, 492 et DEC PDP que la NASA développa le programme spatial et se mit dans l'idée vers 1962 avec le vol de John Glenn de placer des versions miniaturisées à bord des capsules spatiales. On peut donc dire que l'astronautique participa au développement de la micro-informatique.

Prochain chapitre

1961, naissance du courrier électronique

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


Back to:

HOME

Copyright & FAQ