
Autres articles de la série:- Historique des relais
- L'histoire des ordinateurs électroniques
- Histoire du transistor
- Histoire d'Internet
Les tout premiers ordinateurs électroniques étaient des appareils uniques conçus à des fins de recherche. Mais après leur arrivée sur le marché, les organisations les ont rapidement intégrées dans une culture informatique existante - dans laquelle toutes les données et tous les processus étaient présentés comme des piles de
cartes perforées .
Herman Hollerith a développé le premier tabulateur, capable de lire et de compter des données basées sur des trous dans des cartes en papier, pour le recensement des États-Unis à la fin du XIXe siècle. Au milieu du siècle suivant, une ménagerie très hétéroclite de descendants de cette machine a pénétré de grandes entreprises et des organisations gouvernementales à travers le monde. Leur langue commune était une carte composée de plusieurs colonnes, où chaque colonne représentait (généralement) un chiffre qui pouvait être perforé à l'une des dix positions indiquant des nombres de 0 à 9.
Pour le poinçonnage des données d'entrée dans les cartes, aucun appareil complexe n'était nécessaire, et ce processus pourrait être réparti entre plusieurs bureaux de l'organisation qui a généré ces données. Lorsque les données devaient être traitées - par exemple, pour calculer les revenus du rapport trimestriel du service commercial - les cartes concernées pouvaient être amenées au centre de données et mises en file d'attente pour le traitement par des machines appropriées qui émettaient un ensemble de données de sortie sur les cartes ou l'imprimaient sur papier. Autour des machines centrales de traitement - tabulateurs et calculatrices - des périphériques se pressaient pour perforer, copier, trier et interpréter les cartes.
IBM 285 Tab, un périphérique de carte perforée populaire dans les années 30 et 40.Dans la seconde moitié des années 50, presque tous les ordinateurs travaillaient sur un tel schéma de «traitement par lots». Du point de vue d'un utilisateur final typique du service commercial, peu de choses ont changé. Vous avez apporté une pile de cartes perforées pour le traitement et avez reçu une impression ou une autre pile de cartes perforées à la suite de votre travail. Et dans le processus, les cartes se sont transformées des trous dans le papier en signaux électroniques et vice versa, mais vous ne vous en souciez pas beaucoup. IBM a dominé l'industrie des cartes perforées et est resté l'une des forces dominantes dans le domaine des ordinateurs électroniques, principalement en raison de communications bien établies et d'une large gamme d'équipements périphériques. Ils ont simplement remplacé les onglets mécaniques et les calculatrices du client par des machines de traitement des données plus rapides et plus flexibles.
Set pour le traitement des cartes perforées IBM 704. Au premier plan, une fille travaille avec un lecteur.Ce système de traitement de cartes perforées a fonctionné à merveille pendant des décennies et n'a pas décliné - bien au contraire. Et pourtant, à la fin des années 1950, la sous-culture marginale des chercheurs en informatique a commencé à faire valoir que tout ce flux de travail devait être modifié - ils ont déclaré que les ordinateurs étaient mieux utilisés de manière interactive. Au lieu de lui laisser une tâche et de venir ensuite pour des résultats, l'utilisateur doit communiquer directement avec la machine et utiliser ses capacités sur demande. Dans Capital, Marx a décrit comment les machines industrielles - que les gens viennent de démarrer - remplaçaient des outils que les gens contrôlaient directement. Cependant, les ordinateurs ont commencé à exister sous la forme de machines. Et seulement plus tard, certains de leurs utilisateurs les ont convertis en outils.
Et cette modification ne s'est pas produite dans les centres de données - comme le United States Census Bureau, la compagnie d'assurance MetLife ou United States Steel Corporation (toutes ces sociétés ont été parmi les premières à acheter UNIVAC, l'un des premiers ordinateurs commerciaux disponibles). Il est peu probable qu'une organisation dans laquelle un salaire hebdomadaire est considéré comme le moyen le plus efficace et le plus fiable veuille que quelqu'un viole ce traitement en jouant avec un ordinateur. La valeur de pouvoir s'asseoir à la console et simplement essayer l'un ou l'autre sur un ordinateur était plus claire pour les scientifiques et les ingénieurs qui voulaient étudier le problème, y accéder sous différents angles jusqu'à ce que son point faible soit découvert, et basculer rapidement entre les pensées et les actions.
Par conséquent, de telles idées sont nées de chercheurs. Cependant, l'argent pour payer une telle utilisation inutile de l'ordinateur n'est pas venu des chefs de leurs départements. Une nouvelle sous-culture (on pourrait même dire un culte) du travail interactif avec les ordinateurs est née d'un partenariat productif entre l'armée américaine et les universités d'élite. Cette coopération mutuellement bénéfique a commencé pendant la Seconde Guerre mondiale. Les armes nucléaires, les radars et autres armes magiques ont enseigné aux dirigeants militaires que les activités apparemment obscures des scientifiques peuvent être d'une importance incroyable pour les militaires. Cette interaction commode a existé pendant environ une génération, puis s'est effondrée dans les bouleversements politiques d'une autre guerre, au Vietnam. Mais à cette époque, les scientifiques américains avaient accès à d'énormes sommes d'argent, presque personne ne les touchait et ils pouvaient faire presque tout ce qui pouvait même être connecté à distance avec la défense nationale.
La justification des ordinateurs interactifs a commencé avec une bombe.
Tourbillon et SAGE
Le 29 août 1949, l'équipe de recherche soviétique a mené avec succès le
premier test d'armes nucléaires sur le
site d'essai de Semipalatinsk . Trois jours plus tard, un avion de reconnaissance américain lors d'un vol au-dessus de la partie nord de l'océan Pacifique a découvert des traces de matières radioactives dans l'atmosphère laissées par ce test. L'URSS a obtenu une bombe, et leurs rivaux américains l'ont appris. La situation tendue entre les deux superpuissances persiste depuis plus d'un an depuis que l'URSS a coupé les routes terrestres vers les zones contrôlées à l'ouest de Berlin en réponse aux plans visant à redonner à l'Allemagne son ancienne grandeur économique.
Le blocus prit fin au printemps 1949, dans une situation désespérée en raison de l'opération massive entreprise par l'Occident pour soutenir la ville depuis les airs. La tension s'est quelque peu apaisée. Cependant, les généraux américains ne pouvaient ignorer l'existence d'une force potentiellement hostile qui avait accès à des armes nucléaires, en particulier compte tenu de la taille et de la portée sans cesse croissantes des bombardiers stratégiques. Les États-Unis avaient créé une chaîne de stations radar de détection d'avions sur les rives de l'Atlantique et du Pacifique pendant la Seconde Guerre mondiale. Cependant, ils utilisaient une technologie dépassée, ne couvraient pas les approches nordiques au Canada et n'étaient pas reliés par un système central de coordination de la défense aérienne.
Pour rectifier la situation, l'Air Force (unité militaire américaine indépendante depuis 1947) a convoqué un comité d'ingénierie de défense aérienne (ADSEC). Il est resté dans l'histoire comme le «comité de la vallée», nommé en l'honneur du président, George Valley. Il était un physicien du MIT, un vétéran du groupe radar de recherche militaire Rad Lab, après que la guerre se soit transformée en laboratoire de recherche en électronique (RLE). Le comité étudia cette question pendant un an et Valley publia son rapport final en octobre 1950.
On pourrait supposer qu'un tel rapport se révélerait être un méli-mélo ennuyeux de travail de bureau et se terminerait par une proposition soigneusement exprimée et conservatrice. Au lieu de cela, le rapport s'est avéré être un exemple intéressant d'argumentation créative et contenait un plan d'action radical et risqué. C'est un mérite évident d'un autre professeur du MIT,
Norbert Wiener , qui a soutenu que l'étude des êtres vivants et des machines peut être combinée en une seule discipline de
cybernétique . Valley et ses co-auteurs ont commencé avec l'hypothèse que le système de défense aérienne est un organisme vivant, et non métaphoriquement, mais en réalité. Les stations radar servent d'organes sensoriels, les intercepteurs et les fusées sont les effecteurs par lesquels elle interagit avec le monde. Ils travaillent sous le contrôle d'un réalisateur qui utilise les informations des sens pour prendre des décisions sur les actions nécessaires. Ils ont en outre fait valoir qu'un directeur composé uniquement de personnes ne pourrait pas arrêter des centaines d'avions en approche sur des millions de kilomètres carrés en quelques minutes, de sorte que le plus grand nombre de fonctions de directeur devait être automatisé.
La conclusion la plus inhabituelle est qu'il serait préférable d'automatiser les administrateurs à l'aide d'ordinateurs électroniques numériques, qui peuvent prendre certaines décisions humaines sur eux-mêmes: analyse des menaces entrantes, diriger les armes contre ces menaces (compter les taux d'interception et les transférer aux combattants), et peut-être même développer une stratégie pour des formes de réponse optimales. Il n'était alors pas du tout évident que les ordinateurs étaient adaptés à une telle fin. Aux États-Unis à cette époque, il y avait exactement trois ordinateurs électroniques fonctionnels, et aucun d'entre eux ne correspondait étroitement aux exigences de fiabilité du système militaire dont dépendent des millions de vies. C'était juste un gestionnaire de nombres très rapide et programmable.
Néanmoins, Wally avait des raisons de croire à la possibilité de créer un ordinateur numérique en temps réel, car il connaissait le projet
Whirlwind . Cela a commencé pendant la guerre dans le laboratoire d'asservissement du MIT sous la supervision du jeune étudiant diplômé Jay Forrester. Son objectif initial était de créer un simulateur de vol polyvalent qui pourrait être reconfiguré pour prendre en charge de nouveaux modèles d'avion sans avoir à reconstruire à chaque fois à partir de zéro. Un collègue a convaincu Forrester que son simulateur devrait utiliser l'électronique numérique pour traiter les paramètres d'entrée du pilote et émettre des états de sortie pour les instruments. Progressivement, la tentative de créer un ordinateur numérique à grande vitesse a dépassé et éclipsé l'objectif initial. Le simulateur de vol a été oublié, et la guerre qui a donné lieu à son développement s'est terminée depuis longtemps, et le comité des inspecteurs du Département de la recherche navale (ONR) a été progressivement déçu par le projet en raison du budget en constante augmentation et de la date de fin constamment repoussée. En 1950, ONR a considérablement réduit le budget de Forrester pour l'année prochaine, avec l'intention de couvrir complètement le projet par la suite.
Cependant, pour George Valley Whirlwind était une révélation. Le véritable ordinateur Whirlwind était encore loin d'être opérationnel. Cependant, après cela, un ordinateur devrait apparaître, ce qui n'est pas seulement un esprit sans corps. Il s'agit d'un ordinateur avec des organes sensoriels et des effecteurs. L'organisme. Forrester a déjà envisagé d'étendre le projet au système principal du centre de commandement et de contrôle militaire du pays. Pour les experts en informatique de l'ONR, qui considéraient les ordinateurs comme adaptés uniquement à la résolution de problèmes mathématiques, cette approche semblait grandiose et absurde. Cependant, c'était précisément cette idée que Valley recherchait, et il est apparu juste à temps pour sauver Whirlwind du néant.
Malgré de grandes ambitions (et peut-être grâce à elles), le rapport Valley a convaincu le commandement de l'Air Force, et ils ont lancé un nouveau programme de recherche et développement approfondi pour comprendre d'abord comment créer un système de défense aérienne basé sur des ordinateurs numériques, puis le construire. L'Air Force a commencé à collaborer avec le MIT pour mener des recherches fondamentales - c'était un choix naturel, compte tenu de la présence du Whirlwind Institute et du RLE, ainsi que de l'histoire d'une coopération réussie dans le domaine de la défense aérienne, depuis l'époque de Rad Lab et de la Seconde Guerre mondiale. Ils ont appelé la nouvelle initiative «le projet Lincoln» et construit un nouveau laboratoire de recherche Lincoln à Hansky Field, à 25 km au nord-ouest de Cambridge.
L'Air Force a appelé le projet informatisé de défense aérienne
SAGE - une abréviation étrange typique pour un projet militaire, qui signifie «environnement terrestre semi-automatique». Whirlwind devait devenir un ordinateur de test, prouvant la viabilité du concept avant d'entrer dans la production à grande échelle d'équipements et sa mise en œuvre - cette responsabilité a été confiée à IBM. La version de travail de l'ordinateur Whirlwind, qu'IBM était censé faire, a reçu le nom beaucoup moins mémorable AN / FSQ-7 («Équipement spécial fixe de l'armée et de la marine» - par rapport à cet acronyme, SAGE semble assez précis).
Au moment où l'Air Force a élaboré des plans complets pour le système SAGE en 1954, il comprenait divers systèmes radar, bases aériennes, armes de défense aérienne - et tout cela était contrôlé par vingt-trois centres de contrôle, des bunkers massifs conçus pour résister aux bombardements. Pour remplir ces centres, IBM devrait fournir quarante-six ordinateurs, et non vingt-trois, ce qui coûterait aux militaires plusieurs milliards de dollars. En effet, la société utilisait toujours des lampes électroniques dans les circuits logiques, et elles brûlaient comme des ampoules à incandescence. N'importe laquelle des dizaines de milliers de lampes d'un ordinateur en fonctionnement peut tomber en panne à tout moment. De toute évidence, il serait inacceptable de laisser tout le secteur de l'espace aérien du pays sans protection pendant que les techniciens effectuent les réparations, vous avez donc dû garder une voiture de rechange à portée de main.
Centre de contrôle SAGE à la base aérienne de Grand Forks dans le Dakota du Nord avec deux ordinateurs AN / FSQ-7Dans chaque centre de contrôle, des dizaines d'opérateurs ont travaillé devant les écrans à rayons cathodiques, chacun suivant une partie du secteur de l'espace aérien.

L'ordinateur a surveillé toutes les menaces aéroportées potentielles et les a tracées sous forme de traces sur l'écran. L'opérateur pouvait utiliser un pistolet léger pour afficher des informations supplémentaires sur la piste et émettre des commandes pour le système de protection, et l'ordinateur les a transformées en un message imprimé pour une batterie de fusée accessible ou une base de l'armée de l'air.

Virus d'interactivité
Étant donné la nature du système SAGE - interaction directe en temps réel entre les opérateurs humains et un ordinateur numérique avec des CRT utilisant des pistolets légers et une console - il n'est pas surprenant que le laboratoire de Lincoln ait nourri la première cohorte de partisans de l'interaction interactive avec les ordinateurs. Toute la culture informatique du laboratoire existait dans une bulle isolée, coupée des normes de traitement par lots qui se sont développées dans le monde commercial. Les chercheurs ont utilisé Whirlwind et ses descendants, réservant des périodes de temps pour lesquelles ils ont reçu un accès exclusif à l'ordinateur. Ils sont habitués à utiliser les mains, les yeux et les oreilles pour une interaction directe via des commutateurs, des claviers, des écrans brillants et même un haut-parleur, sans intermédiaires en papier.
Cette étrange et petite sous-culture s'est propagée au monde extérieur comme un virus, par contact physique direct. Et si vous le considérez comme un virus, alors un patient nul devrait être appelé un jeune homme nommé Wesley Clark. Clark a quitté ses études supérieures en physique à Berkeley en 1949 pour devenir technicien dans une usine d'armes nucléaires. Cependant, il n'aimait pas le travail. Après avoir lu plusieurs articles de magazines informatiques, il a commencé à chercher une opportunité de pénétrer ce qui semblait être un domaine nouveau et intéressant, plein de potentiel inexploité. Il a appris à recruter des informaticiens au laboratoire de Lincoln grâce à une publicité et, en 1951, il a déménagé sur la côte est pour travailler avec Forrester, qui était déjà devenu le chef du laboratoire informatique numérique.
Wesley Clark exhibant son ordinateur biomédical LINC, 1962Clark a rejoint le groupe des développements avancés, une subdivision du laboratoire, personnifiant un état de coopération détendu entre l'armée et les universités de l'époque. Bien que techniquement une subdivision fasse partie de l'univers du laboratoire Lincoln, cette équipe existait dans une bulle à l'intérieur d'une autre bulle, était isolée des besoins quotidiens du projet SAGE et était libre de choisir n'importe quelle direction informatique qui pourrait au moins d'une manière ou d'une autre être liée à la défense aérienne. Leur tâche principale au début des années 1950 était de créer un ordinateur de test de mémoire (MTC), conçu pour démontrer la viabilité d'une nouvelle méthode hautement efficace et fiable de stockage d'informations numériques,
la mémoire à noyau magnétique , qui remplacerait la mémoire capricieuse à base de CRT utilisée dans Whirlwind.
Étant donné que MTC n'avait pas d'autres utilisateurs que ses créateurs, Clark avait un accès complet à l'ordinateur pendant de nombreuses heures par jour. Clark s'est intéressé au mélange cybernétique à la mode de la physique, de la physiologie et de la théorie de l'information, grâce à son collègue Belmont Farley, qui a parlé avec un groupe de biophysiciens de RLE à Cambridge. Clark et Farley ont passé de longues heures derrière le MTC, créant des modèles logiciels de réseaux de neurones pour étudier les propriétés des systèmes auto-organisés. De ces expériences, Clark a commencé à extraire certains principes axiomatiques de la technologie informatique dont il n'a jamais dérogé. En particulier, il a commencé à croire que "la commodité de l'utilisateur est le facteur de conception le plus important".
En 1955, Clark s'est associé à Ken Olsen, l'un des développeurs de MTC, pour planifier un nouvel ordinateur qui pourrait ouvrir la voie à la prochaine génération de systèmes de contrôle militaire.
En utilisant une très grande mémoire sur des noyaux magnétiques pour le stockage et des transistors pour travailler avec la logique, il pourrait être rendu beaucoup plus compact, fiable et puissant que Whirlwind. Initialement, ils ont proposé une conception appelée TX-1 (ordinateur transistorisé et expérimental, "ordinateur expérimental à transistor" - beaucoup plus clairement que AN / FSQ-7). Cependant, la direction du laboratoire Lincoln a rejeté le projet comme trop coûteux et risqué. Les transistors sont apparus sur le marché quelques années auparavant et très peu d'ordinateurs ont été créés sur la logique des transistors. Clark et Olsen sont donc revenus avec une version plus petite de la machine, la TX-0, qui a été approuvée.
TX-0La fonctionnalité de l'ordinateur TX-0 en tant qu'outil de gestion des bases militaires, même si c'était un prétexte pour sa création, intéressait moins Clark que la capacité de promouvoir ses idées sur la conception informatique. De son point de vue, l'interactivité des ordinateurs a cessé d'être une réalité dans les laboratoires de Lincoln et est devenue une nouvelle norme - la bonne façon de créer et d'utiliser des ordinateurs, en particulier pour le travail scientifique. Il a donné à TX-0 l'accès aux biophysiciens du MIT, bien que leur travail n'ait rien à voir avec la défense aérienne, et leur ait permis d'utiliser l'affichage visuel de la machine pour analyser les électroencéphalogrammes des études du sommeil. Et personne ne s'y est opposé.Le TX-0 a eu suffisamment de succès pour que les laboratoires de Lincoln approuvent l'ordinateur à transistors à part entière TX-2 avec une énorme mémoire de deux millions de bits en 1956. Le projet prendra deux ans. Après cela, le virus va sortir du laboratoire. À la fin du TX-2, les laboratoires n'auront plus besoin d'un prototype précoce, ils ont donc accepté de louer le TX-0 à Cambridge pour le RLE. Il a été installé au deuxième étage, au-dessus du centre de traitement par lots. Et il a immédiatement infecté les ordinateurs et les professeurs du campus du MIT, qui ont commencé à se battre pendant des périodes où ils pouvaient obtenir le contrôle total de l'ordinateur.Il était déjà clair qu'il était presque impossible d'écrire correctement un programme informatique la première fois. De plus, les chercheurs qui étudient souvent un nouveau problème au début ne comprennent pas du tout quel doit être le bon comportement. Et pour obtenir les résultats du centre de données, j'ai dû attendre des heures, voire jusqu'au lendemain. Pour des dizaines de nouveaux programmeurs du campus, la possibilité de monter les escaliers, de trouver l'erreur et de la corriger immédiatement, d'essayer une nouvelle approche et de voir immédiatement les résultats améliorés, a été une véritable révélation. Certains ont utilisé leur temps sur TX-0 pour travailler sur des projets scientifiques ou d'ingénierie sérieux, mais la joie de l'interactivité a également attiré des âmes plus ludiques. Un étudiant a écrit un programme d'édition de texte, qu'il a appelé une "machine à écrire coûteuse".Un autre a emboîté le pas et a écrit une «calculatrice de bureau coûteuse», qu'il utilisait pour faire ses devoirs sur l'analyse numérique.
Ivan Sutherland présente son programme Sketchpad sur TX-2Pendant ce temps, Ken Olsen et un autre ingénieur de TX-0, Harlan Anderson, agacé par la lenteur des progrès du projet TX-2, ont décidé de lancer un ordinateur interactif à petite échelle sur le marché pour les scientifiques et les ingénieurs. Ils ont quitté le laboratoire pour fonder Digital Equipment Corporation, équipé un bureau dans une ancienne usine textile sur la rivière Assabet, à dix miles à l'ouest de Lincoln. Leur premier ordinateur PDP-1 (sorti en 1961) était essentiellement un clone TX-0.TX-0 et Digital Equipment Corporation ont commencé à diffuser la bonne nouvelle d’une nouvelle façon d’utiliser les ordinateurs en dehors du laboratoire de Lincoln. Et pourtant, jusqu'à présent, le virus d'interactivité a été localisé géographiquement, dans l'est du Massachusetts. Mais cela allait bientôt changer.Quoi d'autre à lire:
- Lars Heide, Les systèmes de cartes perforées et l'explosion des premières informations, 1880-1945 (2009)
- Joseph November, Informatique biomédicale (2012)
- Kent C. Redmond et Thomas M. Smith, De tourbillon à MITRE (2000)
- M. Mitchell Waldrop, La machine à rêver (2001)