Internet-Verlauf: Interaktivität entdecken




Die allerersten elektronischen Computer waren einzigartige Geräte, die für Forschungszwecke entwickelt wurden. Nachdem sie auf den Markt gekommen waren, haben Unternehmen sie schnell in eine bestehende Datenverarbeitungskultur integriert, in der alle Daten und Prozesse als Stapel von Lochkarten präsentiert wurden .

Herman Hollerith entwickelte für die Volkszählung der Vereinigten Staaten Ende des 19. Jahrhunderts den ersten Tabulator, der Daten basierend auf Löchern in Papierkarten lesen und zählen kann. Bis zur Mitte des nächsten Jahrhunderts drang eine sehr bunte Menge von Nachkommen dieser Maschine in große Unternehmen und Regierungsorganisationen auf der ganzen Welt ein. Ihre gemeinsame Sprache war eine Karte, die aus mehreren Spalten bestand, wobei jede Spalte (normalerweise) eine Ziffer darstellte, die an einer von zehn Positionen perforiert werden konnte, die Zahlen von 0 bis 9 bezeichnen.

Zum Stanzen von Eingabedaten in die Karten waren keine komplexen Geräte erforderlich, und dieser Prozess konnte auf mehrere Büros in der Organisation verteilt werden, die diese Daten generiert haben. Wenn die Daten verarbeitet werden mussten, um beispielsweise die Einnahmen für den Quartalsbericht der Verkaufsabteilung zu berechnen, konnten die entsprechenden Karten in das Rechenzentrum gebracht und zur Verarbeitung durch geeignete Maschinen in die Warteschlange gestellt werden, die einen Satz von Ausgabedaten auf die Karten ausgaben oder auf Papier druckten. Rund um die zentralen Verarbeitungsmaschinen - Tabulatoren und Taschenrechner - drängten sich Peripheriegeräte zum Stanzen, Kopieren, Sortieren und Interpretieren von Karten.


IBM 285 Tab, ein beliebtes Lochkartengerät in den 1930er und 40er Jahren.

In der zweiten Hälfte der 1950er Jahre arbeiteten fast alle Computer an einem solchen „Stapelverarbeitungsschema“. Aus Sicht eines typischen Endbenutzers aus der Verkaufsabteilung hat sich wenig geändert. Sie haben einen Stapel Lochkarten zur Verarbeitung mitgebracht und als Ergebnis Ihrer Arbeit einen Ausdruck oder einen anderen Stapel Lochkarten erhalten. Dabei verwandelten sich die Karten aus Löchern im Papier in elektronische Signale und umgekehrt, aber es war Ihnen egal. IBM dominierte die Lochkartenindustrie und blieb eine der dominierenden Kräfte auf dem Gebiet der elektronischen Computer, was zum größten Teil auf eine gut etablierte Kommunikation und eine breite Palette von Peripheriegeräten zurückzuführen ist. Sie ersetzten einfach die mechanischen Registerkarten und Taschenrechner des Kunden durch schnellere und flexiblere Datenverarbeitungsmaschinen.


Set für die Verarbeitung von Lochkarten IBM 704. Im Vordergrund arbeitet ein Mädchen mit einem Lesegerät.

Dieses Lochkartenverarbeitungssystem hat jahrzehntelang wunderbar funktioniert und ist nicht zurückgegangen - ganz im Gegenteil. In den späten 1950er Jahren begann die marginale Subkultur der Computerforscher zu argumentieren, dass dieser gesamte Workflow geändert werden müsse - sie gaben an, dass Computer am besten interaktiv genutzt werden könnten. Anstatt ihm eine Aufgabe zu überlassen und dann Ergebnisse zu erzielen, sollte der Benutzer direkt mit der Maschine kommunizieren und deren Funktionen auf Anfrage nutzen. In Capital beschrieb Marx, wie Industriemaschinen - die Menschen gerade in Betrieb nehmen - Werkzeuge ersetzten, die von Menschen direkt gesteuert wurden. Computer existierten jedoch in Form von Maschinen. Und erst später haben einige ihrer Benutzer sie in Tools umgewandelt.

Und diese Änderung trat nicht in Rechenzentren auf - wie dem United States Census Bureau, der Versicherungsgesellschaft MetLife oder der United States Steel Corporation (alle diese Unternehmen gehörten zu den ersten, die UNIVAC, einen der ersten kommerziellen Computer, kauften). Es ist unwahrscheinlich, dass eine Organisation, in der ein wöchentliches Gehalt als die effektivste und zuverlässigste Methode angesehen wird, möchte, dass jemand diese Verarbeitung verletzt, während er mit einem Computer spielt. Der Wert, an der Konsole sitzen und einfach das eine oder andere am Computer ausprobieren zu können, war Wissenschaftlern und Ingenieuren klarer, die das Problem untersuchen, es aus verschiedenen Blickwinkeln betrachten wollten, bis seine Schwachstelle entdeckt wurde, und schnell zwischen Gedanken und Handlungen wechseln wollten.

Daher entstanden solche Ideen von Forschern. Das Geld für eine derart verschwenderische Nutzung des Computers stammte jedoch nicht von den Abteilungsleitern. Eine neue Subkultur (man könnte sogar sagen Kult) der interaktiven Arbeit mit Computern entstand aus einer produktiven Partnerschaft zwischen US-Militär und Eliteuniversitäten. Diese für beide Seiten vorteilhafte Zusammenarbeit begann im Zweiten Weltkrieg. Atomwaffen, Radar und andere magische Waffen lehrten die Militärführung, dass die scheinbar obskuren Aktivitäten von Wissenschaftlern für das Militär von unglaublicher Bedeutung sein können. Diese bequeme Interaktion bestand für ungefähr eine Generation und fiel dann in den politischen Umwälzungen eines anderen Krieges in Vietnam auseinander. Zu dieser Zeit hatten amerikanische Wissenschaftler Zugang zu riesigen Geldsummen, fast niemand berührte sie, und sie konnten fast alles tun, was auch nur aus der Ferne mit der nationalen Verteidigung in Verbindung gebracht werden konnte.

Die Rechtfertigung interaktiver Computer begann mit einer Bombe.

Wirbelwind und Salbei


Am 29. August 1949 führte das sowjetische Forscherteam am Teststandort Semipalatinsk erfolgreich den ersten Atomwaffentest durch . Drei Tage später entdeckte ein US-Aufklärungsflugzeug während eines Fluges über den nördlichen Teil des Pazifischen Ozeans Spuren von radioaktivem Material in der Atmosphäre, die bei diesem Test zurückgeblieben waren. Die UdSSR bekam eine Bombe und ihre amerikanischen Rivalen erfuhren davon. Die angespannte Situation zwischen den beiden Supermächten besteht seit mehr als einem Jahr, seit die UdSSR als Reaktion auf die Pläne, Deutschland wieder zu seiner früheren wirtschaftlichen Größe zu bringen, die Bodenwege in die westlich kontrollierten Gebiete Berlins unterbrochen hat.

Die Blockade endete im Frühjahr 1949 in einer hoffnungslosen Situation aufgrund der massiven Operation des Westens zur Unterstützung der Stadt aus der Luft. Die Spannung ließ etwas nach. Amerikanische Generäle konnten jedoch die Existenz einer potenziell feindlichen Streitmacht, die Zugang zu Atomwaffen hatte, nicht ignorieren, insbesondere angesichts der ständig wachsenden Größe und Reichweite strategischer Bomber. In den USA wurde während des Zweiten Weltkriegs eine Kette von Radarstationen zur Erkennung von Flugzeugen an den Ufern des Atlantiks und des Pazifiks eingerichtet. Sie verwendeten jedoch veraltete Technologie, deckten keine nördlichen Anflüge in ganz Kanada ab und waren nicht durch ein zentrales Koordinierungssystem für die Luftverteidigung verbunden.

Um die Situation zu korrigieren, berief die Luftwaffe (seit 1947 eine unabhängige US-Militäreinheit) ein Air Defense Engineering Committee (ADSEC) ein. Es wurde in der Geschichte als „Valley Committee“ bezeichnet, das nach dem Vorsitzenden George Valley benannt wurde. Er war ein Physiker vom MIT, ein Veteran der Militärforschungsradargruppe Rad Lab, nachdem sich der Krieg in ein Elektronikforschungslabor (RLE) verwandelt hatte. Das Komitee untersuchte dieses Thema ein Jahr lang und Valley veröffentlichte seinen Abschlussbericht im Oktober 1950.

Man könnte davon ausgehen, dass sich ein solcher Bericht als langweiliger Mischmasch der Büroarbeit herausstellen und mit einem sorgfältig formulierten und konservativen Vorschlag enden würde. Stattdessen erwies sich der Bericht als interessantes Beispiel für kreative Argumentation und enthielt einen radikalen und riskanten Aktionsplan. Dies ist ein offensichtlicher Verdienst eines anderen Professors des MIT, Norbert Wiener , der argumentierte, dass das Studium von Lebewesen und Maschinen in einer einzigen Disziplin der Kybernetik kombiniert werden kann. Valley und seine Co-Autoren gingen davon aus, dass das Luftverteidigungssystem ein lebender Organismus ist, und zwar nicht metaphorisch, sondern in Wirklichkeit. Radarstationen dienen als Sinnesorgane, Abfangjäger und Raketen sind die Effektoren, durch die sie mit der Welt interagieren. Sie arbeiten unter der Kontrolle eines Direktors, der Informationen aus den Sinnen verwendet, um Entscheidungen über die erforderlichen Maßnahmen zu treffen. Sie argumentierten weiter, dass ein Direktor, der nur aus Menschen besteht, nicht in der Lage sein würde, Hunderte von sich nähernden Flugzeugen auf Millionen Quadratkilometern in wenigen Minuten zu stoppen, so dass so viele Funktionen wie möglich automatisiert werden müssten.

Die ungewöhnlichste ihrer Schlussfolgerungen ist, dass es am besten ist, Direktoren durch digitale elektronische Computer zu automatisieren, die einige der menschlichen Entscheidungen selbst treffen können: Analyse eingehender Bedrohungen, Richten von Waffen gegen diese Bedrohungen (Zählen der Abfangraten und Übertragen dieser auf Kämpfer) und vielleicht sogar eine Strategie für optimale Antwortformen entwickeln. Dann war es überhaupt nicht offensichtlich, dass Computer für einen solchen Zweck geeignet waren. In allen USA gab es zu dieser Zeit genau drei funktionierende elektronische Computer, und keiner von ihnen entsprach genau den Zuverlässigkeitsanforderungen für das Militärsystem, von dem Millionen von Menschenleben abhängen. Es war einfach ein sehr schneller und programmierbarer Nummernhandler.

Trotzdem hatte Wally Grund, an die Möglichkeit zu glauben, einen digitalen Echtzeitcomputer zu erstellen, da er über das Whirlwind- Projekt Bescheid wusste. Es begann während des Krieges im MIT-Servolabor unter der Aufsicht des jungen Doktoranden Jay Forrester. Sein ursprüngliches Ziel war es, einen universellen Flugsimulator zu entwickeln, der neu konfiguriert werden kann, um neue Flugzeugmodelle zu unterstützen, ohne jedes Mal von Grund auf neu erstellen zu müssen. Ein Kollege überzeugte Forrester, dass sein Simulator digitale Elektronik verwenden sollte, um Eingangsparameter vom Piloten zu verarbeiten und Ausgangszustände für die Instrumente auszugeben. Allmählich wuchs der Versuch, einen digitalen Hochgeschwindigkeitscomputer zu schaffen, über das ursprüngliche Ziel hinaus und überschattete es. Der Flugsimulator wurde vergessen, und der Krieg, der zu seiner Entwicklung führte, endete vor langer Zeit, und das Inspektionskomitee der Abteilung für Marineforschung (ONR) war aufgrund des ständig wachsenden Budgets und des ständig verschobenen Enddatums allmählich von dem Projekt enttäuscht. 1950 hat ONR das Budget von Forrester für das nächste Jahr kritisch gekürzt, um das Projekt danach vollständig abzudecken.

Für George Valley war Whirlwind jedoch eine Offenbarung. Der echte Whirlwind-Computer war noch lange nicht betriebsbereit. Danach sollte jedoch ein Computer erscheinen, der nicht nur ein Geist ohne Körper ist. Dies ist ein Computer mit Sinnesorganen und Effektoren. Organismus. Forrester hat bereits Pläne erwogen, das Projekt auf das Hauptsystem des militärischen Kommando- und Kontrollzentrums des Landes auszudehnen. Für Computerexperten von ONR, die Computer nur zur Lösung mathematischer Probleme für geeignet hielten, schien dieser Ansatz grandios und absurd. Es war jedoch genau diese Idee, nach der Valley suchte, und er erschien gerade rechtzeitig, um Whirlwind vor dem Nichts zu retten.

Trotz großer Ambitionen (und vielleicht auch dank ihnen) überzeugte der Valley-Bericht das Kommando der Luftwaffe und sie starteten ein umfangreiches neues Forschungs- und Entwicklungsprogramm, um zunächst zu verstehen, wie ein Luftverteidigungssystem auf der Basis digitaler Computer erstellt und dann tatsächlich gebaut werden kann. Die Luftwaffe begann mit dem MIT zusammenzuarbeiten, um Grundlagenforschung zu betreiben - angesichts der Anwesenheit des Whirlwind Institute und der RLE sowie der Geschichte der erfolgreichen Zusammenarbeit im Bereich der Luftverteidigung seit den Tagen von Rad Lab und dem Zweiten Weltkrieg war dies eine natürliche Wahl. Sie nannten die neue Initiative „das Lincoln-Projekt“ und bauten ein neues Lincoln-Forschungslabor in Hansky Field, 25 km nordwestlich von Cambridge.

Die Luftwaffe nannte das computergestützte Luftverteidigungsprojekt SAGE - eine typische seltsame Abkürzung für ein Militärprojekt, was "halbautomatische Bodenumgebung" bedeutet. Whirlwind sollte ein Testcomputer werden, der die Realisierbarkeit des Konzepts unter Beweis stellt, bevor die Produktion von Geräten und deren Implementierung in vollem Umfang aufgenommen wird - diese Verantwortung wurde IBM übertragen. Die Arbeitsversion des Whirlwind-Computers, die IBM eigentlich ausführen sollte, erhielt den weniger einprägsamen Namen AN / FSQ-7 ("Feste Spezialausrüstung für Armee und Marine" - im Vergleich zu diesem Akronym sieht SAGE ziemlich genau aus).

Als die Luftwaffe 1954 vollständige Pläne für das SAGE-System aufstellte, bestand es aus verschiedenen Radarsystemen, Luftwaffenstützpunkten und Luftverteidigungswaffen - und all dies wurde von 23 Kontrollzentren kontrolliert, massiven Bunkern, die den Bombenangriffen standhalten sollten. Um diese Zentren zu füllen, müsste IBM sechsundvierzig Computer liefern, nicht dreiundzwanzig, was das Militär viele Milliarden Dollar kosten würde. Dies liegt daran, dass das Unternehmen immer noch elektronische Lampen in Logikschaltungen verwendete und diese wie Glühlampen durchbrannten. Jede der Zehntausende von Lampen in einem laufenden Computer kann jederzeit ausfallen. Offensichtlich wäre es inakzeptabel, den gesamten Bereich des Luftraums des Landes ungeschützt zu lassen, während die Techniker Reparaturen durchführen. Sie mussten also ein Ersatzauto bereithalten.


SAGE Control Center auf der Grand Forks Air Force Base in North Dakota mit zwei AN / FSQ-7-Computern

In jedem Kontrollzentrum arbeiteten Dutzende von Bedienern vor den Kathodenstrahlschirmen, von denen jeder einen Teil des Luftraumsektors verfolgte.



Der Computer überwachte mögliche Bedrohungen aus der Luft und zeichnete sie als Spuren auf den Bildschirm. Der Bediener könnte eine leichte Pistole verwenden, um zusätzliche Informationen auf dem Weg anzuzeigen und Befehle für das Schutzsystem auszugeben, und der Computer wandelte sie in eine gedruckte Nachricht für eine zugängliche Raketenbatterie oder einen Luftwaffenstützpunkt um.



Interaktivitätsvirus


Angesichts der Natur des SAGE-Systems - direkte Echtzeitinteraktion zwischen menschlichen Bedienern und einem digitalen Computer mit CRTs unter Verwendung von Lichtpistolen und einer Konsole - ist es nicht verwunderlich, dass Lincolns Labor die erste Gruppe von Befürwortern der interaktiven Interaktion mit Computern pflegte. Die gesamte Computerkultur des Labors existierte in einer isolierten Blase, die von den in der Geschäftswelt entwickelten Normen der Stapelverarbeitung abgeschnitten war. Die Forscher nutzten Whirlwind und seine Nachkommen und reservierten Zeiträume, für die sie exklusiven Zugriff auf den Computer erhielten. Sie sind es gewohnt, Hände, Augen und Ohren für die direkte Interaktion über Schalter, Tastaturen, hell leuchtende Bildschirme und sogar einen Lautsprecher ohne Papiervermittler zu verwenden.

Diese seltsame und kleine Subkultur verbreitete sich wie ein Virus durch direkten physischen Kontakt nach außen. Und wenn Sie es als Virus betrachten, sollte ein Nullpatient ein junger Mann namens Wesley Clark genannt werden. Clark verließ 1949 die Physikschule in Berkeley, um Techniker in einer Atomwaffenfabrik zu werden. Die Arbeit gefiel ihm jedoch nicht. Nachdem er mehrere Artikel aus Computermagazinen gelesen hatte, suchte er nach einer Möglichkeit, in ein scheinbar neues und interessantes Feld mit ungenutztem Potenzial einzudringen. Er lernte aus einer Anzeige, wie man Computerspezialisten für Lincolns Labor rekrutiert, und zog 1951 an die Ostküste, um unter Forrester zu arbeiten, der bereits Leiter des digitalen Computerlabors geworden war.


Wesley Clark zeigt 1962 seinen biomedizinischen LINC-Computer

Clark schloss sich der Gruppe der fortgeschrittenen Entwicklungen an, einer Unterteilung des Labors, die einen entspannten Zustand der Zusammenarbeit zwischen dem Militär und den Universitäten dieser Zeit verkörperte. Obwohl technisch gesehen eine Unterteilung Teil des Lincoln-Laboruniversums war, existierte dieses Team in einer Blase innerhalb einer anderen Blase, war vom täglichen Bedarf des SAGE-Projekts isoliert und konnte jede Computerrichtung frei wählen, die zumindest irgendwie mit der Luftverteidigung verbunden sein könnte. Ihre Hauptaufgabe in den frühen 1950er Jahren war es, einen Memory Test Computer (MTC) zu entwickeln, der die Realisierbarkeit einer neuen, hocheffizienten und zuverlässigen Methode zum Speichern digitaler Informationen, des Magnetkernspeichers , demonstrieren soll, der den in Whirlwind verwendeten kapriziösen CRT-basierten Speicher ersetzen soll.

Da MTC außer seinen Entwicklern keine anderen Benutzer hatte, hatte Clark täglich viele Stunden lang vollen Zugriff auf den Computer. Clark interessierte sich dank seines Kollegen Belmont Farley, der mit einer Gruppe von Biophysikern von RLE in Cambridge sprach, für die damals modische kybernetische Mischung aus Physik, Physiologie und Informationstheorie. Clark und Farley verbrachten viele Stunden hinter MTC und erstellten Softwaremodelle für neuronale Netze, um die Eigenschaften selbstorganisierender Systeme zu untersuchen. Aus diesen Experimenten begann Clark, bestimmte axiomatische Prinzipien der Computertechnologie zu extrahieren, von denen er nie abwich. Insbesondere begann er zu glauben, dass "Benutzerkomfort der wichtigste Designfaktor ist".

1955 erarbeitete Clark gemeinsam mit Ken Olsen, einem der Entwickler von MTC, einen Plan für einen neuen Computer, der den Weg für die nächste Generation militärischer Kontrollsysteme ebnen könnte. Mit einem sehr großen Speicher auf Magnetkernen zur Speicherung und Transistoren für die Arbeit mit Logik könnte es viel kompakter, zuverlässiger und leistungsfähiger als Whirlwind gemacht werden. Zunächst schlugen sie ein Design mit dem Namen TX-1 vor (Transistorisierter und experimenteller Computer, „experimenteller Transistorcomputer“ - viel deutlicher als AN / FSQ-7). Die Laborleitung von Lincoln lehnte das Projekt jedoch als zu teuer und riskant ab. Nur wenige Jahre zuvor waren Transistoren auf dem Markt, und nur sehr wenige Computer wurden mit Transistorlogik hergestellt. Also sind Clark und Olsen mit einer kleineren Version der Maschine zurück, TX-0,welches genehmigt wurde.


TX-0 Die

Funktionalität des TX-0- Computers als Werkzeug zur Verwaltung von Militärbasen war für Clark weniger interessant als die Fähigkeit, ihre Ideen zum Computerdesign zu fördern, obwohl dies ein Vorwand für seine Schaffung war. Aus seiner Sicht ist die Interaktivität von Computern in den Lincoln-Labors keine Tatsache mehr und eine neue Norm geworden - der richtige Weg, Computer zu erstellen und zu verwenden, insbesondere für wissenschaftliche Arbeiten. Er gewährte TX-0 Zugang zu Biophysikern vom MIT, obwohl ihre Arbeit nichts mit Luftverteidigung zu tun hatte, und erlaubte ihnen, die visuelle Anzeige der Maschine zur Analyse von Elektroenzephalogrammen aus Schlafstudien zu verwenden. Und niemand hatte Einwände dagegen.

Der TX-0 war für Lincolns Labors erfolgreich genug, um 1956 den TX-2-Transistorcomputer mit einem riesigen Speicher von zwei Millionen Bit zu genehmigen. Das Projekt wird zwei Jahre dauern. Danach bricht das Virus aus dem Labor aus. Nach Fertigstellung des TX-2 benötigen die Labors keinen frühen Prototyp mehr. Daher haben sie vereinbart, den TX-0 für RLE an Cambridge zu vermieten. Es wurde im zweiten Stock über dem Stapelverarbeitungszentrum installiert. Und er infizierte sofort Computer und Professoren vom MIT-Campus, die anfingen, für Zeiträume zu kämpfen, in denen sie die vollständige Kontrolle über den Computer erlangen konnten.

Es war bereits klar, dass es fast unmöglich war, ein Computerprogramm beim ersten Mal richtig zu schreiben. Darüber hinaus haben Forscher, die ein neues Problem häufig untersuchten, zunächst überhaupt nicht verstanden, wie das richtige Verhalten aussehen sollte. Und um die Ergebnisse aus dem Rechenzentrum zu erhalten, musste ich stundenlang oder sogar bis zum nächsten Tag warten. Für Dutzende neu geprägter Programmierer vom Campus war die Gelegenheit, die Treppe hinaufzusteigen, den Fehler zu finden und ihn sofort zu beheben, einen neuen Ansatz zu versuchen und sofort die verbesserten Ergebnisse zu sehen, eine echte Offenbarung. Einige nutzten ihre Zeit auf TX-0, um an ernsthaften wissenschaftlichen oder technischen Projekten zu arbeiten, aber die Freude an Interaktivität zog auch spielerischere Seelen an. Ein Student schrieb ein Textbearbeitungsprogramm, das er als "teure Schreibmaschine" bezeichnete.Ein anderer folgte diesem Beispiel und schrieb einen „teuren Desktop-Rechner“, mit dem er Hausaufgaben zur numerischen Analyse machte.


Ivan Sutherland präsentiert sein Sketchpad-Programm auf TX-2

Währenddessen beschlossen Ken Olsen und ein weiterer TX-0-Ingenieur, Harlan Anderson, verärgert über den langsamen Fortschritt des TX-2-Projekts, einen kleinen interaktiven Computer für Wissenschaftler und Ingenieure auf den Markt zu bringen. Sie verließen das Labor, um die Digital Equipment Corporation zu gründen, die ein Büro in einer ehemaligen Textilfabrik am Assabet River, zehn Meilen westlich von Lincoln, eingerichtet hatte. Ihr erster PDP-1-Computer (veröffentlicht 1961) war im Wesentlichen ein TX-0-Klon.

TX-0 und Digital Equipment Corporation haben begonnen, die guten Nachrichten über eine neue Art der Verwendung von Computern außerhalb von Lincolns Labor zu verbreiten. Bisher wurde das Interaktivitätsvirus jedoch geografisch im Osten von Massachusetts lokalisiert. Dies sollte sich jedoch bald ändern.

Was noch zu lesen:


  • Lars Heide, Lochkartensysteme und die frühe Informationsexplosion, 1880-1945 (2009)
  • Joseph November, Biomedical Computing (2012)
  • Kent C. Redmond und Thomas M. Smith, Von Wirbelwind zu MITRE (2000)
  • M. Mitchell Waldrop, Die Traummaschine (2001)

Source: https://habr.com/ru/post/de452030/


All Articles