2. Die zweite Computergeneration (1956-1964)

 Ian Ruotsala /public domain
Comptometer: Ian Ruotsala /public domain

Eine Welt ohne Computer ist heute nicht mehr vorstellbar. Das war nicht immer so. Vor 1955 erledigte die Menschheit all diese Arbeiten mit Schreibmaschinen, Kohlepapier und vielen Aktenschränken. Diese Arbeiten wurden teilweise mit Lochkartenanlagen automatisch erledigt. Häufig eingesetzt wurde der Comptometer. Diese Tastenmaschine erlaubte ein schnelles Addieren von Zahlen. Die Rechenergebnisse konnten nicht ausgedruckt werden. Diesen Rechenhilfen fehlten: Die Möglichkeit einer schnellen und leichten Speicherung großer Datenmengen und die Möglichkeit, auf Einzeldaten zugreifen zu können. Dies konnte auch mit den Hollerithmaschinen (Lochkartenrechnern) nicht effizient genug geleistet werden. Die Definition von „Datenverarbeitung“ basiert auf der Verbesserung eben dieser Vorgänge.
Die Computer der frühen fünfziger Jahre waren für diese Arbeiten ebenfalls nur eingeschränkt geeignet. Den preiswerten Magnettrommelmaschinen mangelte es an Speicherkapazität, Geschwindigkeit und schnellen Ein- und Ausgabeschnittstellen. Auch der UNIVAC, konzipiert für effektive Datenverarbeitungen, hatte anfangs nur einen langsamen Drucker. In den fünfziger Jahren verbesserte man die Rechner Schritt für Schritt mit größeren Speichereinheiten und schnelleren Ein-und Ausgabeschnittstellen, ohne die grundsätzliche Speicherprogrammkonzeption aufzugeben.

Die Magnetkernspeicher

Die Verbesserungen basierten nicht nur auf Fortschritten in der Schaltkreistechnologie. 1959 wurde der Transistor verlässlich und billig genug, um als dominierendes Schaltkreiselement eingesetzt zu werden. Größere Zuverlässigkeit, geringerer Wartungsaufwand und niedrigere Betriebskosten waren die angestrebten Folgen. Vor der Marktfähigkeit der Transistoren führte eine andere technische Neuerung zu immensen Fortschritten in der Speichertechnik.

Comptometer
Comptometer

Kernspeicher bestehen aus kleinen magnetisierbaren Ringkernen, durch die 2 Drähte laufen. Der Strom, der durch die Drähte fließt, kann die Kerne magnetisieren und auch wieder entmagnetisieren. Die binären Werte 0 und 1 werden durch die zwei möglichen Stromfließrichtungen generiert. Ein großer Vorteil lag in der gleichzeitigen (im Gegensatz zu den rotierenden Magnettrommeln) Zugriffsmöglichkeit auf alle Kerne. Das Basismodell des Random Access Memory war geboren. IBM baute mit diesem Prinzip 1956 den ersten Seriencomputer. Er erhielt seinen Namen SAGE von der US Air Force. Ihr Projekt „Semiautomatic Ground Environment“ sollte ein Lagebild nicht identifizierter eindringender Flugzeuge liefern. Die Daten sollten durch Computer in einem Lagebild dargestellt und zusammengefasst werden.IBM lieferte dreißig dieser SAGE Rechner aus, der Letzte wurde erst 1983 außer Dienst gestellt. Da die auf dem Markt verfügbaren Magnetkerne oft von unzufriedenstellender Qualität waren, begann IBM selbst qualitativ hochwertige Magnetkerne zu produzieren.IBM erreicht durch dieses Know-how eine Führungsrolle in der Herstellung und im Verkauf von Computern.

Entwicklung der Computer-Architektur

Ende der sechziger Jahre waren etwa 6000 elektronische Universalcomputer in den USA aufgestellt. Die zuverlässigen Magnetkernspeicher erlaubten die Verarbeitung längerer Datenblöcke, Fortschritte gab es im Design der Schaltkreise, unterschiedliche Registertypen wie der Akkumulator, der Programmschrittzähler und das Indexregister kamen hinzu.

Der Transistor

Philco, eine Elektronikfirma aus Philadelphia, brachte den in den Bell Laboratories erfundenen Transistor zur Serienreife. Philco baute mit dem „SOLO“, einem abgewandelten UNIVAC 1103 vermutlich den ersten mit Transistoren ausgestatteten Computer in den USA. Auftraggeber war die NSA.

IBM’s Aufstieg

1957 bringt IBM Hardware auf den Markt, die in kürzester Zeit den Abschied von der Stapelverarbeitung und der Tabelliermaschine einläuten wird. Was heute leger als Festplatte bezeichnet wird, wurde damals noch als „drehende Magnetplatte für Direktzugriffsspeicherung“ bezeichnet.

Von den Röhren zu den Transistoren

Der Ausdruck „Mainframe“ rührt daher, dass die Schaltkreise eines Großrechners auf große Metallrahmen in Schränken montiert waren. Die Schränke standen auf Rahmen, die unten Platz für die zahlreichen dicken Kabel ließen, die von Schrank zu Schrank und zu den Klimaanlagen führten. Der Schrank neben der Konsole des Operators enthielt die Schaltkreise und Platinen des Hauptprozessors. Die Programme wurden auf Magnetbändern gespeichert und in Stapeln (Batches) abgearbeitet.

Kleine Maschinen mit Transistoren

Die Transistortechnologie war Ende der fünfziger Jahre ausgereift und beeinflusste die Entwicklungen in der Computerindustrie stark. Wieder brachte IBM das erfolgreichste, nun dank der Transistortechnologie wesentlich kleinerere Modell auf den Markt, die 1401.

IBM_1401_Control_Panel_250
1401 Control Panel: Michael Holley/Public Domain


IBM verkaufte bis zum Produktionsende 12.000 Maschinen.
Das entsprach ungefähr der Anzahl der verkauften Lochkartenmaschinen von IBM.

Zusammenfassung:

Die für 2 Jahrzehnte herrschende Umgehensweise mit Rechnern war Folgende: Mainframes arbeiteten die von den Kartenlochern übergebenen Aufgaben ab. Diese Stapelverarbeitung (Batchbetrieb) war das Gegenteil von der interaktiven Kommunikation Mensch- Maschine, die wir heute kennen. Die Ergebnisse der Berechnungen wurden ausgedruckt und an die entsprechenden Kunden weitertransportiert. Der Zeitverzug zwischen Eingabe und Ausgabe, der Tage dauern konnte, war für die damalige Gesellschaft normal, da Transport und  Geschwindigkeit mit den heutigen Verhältnissen nicht zu vergleichen war.

Schreibe einen Kommentar