Paul E. Ceruzzi- Eine kleine Geschichte der EDV

Ceruzzi_200

Ceruzzi analysiert und beschreibt vier Schlüsselmomente der Computergeschichte:

  • Den Übergang der Computertechnologie vom wissenschaftlichen Rechenwerkzeug zum kommerziellen Produkt zu Beginn der vierziger Jahre.
  • Die Verbreitung kleiner Systeme in den späten sechziger Jahren.
  • Den Beginn der PC-Ära
  • Die Blüte der Netzwerktechnik nach 1985.

1. Die ersten kommerziellen Computer
2. Die zweite Computergeneration (1956-1964)
3. Die frühe Geschichte der Software (1952-1968)

demnächst folgen weitere Zusammenfassungen:

4. Vom Großrechner zum Minicomputer (1959-1969)
5. Börsenhöhenflüge und das System /360 (1961-1975)
6. Der Siegeszug des Chips (1965-1975)
7. Die PCs (Personal Computer) (1972-1977)
8. Die Erweiterung menschlichen Intellekts (1975-1985)
9. Workstations, Unix und das Netz (1981-1995)
Epilog: Die Digitalisierung der Welt

3. Die frühe Geschichte der Software (1952-1968)

21. Januar 2010

Punch card from a typical Fortran program Arnold Reinhold/Creative  Commons
Punch card from a typical Fortran program Arnold Reinhold/Creative Commons

John Backus erhält 1993 den Charles Draper Preis für seine Entwicklung von Fortran, der ersten universellen Computersprache. Der Preis wird für die Entwicklung eines nicht physischen Gebrauchswertes vergeben. Software wurde in den ersten Entwicklungsjahren der Computertechnologie kaum als notwendig erachtet. Der Fokus lag auf der Entwicklung der Hardware.
Wie entwickelte sich die Software?
Eine einfache Definition von Software besagt, dass sie eine Ansammlung von Befehlen ist, die einen Computer dazu bewegen, eine spezielle Aufgabe durchzuführen.

Die Anfänge (1944-1951)

Der Harvard Mark 1 wurde 1944 programmiert, indem Nutzer eine Reihe von bis zu 24 Löchern in einen Papierstreifen stanzen mussten. Da der Mark 1 nicht speicherprogrammierbar war, mussten selbst sich wiederholenden Befehle jeweils neu in die Lochkarten gestanzt werden.
Deshalb wurden einige Codesequenzen, die immer wieder eingesetzt wurden, permanent in den Schaltkreisen des Mark 1 fest verdrahtet. Dies löste aber nicht das grundlegende Problem und machte die Rechner auch nicht flexibler. Howard Aiken entwickelte für den Mark 3 ein Eingabegerät, über dessen Tastatur mathematische Befehle eingegeben werden konnten. Das Eingabegerät konvertierte sie in numerische Befehle, die der Rechner ausführen konnte. Die Codes wurden auf ein Magnetband übertragen und dann ausgeführt. Oft benutzte Sequenzen wurden auf einer Magnettrommel gespeichert. Zuse verfolgte in Deutschland einen ähnlichen Weg mit seinem “Planfertigungsgerät”, dass Lochstreifen stanzen konnte. 1952 wurde Zuses Z4 in der Eidgenössischen Hochschule in Zürich aufgebaut und eingesetzt. Dort fiel Heinz Rutishauser auf, dass man einen Universalcomputer so programmieren müsste, dass er die Aufgabe eines Eingabegerätes oder “Programmators“, wie Zuse ihn genannt hatte, selbst erfüllen konnte. Als Erstes würde der Computer die Eingabe der Nutzerbefehle überprüfen, sie dann übersetzen und danach ausführen. Rutishauser brachte es auf den Punkt: “Benutzt den Computer als seine eigene Planfertigungsmaschine.”Rutishausers Idee, dass der gleiche Computer, der eine Aufgabe löst, auch seine eigenen Befehle vorbereitet, war ein ganz wesentlicher Beitrag zur Geburt der Software.

UNIVAC  Compiler (1952)

Hopper definierte den Compiler als eine Programmroutine, die ein spezielles Programm für eine bestimmte Aufgabe zusammenstellt. Heute wird mit dem Ausdruck Compiler ein Programm bezeichnet, das von Menschen generierte und lesbare Befehle in binären Maschinencode übersetzt.

Laning und Zierler (1954)

Laning und Zierler entwickelten in den frühen fünfziger Jahren das erste “moderne” Programmiersystem für den Whirlwind am Massachusetts Institute of Technology. Im Gegensatz zu dem UNIVAC Compiler nahm es nicht nur Nutzerbefehle entgegen, sondern verfolgte auch die Speicherstellen, konnte Schleifen wiederholen und anderes mehr. Ceruzzi schreibt, dass es damals starke Anfeindungen aus der “Priesterschaft der Programmierer” gegeben habe, die in dem Compiler verständlicherweise einen Angriff auf ihr Herrschaftswissen sahen.

SHARE (1955)

Die Möglichkeit, Computer in kleinem Rahmen programmieren zu können, rief natürlich auch die ersten Nutzergruppen und Kunden auf den Plan. Eine Gruppe von IBM 701 Nutzern traf sich mit anderen Käufern des Systems, um selbst erstellte Unterprogramme auszutauschen oder Wünsche an IBM zu formulieren und durchzusetzen. Es lässt sich nicht mehr genau klären, wie die Bezeichnung “Share” zustande kam. Einige Quellen sagen, es sei die Abkürzung für “Society to Help Avoid Redundant Effort” gewesen, andere sagen, das Kürzel hätte keinen tieferen Sinn gehabt.

Datensortierung

Die sequenzielle Speicherung der Daten verlangte nach einer Sortierung, um sie ansprechen zu können. Das numerische und alphanumerische Sortieren erforderte selbst noch in den frühen siebziger Jahren schätzungsweise ein Viertel der aufgewendeten Rechenzeit.

Die Informatik

In den frühen sechziger Jahren musste die Informatik sich noch ihren Platz unter den anerkannten Wissenschaften erkämpfen. 1965 wurde in Stanford das erste eigenständige Institut für Informatik errichtet.

Strukturierte Programmierung

1968 veröffentlichte Edsger von der Technischen Universität Eindhoven einen Brief, der eine heftige Diskussion und letztendlich einen weiteren Anstoß zu einer strukturierten Programmierung lieferte. Er begann so: “Seit vielen Jahren mache ich die Beobachtung, dass die Qualität von Programmierern sich an der abnehmenden Funktion der Häufigkeit von Go-to Anweisungen in ihren Programmen ablesen lässt.”

Zusammenfassung:

Computerprogrammierung wurde von den Pionieren des Computergeschäftes nicht vorgesehen. Erst in den fünfziger Jahren entwickelte sich das Bewusstsein um ihre Notwendigkeit. Für diese Art von Code bürgerte sich der Name “Software” ein. Diese bestand anfangs nur aus einer immer größer werdenden Bibliothek von Subroutinen. Die Geschichte der Software war und ist auch eine Geschichte ihrer Krisen. 1968 sponsorte die NATO eine Tagung in Garmisch-Partenkirchen unter dem Motto “Software Engineering”. Der Titel suggerierte, dass die Softwareentwickler im Gegensatz zu den Ingenieurswissenschaften bspw. keine theoretischen Grundlagen und Richtlinien täglicher Praxis hätten. Auch der Sponsor machte deutlich, wie entfernt die Softwareentwicklung von der universitären Informatik entfernt war. Eine 1996 in Deutschland abgehaltene Tagung über die Geschichte der Softwaretechnik kam zu dem Ergebnis, das der Ansatz, Softwaretechnik zu etablieren, insgesamt gescheitert sei. Pragmatischere Lösungsansätze waren die Anerkennung der Softwaretechnik als neue Disziplin, formalere Techniken für strukturierte Programmierung und neue Programmiersprachen, die damals COBOL und FORTRAN ersetzen sollten.

2. Die zweite Computergeneration (1956-1964)

15. Januar 2010

 Ian Ruotsala /public domain

Comptometer: Ian Ruotsala /public domain

Eine Welt ohne Computer ist heute nicht mehr vorstellbar. Das war nicht immer so. Vor 1955 erledigte die Menschheit all diese Arbeiten mit Schreibmaschinen, Kohlepapier und vielen Aktenschränken. Diese Arbeiten wurden teilweise mit Lochkartenanlagen automatisch erledigt. Häufig eingesetzt wurde der Comptometer. Diese Tastenmaschine erlaubte ein schnelles Addieren von Zahlen. Die Rechenergebnisse konnten nicht ausgedruckt werden. Diesen Rechenhilfen fehlten: Die Möglichkeit einer schnellen und leichten Speicherung großer Datenmengen und die Möglichkeit, auf Einzeldaten zugreifen zu können. Dies konnte auch mit den Hollerithmaschinen (Lochkartenrechnern) nicht effizient genug geleistet werden. Die Definition von “Datenverarbeitung” basiert auf der Verbesserung eben dieser Vorgänge.
Die Computer der frühen fünfziger Jahre waren für diese Arbeiten ebenfalls nur eingeschränkt geeignet. Den preiswerten Magnettrommelmaschinen mangelte es an Speicherkapazität, Geschwindigkeit und schnellen Ein- und Ausgabeschnittstellen. Auch der UNIVAC, konzipiert für effektive Datenverarbeitungen, hatte anfangs nur einen langsamen Drucker. In den fünfziger Jahren verbesserte man die Rechner Schritt für Schritt mit größeren Speichereinheiten und schnelleren Ein-und Ausgabeschnittstellen, ohne die grundsätzliche Speicherprogrammkonzeption aufzugeben.

Die Magnetkernspeicher

Die Verbesserungen basierten nicht nur auf Fortschritten in der Schaltkreistechnologie. 1959 wurde der Transistor verlässlich und billig genug, um als dominierendes Schaltkreiselement eingesetzt zu werden. Größere Zuverlässigkeit, geringerer Wartungsaufwand und niedrigere Betriebskosten waren die angestrebten Folgen. Vor der Marktfähigkeit der Transistoren führte eine andere technische Neuerung zu immensen Fortschritten in der Speichertechnik.

Comptometer

Comptometer

Kernspeicher bestehen aus kleinen magnetisierbaren Ringkernen, durch die 2 Drähte laufen. Der Strom, der durch die Drähte fließt, kann die Kerne magnetisieren und auch wieder entmagnetisieren. Die binären Werte 0 und 1 werden durch die zwei möglichen Stromfließrichtungen generiert. Ein großer Vorteil lag in der gleichzeitigen (im Gegensatz zu den rotierenden Magnettrommeln) Zugriffsmöglichkeit auf alle Kerne. Das Basismodell des Random Access Memory war geboren. IBM baute mit diesem Prinzip 1956 den ersten Seriencomputer. Er erhielt seinen Namen SAGE von der US Air Force. Ihr Projekt “Semiautomatic Ground Environment” sollte ein Lagebild nicht identifizierter eindringender Flugzeuge liefern. Die Daten sollten durch Computer in einem Lagebild dargestellt und zusammengefasst werden.IBM lieferte dreißig dieser SAGE Rechner aus, der Letzte wurde erst 1983 außer Dienst gestellt. Da die auf dem Markt verfügbaren Magnetkerne oft von unzufriedenstellender Qualität waren, begann IBM selbst qualitativ hochwertige Magnetkerne zu produzieren.IBM erreicht durch dieses Know-how eine Führungsrolle in der Herstellung und im Verkauf von Computern.

Entwicklung der Computer-Architektur

Ende der sechziger Jahre waren etwa 6000 elektronische Universalcomputer in den USA aufgestellt. Die zuverlässigen Magnetkernspeicher erlaubten die Verarbeitung längerer Datenblöcke, Fortschritte gab es im Design der Schaltkreise, unterschiedliche Registertypen wie der Akkumulator, der Programmschrittzähler und das Indexregister kamen hinzu.

Der Transistor

Philco, eine Elektronikfirma aus Philadelphia, brachte den in den Bell Laboratories erfundenen Transistor zur Serienreife. Philco baute mit dem “SOLO”, einem abgewandelten UNIVAC 1103 vermutlich den ersten mit Transistoren ausgestatteten Computer in den USA. Auftraggeber war die NSA.

IBM’s Aufstieg

1957 bringt IBM Hardware auf den Markt, die in kürzester Zeit den Abschied von der Stapelverarbeitung und der Tabelliermaschine einläuten wird. Was heute leger als Festplatte bezeichnet wird, wurde damals noch als “drehende Magnetplatte für Direktzugriffsspeicherung” bezeichnet.

Von den Röhren zu den Transistoren

Der Ausdruck “Mainframe” rührt daher, dass die Schaltkreise eines Großrechners auf große Metallrahmen in Schränken montiert waren. Die Schränke standen auf Rahmen, die unten Platz für die zahlreichen dicken Kabel ließen, die von Schrank zu Schrank und zu den Klimaanlagen führten. Der Schrank neben der Konsole des Operators enthielt die Schaltkreise und Platinen des Hauptprozessors. Die Programme wurden auf Magnetbändern gespeichert und in Stapeln (Batches) abgearbeitet.

Kleine Maschinen mit Transistoren

Die Transistortechnologie war Ende der fünfziger Jahre ausgereift und beeinflusste die Entwicklungen in der Computerindustrie stark. Wieder brachte IBM das erfolgreichste, nun dank der Transistortechnologie wesentlich kleinerere Modell auf den Markt, die 1401.

IBM_1401_Control_Panel_250

1401 Control Panel: Michael Holley/Public Domain


IBM verkaufte bis zum Produktionsende 12.000 Maschinen.
Das entsprach ungefähr der Anzahl der verkauften Lochkartenmaschinen von IBM.

Zusammenfassung:

Die für 2 Jahrzehnte herrschende Umgehensweise mit Rechnern war Folgende: Mainframes arbeiteten die von den Kartenlochern übergebenen Aufgaben ab. Diese Stapelverarbeitung (Batchbetrieb) war das Gegenteil von der interaktiven Kommunikation Mensch- Maschine, die wir heute kennen. Die Ergebnisse der Berechnungen wurden ausgedruckt und an die entsprechenden Kunden weitertransportiert. Der Zeitverzug zwischen Eingabe und Ausgabe, der Tage dauern konnte, war für die damalige Gesellschaft normal, da Transport und  Geschwindigkeit mit den heutigen Verhältnissen nicht zu vergleichen war.

1. Die ersten kommerziellen Computer

26. November 2009

Aus der Sicht der breiten Öffentlichkeit ist Rechnen die Eigenschaft von Computern, die von geringster Bedeutung ist. Gerade deshalb wurde der Computer aber erfunden. Das breite Spektrum seines Einsatzgebietes haben die Erfinder nicht voraussehen können. Wie sich der Wandel der mathematischen Maschinen der vierziger Jahre zu vernetzten Informationsanbietern der neunziger Jahre vollzog, davon handelt dieses Buch:
Ist der Computer nur einer von vielen Hightechsystemen, die das ­zwanzigste Jahrhundert geprägt haben? Wie weit ist er einzigartig als informationsverarbeitende Maschine? Findet technologischer Fortschritt immer auf breiter Front statt? Oder treiben ihn einzelne Pioniere voran? Inwieweit war die Entwicklung ein Ergebnis sozialer und politischer Wechselwirkungen von gesellschaftlichen Gruppen (einschließlich der Ingenieure)?

Ceruzzi sieht mehrere Wendepunkte in der Entwicklung des Computers: Versuche, in den vierziger Jahren den Computer kommerziell zu nutzen, das Aufkommen kleiner Systeme in den späten Sechzigern, das Aufkommen des Personal Computers in den siebziger Jahren sowie der Aufbau von Netzwerken nach 1985.

Ceruzzi arbeitet weitere Entwicklungsstränge heraus. Ein roter Faden beschreibt den inneren Aufbau von Computern, die Art, wie Schaltkreise aufgebaut werden, um effektiv und zuverlässig arbeitende Rechner zu bauen. Dieses Design hat einen Namen: Von Neumann Architektur, benannt nach dem Mathematiker John von Neumann (1903-1957).

Das Computerzeitalter bis heute durchlief drei Generationen: Röhrencomputer, mit Transistoren bestückte Rechner und die heutigen mit auf Siliziumchips aufgebrachten integrierten Schaltkreise. Die dritte Generation der integrierten Schaltkreise hält sich schon länger als die zwei vorhergehenden. Der Standard von heute hält sich: integrierte ­Schaltkreise auf Platinen in Bussystemen. Alle 18 Monate verdoppelt sich deren Speicherkapazität, die unbezweifelbar mit ­ein Antriebsmotor für die Entwicklung der Datenverarbeitung darstellt.

Militärische Forschungsgelder ziehen sich ebenfalls wie ein roter Faden durch die Entwicklungsgeschichte des Computers.
Der Eniac , mit dem das Zeitalter der Computer begann, war zu militärischen Zwecken gebaut worden. Das Projekt Whirlwind stand für das Computerhirn der Minuteman Interkontinentalrakete.

Howard Aiken, Harvard Mathematiker und Konstrukteur des Mark I-Rechners gab 1948 elektronischen Rechnern keine Zukunft. Heute wissen wir, wie unrecht er damit hatte.

Das Ende der Lochkartensysteme

Matthias Kirschner (public domain)

Rechenanlage UNIVAC I Factronic / Deutsches Museum in München /Matthias Kirschner (public domain)

Während des zweiten Weltkrieges bauten Eckert und Mauchly den ENIAC (Electronic Numerical Integrator and Computer). Er berechnete ballistische Raketenflugbahnen nach komplizierten mathema-
tischen Gleichungen. Sein Nachfolger UNIVAC (UNIversal Automatic Computer) löste schon allgemeinere Aufgaben. Der UNIVAC schlug die im Einsatz befindlichen Lochkartenrechner (Hollerithmaschinen) in einem wesentlichen Punkt: Auf einer Lochkarte waren alle wesentlichen Informationen über einen Vorgang gespeichert (bspw. Verkaufs-
informationen). Um diese gespeicherten Werte zu zählen, tabellieren oder zu drucken war es notwendig, die Karte physikalisch im Raum zu bewegen und zu den betreffenden Maschinen zu transportieren. Diese konnten jeweils nur einen bestimmten Arbeitsschritt oder Rechenoperation durchühren. Die digitalen Rechenmaschinen konnten mehrere Rechenoperationen aus ihrem Speicher abrufen und auf einen Wert anwenden. Hinzu kam, dass oft der nächste Rechenvorgang auf den Ergebnissen des letzten beruhte.

Konrad Zuse

Konrad Zuse gebührt ein besonderer historischer Platz in der Geschichte der Computerentwicklung. Zuse hat schon in seiner rein mechanischen Rechenmaschine Z1 1936 konsequent die Umsetzung des binären Zahlensystems verfolgt. In den frühen 40er Jahren schrieb er eine Arbeit mit dem Titel: “Ansätze einer Theorie des allgemeinen Rechnens, unter besonderer Berücksichtigung des Aussagenkalküls und dessen Anwendung auf die Relaistechnik”.

Trennung Programm- Mechanismus

Zuses Rechenmaschinen unterschieden sich in ihrem Design von allen anderen Rechenmaschinen der damaligen Zeit. Zuses Rechnerarchitektur trennte die Komponenten für das Speichern, das Rechnen und die Ein-/Ausgabeeinheiten. Keine andere Maschine wies diese zukunftsweisende Trennung wie Zuses 1941 fertig gestellter, frei programmierbare Rechenautomat Z3 auf. Es gab noch keine Speichermöglichkeit des Programms, als Programm- und Datenträger verwendete er gelochte Kinofilmstreifen. Die Maschine brauchte vier Sekunden für eine Multiplikation. Zuse gründete 1949 eine Firma, die wir heute als Start-up bezeichnen würden. Zuse war im Gegensatz zu anderen Entwicklern klar, das es nicht reichen würde, einen Computer zu entwickeln.
Man musste der Welt klar machen, wofür sie ihn überall einsetzen können würde.
In den USA setzte das “defense establishment” die Kommerzialisierung des Computers erst richtig in Gang. Ohne diesen Einsatz enormer Kapitalmengen und Arbeitskräfte wäre diese Entwicklung nicht möglich gewesen. Zuse hatte diese wirtschaftliche Unterstützung nicht.

Der kartenprogrammierbare Rechner

Aufgrund der hohen Kosten setzten sich die frei programmierbaren Rechner nur langsam durch. In vielen Rechenzentren wurden weiterhin leistungsfähige Lochkartenrechner eingesetzt. Die IBM 604 und 605 wurden zwischen 1949 und 1958 über fünftausendmal verkauft. Diese kartenprogrammierbaren Rechen- und Tabelliermaschinen bildeten den Übergang zu den ersten richtigen Rechnern, wie dem UNIVAC.

Der UNIVAC konnte mit seinen tausenden von Röhren Daten auf Bändern speichern. Der größte Unterschied lag in seinem inneren Aufbau, er war einer der ersten Computer mit einem gespeicherten Programm. Das unterschied ihn mehr als alles andere von den Maschinen, die er ersetzen sollte. Der UNIVAC hatte im Gegensatz zu seinem Vorläufer ENIAC einen Speicher, in dem Daten und Programme abgelegt werden konnten. Dieses Speicherkonzept war der Schlüssel zum Erfolg. Zwischen 1945- und 1995 blieb dieses Konzept bemerkenswert konstant. Erst das Aufkommen der parallelgeschalteten Prozessoren brach mit dem Konzept der “von-Neumann-Architekturen”.

Anubis85 KH, Creative Commons

Anubis85 KH, Creative Commons

Das Konzept der Von-Neumann-Architektur spiegelte sich in folgender Bauweise wieder:
  1. Interne Speicherung von Programmen
  2. Trennung der Einheiten, die Daten verarbeiten und speichern
  3. Eine (!) Verbindung zwischen diesen Einheiten (Neumannsche Flaschenhals)

Die Arbeitsweise bestand darin,  Befehle und Daten im gleichen Speicher abzulegen, um sie schnell abzurufen. Der Arbeitszyklus eines Von-Neumann-Computers sah folgendermaßen aus:

  1. Übertragung eines Befehles vom Speicher zum Prozessor
  2. Entschlüsselung des Befehles
  3. Holen der Daten aus dem Speicher, auf die der Befehl angewendet werden soll, falls sie nicht im Prozessor liegen.

Lukas Grossar, Creative Commons

Lukas Grossar, Creative Commons

Das Konzept, einen linearen Strom von Befehlen zu holen und abzuarbeiten, ist das am längsten durchgehaltene Konzept überhaupt: Alan Perils merkte einst an: “Etwas, von dem ich sicher bin, das es das einzig Universelle in der Computerwelt ist, ist der Holen-Ausführen-Zyklus.” Der UNIVAC beherrschte ihn und konnte zwei Zahlen in ungefähr einer halben Millisekunde addieren.

Vom Eniac zum Univac: Die erste Umwälzung

Der EDVAC (Electronic Discrete Variable Automatic Computer) hatte als Nachfolger des ENIAC die Von-Neumann-Architektur umgesetzt. Er behandelte die Befehle des Programms wie die zu verarbeitenden Daten, kodierte sie binär und verarbeitete sie in seinem internen Speicher. Viele prominente Gegner dieses Projektes hielten die Lochkartenmaschinen für ausreichend und trauten den digitalen Rechnern keine Zukunftsperspektive zu. Howard Aiken konnte sich beispielsweise nicht vorstellen, dass “die Grundlogik einer Maschine, die für die numerische Lösung von Differentialgleichungen ausgelegt ist, mit der Logik einer Maschine vereinbar sei, die Rechnungen für ein Kaufhaus ausstellen solle”. Eckert und Mauchly verließen die Universität von Pennsylvanien, da zur damaligen Zeit Forschung und Lehre und wirtschaftliche Interessen auseinander gehalten werden sollten. Die beiden gründeten eine Firma, hatten aber aufgrund der wissenschaftlichen Zweifel an ihrer Erfindung massive Probleme, an Kapital heranzukommen. Andererseits gab es zahlreiche Anfragen von Firmen, die diese neuen Maschinen nachfragten. Versicherungsgesellschaften, Fluglinien, Hersteller von militärischen Gütern.

Der UNIVAC

“Ich freue mich, wenn die Geschichte den ersten würdigt, der etwas erfindet, aber eigentlich bin ich mehr an der Person interessiert, die es zum Laufen bringt.” – Grace Hopper

Im Zeitraum zwischen 1951 und 1954 verkauften Eckert und Mauchly 20 Großrechner des Typs Univac zu dem damaligen Preis von je einer Million Dollar pro Komplettsystem. Die Taktfrequenz des UNIVAC betrug 2,25 MHZ. Er konnte etwa 465 Multiplikationen pro Sekunde ausführen. Sein Magnetbandsystem und seine Speicherbandarchitektur machten ihn jedoch zu einer weit schnelleren Maschine. Magnetbandeinheiten speicherten bis zu einer Million Zeichen auf Bandspulen von einem halben Zoll Breite. Zur Zeit der Lochkartenrechner hätten diese Daten physikalisch auf Lochkarten gestanzt werden und bewegt werden müssen.
Der UNIVAC lief robust und zuverlässig. Sein Prozessor enthielt über fünftausend Röhren in Schränken.

Zahlreiche UNIVAC Käufer waren private Großunternehmen. Militärische Stellen nutzen sie ebenfalls zur Bestandsaufnahme und logistischen Zwecken. Der UNIVAC lautete die Äre der Großrechner für das ein, was man heute elektronische Datenverarbeitung nennt.

Die damalige Öffentlichkeit nahm den UNIVAC weniger als Rechner, denn als Magnetbandmaschine wahr. Im Focus stand seine Fähigkeit, gewünschte Daten auf seinen Magnetbändern durch Hin-und-her-Spulen zu finden, um sie aufbereiten zu können. Ein UNIVAC berechnete 1954 den Jahresetat einer Nachschubeinheit für fünfhunderttausend Einzelposten. Er führte diese Berechnung an einem Tag durch. Für General Electric stand der UNIVAC für “Automation”, Automatisierung. Diebold sprach von einer Zeit, in der “der Knopfdruck schon veraltet ist; die Knöpfe drücken sich jetzt selbst.” General Electric musste seinen Aktionären versichern, dass sie sich nicht auf den Holzweg begeben hatten, exotische, anfällige und teure Gerätschaften zu kaufen, nur weil “langhaarige” Akademiker ohne jeden Sinn für Profit sie dazu gebracht hätten.

IBMs Antwort

IBM musste auf die Konkurrenzsituation seitens des UNIVAC und seiner Hersteller reagieren. Die Antwort hieß IBM 701. IBM vermied absichtlich das Wort “Computer” und vermarktete die Rechenmaschine als “elektronische Datenverarbeitungsmaschine”. Die Bauweise setzte wie der UNIVAC auf die von-Neumann-Architektur auf. Die produzierten 19 Maschinen wurden alle im militärischen Sektor installiert. Die Käufer benutzten die Maschine für geheime Projekte zur Waffenentwicklung, Berechnung von Raumschiffbahnen und zur Codeentschlüsselung. IBM verkaufte die Rechner nicht, sondern vermietete sie. Ab 1955 lieferte IBM 14 Maschinen des Nachfolgers IBM 702 aus.

Trommelspeicher_180

Trommelspeicher aus einem polnischen ZAM-41 Computer, Creative Commons

Die Engineering Research Associates
Engineering Research Associates (ERA) verkaufte in den frühen fünfziger Jahren als dritte Firma digitale Großrechner. Zu den angestellten Ingenieuren gehörte unter anderem Seymor R. Cray. ERA war eine private Firma, die geheime Aufträge zur Codeentschlüsselung von der Navy erhielt. Die Gründer konnten genauso wenig wie Eckert und Mauchly genügend Kapital zur Entwicklung ihrer Großrechner aufbringen und wurden genau wie Eckert und Mauchly von Remington Rand aufgekauft. Die zwanzig produzierten Großrechner wurden wie die IBM 701 an militärische Auftraggeber verkauft. Konzeptionell neu an den Maschinen waren der Speicher-Magnetkern anstelle der Williamsröhren und ein Programmunterbrecher.

Die Idee eines Speichers, verwirklicht durch eine rotierende Magnettrommel, hatte erstmals J.V.Atanasoff in den späten dreißiger Jahren. Er bestückte eine Magnettrommel mit 1600 Kondensatoren, die in 32 Reihen aufgesetzt waren. 1947 baute ERA eine Magnettrommel mit einer Speicherkapazität von zwei Millionen Bits. Die Zugriffszeiten lagen zwischen acht und vierundsechzig Millisekunden. Mitte der fünfziger Jahre kam eine zweite Generation von verbesserten Magnettrommelmaschinen auf den Markt. Die Magnettrommelspeicher nahmen 4096 Worte bei einer Zugriffszeit von 2,3 ms auf. Ein- und Ausgabe erfolgte mit einem Flexowriter.

Zusammenfassung:

Das Jahrzehnt zwischen 1950 und 1960 sah die Computer der ersten Generation. Sie konnten Programme intern speichern und arbeiteten mit Vakuumröhren. Als Speicher wurden akustische Verzögerungsstrecken, Williamsröhren oder Magnettrommeln eingesetzt. Die kleinen Entwicklungsbüros wurden in der Regel von großen, kapitalkräftigen Firmen aufgekauft. Der UNIVAVC und der IBM 701 leiteten die Epoche kommerzieller speicherprogrammierbarer Computer ein. Diese Großrechner erfüllten die Erwartungen der Kunden in zufrieden stellender Weise.

Weiterlesen »

Don’t be evil!

19. November 2009

IC_350

Wer von uns hat noch nicht Googles Browser Chrome zum Surfen ausprobiert? Ein weiterer Konkurrent zu Microsofts Internet Explorer tummelt sich seit einigen Monaten auf dem Browsermarkt.

Heute jedoch hat Google nicht nur einen medialen Frontalangriff auf Microsoft gestartet. Der Name “Chrome” steht nicht nicht nur  für den Browser, Google arbeitet mit Hochdruck an dem ChromeOS, einem Betriebssystem, basierend auf Debian, einer Linux Distribution.

Die Freigabe des  Source Codes kommentiert  Google in seinem Firmenblog:

“We want to take this opportunity to explain why we’re excited about the project and how it is a fundamentally different model of computing.
First, it’s all about the web. All apps are web apps. The entire experience takes place within the browser and there are no conventional desktop applications. This means users do not have to deal with installing, managing and updating programs.”

Google sieht die Zukunft der Anwendungen in der CLOUD. Wer will da noch ein Betriebssystem, das 30  Sekunden oder mehr benötigt, um uns den Zugang in die CLOUD zu initialisieren? Das sekundenschnelle Starten des zukünftigen ChromeOS wird auch nur ein Schritt in die Richtung einer für alle (zumindest in den reichen Ländern) ständigen CLOUD- Verbindung sein.

Oft verstellt der tagesaktuelle Blick  die Sicht auf  Dinge, ohne die das Subjekt der aktuellen Beschäftigung gar nicht möglich geworden wäre.  In diesem Fall sind es die Unix/Linux Codezeilen, auf die Google zurückgreift. Geschrieben wurden die ersten vor Jahrzehnten, was auch an der damaligen Bartlänge ersichtlich ist. Keineswegs veraltet allerdings sind die Motivationen und Ideen, die dahintersteckten und immer noch dahinterstecken: Gebrauchswert für a l l e zu schaffen und verfügbar zu machen. Auch Google darf sich dieser Codezeilen bedienen. Warten wir ab, was Google aus den Ideen macht, die hinter den Codezeilen stecken!

Hier das “run_google_chrome” Shellscript aus dem heute veröffentlichten Sourcecode des Chrome Operating Systems. (chromiumos-0.4.22.8\src\platform\chrome\run_google_chrome.sh)

#!/bin/sh

# Copyright (c) 2009 The Chromium OS Authors. All rights reserved.
# Use of this source code is governed by a BSD-style license that can be
# found in the LICENSE file.
LOOP=
if [ „$1″ = ‚–loop‘ ]; then LOOP=1; fi
CHROME_DIR=”/opt/google/chrome”
CHROME=”$CHROME_DIR/chrome”
BOTTLE=”$CHROME_DIR/bottle.sh”
COOKIE_PIPE=”/tmp/cookie_pipe”
DISABLE_CHROME_RESTART=”/tmp/disable_chrome_restart”
SEND_METRICS=”/etc/send_metrics”
USER_DATA_DIR=”${HOME}/${CHROMEOS_USER}/.config/google-chrome”
“$BOTTLE” “Booting…” &
# The first time a user runs chrome, we use some initial arguments
# to set up their environment. From then on, chrome session restore
# will take care of opening the tabs they want.
FIRST_RUN_ARGS=”“
CLIENTSSL_AUTH_ALLOW_ARGS=”“
# Determine user’s domain.
# TODO: reliably determine the correct domain for all users.
DOMAIN=”${CHROMEOS_USER#*@}”
if [ ! -d „$USER_DATA_DIR“ ]; then
mkdir -p “$USER_DATA_DIR”
if [ -f „$SEND_METRICS“ ]; then
# Automatically opt-in to Chrome OS stats collecting.  This does
# not have to be a cryptographically random string, but we do need
# a 32 byte, printable string.
head -c 8 /dev/random | openssl md5 > \
“${USER_DATA_DIR}/Consent To Send Stats”
fi
# Give appropriate stuff to the users based on their domain.
if [ $DOMAIN = „google.com“ ]; then
FIRST_RUN_ARGS=”–pinned-tab-count=3 \
https://welcome-cros.appspot.com \
https://mail.google.com/a/google.com \
https://calendar.google.com/a/google.com \
chrome://newtab”
elif [ $DOMAIN = „gmail.com“ ]; then
FIRST_RUN_ARGS=”–pinned-tab-count=2 \
https://mail.google.com/mail \
https://calendar.google.com \
chrome://newtab”
else
# TODO: handle other domains.
FIRST_RUN_ARGS=”–pinned-tab-count=2 \
https://mail.google.com/mail \
https://calendar.google.com \
chrome://newtab”
fi
fi
# Allow Chromium to automatically send available SSL client certificates
# to a server. Until a client certificate UI is available in Chromium,
# this is automatically enabled for internal users.
if [ $DOMAIN = „google.com“ ]; then
CLIENTSSL_AUTH_ALLOW_ARGS=”–auto-ssl-client-auth”
fi
# We want to pass user login credentials to chrome through the cookie
# pipe, but only for the first invocation of chrome since boot.
COOKIE_PIPE_ARG=”“
if [ -p „$COOKIE_PIPE“ ]; then
# TODO: If we quote $COOKIE_PIPE, then chrome ignores the argument. Why?
COOKIE_PIPE_ARG=”–cookie-pipe=$COOKIE_PIPE”
fi
while true; do
“$BOTTLE” “Starting Chrome” &
“$CHROME” –enable-plugins \
–enable-gview \
–no-first-run $COOKIE_PIPE_ARG  \
–user-data-dir=”$USER_DATA_DIR” \
$FIRST_RUN_ARGS \
$CLIENTSSL_AUTH_ALLOW_ARGS
# After the first launch skip the cookie pipe and first run args.
rm -f “$COOKIE_PIPE”
COOKIE_PIPE_ARG=”“
FIRST_RUN_ARGS=”“
# Only loop if –loop is supplied and auto-restart isn’t disabled.
if test -f “$DISABLE_CHROME_RESTART” -o -z “$LOOP”; then
break
fi
done

Die “CLOUD”

26. Oktober 2009

Gewitterwolke_250Wer das Web 2.0 sucht,  findet das uns allen bekannte World Wide Web 1.0. Der Marketingbegriff 2.0 hält nicht ansatzweise, was er verspricht.  Die angeblichen neuen Features des Web 2.0 entpuppen sich bei näherem Hinsehen als alte Hüte.  Das als  bahnbrechend neu gepriesene Feature (soziale) Interaktivität existiert  seit der Geburtsstunde des WWW. Usenet, Foren und “schwarze Bretter” zum Posten sind von Anfang an dabeigewesen. Hingegen steckt das semantische Web, das Maschinen das Verständnis von menschlichen Texten ermöglichen soll, noch in den Kinderschuhen. Das verdiente Upgrade auf 2.0 lässt noch auf sich warten!

Unsere Aufmerksamkeit verdient viel mehr das Cloud Computing, die Vernetzung der Rechner zu einer einzigen “Super”- Maschine, das schiere Explodieren an netzbasierten Services und Diensten im World Wide Web.  Das ist die wahre epochale Umwälzung in der Informationstechnologie, die zur Zeit stattfindet.

Einen historischen Abriss zu diesem Thema liefert Nicholas Carr in seinem Buch:  “The Big Switch: Rewiring the World, from Edison to Google”.

Eine ausführlichere Zusammenfassung der Kapitel erscheint in lockerer Folge hier:

The BIG SWITCH – Der große Wandel

Teil 1: Eine Maschine

Kapitel 1 : Burdons Wasserrad

Kapitel 2: Der Erfinder und sein Verwalter

Kapitel 3: Digitales Räderwerk

Kapitel 4: Good-bye,  Mr. Gates

Kapitel 5: Die weiße Stadt

Teil 2: In der Wolke leben

Kapitel 6: Word Wide Computer

Kapitel 7: Von den Vielen zu den Wenigen

Kapitel 8: Die große Zerlegung der Einheiten

Kapitel 9: Kampf gegen das Netz

Kapitel 10: Ein Spinnennetz

Kapitel 11: IGod

Epilog: Flamme und Glühfaden

Download

Pdf_icon

Der diskrete Charme der Größenachse Teil 3

30. September 2009

Wenn der visualisierende Blick schon die Nichtwähler/innen ins Auge gefasst hat,  darf die Betrachtung der ungültigen Stimmen nicht fehlen.  Immerhin war es Ihnen die Mühe wert, im Gegensatz zu den Nichtwähler/innen nicht einfach zu Hause zu bleiben.  Im Gegenteil,  sie pilgerten wie die gültigen Stimmabgeber zu den Wahlurnen oder nahmen zumindest die formalen Hürden der Briefwahlprozedur in Kauf. Und … ? Das jedoch wird immer ein Geheimnis bleiben.  Ausführliche politische Statements? “Ohne Euch kämen wir besser klar!” Ein flüchtiger Gruß an die übrigen “Ungültigen” ? Oder schlicht der erfolglose Versuch, getreu dem Wahlreglement eine oder zwei gültige Stimmen abzugeben? Wir wissen es nicht und werden es  auch nie erfahren. Ihnen allen sei die untere rote Linie  auf der Nichtwähler/innen – Grafik gewidmet,  die Prozentwerte habe ich ganzzahlig auf- bzw. abgerundet.

Quelle: Bundeswahlleiter

Quelle: Bundeswahlleiter

Der diskrete Charme der Größenachse Teil 2

28. September 2009

Der gestrige Tag hat einen neuen Eintrag in der visualisierten Nichtwähler/innenstatistik nötig gemacht.  Der Bundeswahlleiter hat ein vorläufiges Endergebnis der Bundestagswahl 2009 ins Netz gestellt.

Datenvisualisierung 1:  Topwert der y- Achse entspricht 30%,  nicht 100%

Quelle: Bundeswahlleiter

Quelle: Bundeswahlleiter

Datenvisualisierung 2:  Topwert der y- Achse entspricht 100%

Quelle: Bundeswahlleiter

Quelle: Bundeswahlleiter

Der Interpretation der Visualisierung aus dem vorigen Artikel  “Der diskrete Charm der Größenachse” gibt es nichts hinzuzufügen. Vielleicht eins noch:  Der Anstieg der Nichtwähler/innen zwischen der  Bundestagswahl 2005  und der gestrigen 2009: 4,3 Millionen Nichtwähler/innen mehr. Gestern waren es rund 18.135.000 Nichtwähler/innen, 2005 gerundete 13.826.000

Der diskrete Charme der Größenachse

26. September 2009

Der Anteil der Nichtwähler/innen bei den Bundestagswahlen von 1949 bis 2005  steigt, vermitteln zumindestens die Medien.  Belastbare Zahlen dazu liefert der Bundeswahlleiter.

Datenvisualisierung 1:  Topwert der y- Achse entspricht 30%,  nicht 100%

Quelle: Bundeswahlleiter

Quelle: Bundeswahlleiter

Die Visualisierung der Daten lässt uns die Grafik  folgendermaßen interpretieren: Der Anteil der Nichtwähler/innen nimmt von der ersten Bundestagswahl 1949 an um die Hälfte bis zu den Wahlen 1972 und 76 ab, steigt dann von den Wahlen 1980 abgesehen wieder um das Doppelte an, erreicht 1990 einen vorläufigen Höhepunkt, sinkt wieder bis 1998 und stieg seitdem stetig auf den Höchstwert von 1990. Auffällig bleiben die niedrigen Werte bei den Wahlen 1972 und 1976.  Der Hauptaugenmerk wird bei der hier gewählten Größenachse (30% entsprechen 100%) eindeutig auf die  bis zu 50 % divergierenden Ergebnisse gelenkt.

Datenvisualisierung 2:  Topwert der y- Achse entspricht 100%

Quelle: Bundeswahlleiter

Quelle: Bundeswahlleiter

Die Visualisierung der Daten durch die geänderte Werteskalierung der y- Achse  vermittelt einen nachvollziehbar anderen Eindruck als die erste Visualisierung. Die  Kurve vermittelt  einerseits  einen realistischeren Eindruck.  Die Bandbreite des Anteiles der Nichtwähler/innen hält sich relativ stabil zwischen 10% und 20%.  Andererseits sind die Sprünge zwischen den einzelnen Werten schwerer auszumachen.  Die niedrigen Werte in den 70ern fallen  gar nicht mehr von selbst  ins Auge.

Ein zweiter Blick auf die jeweiligen Größen- und auch Zeitachsen sowie auf die gewählten Größeneinheiten sollte uns zur Gewohnheit werden. Er sagt einiges über den gewünschten visuellen Effekt von Grafiken aus.

Projekt “Optimierung S-Bahnen” von Bahn und Politik umgesetzt

10. September 2009

Wer kennt das nicht aus seinem Privat- oder Arbeitsleben? Projekte, die komplett schief gingen. Projekte, an deren Starttermin wir uns nicht mehr erinnern können, geschweige, dass wir ihren Abschluss noch erleben werden. Projekte, für deren erfolgreiche Umsetzung uns niemand auf die Schulter geklopft hat. Spätestens nach drei Projekten haben wir es begriffen: Die besten Projekte sind immer noch  die, von denen wir in weiser Voraussicht die Finger lassen. Das verschafft uns  Zeit und Muße, den Blick auf ambitionierte Projekte anderer in unserer nächsten Umgebung zu werfen. Staunend stehen wir wartend an den S-Bahnsteigen. So schlecht hätten wir es selbst mit größten Anstrengungen nicht hinbekommen. Selbst wenn uns jemand dafür auf die Schulter geklopft hätte!

S-Bahn_600

Schreibe einen Kommentar