Byte GameMaker Magazin

Magazin für Hobby-Spieleentwicklung

Mikrowelten – Geschichten der Computertechnik – Teil 1: Von Adam bis Zuse

Lesedauer 10 Minuten

Die Geschichte der Mikroprozessoren und der heutigen Computertechnik ist lang und voller interessanter Anekdoten. Diese kleine Artikelserie möchte einige erzählen, um die vollbrachten Leistungen der Pioniere zu würdigen und die Folgen – mit teils kuriosen Blüten – zu beschreiben. Dabei soll es an Verweisen zur Popkultur in späteren Episoden nicht mangeln, schließlich erlangten die Errungenschaften erst eine wesentliche Bedeutung, nachdem sie den Weg von Wissenschaft über Ingenieurwesen bis in die Mitte der Gesellschaft vollzogen.

Konservierte Information

Bereits in der frühesten Menschheitsgeschichte entstand das Bestreben, Wissen aufzuzeichnen und – etwas später – zu verarbeiten. Genau genommen handelt es sich um zwei Seiten derselben Münze. Schließlich wird jede vom Menschen erzeugte Information ausnahmslos dafür bereitgestellt, um von einem leistungsfähigen Computer, nämlich dem menschlichen Gehirn, verarbeitet zu werden. Da Neurowissenschaften und neuronale Netzwerke kein Bestandteil dieser Serie sein sollen, ist mit der Informationsverarbeitung ausschließlich ein maschineller Prozess im klassischen Sinne gemeint.

Neandertaler

Die ältesten Zeugnisse reichen mindestens 44.500 Jahre zurück, was bereits mehrere weltweit bekannte Höhlenmalereien beweisen. Forscher vermuteten 2018, dass die frühesten bisher entdeckten Aufzeichnungen gar über 73.000 Jahre zurückreichen. Dies zeigten Zeichnungen auf Steinen, die in einer Höhle bei Kapstadt gefunden wurden.

Frühe Datenspeicherung

Es kann davon ausgegangen werden, dass unsere Vorfahren, seien es Homo sapiens, Neandertaler und andere Verwandte, noch früher damit begannen, Informationen zu speichern, nur waren die verwendeten Datenträger nicht so langlebig wie Steine. Wer versucht, Daten von alten USB-Sticks zu entlocken, weiß was gemeint ist.

Höhlenmalerei

Sogar auf Muscheln wurden Farbpigmente gefunden, deren Alter nach der Uran-Thorium-Methode auf 115.000 Jahren bestimmt wurde. Doch so beeindruckend das ist, muss zwangsläufig der Grund erfragt werden, da die Ursprünge der Informationsaufzeichnung im Kern bis heute gewahrt blieb, selbst wenn dies in Zeiten von Emojis und Memes nicht immer ersichtlich erscheint.

Mehr als nur Kunst?

Besonders die erhaltenen Malereien an Höhlenwänden werden als Kunst klassifiziert, doch es steckt mehr dahinter. Es ist nicht so, als hätten unsere Vorfahren Mammuts erlegt, den Höhleneingang gepflastert um anschließend vor Langeweile die heimischen Wände mit langlebiger, aber hoffentlich bleifreier Farbe zu bepinseln. Es existierte eine Notwendigkeit, die aus mehr bestand als Tipps aus „Schöner Wohnen“.

Die Erkenntnis, dass Aufzeichnungen vielfach geeigneter sind als das gesprochene Wort, Gesten und Mimik, wird die treibende Kraft gewesen sein. Wie später das gedruckte Wort, das effizienter ist als es jedem Leser persönlich zu erzählen, stellten bereits die Vorfahren fest, das eine Zeichnung in Sand, Kerben in Holz oder Stein eine bessere Form der Informationsweitergabe sein können als Grunzlaute mit drei gen Himmel gerichteten Fingern. Hierbei könnte mancher Leser an einen vergangenen Urlaub auf Mallorca denken.

Effiziente Aufzeichnung

Schon vor Urzeiten wurde versucht, die Bedeutung der Information mit ihrer Langlebigkeit zu verbinden, auch wenn dies kein Naturgesetz ist. Selbst heute lassen sich sog. vernunftbegabte Wesen eine Rechnung eines Fastfood-Restaurants tätowieren, was das o. g. Verhältnis ad absurdum führt. Dem Neandertaler hingegen ist größere Geisteskraft zuzutrauen und so kann angenommen werden, dass seine Höhlenmalereien mehr als nur Kunst sind. Sie enthält Informationen zu Beute, Jagd und den Möglichkeiten zu überleben. Sie hatten über Generationen Bestand, selbst wenn der Dorfälteste verunglückte.

Hieroglyphen

Die Entwicklung der Schrift

Zeichnungen sind effektiv, aber oft nicht effizient. Je mehr Details benötigt werden, umso schwieriger wird es, die Daten aus dem Gehirn in eine grafische Darstellung zu transformieren. Außerdem bleibt es denjenigen vorbehalten, die über das nötige Talent und ggf. Werkzeuge verfügen. Aus einfachen Skizzen wurden komplexe Wandgemälde, daraus wiederum vereinfachte Symbole, bis man auch hier die Grenzen erreichte. Vor circa 5500 Jahren entwickelten Menschen in Mesopotamien schließlich die Keilschrift. Eine Revolution der Datenerfassung. Sie leitete sich von Piktogrammen ab, welche, wie etwa die ägyptischen Hieroglyphen, hübscher aussehen, aber nicht sehr effizient sind. Die Effektivität der Bildzeichen hingegen ist unbestritten. So kann man selbst ohne Sprachkenntnisse den Inhalt zumindest interpretieren. Bei der Keilschrift wird das deutlich schwieriger, sie lässt sich jedoch von Eingeweihten besser ausführen.

Keilschrift

Interessant ist die Beobachtung, dass sich die Mathematik ähnlich entwickelte. Die ältesten Nachweise für Zählverfahren reichen 50.000 Jahre zurück. Die Pyramiden von vor 4500 Jahren sind ein Indiz dafür, dass sich mit der Entwicklung der Schrifttypen auch die Rechenkunde deutlich weiterentwickelte. Wie viel die Menschen im Altertum tatsächlich über Mathematik wussten, ist nur unzureichend bekannt. Dies liegt u. a. in der falschen Wahl des Datenträgers begründet. Papyrus und Pergament sind unter gewissen Umständen in etwa so zuverlässig wie eine 5,25“-Diskette.

Erste Datenverarbeitung

Die Gründe, Daten mal mehr und mal weniger automatisch zu verarbeiten sind vielfältig. Bei mathematischen Operationen kann die Komplexität der Berechnungen ein Problem werden, beziehungsweise das fehlerhafte menschliche Gehirn. Oft ist es lediglich eine Hilfe für geringer ausgebildete Menschen, die komplexere Daten bewältigen sollen. Es kann Mittel zum Zweck oder schlicht die einzige Methode sein, einen Vorgang automatisiert ständig zu wiederholen. Aufgrund der Fülle an möglichen Beispielen seien nur ein paar genannt.

Doch zunächst stellt sich folgende Frage: Was bedeutet eigentlich Datenverarbeitung? Der Begriff ist stark von unserer modernen Computerwelt geprägt, weshalb es interessanter wird, wenn man es umformuliert. Was ist die Verarbeitung von Daten? Daten sind der Plural von Datum, was lateinisch „Gegebenes“ heißt. Daten sind somit eine Ansammlung von Fakten, von nachweisbaren Sachverhalten. Dass die Deutung verschiedene Gesichtspunkte hat, werde ich in einem späteren Teil der Serie vertiefen. Per o. g. Definition betrifft die Verwertung von Daten aber bereits einen Kalender. Witzbolde mögen anmerken, dass Waffen eine Form von Datenverarbeitung seinen, schließlich würden sie Fakten schaffen.

Kalender und ihre Bedeutung

Vorerst soll unser Fokus auf Hilfsmitteln liegen, welche es erleichtern, Daten zu verarbeiten oder ab einer gewissen Komplexität dies erst ermöglichen. Ein Kalender stellt primär eine Erleichterung dar. Die ältesten uns bekannten Kalender entstanden vor circa 5000 Jahren. Ursprünglich handelte es sich um Gruben, man fand sie 2004 in Schottland, wurden aber bis heute immer weiter perfektioniert. Der Sinn dieser Datenverarbeitung bestand weniger darin, herauszufinden, wann endlich der nächste gesetzliche Feiertag ist, sondern vorauszusagen, zu welchem Zeitpunkt Sommer- und Wintersonnenwende sind, um bspw. Zeiten zum sähen und ernten zu erfahren. Man kann davon ausgehen, dass kalendarische Daten noch viel früher wichtig waren, etwa das Zählen von Mondphasen, um vorherzusagen, wann jagdbare Tierarten, die umherziehen, an bestimmten Stellen auftauchen.

Steinkreis

Ein gutes Beispiel für ein Instrument zur Datenverarbeitung ist der Abakus. Es ermöglicht auf einfache Weise die Durchführung der Grundrechenarten, fortgeschrittenere Anwender können gar Quadrat- und Kubikwurzeln ziehen. Heute können viele über solche Hilfsmittel nur lachen, aber immerhin waren die Menschen der Antike in der Lage, Weltwunder wie die Pyramiden von Gizeh zu erbauen.

Der erste analoge Computer?

Der Mechanismus von Antikythera ist ein weiteres Beispiel antiker Datenverarbeitung, wobei es noch nicht vollständig enträtselt wurde. Von manchen Autoren wird es als ein analoger Rechner betrachtet, der als astronomische Uhr Verwendung fand.

Es ist interessant, dass das Binärsystem, auf dem alle bekannten Computer aufbauen, aus einer ähnlichen Zeit stammt, nämlich aus Indien im 3. Jahrhundert v. Chr. Das System kannte allerdings keine Null, obwohl damit längst in Indien gerechnet wurde. Ob bewusst oder unbewusst, so bekam das Zweiersystem, auch mit Null, bereits vor der Computertechnologie, sogar vor den Relais (s. u.) technische Verwendung. Etwa bei einer Drehorgel. Egal ob Lochkarte oder Zylinder, das Prinzip der Datenverarbeitung entspricht einem Datenträger, der seine Informationen binär speichert.

Mechanik einer Drehorgel
Mechanik einer Drehorgel

Selbst die Computertechnik in ihren Ursprüngen hatte viele Väter und Großväter. Da wäre einerseits die Evolution der Maschinen, angefangen von einfachen Seilzügen und Hebelsystemen über Dampfmaschinen und letztlich Elektrizität. Die Entwicklung der Mathematik, Physik, Chemie, Elektrochemie und weitere wissenschaftliche Gebiete. Visionären, deren Ideen und Leistungen wir unsere moderne Welt zu verdanken haben. Deshalb möchte ich den ersten Teil mit einem der Väter der Computerindustrie abschließen.

Zuse

Der Ingenieur Konrad Zuse war begeistert von Maschinen. Bereits 1924, im Alter von 14 Jahren, erfand er einen „Mandarinenautomat“. Nach Münzeinwurf gab dieser Obst und Wechselgeld heraus. Der selbsternannte „Bummelstudent“ testete mit Maschinenbau, Architektur und Bauingenieurswesen mehrere Fachrichtungen, versuchte sich aber ebenso ein Jahr lang als Reklamezeichner.

Konrad Zuse
Konrad Zuse Denkmal in Hünfeld (Foto: Jörg M. Unger; Wikipedia)

Zum Anschluss seines Ingenieurstudiums arbeitete er kurz als Statiker, gründete dann aber seine Erfinderwerkstatt. In der Wohnung seiner Eltern entstand 1937 die Z1, sein erster mechanischer Rechner. Sie werkte bereits mit binären Zahlen und war frei programmierbar. Seine Motivation, die Maschine zu bauen, formulierte Zuse knapp: „Ich bin zu faul zum Rechnen.“

Geld für den Erfinder

Im Zusammenhang mit der Z1 gibt es eines der größten Irrtümer der IT-Geschichte. Zur Finanzierung rief Zuse Kurt Pannke, einen Rechenmaschinenfabrikanten an, um seine Idee zu erklären. Dieser begann mit den Worten: „Ach, Herr Zuse, auf dem Gebiet der Rechenmaschinen gibt es absolut nichts mehr zu erfinden.“ Glücklicherweise setzte er seine Aussage fort: „Aber Sie sind ein netter junger Ingenieur, ich geb’ Ihnen 1500 Reichsmark und wenn Sie etwas ausgetüftelt haben, zeigen Sie’s mir.“

Nachbau des Z1
Nachbau des Z1 (Foto: ComputerGeek; Wikipedia)

Für Entwicklung und Bau brauchte Zuse zwei Jahre, schließlich war vieles Neuland. Dabei zeigte sich, dass er nicht nur ein guter Ingenieur, sondern Organisator war. Familie, Freunde und sogar seine Theatergruppe mussten beim Bau mithelfen.

Gedruckter Schaltkreis
Gedruckter Schaltkreis

Mit der Z1 gelang ihm der Vorläufer moderner Computer. Die Maschine rechnete korrekt, war aber mechanisch unzuverlässig und verhakte sich laufend.

Z2 und Z3

1939 kam es zur Z2, ein Prototyp bzw. Zwischenschritt für die berühmten Z3. Um die Probleme der Z1 zu beseitigen, setzte Zuse auf Relais, die er mit der Z2 testen wollte. Relais waren bereits gut bekannt, so platzierte bspw. Samuel Morse 1837 diese als Signalverstärker. Schob man sie alle 30km im Signalweg von Telegraphenleitungen ein, konnten die Impulse über weite Strecken übertragen werden.

1941 kam es letztlich zur Z3, dem ersten funktionsfähigen Digitalrechner. Hierbei wurden 600 Relais für das Rechenwerk und 1400 für das Speicherwerk verbaut. Wie bereits die Z1, so setze auch die Z3 auf binäre Gleitkommaarithmetik.

Nachbau der Z3
Nachbau der Z3 (Foto: Venusianer; Wikipedia)

Das nötige Sprungbrett stellte die Z2 dar. Eine Begutachtung durch die Deutsche Versuchsanstalt für Luftfahrt brachten Zuse 25.000 Reichsmark ein, um sein Z3-Projekt zu realisieren.

Aufgrund der Möglichkeiten mag es die richtige Zeit gewesen zu sein, um eine solche Maschine zu bauen, aber nicht zur Würdigung der geistigen Leistung. 1944 wurde „sein Kind“ bei Bombenangriffen zerstört und somit jeder Beweis, dass es diese Technologie überhaupt gab. Anhand der technischen Daten mögen Z1 und Z3 heute nicht mehr beeindrucken, zumal das Gewicht der Z3 von circa einer Tonne nicht wirklich im Verhältnis zur Rechenleistung stand, aber damals war es ein gewaltiger Sprung. Es gab bereits die Möglichkeit, Programme per Lochkarte einzulesen. Die Z3 hatte eine Geschwindigkeit von 5,3 Hz und einen Arbeitsspeicher von 200 Byte. Die Eingabe numerischer Daten erfolgte über eine Tastatur.

Was ist ein Computer?

Die historische Bedeutung von Zuses Leistungen wird außerhalb von Deutschland weitestgehend unterschätzt. Das liegt nicht nur daran, dass Geschichte von Siegern geschrieben wird, sondern vor allem am Problem, dass es zu jener Zeit keine klare Definition für den Begriff „Computer“ gab. Die Bezeichnung „Turing-Vollständigkeit“, vom Mathematiker Alan Turing in Umlauf gebracht, entstand schon 1936/1937, war aber zu jener Zeit nicht allgemein bekannt oder gar anerkannt. Deswegen gilt der ENIAC (Electronic Numerical Integrator and Computer) heute als „der erste elektronische turingmächtige Universalrechner“ und somit für viele schlicht als der erste Computer, made in USA.

Der ENIAC

Die Inbetriebnahme der ENIAC erfolgte 1946, also fünf Jahre nach der Z3 und ihre Programmierbarkeit war nur bedingt gegeben, musste sie beim 46er-Modell teilweise neu verkabelt werden. Außerdem war sie weder binär, noch verfügte sie über Gleitkommaarithmetik.

Elektromagnetisches Relais der Z4
Elektromagnetisches Relais der Z4 (Foto: Denis Apel; Wikipedia)

1945 stellte Zuse die Z4 fertig, die im April von Berlin nach Göttingen in Sicherheit gebracht wurde. Den größten Fortschritt gegenüber dem Z3 machte die freiere Programmierbarkeit. So konnten mehrere Lochstreifenleser und Lochstreifenstanzer betrieben werden. Diese Eigenschaft machte die Z4 so interessant, dass sie 1950 an die ETH Zürich vermietet wurde und damit der erste kommerzielle Computer der Geschichte wurde. Bis 1955 diente sie dort als zentraler Rechner. Eingesetzt wurde sie u. a. für geheime Berechnungen bei Kampfflugzeugen und Raketenflugbahnberechnungen.

Zuse Z4
Zuse Z4 (Foto: Clemens PFEIFFER; Wikipedia)

Zwar schaffte die Zuse KG später noch den Sprung von Relais zur Röhrentechnik und zu Magnettrommelspeichern (Z22 und Z23), aber nicht mehr hin zu Mikrocomputern. Das Werk wurde am 1. April 1971, mittlerweile von Siemens aufgekauft, geschlossen.

Außergewöhnliche Lebensleistung

Konrad Zuses Lebensleistung muss an dieser Stelle extra gewürdigt werden. Mit seinen Maschinen Z1-Z3 schaffte er eine Basis für moderne Computer, mit dem Z4 die Grundlage der deutschen Computerindustrie. Mit „Plankalkül“ erfand er die erste höhere Programmiersprache der Welt. Durch seine Ideen zum „rechnenden Raum“ legte er einen Grundstein für die digitale Physik. Schon 1958 meldete er ein Patent für ein automatisch gesteuertes Abblendlicht an, was erst 2016 in Serienproduktion ging. Er war auf vielen Gebieten ein Pionier und bis zu seinem Tod 1995 immer wieder gefragter Experte in digitalen Belangen.

 

Hat Dir dieser Artikel gefallen? Dann würden wir uns sehr über Unterstützung freuen.

Folgen
Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x