Direkt zum Seiteninhalt springen

Computerevolution

Vom Gedankenkonstrukt zum Quantenkonstrukt

Der Z3 im Deutschen Museum in München. CC-BY-SA-3.0

Vor 75 Jahren präsentierte Konrad Zuse den Z3. Die ersten frei programmierbaren Rechenmaschinen waren so groß wie eine Schrankwand und jedem heutigen Taschenrechner unterlegen. Eine kleine Historie des Computers und ein Blick in die Zukunft anlässlich des Jubiläums.

Heute sind Computer winzig klein und enorm leistungsfähig. Ein vollwertiger Rechner belegt kaum mehr Fläche als ein Ein-Euro-Stück . Als die Geschichte des modernen Computers begann, war man schon froh, wenn der Rechner in ein Zimmer passte. Das war am 12. Mai 1941, mitten im zweiten Weltkrieg. Damals stellte der deutsche Ingenieur und Erfinder Konrad Zuse seine „Z3“ vor. Die Maschine gilt als der erste funktionsfähige, frei programmierbare Computer der Welt und das Kriegsjahr 1941 damit als die Geburtsstunde des modernen Computers. Doch bevor der Computer von Zimmergröße auf Maße eines Euros schrumpfen konnte, musste er erst einmal riesengroß werden.

Die Trennung von Maschine und Programm

Der erste Programmierer war eine Frau. Ada Lovelace. CC-BY-SA-3.0

Lässt man einmal die Vordenker mit ihren Leistungen bei der Entwicklung von Rechenmaschinen ein wenig beiseite, landet man in den Jahren um 1830 bei Charles Babbage und Ada Lovelace. Beide gelten laut Jürgen Becker, Leiter des Instituts für Technik der Informationsverarbeitung am Karlsruher Institut für Technologie, als Pioniere der Geschichte des Computers. Babbage, ein wohlhabender Mathematiker und Erfinder, entwickelte im Laufe seines Lebens mit der „Analytical Engine“ eine mechanische Rechenmaschine, die bereits programmierbar gewesen wäre, hätte sie Babbage bis zu seinem Tod tatsächlich fertigstellen können. Sie gilt als Vorläufer des modernen Computers.

Auch Ada Lovelace entstammt einem guten Haus, was ihr eine naturwissenschaftliche Ausbildung ermöglichte und zu dieser Zeit keine Selbstverständlichkeit war. Während ihrer jungen Jahre lernte sie Babbage kennen. Später übersetzte sie eine Beschreibung der Analytical Engine ins Englische und fügte eigene visionäre Gedanken hinzu: So hat Lovelace unter anderem formuliert, dass eine Rechenmaschine mehr könne, als nur mathematische Aufgaben zu lösen. Zudem postulierte sie die Trennung von Maschine und Programmierung, ein Prinzip, das wir heute als die Unterteilung in Hard- und Software kennen. Nicht zuletzt gilt Ada Lovelace als erster Programmierer der Welt. Sie hatte für die Maschine von Babbage einen Berechnungsablauf geschrieben, der als erstes formales Programm gilt.

Groß und immer größer

Nachbau der Z1. CC-BY-SA 3.0

Es folgten viele verschiedene mechanische Rechenmaschinen. Darunter auch solche, die bereits Eingaben - zum Beispiel per Lochstreifen - akzeptierten. Eine frei programmierbare Maschine tauchte jedoch nicht auf. Bis zum Jahr 1938, in dem Konrad Zuse seine "Z1" fertigstellte. Nur wollte die Maschine nicht so, wie es ihrem Erfinder vorschwebte: Die Mechanik streikte immer wieder. Voll funktionsfähig war sie im Original nie. Ganz anders dann drei Jahre später die "Z3". Beide Maschinen wurden im Krieg zerstört. Bemerkenswert ist, dass die Rechner noch geradezu kompakt waren. Die Z1, erzählt Jürgen Becker, stand noch in Zuses elterlichem Wohnzimmer. Auch die Z3 war noch überschaubar. Sie passte in einen Raum in Zuses frisch gegründetem Ingenieurbüro. Erst nach dem Krieg wurden die Rechenmaschinen mit immer mehr Röhren und Relais immer leistungsfähiger. Sie wuchsen zu tonnenschweren Ungetümen, die sogar begehbar waren. Mit der Größe wuchs auch ihr Energiebedarf.
Den enormen Energiehunger und die gewaltigen Ausmaße der Rechenmaschinen nach Kriegsende beendete ein Winzling aus der Halbleitertechnik: Der Transistor. Dieser elektronische Schalter, der Relais und Röhren in Rechenmaschinen ersetzte, gilt vielen Fachleuten als weiterer Meilenstein der Computerhistorie, so auch den KIT-Professoren Jürgen Becker und Christian Koos. Erst damit hätten die Entwickler die Möglichkeit bekommen, hochintegrierte Rechner zu bauen, bei denen erst Tausende, später Millionen, heute Milliarden von Transistoren auf winziger Fläche Platz finden. Das Bauteil, das vereinfacht zwischen „0“ und „1“ schaltet, war auch um ein Vielfaches schneller und wesentlich robuster, als die Vorgänger Relais und Röhre. Außerdem ließ sich so die Verlustleistung senken. „Ein Thema bis heute“, sagt Becker. Mit dem Transistor begann Ende der fünfziger Jahre die Zeit der Miniaturisierung. Für Christian Koos, dem Leiter des Instituts für Photonik und Quantenelektronik, war dann der Schritt in Richtung integrierter Chips mindestens genauso groß. Der erste dieser Art war der Intel 4004, der 1971 auf den Markt kam. Er befeuerte die Computer seiner Zeit mit 4-Bit-Architektur und einer Taktfrequenz bis zu 740 kHz.

Weiterentwicklung mit Gesetzeskraft

Xerox Alto. CC-BY-SA 3.0

Die Entwicklung der Halbleitertechnik und deren Leistungszuwachs interessierten den noch jungen Wissenschaftler Gordon Moore. Er beobachtete die Neuerungen mit großem Interesse. Besonderes Augenmerk legte er auf die Zahl der integrierten Transistoren. Er stellte fest, dass sich deren Zahl alle ein bis zwei Jahre verdoppelte. In einem Aufsatz im Jahr 1965 formulierte er seine Beobachtungen. Damit war das „Moorsche Gesetz“ formuliert. Mit Einschränkungen gilt es bis heute und beschreibt den regelmäßigen Leistungszuwachs bei Prozessoren. 

Zurück zur beginnenden Miniaturisierung: Mit ihr nahm die Computerindustrie Fahrt auf und der Weg war frei, für jene Entwicklungen, die dem heutigen Personal Computer schon ziemlich ähnlich waren. Den Anfang in dieser Richtung machte der Xerox Alto. 

Er gilt als der erste Computer mit grafischer Oberfläche und einer Maus als Zeige- und Eingabegerät, war mit Preisen zwischen 30.000 und 40.000 US-Dollar aber immens teuer. Den Durchbruch für diese Art von Computern brachte das Unternehmen Apple unter Leitung von Steve Jobs. Es stellte 1984 den „Macintosh“ vor. Zusätzlich zum für damalige Verhältnisse revolutionären Preis von nur knapp 2500 US-Dollar überzeugte der Mac, wie ihn Fans bald nannten, durch besondere Benutzerfreundlichkeit.

Der erste Mac. CC-BY-SA-3

Ein paar Jahre zuvor setzte der Chip-Hersteller Intel einen Meilenstein. Er führte 1978 mit dem 8086 die sogenannte x86-Architektur ein. Dahinter verbirgt sich, stark vereinfacht beschrieben, unter anderem der sogenannte Befehlssatz und damit die Anzahl aller Befehle, die der Mikroprozessor ausführen kann. Die x86-Architektur wurde  bis heute zur erfolgreichsten Computer-Architektur weltweit. Mit dem x86 stieg IBM auch ins Geschäft der Heimcomputer ein. Nur ein Betriebssystem für die Rechner hatte der Konzern noch nicht. Über Umwege lernte IBM die noch junge Firma Microsoft und ihren Gründer Bill Gates kennen. Gates lieferte schnell eine, wenn auch auf einem fremden System basierende, Betriebssoftware. IBM war nicht sehr begeistert, die Käufer aber schon. Der Rechner und damit auch das Betriebssystem wurden ein großer Erfolg – sogar noch ohne grafische Oberfläche und Mauseingabe. Beide folgten erst mit „Windows 1“ im Jahr 1985.
Der Rechner geht ins Netz
Schon früh erkannte man, dass ein Rechner allein zwar nützlich, Rechner im Verbund aber noch deutlich nützlicher sind. Und so begann parallel zur Entwicklung der modernen Computer die Entwicklung der Vernetzung. Aller Anfang dessen, was wir heute unter Computernetzen verstehen, begann Ende der 1960er Jahre mit dem Arpanet. Der Vorläufer des heutigen Internets verband zu Anfang nur vier US-amerikanische Universitäten. In den folgenden Jahren wurden weitere Unis, unter anderem aus Europa, ans Netz angeschlossen. Richtig nutzbar wurde es aber erst ab Ende der 70er Jahre durch die Protokolle TCP/IP. Unter dieser Bezeichnung, die für „Transmission Control Protocol/Internet Protocol“ steht, werden eine Reihe von Protokollen versammelt, die für den Datentransport in Netzwerken wie dem Internet notwendig sind. Sie bilden bis heute die Grundlagen für Computernetzwerke aller Art und nicht zuletzt des Internets. 
Mit Microchips und Miniaturisierung sowie zuverlässiger flexibler Vernetzung war das Fundament für die IT-Welt von heute geschaffen. Die hat sich seitdem kontinuierlich weiterentwickelt, wenn auch in evolutionärer Form. Revolutionäre Umbrüche hat es keine mehr gegeben. So gilt  das „Moorsche Gesetz“ bis heute. Jürgen Becker ist sich sicher, dass das wird auch noch eine ganze Weile so bleiben wird: „Die Integration der Schaltkreise ist immer noch auf der Ebene, die Moore prognostiziert hat. Allerdings stoßen wir an Grenzen. Durch intelligente und parallelisierte Hard- und Software-Lösungen werden wir Silizium treu bleiben und Moores Law sicherlich noch zehn, zwanzig Jahren folgen.“ Neuartige Konzepte wie Quantencomputing oder Kohlenstoffnanoröhrchen sieht er noch im Stadium der Grundlagenforschung. Beide könnten Computer um ein Vielfaches leistungsfähiger machen, als heutige Rechner. Die Prognose seines Kollegen Christian Koos geht in die gleiche Richtung: „Ich sehe zur Zeit keine Technologie, die das Potential hat, die aktuelle Technologie abzulösen.“ Doch beide sind sich auch sicher, dass es nicht ewig  so weitergehen wird. Da wären beispielsweise Abwärme und zu hoher Energiebedarf. Auch die Integration von Elementen in kleinstem Maßstab stößt an ihre Grenzen. Deswegen sieht Christian Koos kaum mehr Chancen auf große Weiterentwicklung der Silizium-basierten Technologie: „Im Augenblick skaliert man vor allem im Bereich der Großrechner mit roher Gewalt. Also man nimmt einfach mehr vom Gleichen, packt das irgendwie zusammen und parallelisiert es. Immer, wenn solche Ansätze verfolgt werden, dann zeigt das, dass eine Technologie ziemlich am Ende ihrer Leistungsfähigkeit angelangt ist. Und bislang wurde sie historisch auch immer ein paar Jahrzehnte später durch etwas anders abgelöst. Ich glaube, das gleiche wird hier passieren, ich weiß nur noch nicht wodurch.“

Noch ferne Zukunft

Eine mögliche Zukunft: Das bereits genannte Quantencomputing. Der Quantencomputer arbeitet nach einem gänzlich anderen Prinzip als ein Heimcomputer, in dem er quantenmechanische Zustände nutzt. Was das ist, erklärt KIT-Wissenschaftler Dr. Martin Weides: „Ein herkömmlicher Computer arbeitet mit der binären Information ‚0‘ oder ‚1‘, ‚aus‘ oder ‚an‘. Quantencomputerchips haben als kleinstmögliche Speichereinheit Quantenbits, kurz Qubits, bei denen es auch Werte dazwischen gibt.“ Damit sollen Berechnungen möglich werden, die heute – wenn überhaupt – nur unter größten technischen Anstrengungen lösbar wären. Weides hofft, einen Quantensimulator als Vorstufe für den Quantencomputer bauen zu können. Er ist überzeugt: „ Quantencomputing wird eine Revolution, weil man die Möglichkeit hat, ganz anders zu rechnen.“
Noch ein zweiter Bereich der Informatik zieht aktuell viel Aufmerksamkeit auf sich. Rechner sollen intelligent werden. Darunter verstehen Fachleute, dass sich Computersysteme an äußere Bedingungen anpassen, Muster und Gesetzmäßigkeiten erkennen. Da echte Intelligenz aktuell bei Computern als wenig wahrscheinlich gilt, spricht man heute eher vom „Maschinellen Lernen“. Dass Verfahren dieser technischen Gattung zum Einsatz kommen, kann der Benutzer erahnen, wenn zum Beispiel eine Spracherkennung immer besser mit dem gesprochenen Wort und einem Dialekt klarkommt. Auch beim automatisiert fahrenden Auto und Robotern in der Industrie 4.0 spielen Algorithmen des maschinellen Lernens eine große Rolle. Dabei füttern Wissenschaftler ihre Systeme mit jeder Art von Daten – Stichwort „Big Data“, also riesige ungeordnete Mengen an Daten – und lassen die Datenberge mit Hilfe unterschiedlichster Algorithmen nach Zusammenhängen und Mustern durchforsten. So lernen Maschinen heute. Sie sind aber noch immer an die Grenzen der Programme gebunden, die der Mensch vorgibt. In Zukunft sollen Maschinen und System in der Lage sein, selbstständig neue Erkenntnisse zu gewinnen und – wichtiger noch – Schlüsse und Entscheidungen daraus abzuleiten. Und Quantencomputer könnten das noch um ein Vielfaches schneller und effektiver, als Rechner der herkömmlichen Art.

Leser:innenkommentare