Direkt zum Seiteninhalt springen

Mensch und Maschine

Mit dem Guten rechnen

Bild: KIT

Ohne Computer geht schon heute nichts mehr beim Menschen. Doch wie wird sich die Beziehung der beiden weiterentwickeln? Wer wird künftig den Ton angeben, wenn die Maschinen immer intelligenter werden?

Zaubere den Menschen ein Lächeln ins Gesicht! Stellen wir uns vor, das ist die erste Aufgabe, die wir einem Rechner stellen. Ein intelligenter Computer würde vielleicht Witze auf alle Bildschirme projizieren oder lustige Bilder zeigen. Ein super-intelligenter Computer hingegen würde womöglich ganz anders an die Sache herangehen. Er würde vielleicht etwas viel Effizienteres, Zuverlässigeres planen und umsetzen: die Kontrolle über die Welt übernehmen, Elektronen in die Gesichtsmuskeln aller Menschen implantieren und sie mit elektrischen Impulsen zum Lächeln bringen.

Dieses Szenario stammt von Nick Bostrom, dem Leiter des Oxford Future of Humanity Institute an der Oxford-Universität. Es mag zunächst verstören. Doch es stellt eine radikale Frage, die womöglich über das Fortbestehen der Menschheit entscheidet: Wer gibt künftig den Ton an in der Beziehung zwischen Mensch und Computer, wer wird künftig die Kontrolle über wen haben? Computer jedenfalls sind auf dem besten Weg dahin, den Menschen mit all seinen Fähigkeiten um Längen zu übertreffen.

Technik ist schon heute enorm mächtig, im positiven wie im negativen Sinne: Dank des Internets zum Beispiel haben Menschen heute in mittlerweile fast allen Regionen der Welt Chancen auf Bildung und Kommunikation. Das wäre vor wenigen Jahren noch unvorstellbar gewesen. Gleichzeitig werden wir immer abhängiger von der neuen Technik. Kein Smartphone, kein Auto, keine Industrie, die ohne sie auskommt. Doch noch sitzt irgendwo immer ein Mensch, der die Kontrolle über einen Computer oder ein Schaltpult hat. In den allermeisten Fällen hat er die Möglichkeit, die Technologie in beide Richtungen einzusetzen: zum Nutzen oder zum Nachteil. “Bei einem Passagierflugzeug denkt man natürlich erst einmal nur an den Nutzen. Spätestens am 11. September wurde dann allen klar, dass es auch ein enormes Zerstörungspotenzial hat", sagt Michael Decker, stellvertretender Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie. Um das zu verhindern, müssten Gefahren schon bei der Planung neuer Technologien diskutiert werden und entsprechende Sicherheitsvorkehrungen in die Konstruktion mit einfließen. Bei einem Flugzeug hieße das etwa: Die Tanks im Flugzeug so bauen und das Kerosin so verändern, dass die Explosionsgefahr verschwindend gering ist.

An den „Aus-Knopf“ denken

Früher an die Folgen denken – das ist eine Möglichkeit, um Risiken technischer Innovationen zu senken, die heute entwickelt werden. Was aber, wenn es eines Tages kein Steuerpult mehr gibt, an dem ein Mensch sitzt? Wenn nicht der Mensch mit bösen Absichten die Gefahr ist, sondern die Maschine, die sich selbst steuert, die einen eigenen Willen hat oder erlernt? "Dass Maschinen einen echten eigenen Willen entwickeln, ist auf absehbare Zeit unrealistisch", sagt Decker. Die Fortschritte in der künstlichen Intelligenz – der von Computerprogrammen nachgebildeten menschlichen Intelligenz – seien zwar rasant. Aber noch seien Technologie und Forschung nicht weit genug, um Maschinen so etwas wie einen eigenen Willen zu attestieren. Und auch hier gelte: Eine frühzeitige Diskussion der Thematik sei entscheidend. "Wenn wir uns heute mit diesem Problem auseinandersetzen, dann können wir unsere Erkenntnisse schon morgen in die Konstruktion einfließen lassen", so Decker. In der Praxis hieße das zum Beispiel: Not-Aus-Schalter einbauen, die eine Maschine ausschalten und auf den sie selbst keinen Zugriff hat. Oder technische Barrieren einplanen, die es für die Maschine unmöglich machen, bestimmte Dinge zu tun.

Dass solche Vorsichtsmaßnahmen bereits heute aktuell sind, zeigen neueste technologische Entwicklungen. Auf San Franciscos Straßen zum Beispiel fahren – unter Aufsicht von einem Menschen, der jederzeit eingreifen kann – seit einigen Monaten sogenannte autonome Autos. Sie können sich komplett selbst steuern. Maschinen und Computer übernehmen hier also Denk- und Koordinationsaufgaben von Menschen.  

Bereits seit einigen Jahren ein Thema ist auch das sogenannte Deep Learning. Computer sollen dabei lediglich aus einer Reihe von Algorithmen selbstständig das Lernen lernen. "Ich sehe bei Deep Learning kaum Grenzen. Als lernende Komponente einer Gesamtlösung könnte es der künstlichen Intelligenz letztlich zum Durchbruch verhelfen“, sagt der Professor für Maschinenlernen Volker Tresp von der Ludwig-Maximilian-Universität München.  

Den Durchbruch feierte Deep Learning vor fünf Jahren. Damals fütterten Forscher von Googles Entwicklungsabteilung Google X ein Netzwerk aus 1000 Computern mit zehn Millionen Standbildern, die sie zufällig aus Youtube-Videos ausgewählt hatten. Sie stellten das Rechnernetzwerk vor eine Aufgabe: Gemeinsamkeiten, Muster erkennen. Drei Tage lang analysierte das Computernetzwerk mit dem Namen Google Brain die Videos, bis es die Bilderflut schließlich in drei Kategorien einteilte: menschliche Körper, menschliche Gesichter und – Katzen. Es war eines der ersten Male, dass ein Computer eigenständig etwas lernte, ohne dass ein Mensch es ihm vorher beigebracht hatte. Solche neuen Arten des Computer-Lernens sind eine ganz neue Art von künstlicher Intelligenz: "Das ist grundsätzlich das gleiche, was ein Baby macht", sagt Nick Bostrom. „Wir schaffen Algorithmen, die lernen.“

Müssen wir uns fürchten?

Wie weit sind wir also bei der künstlichen Intelligenz? Wie lange brauchen die Maschinen noch, um mit uns Menschen gleichzuziehen? In einer Umfrage unter Experten zur künstlichen Intelligenz, die ebenfalls Bostrom zusammen mit Kollegen unter anderem von der Oxford Universität durchführte, war der Tenor: Etwa im Jahr 2050 wird das Niveau der menschlichen Intelligenz auch von Computern erreicht werden.

Dabei sollten nicht die zahllosen positiven Folgen übersehen werden, die intelligentere Computer bringen. Immer mehr störende und gefährliche Tätigkeiten könnten künftig von Computern übernommen werden. Statt etwa auf den Verkehr zu achten, könnte sich der Passagier eines autonomen Fahrzeugs einem Buch, seiner Arbeit oder seinen E-Mails widmen. Es bleibt allerdings dieses ungute Gefühl: Wie lässt sich sicherstellen, dass sich intelligente Computer auf diese hilfreichen Handlangerdienste beschränken? Was könnten sie wollen, wenn sie eine eigene Intelligenz entwickeln? Wären sie uns Menschen dann noch wohlgesonnen?

Einen Rechner auszuschalten, wenn die Gefahr besteht, dass er außer Kontrolle gerät ist nicht immer so einfach. Was ist zum Beispiel, wenn das System eines ist, auf das wir angewiesen sind? Und auch das Ausschalten selbst ist nicht immer auf einen bestimmten Knopf beschränkt. Wo ist zum Beispiel der Aus-Schalter zum Internet? Außerdem, sagt Bostrom, könne sich ein superintelligenter Computer selbst schützen: "Wenn er sich bedroht fühlt, schützt er sich. Das machen wir Menschen auch. Wenn wir jemanden so intelligent machen wie uns Menschen, dann gehört das irgendwann dazu."

Gibt es also eine Möglichkeit, solche womöglich weitreichenden und fatalen Entwicklungen zu verhindern? Einerseits, betont Michael Decker aus Karlsruhe, sollte man schon bei der Konstruktion von intelligenten Maschinen beachten, dass Notbremsen und Hürden negative Folgen verhindern können. Andererseits, so Bostrom, solle man in einer künstlichen Intelligenz tief im Inneren die humanistischen Werte verankern.

Eine solche Kontrolle gestaltet sich jedoch gerade bei der Robotik als schwierig. "Das ist eine sehr modulare Technologie. Das heißt, alles wird unabhängig voneinander entwickelt und gebaut", sagt Decker. So gibt es Module für das Sehen eines Roboters, für das Hören, die Arme, die Fortbewegung. Diese Module werden dann zu Gesamtsystemen kombiniert, die unterschiedlichen Zwecken dienen. Diese Systeme müssten je einzeln mit anwendungsspezifischen Sicherheitsmechanismen versehen werden.

Nick Bostrom aus Oxford ist überzeugt, dass die Menschheit sich gerade an einem Wendepunkt befindet: "Wenn in einer Million Jahren die Menschen zurück auf das 21. Jahrhundert blicken, werden sie sagen: Das eine, was zählte, war, die Sache mit der künstlichen Intelligenz in die richtigen Bahnen zu lenken".

Fokus@Helmholtz: Mensch, Maschine! Wer wird künftig den Ton angeben?

Mittwoch, 10. Juni 2015 um 18:00 Uhr, Einlass ab 17:30 Uhr

Maschinen sind schon lange Teil unseres Alltags. Sie nehmen uns Arbeit ab, ersetzen Körperteile oder ermahnen uns, wenn wir auf der Autobahn den Sicherheitsabstand nicht einhalten. Eigentlich leben wir doch ganz gut miteinander. Oder müssen wir künftig Angst vor Roboter und Co haben? Nehmen sie uns die Arbeit, oder den Job? Wie werden Mensch und Maschine in Zukunft zusammen leben? In der kommenden "Fokus@Helmholtz"-Veranstaltung werden wir viele Fragen rund um dieses Thema aus unterschiedlichen Perspektiven beleuchten und kritisch diskutieren. Dabei wird es auch um den Einsatz von Maschinen in der Medizin als Chance gehen, um Künstliche Intelligenz, Cyborgs und wohin die rasante Entwicklung noch führen soll.
Veranstaltungsort: Microsoft Berlin, Unter den Linden 17 / Eingang Charlottenstraße, 10117 Berlin

Podium:

  • Enno Park, Vorsitzender des Cyborg-Vereins
  • Raúl Rojas, Professor für Informatik, Spezialgebiet Künstliche Intelligenz, Freie Universität Berlin
  • Christian Schwägerl, Autor und Journalist
  • Janina Sombetzki, Technikphilosophin, Christian-Albrechts-Universität zu Kiel
  • Klaus Wiegerling, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS), Karlsruher Institut für Technologie

Moderation: Janine Tychsen

Leser:innenkommentare