Das schwarze Loch der Technologie – dritter Teil


Im ersten Teil habe ich Ray Kurzweils Idee der sogenannten technologischen Singularität vorgestellt. Er behauptet, dass die technologische Entwicklung sich selbst befruchtet und damit immer weiter beschleunigt. Irgendwann in naher Zukunft, etwa im Jahre 2030 erreicht sie einen Punkt, an dem quasi alles gleichzeitig erfunden wird. Der Physiker und Science-Fiction-Autor Vernor Vinge und der Schriftsteller Charles Stross koppeln das Auftreten der Singularität an die Erschaffung der ersten übermenschlich intelligenten Computer. Solche Maschinen, so argumentieren sie, können sich selbst optimieren und so ihre Intelligenz in kurzer Zeit unerhört steigern.
Im zweiten Teil habe ich über die Kritik an dieser Idee berichtet. Niemand kann ausreichend sicher vorhersagen, wie sich die Schaffung einer künstlichen Überintelligenz auswirken wird. Wer sagt denn, dass diese Maschinen motiviert sind, sich selbst zu verbessern? Vielleicht tun sie wirklich nur das, was ihre Schöpfer ihnen vorgeben. Das würde den technischen Fortschritt kaum beeinflussen.
Es könnte aber auch sein, dass die technologische Singularität nicht durch das Auftreten von künstlichen Intelligenzen ausgelöst wird, sondern durch die Erschaffung von hyperintelligenten Menschen. Ihre Motivation wäre unserer vermutlich sehr ähnlich, sie würden wohl tatsächlich versuchen, ihre eigenen Möglichkeiten zu erweitern, viel Geld mit bisher undenkbaren Erfindungen zu verdienen. Aus diesem Grund könnten sie ein echter Machtfaktor werden.
Intelligenz ist zum Teil erblich. Es tobt ein heftiger Gelehrtenstreit darüber, wie groß dieser Teil ist. In jedem Fall kann die Manipulation geeigneter Gene die Intelligenz eines Kindes deutlich steigern. Das ist nach heutigen Standards unethisch, aber Moral ist bekanntlich dehnbar.
Zum Zweiten könnte man das menschliche Nervensystem direkt mit einem Computer verbinden. Das würde die Möglichkeiten des Gehirns erheblich erweitern. Erste Ansätze dazu gibt es bereits: So werden seit etwa 20 Jahren taube oder schwerhörige Menschen mit sogenannten Cochleaimplantaten versorgt. Die Cochlea ist die Hörschnecke. Hier setzen Haarzellen die vom Ohr aufgenommenen akustischen Schwingungen in Hörnervenreize um. Das Implantat bringt eine eigene Elektronik für die Aufbereitung der Schallschwingungen mit und leitet die so gewonnenen Impulse über bis zu 22 Elektroden direkt an den Hörnerven weiter. Das so erzeugte Hörerlebnis ist klingt nicht unbedingt natürlich, aber besser als mit externen Hörgeräten.
Entsprechende Implantate für Blinde sind noch im Versuchsstadium, die englische Wikipedia gibt einen guten Überblick darüber. Einige Projekte sehen vor, den visuellen Cortex direkt zu stimulieren, also tatsächlich einen Computer direkt mit dem Gehirn zu verbinden.
Sollte das funktionieren, wäre es nur noch ein kleiner Schritt zu einer Erweiterung des Sehsinns auf infrarotes oder ultraviolettes Licht.
Auch die direkte Steuerung von künstlichen Gliedmaßen durch Nervenimpulse is möglich. Manche Menschen können sich nach einem schweren Schlaganfall nicht mehr bewegen, sind aber bei Bewusstsein. Viele können sogar einigermaßen normal hören und sehen. Sie sind quasi bei vollem Bewusstsein in einem gelähmten Körper eingeschlossen. Man spricht dann vom „Locked-in-Syndrom“. Eine Computer-Schnittstelle direkt zum Gehirn ist die einzige Chance für diese Menschen, über mit der Umwelt in Verbindung zu treten. Die Hirnströme zur Steuerung des Rechners können am Schädel, direkt auf der harten Hirnhaut oder über eine direkt ins Gehirn plazierte Sonde abgenommen werden. Technisch wäre es also in absehbarer Zeit möglich, Menschen mit Computerhilfe zu Superintelligenzen aufzurüsten.
Superintelligente Menschen hätten vermutlich ähnliche Gefühle, Motive und Ziele wie andere Menschen. Ihnen ständen aber überlegene geistige Mittel zu Gebote. Das heißt aber nicht, dass sie gleich die Weltherrschaft übernehmen. Im Gegenteil: Sie müssten mit dem geballten Misstrauen der übrigen Menschheit rechnen und werden es schwer haben, in Entscheidungspositionen zu gelangen.
In der Wirtschaft und der Politik reicht Intelligenz sowieso für einen raschen Aufstieg nicht aus, Ehrgeiz und Beharrlichkeit sind mindestens ebenso wichtig. In der Wissenschaft hätten Superintelligente sicherlich gute Chancen, aber auch dort kommt man ohne Geduld und Fleiß nicht weiter. Außerdem ist Forschung heute eine Industrie und Wissenschaftler brauchen Geldgeber, Geräte und Mitarbeiter. Der „Mad Scientist“, der im Kellerlabor geniale Erfindungen macht, gehört einer versunkenen Epoche an.
Es könnte natürlich sein, dass immer mehr Eltern ihren Kinder das Intelligenzgen einzupflanzen lassen, sobald das möglich wird. Und vielleicht wird irgendwann ein universelles Brain-Computer-Interface so einfach zu implemtieren sein wie eine künstliche Hüfte. In diesem Fall gäbe es sehr schnell Millionen von superintelligenten Menschen. Und dann? Keine Ahnung. Wie soll ich vorhersehen, was Menschen tun werden, die viel intelligenter sind als ich?

Ein Kommentar zu “Das schwarze Loch der Technologie – dritter Teil”

  1. Ingo-Wolf Kittel Antworten | Permalink

    Science-fiction - mittels Sprache

    Mit ungeklärten Begriffen zu arbeiten regt immer die Phantasie an - und die ist bekanntlich unbegrenzt. Ich versuch's mal mit dem Gegenteil:

    "Intelligenz" gibt es m.E. als solche gar nicht; ich kenne diesen Begriff nur als abstrakte Bezeichnung für bestimmte geistige Leistungen. (Ich hoffe mich auch darin nicht zu täuschen, dass Begriffe so wenig genetisch "vererbt" werden können wie reale Leistungen, sondern allenfalls spezifische Voraussetzungen dafür. Mir ist bislang nicht bekannt geworden, nach welchen Voraussetzungen für geistige und noch dazu intelligente Leistungen Genetiker bisher gesucht haben. Ihre wie auch in der Hirnforschung beliebten "Korrelationen" sind reine Artefakte. Noch dazu sind sie beliebig herstellbar, sogar bei Toten - jedenfalls ist dies vor kurzem sogar bei einem leblosen Lachs gezeigt worden.*)

    Schon gar nicht halte ich die maschinelle SIMULATION von intelligenten Leistungen für "Intelligenz", auch nicht für "künstliche Intelligenz". Meiner Ansicht nach ist eine solche Simulation ja nicht einmal eine Leistung und schon gar keine intelligente Leistung - jedenfalls keine der konstruierten Maschine, selbst wenn die richtig "funktioniert", sondern die ihrer Konstrukteure.

    Wer Gedächtnisleistungen als "Speicherung von Informationen" ansieht, mißversteht m.W. schon den Begriff "Information". Nervensysteme "speichern" auch nichts. Mit dem Vergleich mit einen Speicher ist ja "eigentlich" die biologische Eigenschaft von Gehirnen gemeint, dass deren Gebrauch nach allem, was wir heute wissen, mit einer Änderung in ihrer synaptischen Mikrostruktur einhergeht. Auf sie wird die Tatsache zurückgeführt, dass deswegen alles, was wir erleben, "sich einprägt".

    (Jedes über bloßes "Kennenlernen" hinaus gehende "Lernen" ist wesentlich mehr: im einfachsten Fall eine beliebige, vor allem aber absichtliche, also gezielte Wiederholung eines Prägungsvorgangs, genannt Repetition oder weniger vornehm ausgedrückt: Eintrichtern, Einpauken, sich einhämmern usw., in darüber hinaus gehenden Fällen das Bemerken und selektive Sich-Merken von Einzeltatbeständen, die "Zusammenhänge" darstellen, die einen interessieren, aber anderer Art sind als bloß zeitliche Zusammenhänge. Das können kausale Zusammenhänge sein, motivationale und soziale Zusammenhänge, institutionelle und sonstige gesellschaftliche Zusammenhänge, technische hier, sprachliche da oder gedankliche Zusammenhänge dort, argumentative, logische, poetische Zusammenhänge oder welche sonst noch von irgendeinem Interesse sein können.)

    Erinnern ist dagegen eine völlig andere Fähigkeit, die noch dazu erst im vierten/fünften Lebensjahr heranreift. Es besteht darin, sich innerlich oder geistig "vorstellen" zu können, was man zu irgendeinem Zeitpunkt zuvor einmal erlebt hat. (NB: die umgangssprachliche Bezeichnung dafür als "Vorstellungsfähigkeit" halte ich für besser als den in Gebrauch gekommenen Ausdruck von einem "autobiographischem Gedächtnis"; auch Phantasieren oder Planen besteht ja darin, sich etwas vorzustellen, genauso Träumen, ob am Tag oder in der Nacht. Der aus der Umgangssprache stammende Begriff "Gedächtnis" - von gedacht - verweist darauf, dass jedenfalls alltagspsychologisch bekannt ist, dass auch Denken in Vorstellungen besteht, genauer: statt in einem unwillkürlichen Assoziieren von Vorstellungen in einem willentlichen, wenn auch mehr oder weniger geschickten Umgehen mit ihnen oder mit Details davon.)

    Wollte man auch nur die wirkliche Art unseres Denkens, angefangen beim "Denken an" Erlebtes bis hin zu kreativen Neuschöpfungen maschinell simulieren statt auf "Datenverarbeitung" zu reduzieren, müsste man imstande sein, Maschinen zu bauen, die Vorstellungen aller Art produzieren und mit ihnen relativ zu selbstbestimmten Kriterien und Gesichtspunkten beliebig und gleichzeitig zweckmäßig und zielgerichtet, also "sinnvoll" umgehen könnten.

    Ich bin außerstande mir vorzustellen, wie dies realisiert werden könnte, wenn es überhaupt möglich sein sollte. Es ist ja bis heute noch nicht einmal geklärt, welche spezifische Rolle die in künstlichen "neuronalen Netzen" elektrisch imitierten neuronalen "Impulse" bei der spontanen oder willentlichen Bildung von Vorstellungen spielen - so wie es in der wissenschaftlichen Psychologie bis heute noch keine ausreichend entwickelte und verlässliche "introspektive" oder "phänomenologische" Forschung gibt, aufgrund der die genauen Charakteristika realen Denkens geklärt und bestimmt worden wären.

    Bei dieser Sachlage erscheint mir intensive scientific research weitaus nötiger als ausufernde science-fiction.

Einen Kommentar schreiben


drei × 6 =