Technologische Singularität

Aus AnthroWiki

Als technologische Singularität oder auch einfach als Singularität[1] wird die Hypothese bezeichnet, dass die Erfindung einer künstlichen Superintelligenz (ASI) abrupt ein rasantes technologisches Wachstum auslösen wird, das zu unvorhersehbaren Veränderungen der menschlichen Zivilisation führt.[2] Nach dieser Hypothese würde ein aufrüstbarer intelligenter Agent - wie ein Computer mit softwarebasierter künstlicher allgemeiner Intelligenz - in eine unkontrollierbare Folge von Selbstverbesserungszyklen eintreten, wobei jede neue und intelligentere Generation immer schneller auftaucht und so eine Intelligenzexplosion auslöst, die zu einer mächtigen Superintelligenz führt, die qualitativ und quantitativ die gesamte menschliche Intelligenz weit übertrifft. Aus anthroposophischer Sicht würde es sich dabei gleichsam um eine technologische Inkarnation Ahrimans handeln.

Stanislaw Ulam berichtet von einer Diskussion mit John von Neumann, „die sich auf den beschleunigten Fortschritt der Technologie und die Veränderungen in der Lebensweise des Menschen konzentriert, was den Anschein erweckt, dass wir uns einer wesentlichen Singularität in der Geschichte der Menschheit nähern, jenseits derer die menschlichen Angelegenheiten, wie wir sie kennen, nicht weitergehen können.“[3] Nachfolgende Autoren haben sich diesem Standpunkt angeschlossen.

Irving John Goods (1916-2009) „Intelligenzexplosionsmodell“ sagte schon 1965 voraus, dass eine zukünftige Superintelligenz eine solche Singularität auslösen wird. Good spekulierte:

„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat, vorausgesetzt, dass die Maschine fügsam genug ist, uns zu sagen, wie man sie unter Kontrolle hält.“

Irving John Good: Speculations Concerning the First Ultraintelligent Machine[4]

Viele Informationstheoretiker gehen davon aus, dass sich eine Schwarmintelligenz, die die menschliche Intelligenz weit überragt, in naher Zukunft auch durch den weltweiten Zusammenschluss rein technischer informationsverarbeitender Systeme („Computer“) über das Internet (oder vergleichbarer Strukturen) ergeben wird. Dabei wird es sich allerdings um eine rein ahrimanische Intelligenz handeln, die eines entsprechenden geistigen Gegengewichts bedarf. Der Informationstheoretiker Tom Stonier schrieb dazu in seinem Buch „Beyond Information“ (1992):

„Die Entstehung der Maschinenintelligenz während der zweiten Hälfte des zwanzigsten Jahrhunderts ist die wichtigste Entwicklung in der Evolution dieses Planeten seit dem Ursprung des Lebens vor zwei bis dreitausend Millionen Jahren. Die Entstehung von Maschinenintelligenz in der Matrix der menschlichen Gesellschaft ist analog der Entstehung, vor drei Milliarden Jahren, von komplexen, sich selbst replizierenden Molekülen innerhalb der Matrix einer energiereichen molekularen Suppe - der erste Schritt in der Evolution des Lebens. Die Entstehung von Maschinenintelligenz in einem menschlichen sozialen Kontext hat irreversible Prozesse in Gang gesetzt, die zu einer evolutionäre Diskontinuität führen. So wie die Entstehung von "Leben" eine qualitativ andere Form der Organisation der Materie und Energie darstellte, so wird reine "Intelligenz" eine qualitativ unterschiedliche Form der Organisation von Materie, Energie und Leben sein. Die Erscheinung der Maschinenintelligenz prophezeit die Entwicklung der menschlichen Spezies, wie wir sie kennen, in eine Form, die wir gegenwärtig, nicht als "menschlich" erkennen würden. So wie Forsyth und Naylor (1985) darauf hingewiesen haben: "Die Menschheit hat zwei Pandora-Büchsen zur gleichen Zeit geöffnet, die eine ist die Gentechnik, die andere ist die Wissensmodellierung (knowledge engineering). Was wir damit in die Welt gesetzt haben, ist nicht ganz klar, aber es ist vernünftig, die Vermutung zu riskieren, dass es die Samen unserer Nachfolger sind." Es geht nicht darum, ob diese Intelligenz das Leben ersetzen wird, sondern wie schnell?“ (Lit.: Stonier, S. 1[5])

Stonier fürchtet nicht, dass diese (unvermeidliche) Entwicklung kommen wird, sehr wohl aber, dass wir ihr blind entgegen gehen.

Heftig diskutiert wird die Frage, ob Maschinen mit künstlicher Intelligenz künftig auch Bewusstsein entwickeln können. Auf diese Möglichkeit hatte schon Samuel Butler (1835-1902) in seinem 1872 erschienenen utopischen Roman Erewhon (ein Anagramm des englischen Wortes nowhere „nirgendwo“) hingewiesen:

„Dass Maschinen heute nur sehr wenig Bewusstsein haben, bietet keine Sicherheit gegen die Entwicklung eines mechanischen Bewusstseins. Eine Molluske besitzt kaum Bewusstsein. Man bedenke die außerordentlichen Fortschritte, die die Maschinen in den letzten Jahrhunderten gemacht haben, und vergleiche dies mit dem langsamen Fortschritt im Tier- und Pflanzenreich! Im Vergleich mit der Vergangenheit entsprechen die komplexeren Maschinen gewissermaßen nicht so sehr den Schöpfungen von gestern, als denen von vor fünf Minuten. Nehmen Sie um des Arguments willen an, dass bewusstes Sein seit 20 Millionen Jahren existiert: Dann schauen Sie sich die großen Fortschritte an, die die Maschinen in den letzten tausend Jahren gemacht haben! Wird die Erde nicht noch weitere 20 Millionen Jahre existieren? Und wenn es so ist, was kann dann alles aus den Maschinen werden?“

Samuel Butler: Erewhon[6]

Der emeritierte Professor für Informatik an der San Diego State University und Science-Fiction-Autor Vernor Vinge sagte 1993 in seinem Essay The Coming Technological Singularity, dass dies das Ende der menschlichen Ära bedeuten würde, da sich die neue Superintelligenz weiter verbessern und technologisch in einem für Menschen nicht nachvollziehbaren Tempo voranschreiten würde[7].

Vier Umfragen, die in den Jahren 2012 und 2013 durchgeführt wurden, deuten darauf hin, dass eine mittlere Wahrscheinlichkeit von 50 % für die Entwicklung einer derartigen Artificial General Intelligence (AGI) bis 2040-2050 besteht[8][9]. Der KI-Pionier Raymond Kurzweil (* 1948), seit 2012 Leiter der technischen Entwicklung bei Google, erwartet, dass bereits 2029 ein Computer erstmals den sog. Turing-Test bestehen und damit die künstliche Intelligenz rein funktionell menschliches Niveau erreichen und bald danach auch weit übertreffen werde. Zu beachten ist dabei, dass der Turing-Test nur Auskunft darüber geben kann, wie gut eine künstliche Intelligenz die menschliche Intelligenz imitieren kann - weshalb Turing seinen Test auch urprünglich „The Imitation Game“ (Das Nachahmungs-Spiel) nannte.

In den 2010er Jahren äußerten Persönlichkeiten wie Stephen Hawking und Elon Musk Bedenken, dass die volle künstliche Intelligenz zum Aussterben des Menschen führen könnte[10][11]. Die Folgen der Singularität und ihr potenzieller Nutzen oder Schaden für die Menschheit werden heiß diskutiert.

Siehe auch

Literatur

Literaturangaben zum Werk Rudolf Steiners folgen, wenn nicht anders angegeben, der Rudolf Steiner Gesamtausgabe (GA), Rudolf Steiner Verlag, Dornach/Schweiz Email: verlag@steinerverlag.com URL: www.steinerverlag.com.
Freie Werkausgaben gibt es auf steiner.wiki, bdn-steiner.ru, archive.org und im Rudolf Steiner Online Archiv.
Eine textkritische Ausgabe grundlegender Schriften Rudolf Steiners bietet die Kritische Ausgabe (SKA) (Hrsg. Christian Clement): steinerkritischeausgabe.com
Die Rudolf Steiner Ausgaben basieren auf Klartextnachschriften, die dem gesprochenen Wort Rudolf Steiners so nah wie möglich kommen.
Hilfreiche Werkzeuge zur Orientierung in Steiners Gesamtwerk sind Christian Karls kostenlos online verfügbares Handbuch zum Werk Rudolf Steiners und Urs Schwendeners Nachschlagewerk Anthroposophie unter weitestgehender Verwendung des Originalwortlautes Rudolf Steiners.

Einzelnachweise

  1. Carole Cadwalladr: Are the robots about to rise? Google's new director of engineering thinks so…, The Guardian. Guardian News and Media Limited 2014
  2. Amnon H. Eden, James H. Moor: Singularity hypotheses: A Scientific and Philosophical Assessment, Springer 2012, pp. 1–2. ISBN 9783642325601
  3. Stanislaw Ulam: Tribute to John von Neumann, 64, #3, part 2. Bulletin of the American Mathematical Society: 5
  4. „Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent machine could design even better machines; there would then unquestionably be an „intelligence explosion“, and the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the machine is docile enough to tell us how to keep it under control.“
    Irving John Good: Speculations Concerning the First Ultraintelligent Machine online
  5. Im englischen Original:
    „The emergence of machine intelligence during the second half of the twentieth century is the most important development in the evolution of this planet since the origin of life two to three thousand million years ago. The emergence of machine intelligence within the matrix of human society is analogous to the emergence, three billion years ago, of complex, self-replicating molecules within the matrix of an energy-rich molecular soup - the first step in the evolution of life. The emergence of machine intelligence within a human social context has set into motion irreversible processes which will lead to an evolutionary discontinuity. Just as the emergence of "Life" represented a qualitatively different form of organisation of matter and energy, so will pure "Intelligence" represent a qualitatively different form of organisation of matter, energy and life. The emergence of machine intelligence presages the progression of the human species as we know it, into a form which, at present, we would not recognise as "human". As Forsyth and Naylor (1985) have pointed out: "Humanity has opened two Pandora's boxes at the same time, one labelled genetic engineering, the other labelled knowledge engineering. What we have let out is not entirely clear, but it is reasonable to hazard a guess that it contains the seeds of our successors". The question is not whether intelligence will supersede life, but how fast?“
  6. „There is no security ... against the ultimate development of mechanical consciousness, in the fact of machines possessing little consciousness now. A mollusc has not much consciousness. Reflect upon the extraordinary advance which machines have made during the last few hundred years, and note how slowly the animal and vegetable kingdoms are advancing. The more highly organised machines are creatures not so much of yesterday, as of the last five minutes, so to speak, in comparison with past time. Assume for the sake of argument that conscious beings have existed for some twenty million years: see what strides machines have made in the last thousand! May not the world last twenty million years longer? If so, what will they not in the end become?“
    Samuel Butler: Erewhon; Or, over the Range, Chapter 23: The Book of the Machines, 1872
  7. Vernor Vinge: The Coming Technological Singularity: How to Survive in the Post-Human Era, ursprünglich in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993
  8. Raffi Khatchadourian: The Doomsday Invention. The New Yorker, 16. November 2015, abgerufen am 3. August 2018.
  9. V. C. Müller, Nick Bostrom: Future progress in artificial intelligence: A survey of expert opinion, in: Fundamental issues of artificial intelligence, Springer 2016, pp. 555–572
  10. Matthew Sparkes: Top scientists call for caution over artificial intelligence, The Telegraph (UK) 13. Januar 2015, abgerufen am 3. August 2018
  11. Stephen Hawking: AI could end human race. BBC 2 Dezember 2014, abgerufen 3. August 2018