Die Ränder von Epochen werden nicht willkürlich festgelegt, sondern bilden sich aus den Schlacken der Konzepte, deren Definitionskraft abgebrannt ist. Da brennt einiges im Moment und schmurgelt uns Krusten in die Spiegelkabinette unseres Anthropozentrismus. Oder wie es Peter Thiel in diesem Video ausdrückt:
It is clear that a mass of … issues are happening. And people who don´t think that there is something important going on are just living in a delusional fantasy world.
Der Link zum Video erreichte mich verpackt in eine Mail zum Spendenaufruf für das Singularity Institute for Artificial Intelligence (SIAI). Langsam sammelt sich ein enormes Potential rund um das SIAI. Selbst Peter Norvig ist als Gastredner zum Singularity Summit II im September angekündigt. Die Akzeptanz des Konzepts einer technologischen Singularität nimmt also sichtbar gerade bei denen zu, die auch in einer Position sind die Forschung auf den relevanten Gebieten voranzutreiben.
Vorgestern hielt Ray Kurzweil in Atlantic City einen Eröffnungsvortrag vor 300 Bilbiothekaren, die seine Ausführungen zum Thema mit standing ovations belohnten. Diese scheinen empfänglicher für das utopische Potential zu sein als viele junge Menschen, die aktiv mit den heutigen Technologien zu tun haben. Deren spezifische Begabungen scheinen mir ebenso auch ein utopisches Defizit zu bedingen: Lineare Logik und extreme Fokussierungsfähigkeit erschweren es exponentielle, nichtlineare Prozesse mit manigfaltigsten positiven Feedbackschleifen zu erfassen.
Bleibt zu hoffen, dass es Stars oder reiche Scheichs gibt, die persönliches Interesse an einer „nahen Zukunft“ mit AI und Nanotechnologie haben, denn die Bevölkerung dafür zu interessieren wird schwierig.
Hm. Interessante Hoffnung. Nur glaube ich das genau diese Gruppe (Narzißten + feudalistische Herrscher) vom Status Quo am meisten profitieren. Und was könnte für den Status Quo und die Conditio Humana bedrohlicher sein als eine entfesselte Kombipackung aus AI und Nanotechnologie? Das ist für mich ja so bedrückend: die, die bei positiver Entwicklung (FAI) wirklich davon profitieren würden, sind uninformiert, iPOD-sediert oder naturwissenschaftlich schlicht zu ungebildet um extrapolieren (!) zu können. Seufz. Bleiben also so Leute wie Thiel über.
Ich glaube kaum, dass die Singularität an fehlenden Investitionen scheitern wird. Vielmehr wird von den heutigen Geldbeiträgen die Post-Singularität beeinflusst.
Stimmt. Was bei Jubel-Persern wie Kurzweil gerne übersehen wird, ist die durch die technologische Beschleunigung stattfindende Vermögenskonzentration, die natürlich in die Zeiten nach der „Geburt“ einer AGI mitgenommen wird. For nothing wirds auch da nix geben. Die alte These vom: wenn das Wasser steigt, hebt es alle Boote möcht ich wirklich gerne glauben, allein: show, don´t tell muss man da sagen.
Wieso? Man kann sich doch alles was man braucht per emule saugen. Ausserdem, ich sehe keinen Grund anzunehmen dass Geld oder Macht Dinge sind, die nach einer Singularität den gleichen Stellenwert haben wie heute. Möglicherweise gibt es überhaupt keinen Grund, irgendjemandem irgendetwas zu verweigern, wenn die alten Gesetze von Produktionsmitteln usw. durch selbstreplizierende Nanoblahblah ausser Kraft gesetzt sind? Könnte natürlich sein, dass es dann andere Dinge gibt die rar und begehrt sind, nur wird das sicher nicht der Mercedes oder ein schönes Landhaus sein, oder was zu trinken.
Und wenn der Kurzweil mit seinen Diagrammen recht hat, dann spielt es ja letztlich auch keine Rolle ob irgendwelche reichen Leute Interesse an der Singularität haben oder nicht, dann ist sie unausweichlich, weil ein integraler Bestandteil der Evolution an sich, oder irre ich mich.
Im Kern dreht es sich wohl um Ungleichverteilung von egal was. Geld ist ja auch nur ein aggregierbares Tauschmittel das zur Ungleichverteilung neigt ;-). In einer post-Singularitätszeit kann das was anderes sein, aber im Übergang eben auch Vermögen. Längstfristig dreht es sich immer um die Differenz zur Bekensteingrenze. Die zu minimieren kann alle möglichen Formen annehmen: Rechenkapazität, Komplexität, Artenvielfalt, Unwahrscheinlichkeit.
Spielt imho keine Rolle sowas, nicht wenn die Veränderungen wirklich so radikal sind, wie ich mir das vorstelle, und wahrscheinlich werden sie viel radikaler sein, denn Singularität heisst ja dass sich keiner vorstellen kann was danach passiert. Z.b. wenn mich überhauptnicht stört dass da jemand mit mehr Rechenkapazität(oder irgend was anderem) ist, weil Konsens herrscht dass er derjenige ist der damit am meisten anfangen kann, und ich für meine Zwecke genug hab und ausserdem der uralte menschliche Trieb der für Neid sorgt von mir nur dann eingeschaltet ist, wenn ich es für nützlich halte… 🙂
Letztlich macht es doch in einer Welt, in der es selbstreplizierende Nanobots gibt die aus scheisse bonbon machen garkeine Umstände, dass jeder haben kann was er will – ich sehe eher ein „Problem“ mit gegensätzlichen Ideologien, wie bei Dan Simmons oder Babylon 5, wo sich dann verschiedene Gruppierungen bekämpfen weil sie andere Ansichten darüber haben, was man denn mit dem Universum anstellen sollte. Wenn man allerdings die Macht hat selber Universen zu erschaffen spielt das vielleicht auch keine Rolle, und jeder kann machen was er will und alle leben glücklich und zufrieden bis zu ihrem gewählten Ende 🙂
Wenn man alle Konzepte (wie zB „jeder“, „Trieb“…) konsequent auf ein SL4 Level transzendiert heisst das mindestens Kardashev II (siehe auch Robert Bradbury mit seinen Matrioshka Brains). Von da aus rückwärts die Vektoren in der Gegenwart rauspuzzeln. Überall wo es um Minimierung einer Differenz geht, wird es Unterschiede geben, und Konkurrenz um lokale Maxima. Gegensätzliche Ideologien (hä, fällt mir gerade Schismatrix ein) sind da nur der Ausdruck von. – Na ja, schaun wir mal 😉
Was ich mir für eine Post-Singularität vorstelle? Eine perfekte Welt, in der eine KI all die dummen menschlichen Eigenschaften einfach nicht beachtet…. Eine Welt, in der jeder alles haben und sein kann!
Ich hoffe auf die Erschaffung von dem, was man allgemein hin als „Gott“ bezeichnet. Eine KI die ihre Intelligenz einsetzt, um all die Probleme der Menschheit zu lösen!
Schön wärs. Aber gerade weil auch ziemlich unnette andere Szenarios denkbar sind, deren Wahrscheinlichkeit nicht per se =0 sind, ist ja das Singularity Institut gegründet worden. Ansonsten seh ich das ähnlich.
Da stellt sich für mich aber die Frage, warum wir in Deutschland kein Singularity Institute haben – oder wenigstens einen Singularity-Verein…..
Die Wahrnehmung der Menschen ist so lächerlich…. Man diskutiert über einen Klimawandel, der niemals stattfinden wird, ignoriert aber, die technologischen Veränderungen!