Obwohl fast 2000 Zuhörer am Stanford Singularity Summit teilgenommen haben sollen, ist die Bloglese im Moment noch spärlich. Wie Mike Treder andeutet, sollen Audiomitschnitte, alias im Newspeck: „Podcasts“, sowie Videos irgendwann nächste Woche downloadbar sein.
Die Themen der Vorträge boten wohl nichts Neues. Die üblichen Verdächtigen spulten ihre bekannten Thesen ab. Aus den Zusammenfassungen von Mike Treder erschliesst sich mir nicht, was Sebastian Thrun – ungeachtet seiner Verdienste in der Robotik – sowie Cory Doctorow zum Thema beizutragen hatten. Politik und Marketing, wie mir scheint.
Der wichtigste Fakt dieses Summits fiel mir gestern im Gespräch während eines Spaziergangs auf: In diesem Raum an der Stanford University befanden sich gestern nicht nur ein Haufen zukunftssüchtige Spinner und Genies, sondern auch Personen, die mit ihrem addierten, privaten Barvermögen (>ca 3 Mrd$) dieses Szenario nicht nur sondieren, sondern auch Wirklichkeit werden lassen können.
Würde man sich unvorgebildet aus diesen Vorträgen eine Meinung über das Konzept der Singularität bilden wollen, könnte leicht der Eindruck entstehen, „The Singualrity is Near“ oder dieses Szenario sei determiniert. Da liegt jedoch eine Crux begraben, der sich die wenigsten explizit stellen, oder stellen wollen.
Nichts, das in seinem Wesen anthropogen ist, ist in irgendeiner Weise automatisch „near“ oder gar determiniert. Dieser Strang der Argumentation, wie sie zB von Kurzweil auf die Spitze getrieben wird, schleicht sich aus der Verantwortung, das Konzept der Singularität für unsere Art ethisch zu begründen oder wie Yudkowsky und das Singularity Institut es versuchen, die Risiken einer AI für unsere Art zu minimieren. Nick Bostrum scheint mir dieser Sicht der Entwicklungen noch am nächsten zu kommen.
Indem Vertreter der deterministischen Argumentation wie Kurzweil, diesen Punkt unwesentlich erscheinen lassen, nehmen sie sich auch aus einer Verantwortung heraus, wie sie zB Yudkowsky ergreift. Weiterdenken angesagt…
Die Aufgabenstellung lautet in meinen Augen sogar: „das Konzept der Singularität für alle Arten, Gattungen, Familien, Stämme (auch die noch Ungeborenen) ethisch zu begründen“ und „die Risiken einer AI für alle Arten, Gattungen, Familien, Stämme (auch die noch Ungeborenen) zu minimieren“. Sooo toll ist unsere Art nun auch wieder nicht. Wenn das Leben, weil suboptimal, ausradiert werden soll, dann sollten wir schon die Größe haben, ebenfalls abzutreten und Platz zu machen für unsere grey-goo-Frankensteinbabys und Von-Neumann-Drones.