zunächst ein Geständnis: Ich habe den Artikel nur überflogen, hoffe aber das wesentliche mitgenommen zu haben. Falls nicht tut es mir leid.
Sarkastisch Einwand: ich mach mir wenig Sorgen um die Fortexistenz der Menschheit. Bisher sind alle Versuche gescheitert sie auszurotten. Außerdem gibt es neben den Menschen auch noch viele Tiere die bisher überlebt haben. Im Zweifel werden wir es zumindest als Zooattraktions o.ä. überleben.
Ob es mal eine "SuperKI" geben wird, ist aber auch meiner Meinung nach eine interessante Frage. Nach meinem aktuellen Kenntnisstand sieht es nicht so gut für eine SuperKI aus. Die "byond silicon" Technologien (z.B. Spintronik) versprechen zwar ein wenig Luft nach oben, aber ob das reicht ist fraglich. Es gibt zwar auch alternative Ansätze wie die hardwareseitige Immitation von Neuronen, aber dann bleibt noch die Frage zu klären, ob man mit vgl. Integrationsdichten wie beim Gehirn hinbekäme und ob neuronalen Netzwerken überhaupt beliebig "intelligent" werden können. Bei den Quantencomputer, die so manch einer ins Feld führen mögen, ist das Potenzial natürlich deutlich schlechter abzuschätzen. Aber noch sind sie (soweit ich weiß) nach aktuellen Forschungsstand die "schnellsten langsamsten" Computer, die es geben wird. Sie sind vom Grundprinzip auch keine "general purpose" Computer, sondern ziemliche Fachidioten.
Zum Abschluss noch was zum Thema Technologiesingularität: Aktuell haben wir schon das Problem des zuviel Wissens. Bis ein neuer normalbegabter Mensch den Stand der heutigen Generation erreicht hat, ist der schon deutlich über 20 und damit eigentlich schon fast zu "alt" für wirkliche Inovationen. Meist kommen ein oder zwei. Die Zeit der Unversalgenies, die Duzende an neuen Erkenntnissen für die Menschheit errungen ist meiner Meinung nach vorbei.
Aber wie sooft gilt: dies ist nur mein aktueller Kenntnisstand. Was die Zukunft am Ende wirklich bringt kann (noch) keiner genau sagen (zumindest laut Lehrbuch
).