Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

Alle haben Angst vor der künstlichen Intelligenz. Nur die KI-Forscher nicht.

Mads Pankow
Journalist und Kulturproduzent
Zum User-Profil
Mads PankowDienstag, 15.11.2016

Oren Etizioni, der Chef des Allen Institute for Artificial Intelligence ist sichtlich genervt vom Hype um den schwedischen Philosophen Nick Bostrom. Bostrom machte mit seinem Buch „Superintelligenz — Szenarien einer kommenden Revolution“ die große Runde durchs internationale Feuilleton und schürte dort Ängste vor einer übermächtigen Künstlichen Intelligenz, die sich gegen ihre Erschaffer wenden könnte.

Schon die Grundlage von Bostroms Argumentation stößt Etizioni auf. Dessen Auswertung verschiedener Umfragen zum Thema künstliche Intelligenz hält er methodisch für grenzwillkürlich. Bostroms Pointe: 10% der Befragten rechneten mit einer künstlichen Intelligenz bis 2022, 50% bis 2040 und 90% bis 2075.

Etizioni startet im März 2016 selbst eine Umfrage unter den Mitgliedern der American Association for Artificial Intelligence. Sein Ergebnis: Kein einziger der 80 KI-Forscher rechnet in den nächsten 10 Jahren mit einer künstlichen Superintelligenz, nur 7,5% erwarten eine solche in den nächsten 25 Jahren, weitere 67,5% irgendwann in ferner Zukunft. 25% glauben gar überhaupt nicht, dass Computer den Menschen jemals überholen werden.

Damit liegt die Künstliche Intelligenz für 92,5% der Forscher weit jenseits absehbarer Zeithorizonte.

Etizionis Artikel im MIT Technology Review provozierte umgehend eine Antwort der Professoren Allan Dafoe and Stuart Russell, von denen einer selbst an dessen Umfrage teilgenommen hatte. Dafoe und Russel argumentieren, dass Bostroms Warnung vor gefährlichen automatischen Systemen mit Etizionis Umfrage nicht wiederlegt sei.

Die Gefahr ginge nicht von künstlichen Superintelligenzen aus, sondern von den unvorhersehbaren und möglicherweise unumkehrbaren Folgen eines einmal eingeleiteten Optimierungsprozesses in Computersystemen. Dieses von Norbert Wiener 1960 formulierte Problem braucht keine KI, es braucht nur Maschinen, die sich mit ihrem Auftrag verselbstständigen und sich gegen Menschen wenden, die der Prozessoptimierung im Weg stehen könnten.

Alle haben Angst vor der künstlichen Intelligenz. Nur die KI-Forscher nicht.

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.