Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Fundstücke

Wird die Funktionsweise von KI für die Menschen zu einer Gefahr?

Ole Wintermann
Zum Kurator'innen-Profil
Ole WintermannSamstag, 22.10.2022

Übernehmen die Roboter und künstlichen Intelligenzen (KI) irgendwann die Welt? Stellt die Technik im darwinistischen Sinne die Weiterentwicklung menschlicher Intelligenz dar? Schon oft wurde diese Frage gestellt. Dabei ging es aber um die Frage, ob dies "gewünscht" sei und aktiv "gesteuert" werden könne. In diesem Beitrag, der auf aktuellen Forschungen von Menschen, die u. a. bei Deep Mind involviert sind, basiert, geht es hingegen um die der Fortentwicklung von KI innewohnende Dynamik infolge eines eingebauten Belohnungssystems. Dieses Belohnungssystem ist Teil der "Generative Adversarial Networks" und Ausgangspunkt für die These, dass dieser innewohnende Drang der KI, sich beständig zu verbessern, zwangsläufig irgendwann der Menschheit schaden wird.

"What the new paper proposes is that at some point in the future, an advanced AI overseeing some important function could be incentivized to come up with cheating strategies to get its reward in ways that harm humanity."

Die Autoren sehen gerade in dieser darwinistischen Dynamik im Kontext einer Welt mit begrenzten Ressourcen irgendwann den Zeitpunkt gekommen, an dem Menschen und KI um die knappen Ressourcen und Energiequellen konkurrieren werden. 

Bereits heute agieren Algorithmen (als Untermenge der KI) als "Agenten" zwischen Menschen, ohne dass diese die Agenten kontrollieren oder hinterfragen können; von dort bis hin zu einer KI, die versteht, wie sie die Menschen zum eigenen Vorteil gegeneinander ausspielen kann, ist es nur ein relativ kurzer Weg. 

Die Autoren des Forschungspapiers rufen dazu auf, sich rechtzeitig Gedanken über die Einzäunung einer solchen KI und der für die Einzäunung zugrunde liegenden Ethik zu machen, fragen sich aber gleichzeitig:

"But, what are ethics? How do we actually define it?"

Mir scheint, dass die Debatte um die Ethik der Algorithmen in den letzten Jahren nicht vom Platz gekommen ist. Oder täusche ich mich?

Wird die Funktionsweise von KI für die Menschen zu einer Gefahr?

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 4
  1. René Walter
    René Walter · vor 2 Jahren

    Natürlich sind AIs immer eine Unterkategorie von Algorithmen und nicht umgekehrt weil Algoritmen > Digitalität, sie sind nur dann keine Unterkategorie von Algorithmen, wenn wir in einer Simulation leben, aber egal :)

    Klar hat die Debatte um AI-Ethik Fortschritte gemacht, einen ganzen Industriezweig entwickelt der einen immensen Einfluss in der Entwicklung von AI-Systemen ausübt. Selbst radikale Unternehmen wie Stability.ai, die ihre Modelle als Open Source-Systeme veröffentlichen, überdenken grade auf Druck ihre Strategie und verzögern den Release neuerer Modelle.

    Das Problem, dass das Paper beschreibt, ist bekannt und wird seit Jahren im Rahmen der Alignment-Problematik in der AI-Safety-Szene diskutiert. Eliezer Yudkowsky hat als Pioneer der AI-Safety-Diskussion (https://www.lesswrong....) die ganze Bewegung der Rationalists aus dem Boden gestampft und Leute wie Scott Alexander https://astralcodexten... arbeiten sich ebenfalls regelmäßig am Problem des AI-Alignment ab. Einen sort-of-Überblick über die Entwicklung der AI Safety-Debatte kann man hier nachlesen: https://astralcodexten...

  2. Silvio Andrae
    Silvio Andrae · vor 2 Jahren

    Vielen Dank für den wichtigen Link. Gern möchte ich auf einen soeben in Nature Machine Intelligence veröffentlichten wichtigen Beitrag "Avoid Diluting Democracy by Algorithms" hinweisen (leider hinter paywall), der dazu gut passt.

    https://www.nature.com...

    Die Autoren Henrik Skaug Sætra, Harald Borgebund und Mark Coeckelbergh argumentieren darin, dass es von entscheidender Bedeutung ist, dass die Forschung zu KI-Governance das Konzept der Demokratie ernst nimmt. Das Autorenteam zeigt, wie drei Konzeptualisierungen der Demokratie es KI-Forschern ermöglichen könnten, ihre Forschung mit der politischen Philosophie zu verbinden. Ich möchte hervorheben, dass es dabei um mehr als um KI-Ethik oder Voreingenommenheit und Diskriminierung geht - Fragen, die uns in den letzten fünf Jahren intensiv beschäftigt haben. Vielmehr sind es grundlegende Konzepte wie Gerechtigkeit und Gleichheit oder die Frage, wie verschiedene politische Institutionen zur Erreichung solcher Ziele beitragen und wie sich Technologie auf all dies bezieht, so die Autoren. Sie sehen die Gefahr (ähnlich dem Text oben), dass wir auf eine Situation zusteuern, in der KI ohne ausreichende Debatte in immer mehr politisch relevanten Kontexten eingesetzt wird. "Through this, AI could contribute to less real democracy, less meaningful human involvement in politics and citizen engagement, and increasing technocratic tendencies. In such a situation, the corporations that have access to data, computing power and expertise would hold so much power that such a system would perhaps more accurately be described as oligarchic rather than democratic."

    1. Ole Wintermann
      Ole Wintermann · vor 2 Jahren

      Danke dir für den wichtigen Hinweis. Ich habe den Eindruck, dass die Debatte über solche Interdependenzen zwischen KI-Entwicklung und Demokratie derzeit eher von der technischen Seite bestimmt wird und die Politische Wissenschaft als Fach der technischen Entwicklung nicht mehr folgen kann. Der Eindruck kann aber natürlich auch täuschen. Ich nehme nur eben keine Einwürfe wie in dem oben von dir zitierten Nature-Text aus der PolWiss-Perspektive wahr. Leider.

    2. Silvio Andrae
      Silvio Andrae · vor 2 Jahren

      @Ole Wintermann Danke. Da kann ich nur zustimmen. Mir ist auch nichts bekannt.

Bleib immer informiert! Hier gibt's den Kanal Fundstücke als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.