Kanäle
Jetzt personalisiertes
Audiomagazin abonnieren
Log-in registrieren
forum verwendet Cookies und andere Analysewerkzeuge um den Dienst bereitzustellen und um dein Website-Erlebnis zu verbessern.

handverlesenswert

Kluge Köpfe filtern für dich relevante Beiträge aus dem Netz.
Entdecke handverlesene Artikel, Videos und Audios zu deinen Themen.

Du befindest dich im Kanal:

Technologie und Gesellschaft

Ein hippokratischer Eid für AI-Entwicklung?

René Walter
Grafik-Designer, Blogger, Memetiker | goodinternet.substack.com

Irgendwas mit Medien seit 1996, Typograph, Grafiker, Blogger. Ask me anything.

Zum Kurator'innen-Profil
René WalterDonnerstag, 14.07.2022

Susan D’Agostino fasst im Bulletin of Atomic Scientists die Debatte unter AI-Ethikern über die Notwendigkeit eines hippokratischen Eids für die Entwicklung künstlicher Intelligenz zusammen. Das Board of Atomic Scientists ist vor allem für seine Doomsday Clock bekannt, die derzeit auf 100 Sekunden vor Mitternacht steht, unter anderem aufgrund der Nutzung von AI-Technologien durch China zur Verfolgung der muslimischen Minderheit der Uiguren.

Laut verschiedenen im Artikel zu Wort kommenden Experten könnte ein solcher hippokratischer Eid für AI-Systeme als eine ethische Leitlinie in der Entwicklung und Erforschung intelligenter Technologien dienen. 

Meines Erachtens müsste sich ein solcher hippokratischer Eid grundsätzlich von seiner traditionell gewachsenen Vorlage in der Medizin unterscheiden. So erwähnt Valerie Pasquarella von der Universität Boston die Tatsache, dass AI-Entwickler selten mit jenen zusammentreffen, die von den Entscheidungen der Algorithmen betroffen sind – ein fundamentaler Unterschied zur Medizin.

Jeder Mediziner behandelt seine Patienten direkt. Der zu Behandelnde begibt sich freiwillig in die Obhut eines Arztes und beide Parteien, Arzt und Patient, sind sich des Patienten-Status immer bewusst. Der hippokratische Eid funktioniert in diesem Verhältnis nicht nur als Leitlinie für den Beruf des Arztes, sondern auch als symbolischer Vertrag zwischen Patient und Mediziner. Nichts davon trifft in dieser Form auf das Verhältnis von AI-Systemen und den Bevölkerungsgruppen zu, die von den Entscheidungen von AI-Systemen betroffen sind.

Ich halte einen hippokratischen Eid für AI-Entwicklung für sehr gute Idee, die allerdings den Realitäten des immensen Einflusses jedes AI-Systems gerecht werden muss und mag den Vorschlag von "AI-Influencer" Spiros Margaris, der zu so vielen ethischen Richtlinien wie möglich rät: "“My practical advice is to allow as many definitions to exist as people come up with to advance innovation and serve humankind." 

Diese maximal mögliche Anzahl von ethischen Richtlinien würde eine allumfassende Ethik angesichts einer allumfassenden Ausrechenbarkeit aller Probleme entgegenstellen: Ein moderner, flexibler, crowdsourced hippokratischer Eid für eine Technologie, die heute bereits in der Lage ist, innerhalb von 6 Stunden das Design für 40000 neue potenzielle Chemiewaffen zu entwerfen.

Ein hippokratischer Eid für AI-Entwicklung?

Möchtest du kommentieren? Dann werde jetzt kostenlos Mitglied!

Kommentare 3
  1. Cornelia Gliem
    Cornelia Gliem · vor mehr als 2 Jahre

    so viele Regeln wie möglich? hm. Der Vorteil des Hippokratischen Eids lag immer in seiner Klarheit und Kürze...
    okay wenn die "Ausführungsbestimmungen" ausführlich sind; der Eid selbst sollte kurz und einfach sein so wie zb Die drei Robotergesetze.
    oder die Regeln der fiktionalen Justin Robotics:
    Gesetze der Robotor Ethik

    (Art. 1 = Entwickler müssen Roboter erschaffen die Menschen unterstützen und dürfen keine Funktion schaffen die ihnen schaden.
    Artikel 2 = Entwickler müssen Funktionen für Roboter schaffen durch die sie untereinander kooperieren und sich selbst reparieren können um sicher zu arbeiten.
    Artikel 3 = Falls ein Roboter diese Anforderungen nicht erfüllen kann, müssen die Entwickler die Funktionen des Roboters beenden.)

    1. René Walter
      René Walter · vor mehr als 2 Jahre

      Das Problem ist ja, dass die Konsequenzen aus der Anwendung von KI-Systemen schwer vorhersehbar sind, da selbst die Entwickler und Wissenschaftler nicht genau wissen, wie und warum die Neuronen-Layer so aufeinander reagieren, wie sie es tun. Das heisst also, dass wir nichtmal die Probleme wirklich vorhersagen können, aber wir können sie "einkreisen". So haben AI-Ethiker vor zwei Jahren (oder so) vorhergesagt, dass KI-Systeme, desto menschenähnlicher sie agieren, Illusionen von Empfindungsfähigkeit erzeugen werden. Zwei Jahre später haben wir LaMDA und Blake LeMoine und wir können nicht einmal mit Bestimmtheit sagen, dass er Unrecht hat. Wir wissen nur, dass AI ein Problem mit unserer Wahrnehmung von menschenähnlichem Verhalten erzeugt.

      Ich weiß nicht, wie man in einer solchen Situation überhaupt simple Regeln aufstellen sollte. "Do no harm" funktioniert nur, wenn wir über die Mechanismen von Ursache und Wirkung Bescheid wissen, das tun wir bei künstlichen Intelligenzen aber nicht. Darüber hinaus müsste ein Language Model für einfache Regeln tatsächlich ein Verständnis für "Schaden" oder "Vermeidung" entwickeln und wahrscheinlich kann ich jede Regel über Backdoors aushebeln. Das kommt noch einmal erschwerend hinzu.

      Deshalb halte ich es nicht für die schlechteste Idee, zunächst wirklich alle Einsprüche zu sammeln, die uns dazu überhaupt einfallen können, um die sich anbahnenden Probleme einzukreisen und den Schaden - *falls überhaupt einer eintritt* - zu minimieren.

      Wie will man allgemeine Regeln für Fälle aufstellen, die man überhaupt nicht vorhersehen kann? Vor einer Woche haben selbstfahrende Autos aufgrund eines Glitches eine Kreuzung in San Francisco barrikadiert (https://www.siliconrep...) und da ein Image Generator wie Dall-E eine Assoziationsmaschine ist macht es aus "Tieren, die Essen genießen" immer Kannibalen (https://goodinternet.s...), da "Ente" sowohl mit dem Subjekt des Inputs als auch mit "Essen" assoziiert wird. Viel Spaß, aus sowas allgemeine Regeln abzuleiten. ;)

    2. Cornelia Gliem
      Cornelia Gliem · vor mehr als 2 Jahre · bearbeitet vor mehr als 2 Jahre

      @René Walter ah interessant...
      1. "KI-Systeme, desto menschenähnlicher sie agieren, Illusionen von Empfindungsfähigkeit erzeugen" - dafür benötigen wir eine quasi umgedrehte Regel: wenn etwas wie ein Mensch wirkt, gelten die Regeln für Menschen.

      2. ich glaube wir verwechseln hier die Anwendung des Hippokratischen Eids und seine Formulierung.
      zb muss man sich erstmal einig darüber sein was KI sollen was sie dürfen und was nicht. Was die Entwickler sollen dürfen und was nicht. Was die Anwender...

      (wir müssen sogar schon berücksichtigten was wir tun wenn es echte KI gibt.)

      3. Sollten wir uns nicht in den Details verzetteln in den Algorithmen und technischen Möglichkeiten - zunächst Definitionen.

      Der klare Hippokratische Eid konnte vor 2000 Jahren und heute funktionieren weil er nicht bereits Skalpell und Ultraschall nicht schon Binde und Gentechnik zusammenfasste.

      Der Eid liefert einen Rahmen und Ziele.

      Danach folgen Details und Fälle und Anwendungen.

      Das ist etwas für die ganze Gesellschaft, nicht nur Diskussion für Experten.

Bleib immer informiert! Hier gibt's den Kanal Technologie und Gesellschaft als Newsletter.

Abonnieren

Deine Hörempfehlungen
direkt aufs Handy!

Einfach die Hörempfehlungen unserer Kurator'innen als Feed in deinem Podcatcher abonnieren. Fertig ist das Ohrenglück!

Öffne deinen Podcast Feed in AntennaPod:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Downcast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Instacast:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Apple Podcasts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Podgrasp:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Bitte kopiere die URL und füge sie in deine
Podcast- oder RSS-APP ein.

Wenn du fertig bist,
kannst du das Fenster schließen.

Link wurde in die Zwischenablage kopiert.

Öffne deinen Podcast Feed in gpodder.net:

Wenn alles geklappt hat,
kannst du das Fenster schließen.

Öffne deinen Podcast Feed in Pocket Casts:

Wenn alles geklappt hat,
kannst du das Fenster schließen.