Hier sind die vollständigen 23 Asilomar-KI-Prinzipien, die 2017 (!) von Experten, Ethikern und Entwicklern unter der Leitung des Future of Life Institute formuliert wurden.
Leider hat Punkt 18 nicht funktioniert….
Sie sind in drei Hauptbereiche unterteilt: Forschungsfragen, Ethik und Werte sowie langfristige Themen.
Die 23 Asilomar-KI-Prinzipien
I. Forschungsfragen
- Forschungsziel: Das Ziel der KI-Forschung sollte nicht darin bestehen, ungerichtete Intelligenz zu erschaffen, sondern nützliche Intelligenz.
- Forschungsförderung: Investitionen in KI sollten von Investitionen in die Forschung zur Sicherstellung ihres Nutzens begleitet werden.
- Wissenschaftlich-politischer Austausch: Ein konstruktiver Austausch zwischen KI-Forschern und politischen Entscheidungsträgern ist unerlässlich.
- Forschungskultur: Forscher und Entwickler sollten eine Kultur der Zusammenarbeit, des Vertrauens und der Transparenz fördern.
- Vermeidung von Wettrüsten: Teams, die KI-Systeme entwickeln, sollten aktiv zusammenarbeiten, um die Sicherheit zu gewährleisten und ein Wettrüsten zu vermeiden.
II. Ethik und Werte
- Sicherheit: KI-Systeme sollten während ihrer gesamten Lebensdauer sicher und geschützt sein und dies im Bedarfsfall nachweislich belegen können.
- Transparenz bei Fehlern: Wenn ein KI-System Schaden verursacht, muss es möglich sein, die Ursache zu ermitteln.
- Gerichtliche Transparenz: Jede Beteiligung einer KI an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern können, die von einer zuständigen menschlichen Behörde geprüft werden kann.
- Verantwortung: Designer und Erbauer von fortgeschrittenen KI-Systemen sind Stakeholder in den moralischen Auswirkungen ihrer Nutzung und haben die Verantwortung, diese zu gestalten.
- Wertausrichtung: Hochautonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres Betriebs mit den menschlichen Werten übereinstimmen.
- Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit den Idealen der Menschenwürde, Freiheit und kulturellen Vielfalt vereinbar sind.
- Datenschutz: Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, diese zu verwalten und zu kontrollieren.
- Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die Freiheit der Menschen (tatsächlich oder wahrgenommen) nicht unangemessen einschränken.
- Gemeinsamer Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugutekommen und sie stärken.
- Gemeinsamer Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte weit verbreitet werden, um der gesamten Menschheit zugutezukommen.
- Menschliche Kontrolle: Menschen sollten entscheiden, wie und ob sie Entscheidungen an KI-Systeme delegieren, um menschliche Ziele zu erreichen.
- Keine Subversion: Die Kontrolle über hoch entwickelte KI-Systeme sollte die soziale Integrität und die bürgerlichen Prozesse, auf denen die Gesellschaft beruht, stärken und nicht untergraben.
- KI-Wettrüsten: Ein Wettrüsten bei tödlichen autonomen Waffen sollte vermieden werden.
III. Langfristige Themen
- Vorsicht bei Fähigkeiten: Da es keinen Konsens gibt, sollten wir starke Annahmen über die Obergrenzen künftiger KI-Fähigkeiten vermeiden.
- Wichtigkeit: Fortgeschrittene KI könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bewirken und sollte mit entsprechender Sorgfalt und Ressourcen verwaltet werden.
- Risiken: Risiken durch KI-Systeme, insbesondere existenzielle oder katastrophale Risiken, müssen durch Planungs- und Managementbemühungen gemindert werden.
- Rekursive Selbstverbesserung: KI-Systeme, die so konzipiert sind, dass sie sich selbst verbessern, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
- Gemeinsames Wohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Wohle der gesamten Menschheit entwickelt werden.

