Gesetze der Robotik sind eine Menge Gesetze, Regeln oder Normen, die als ein Schlüsselsystem vorgeschlagen werden, um das Verhalten von Robotern zu unterstützen, die einen Grad der Autarkie haben sollen. Roboter dieses Grades an Unberechenbarkeit gibt es noch nicht, aber sie wurden im Allgemeinen in Sci-Fi und Filmen vorausgesehen und sind ein Punkt dynamischer innovativer Arbeit auf den Gebieten der mechanischen Technologie und des vom Menschen geschaffenen Bewusstseins.

Die bekannteste Anordnung von Gesetzen sind die von Isaac Asimov in den 1940er Jahren verfassten oder von ihnen abhängigen Gesetze, doch wurden in den Jahrzehnten danach von Analysten andere Anordnungen von Gesetzen vorgeschlagen.

ie bekannteste Anordnung von Gesetzen ist Isaac Asimovs “Drei Gesetze der mechanischen Autonomie”. Diese wurden in seiner Kurzgeschichte “Ablenkung” aus dem Jahr 1942 vorgestellt, obwohl sie bereits in einigen Vorgeschichten angedeutet waren. Die Drei Gesetze sind:

Ein Roboter darf eine Person nicht verletzen oder durch Untätigkeit zulassen, dass eine Person zu Schaden kommt.

Ein Roboter muss die Anforderungen erfüllen, die ihm von Menschen gestellt werden, außer wenn diese Anforderungen mit dem Hauptgesetz in Konflikt geraten würden.

Ein Roboter muss seine ganz eigene Realität sicherstellen, solange die Versicherung dementsprechend nicht mit dem Ersten oder Zweiten Gesetz kämpft.

Kurz vor dem Ende seines Buches Etablierung und Erde wurde ein nulltes Gesetz vorgestellt, dem die ersten drei entsprechend überarbeitet untergeordnet wurden:

Ein Roboter darf der Menschheit nicht schaden oder durch Untätigkeit ermöglichen, dass die Menschheit zu Schaden kommt.

Abhängig von dieser Struktur gibt es Anpassungen und Erweiterungen. Ab 2011 bleiben sie ein “anekdotischer Apparat”.

Im Jahr 2011 veröffentlichten der Engineering and Physical Sciences Research Council (EPSRC) und der Arts and Humanities Research Council (AHRC) Großbritanniens gemeinsam fünf ethische “Prinzipien für Designer, Konstrukteure und Nutzer von Robotern” in der realen Welt sowie sieben “hochrangige Botschaften”, die auf der Grundlage eines Forschungsworkshops im September 2010 vermittelt werden sollten:

Roboter sollten nicht ausschließlich oder grundlegend so geplant werden, dass sie Menschen ausführen oder verletzen.

Menschen, nicht Roboter, sind verlässliche Spezialisten. Roboter sind Geräte, die dazu bestimmt sind, menschliche Ziele zu erreichen.

Roboter sollten so strukturiert sein, dass ihr Wohlbefinden und ihre Sicherheit gewährleistet sind.

Roboter sind Antiquitäten; sie sollten nicht dazu bestimmt sein, machtlose Kunden zu missbrauchen, indem sie eine begeisterte Reaktion oder ein Vertrauen hervorrufen. Es sollte durchweg denkbar sein, einen Roboter von einem Menschen zu unterscheiden.

Es sollte durchweg denkbar sein, herauszufinden, wer legitimerweise für einen Roboter verantwortlich ist.

Die zur Weitergabe vorgeschlagenen Botschaften waren:

Wir akzeptieren, dass Roboter möglicherweise einen kolossalen positiven Effekt auf die Gesellschaft haben können. Wir müssen achtsame Roboter zum Erforschen befähigen.

Schreckliche Praxis schadet uns allen.

Der Versuch, offene Bedenken auszuräumen, wird uns allen helfen, an Boden zu gewinnen.

Zeigen Sie, dass wir als Robotiker uns auf die idealsten Modelle der Ausbildung konzentrieren.

Um den einzigartigen Umstand und die Ergebnisse unserer Untersuchung zu verstehen, sollten wir mit Spezialisten aus verschiedenen Ordnungen zusammenarbeiten, einschließlich Soziologie, Recht, Theorie und Ausdrucksformen der menschlichen Erfahrung.

Wir sollten über die Moral der Geradlinigkeit nachdenken: Gibt es Bruchstellen zu dem, was transparent zugänglich sein sollte?

An dem Punkt, an dem wir falsche Aufzeichnungen in der Presse sehen, beschließen wir, die Bemühungen zur Kontaktaufnahme mit den ankündigenden Schriftstellern beiseite zu legen.

Ein Roboter darf eine Person nicht verletzen oder durch Untätigkeit zulassen, dass eine Person zu Schaden kommt.

Ein Roboter muss die Anforderungen erfüllen, die ihm von Menschen gestellt werden, außer wenn diese Anforderungen mit dem Primärrecht in Konflikt geraten würden.

Ein Roboter muss seine ureigene Realität sicherstellen, solange die Sicherheit in dieser Eigenschaft nicht mit dem Ersten oder Zweiten Gesetz in Konflikt gerät.

Kurz vor dem Ende seines Buches Etablierung und Erde wurde ein nulltes Gesetz vorgestellt, wobei die ersten drei vernünftigerweise überarbeitet wurden und ihm untergeordnet waren:

0. Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit ermöglichen, dass die Menschheit zu Schaden kommt.

Abhängig von diesem System gibt es Anpassungen und Erweiterungen. Ab 2011 bleiben sie ein “anekdotischer Apparat”.