Las leyes de la robótica son un montón de leyes, reglas o normas, que se proponen como un sistema clave para apoyar la conducta de los robots destinados a tener un nivel de autosuficiencia. Los robots de este nivel de imprevisibilidad no existen todavía, sin embargo, han sido generalmente previstos en la ciencia ficción, las películas y son un punto de trabajo dinámico e innovador en los campos de la tecnología mecánica y la conciencia hecha por el hombre.

Los arreglos de leyes más conocidos son los compuestos por Isaac Asimov durante el decenio de 1940, o que dependen de ellos, aunque en los decenios siguientes los analistas han propuesto diferentes arreglos de leyes.

l arreglo de leyes más conocido es el de las “Tres leyes de la autonomía mecánica” de Isaac Asimov. Estas fueron presentadas en su cuento corto de 1942 “Diversion”, a pesar de que fueron prefiguradas en un par de historias anteriores. Las Tres Leyes son:

Un robot no puede dañar a un individuo o, por inacción, permitir que una persona llegue a herir.

Un robot debe cumplir con las solicitudes que le den las personas aparte de donde dichas solicitudes luchen con la Ley Principal.

Un robot debe asegurar su propia realidad siempre y cuando, en consecuencia, el seguro no luche con la Primera o Segunda Ley.

Cerca del final de su libro Establecimiento y Tierra, se presentó una ley cero, con las tres primeras apropiadamente renovadas como subordinadas a ella:

Un robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad llegue a sufrir.

Existen ajustes y expansiones que dependen de esta estructura. A partir de 2011 se mantienen como un “dispositivo anecdótico”.

En 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) de Gran Bretaña publicaron conjuntamente un conjunto de cinco “principios éticos para diseñadores, constructores y usuarios de robots” en el mundo real, junto con siete “mensajes de alto nivel” que se pretende transmitir, basados en un taller de investigación de septiembre de 2010:

los robots no deben ser planeados exclusiva o fundamentalmente para ejecutar o herir a la gente.

Las personas, no los robots, son especialistas confiables. Los robots son dispositivos destinados a lograr objetivos humanos.

Los robots deben ser estructurados de manera que garanticen su bienestar y seguridad.

Los robots son antigüedades; no deben tener la intención de abusar de clientes impotentes sacando a relucir una reacción entusiasta o una confianza. Debería ser consistentemente concebible distinguir un robot de un humano.

Debería ser siempre concebible descubrir quién es legítimamente responsable de un robot.

Los mensajes propuestos para ser transmitidos fueron:

Aceptamos que los robots pueden tener un efecto positivo colosal en la sociedad. Tenemos que potenciar a los robots conscientes para que exploren.

Las prácticas terribles nos perjudican a todos.

Tender a aclarar las preocupaciones abiertas nos ayudará a todos a ganar terreno.

Demostrar que nosotros, como robots, nos centramos en los modelos más ideales de entrenamiento.

Para comprender la circunstancia única y los resultados de nuestro examen, debemos trabajar con especialistas de diferentes órdenes, incluyendo sociologías, leyes, teoría y expresiones de la experiencia humana.

Deberíamos pensar en la moral de la franqueza: ¿hay puntos de ruptura en lo que debería ser accesible de forma transparente?

En el momento en que vemos registros erróneos en la prensa, resolvemos dejar de lado el esfuerzo de contactar a los escritores anunciadores.

Un robot no puede dañar a una persona o, por inacción, permitir que un individuo llegue a lastimarse.

Un robot debe cumplir con las peticiones que le den las personas, aparte de donde tales peticiones lucharían con la Ley Primaria.

Un robot debe asegurar su propia realidad siempre y cuando la garantía de capacidad no luche con la Primera o Segunda Leyes.

Cerca del final de su libro Establecimiento y Tierra, se presentó una ley cero, con los tres primeros razonablemente reelaborados como subordinados a ella:

0. Un robot no puede dañar a la humanidad, o, por inacción, permitir que la humanidad llegue a sufrir.

Existen ajustes y expansiones que dependen de este sistema. A partir de 2011 se mantienen como un “dispositivo anecdótico”.