Propósito
Estas leyes surgen como medida de protección para los seres
humanos. Según el propio Asimov, la concepción de las leyes de la robótica
quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor
que el ser humano desarrollaría frente a unas máquinas que hipotéticamente
pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera
desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado
irreversiblemente y el robot moriría. A un primer nivel no presenta ningún
problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas
creadas por el hombre para su servicio. La complejidad reside en que el robot
pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o
sea poder deducirlas en el momento. Por ejemplo saber en determinada situación
si una persona está corriendo daño o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí"
.
Asimov crea un universo en el que los robots son parte
fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un
papel determinante por diez mil años más. Es lógico pensar que el nivel de
desarrollo de los robots variaría con el tiempo, incrementándose su nivel de
complejidad cada vez más.