Si viviéramos ya en un mundo futuro y existieran robots equipados con inteligencia artificial, iguales en todo lo demás a los humanos, ¿sería necesario que fueran conscientes de que lo son? Es decir, ¿debe un robot saber que no es un ser humano? Imagínese viviendo en ese mundo sin saber si usted es o no un robot: ¿querría saberlo?, ¿sería conveniente? Si no hay diferencias fundamentales entre humano y robot, ¿tiene sentido saber si se es una cosa o la otra?
Ya convivimos con robots. No siempre los llamamos así, pero están en todas partes: en nuestras cocinas, en los móviles, pilotan los aviones, regulan las transacciones bursátiles, acabarán por conducir nuestros vehículos, o los vehículos serán robots, etc.
Para Nikola Kesarovski es fundamental que el robot sepa que lo es. En su obra La quinta ley (1983), un robot que desconoce su condición acaba con un ser humano al darle un abrazo demasiado cariñoso. No tenía intención de hacer daño. Esta situación es relevante porque normalmente se recurre a las famosas tres leyes de la robótica que Asimov expuso en 1942 (Círculo vicioso) como lenitivo ante el temor que produce la posibilidad de convivir con robots en todo mejores que nosotros y, además, casi inmortales. El problema es que esas leyes no tienen en cuenta los excesos afectuosos.
Seis leyes de la robótica
La primera las leyes de Asimov establece que ningún robot ocasionará daño a un humano por acción u omisión. Lamentablemente, esta ley da más problemas que soluciones porque es complicado definir lo que es daño. Por ejemplo, recientemente se ha creado un robot albañil. Aparentemente, esto no ocasiona daño a nadie. Sin embargo, si deja sin trabajo a los que ahora se dedican a ello, ¿no estaría ocasionando un daño? Pero, si dejara de construir, el “daño” se lo estaría causando a quienes esperan la vivienda.
Para superar esos problemas, algunos autores de ciencia ficción han sentido la necesidad de complementar las tres leyes de Asimov. Lubien Dilov dio la cuarta en su obra El camino de Ícaro (1974): “Todo robot debe identificarse siempre como tal”. Y Kesarovsky enuncia la quinta más o menos así en su obra La quinta ley (1983): “Todo robot debe saber siempre que es un robot”. Tal vez sería más correcto alterar el orden de estas dos leyes, ya que resulta evidente que para identificarse como robot debe saberse primero que se es tal cosa.
Puede añadirse otra, de Harry Harrison: “Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (de Asimov)”. Para Harrison, ésta era la cuarta ley: aparece en su obra de 1986 La cuarta ley de la robótica. Entraría en conflicto con la de Dilov en cuanto al orden que han de seguir. Pero esto es un detalle menor. El caso es que hay seis leyes con las que se pretende desvanecer cualquier amenaza que la convivencia con robots pueda suponer en el futuro. Son, ordenadas según mi criterio:
- Un robot no debe dañar a un ser humano o permitir, por inacción, que sufra daño un ser humano (Asimov, 1942).
- Un robot debe cumplir las órdenes dadas por seres humanos, salvo aquellas que entren en conflicto con la primera ley (Asimov, 1942).
- Un robot debe proteger su propia existencia, siempre que esta protección no entre en conflicto con las leyes primera o segunda (Asimov, 1942).
- Un robot debe saber siempre que es un robot (Kesarovsky, 1983).
- Un robot debe identificarse siempre como tal (Dilov, 1974).
- Un robot debe reproducirse, en tanto en cuanto esta reproducción no entre en conflicto con las leyes primera o tercera (Harrison, 1986).
Creo que para solucionar el problema que ocasiona la primera ley y que se ha mencionado antes, convendría redactarla de la siguiente manera:
- Un robot no iniciará nunca un acto de agresión contra la vida o la propiedad de un ser humano.
Esta redacción es más adecuada por dos motivos: en primer lugar, al decir que no “iniciará” nunca un acto de agresión, permite pensar en la posibilidad de robots encargados de garantizar la seguridad, que se verían obligados, tarde o temprano, a responder a actos violentos iniciados por humanos. En segundo lugar, los robots podrían llevar a cabo acciones que, siendo perjudiciales para los humanos, como ocupar puestos de trabajo, no podrían considerarse como agresión, por lo mismo que no lo consideramos así cuando lo hace un ser humano.
La séptima ley
También se ha eliminado en esta nueva redacción la idea de daño por inacción. Esto puede parecer extraño, ya que un robot que no acuda a socorrer a un humano en peligro no estaría realizando ninguna agresión, pero tampoco serviría como salvavidas, por ejemplo. Los robots podrían permanecer impasibles ante actos de agresión cometidos por unos humanos sobre otros, o no ayudar nunca a nadie que lo necesite.
En realidad, no es un problema, ya que los robots están programados para ejecutar determinadas tareas, como por ejemplo salvar vidas en la piscina, y no podrán dejar de llevarlas a cabo; es decir, no podrán nunca no actuar, no habrá omisión. Es lo que establece la segunda ley: han de obedecer.
Si, tal y como se afirma que ocurrirá, los robots llegarán a tener conciencia de sí mismos y, en consecuencia, podrán decidir “libremente” qué acciones llevar a cabo o no, las leyes mencionadas no serán de aplicación. Habría que sustituir “debe” por “puede” y, por eso mismo, dejarían de ser leyes. Además, los robots ya no se distinguirían de nosotros y no sería fácil justificar que tuvieran que regirse por leyes distintas a las nuestras.
Este es el caso que genera más preocupación. De hecho, las leyes de Asimov impiden el desarrollo de una conciencia autónoma o, si se desarrolla, impiden que se aplique en la práctica. Si los robots, en todo más inteligentes que nosotros, más fuertes, más resistentes, sin enfermedades, con vidas útiles larguísimas, etc., tienen, además, conciencia de sí mismos, no cabe esperar que sean muy indulgentes con nosotros. Y si no nos trataran mal serían como santos, a los que les resultaríamos indiferentes, o peor, innecesarios.
Por ello, por si adquieren autoconciencia, hay que añadir una séptima ley con el fin de humanizarlos. La llamo ley, pero ello no quiere decir que lo sea en sentido estricto, o que haya de ser impuesta de alguna manera, ya que es probable que surgiera de manera espontánea y simultánea con la conciencia de sí mismos. Podría enunciarse así:
- Un robot debe sentir deseo por aquello mismo que los otros robots desean.
Robots y humanos
De este modo, al tener deseos miméticos (como los llamaba René Girard), serán en todo iguales a nosotros. Surgirá entre ellos el conflicto y se verán obligados, para evitar que los destruya, a hacer lo mismo que nosotros: usar la política, de la que depende la civilización.
Serán así civilizados y tratarán de establecer garantías que aseguren la integridad y la libertad de cada uno, tendrán que respetar la autonomía individual, se preocuparán por la justicia, se dotarán de un orden jurídico, adoptarán normas morales, etc., y, lo que es más importante, sentirán empatía por quienes “sólo” somos formas de vida con base de carbono, menesterosas, llenas de deseos. Lo político, que procura la convivencia, será esencial también para ellos.
Serán libres, necesitarán de la política y podremos buscar un bien común. Probablemente, entonces, no sea relevante distinguir a un humano de un robot, pero no porque nos hayamos deshumanizado nosotros, sino porque se hayan humanizado ellos.
Imagen superior: ilustración de Ralph McQuarrie para el libro «Robot Visions», de Isaac Asimov (Roc Books, 1989).
Roberto Losada Maestre es profesor de Teoría Política, Universidad Carlos III.
Copyright del artículo © Roberto Losada Maestre. Artículo editado originalmente por The Conversation y publicado en Cualia.es por cortesía de esta publicación, con licencia CC.