¿Si un robot o código informático comete un delito, va a la cárcel? No hay una regulación o legislación que establezca de manera clara la responsabilidad Jurídica de las máquinas o inteligencias artificiales.
Ya no es ciencia ficción. La búsqueda de la inteligencia artificial está más avanzada que nunca. Los avances en robótica evidencian que la frontera entre ser humano y maquina está cada vez más cerca de difuminarse. Es un tema recurrente, que vemos en películas como “Blade Runner” donde los replicantes son la evolución moderna de los primitivos robots que tenemos ahora, “Inteligencia Artificial” o “El Hombre Bicentenario”.
El corte más apocalíptico lo veíamos en películas como “Matrix” o “Terminator” donde las maquinas mediante un cerebro artificial exterminan la raza humana.
Si curiosean por Internet, podréis ver que los “drones” son las nuevas palomas de las ciudades, pero con un dato inquietante, ya que desconocemos quien los controla. La industria militar es una habitual en el uso de dispositivos robóticos a control remoto.
Para muestra de lo anterior, el Área de Investigación del Departamento de Defensa de los Estados Unidos (DARPA) ya dispone de sistemas autónomos de combate, con capacidad de decisión. Es decir, imaginémonos un avión que llega a la zona de combate y deja caer 500 robots, que no están controlados por nadie, solo su código interno le permite decidir quién es amigo o enemigo y quien vive o muere.
Por todo lo que os he contado, existen dos variables:
- Maquinas sin capacidad de decisión: aquí englobamos a las maquinas controladas íntegramente por un ser humano, o como mínimo, las que la última decisión la debe tomar una persona. Podemos tomar como ejemplo los aviones teledirigidos que poseen capacidad de disparar balas o lanzar misiles. El operador militar controla el artilugio desde una base a miles de kilómetros y en base a las imágenes que le retransmite en directo decide que destruir o a que disparar.
- ¿Quién responde de los actos de las maquinas? Existe una pluralidad de decisiones… en puridad respondería el propietario de la maquina con carácter civil. Pero si ha cometido un delito la maquina respondería el que la controla directamente. En el caso de que sea una empresa la propietaria de la maquina o un gobierno y ordene cumplir una orden a un empleado o a algún soldado, se entiende que la persona que controla el robot cumple órdenes y no ha existido dolo (elemento subjetivo del delito) en la comisión del acto, así respondería el que ha dado la orden, independientemente de que sea una sola persona o una organización.
- Maquinas con capacidad de decisión: es el último paso que está dando la industria armamentística y civil, son robots con una inteligencia artificial tan desarrollada que no necesitan de un humano. Un claro ejemplo lo vimos en la película Chappie. O más cercano, los coches autónomos que conducen solos y que pueden causar accidentes y atropellos. Las opciones para determinar la responsabilidad legal de las actuaciones de los robots se expanden. Contemplamos obligatoriamente al propietario de la máquina. ¿Pero y si realmente el problema es la persona que ha creado la inteligencia artificial? Porque realmente ha sido ese acto legalmente transcendente origen de una decisión tomada por un cerebro artificial, sin ninguna interferencia externa.
Hoy en día lo tenemos muy cerca el ejemplo de los vehículos con conducción autónoma, con marcas que lo abanderan como Tesla, seguidas de otras premium como BMW, Audi o Mercedes. Según la zona geográfica, existen varias clasificaciones de conducción asistida o independiente del conductor, pero contando que el nivel mas bajo ofrece «ayudas» a la conducción, el nivel mas alto (4 o 5 según el sistema de clasificación que observemos) permite que el automóvil realice todas sus acciones sin la existencia de un conductor, dependiendo únicamente de su hardware.
Elon Musk, el CEO de TESLA, la marca automovilística líder en electrificación de vehículos y conducción autónoma, manifestó a finales de 2019, (antes del parón mundial por el COVID-19) «creo que tendremos la capacidad de conducción autónoma completada para este año, lo que significa que el coche podrá encontrarte en un parking, recogerte y llevarte a tu destino sin ningún tipo de intervención humana este mismo año. Estoy seguro de eso. No es un interrogante«.
¿Qué pasará con las maquinas con Inteligencia Artificial que desobedezcan las órdenes recibidas?
Legalmente no existe ninguna legislación internacional para estos supuestos, pero con un poco de sentido común, deberían poder generarse estas máquinas o herramientas con unos ciertos límites, porque al tener inteligencia artificial, los actos que hicieran serian “humanos” y por tanto susceptibles de enjuiciamiento.
Para terminar el artículo, no conviene olvidar las Leyes de la Robótica de Asimov:
1.- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o 2ª Ley.
Quien sabe, quizás interese que los futuros robots olviden estas 3 leyes, o que nos sentemos a decidirlo, pero la realidad es que ya es el presente y no conviene olvidarlo.
Luis Antonio Fernández Porcel. Abogado de Ciberlawyer.