¿Un robot puede ser responsable penal del delito que comete?

El diagnóstico y el tratamiento de enfermedades, la lucha contra el cambio climático, la mejora de la productividad industrial y del control financiero, los medios de transporte y la ciberseguridad. Todas ellas son actividades en las que los sistemas inteligentes autónomos van a ir ganando parcelas de gestión y decisión en los próximos años, pero ¿qué ocurre cuando producen daños en bienes jurídicos protegidos por el Derecho Penal?
Share on facebook
Share on twitter
Share on linkedin

Por Raúl Alonso

La inteligencia artificial (AI) y la robótica también van a transformar el sistema laboral eliminando las profesionales más automatizables. Incluso resulta cabal pensar que a medida que estas tecnologías avancen, su inteligencia artificial autónoma estará cada vez más próxima a la humana, posibilidad que despierta las suspicacias más inquietantes: ¿podrían llegar a atentar contra sus creadores?

El Derecho frente a un reto inédito

En este retador escenario, Carlos María Romeo Casabona, catedrático de Derecho Penal de la Universidad del País Vasco (UPV) en Bilbao firma Criminal Responsibility of Robots and Autonomous Artificial Intelligent Systems?, en la revista Comunicaciones en Propiedad Industrial y Derecho de la Competencia, de la Fundación CEFI (Centro de Estudios para el Fomento de la Investigación). Su lectura ayuda a comprender un futuro que ya es presente.

El Parlamento Europeo trabaja en esos escenarios, considerándolo “un asunto de gran interés y extrema importancia, a medida que la mejora de estas tecnologías crece en la industria y comienza a tener un impacto más directo en nuestra vida diaria”, explica el autor.

Nadie descarta que la expansión de la AI y los robots producirán daños en bienes jurídicos protegidos por el Derecho Penal. En consecuencia, se plantea la atribución de responsabilidad penal a estos sistemas, “sobre todo a medida que desarrollen una autonomía cada vez mayor en la toma de decisiones”.

Todo parece indicar que el desarrollo de la inteligencia artificial y la expansión de la autonomía del robot en la toma de decisiones enfrentan al Derecho a situaciones inéditas, pero ¿exige de un nuevo planteamiento jurídico?

El profesor argumenta que “al menos a corto o medio plazo, el Derecho Penal dispone de instrumentos adecuados para imputar la responsabilidad penal a los seres humanos que han intervenido en el diseño, fabricación, distribución o utilización de estos sistemas inteligentes, incluso aunque sean autónomos”.

Pero la labor preventiva del Derecho Penal aconsejaría ir más allá. Por ejemplo, podría imponer medidas contra el sistema inteligente para impedir “un riesgo objetivo de reincidencia en el delito”.  Para fundamentar estas acciones se parte de planteamientos como los del control humano significativo (CHS) y criterios de compliance, utilizado como sustento de la responsabilidad penal de las personas jurídicas”.

El delito humano transferido al robot

En su exposición, Romeo se pregunta si el Derecho actual puede aplicarse a delitos hechos por robots o por sistemas inteligentes autónomos con sistemas de red. Supuestos que pueden incluir la muerte o lesiones de seres humanos, además de daños relevantes a otros bienes jurídicos.

Una pregunta que se contextualiza en el consenso de que el delito por acto u omisión descrito por el Código Penal debe ser cometido intencionadamente o por imprudencia por un ser humano de forma ilícita y culpable, pero también por una persona jurídica en los sistemas penales que así lo admiten, como los de los Estados miembros de la UE. Además, en los delitos con resultado de daño material, hay que tener presenta la relación de causalidad.

Ahora la cuestión es si estos requisitos fundamentales, concebidos para los seres humanos y aplicados durante siglos, son totalmente transferibles a los robots y a los sistemas autónomos inteligentes.

Otro escenario posible descrito por el autor es si “debemos renunciar a ellos y, en consecuencia, al Sistema Penal como respuesta a las conductas delictivas ‘cometidas’ por los sistemas inteligentes”. Y como tercero, “si deberíamos adaptar la estructura conceptual del delito a las características de estos sistemas o incluso aprovechar esta oportunidad para renovar y/o modernizar el Derecho Penal”. Por cierto, “¿en qué dirección?”.

Se trata de plantear un dilema que, para Romeo, “necesita de reflexiones inteligentes y sabias, y no de más respuestas simplistas”. Y mientras el debate evoluciona, la propuesta es resolver con las actuales herramientas del Derecho Penal.

Nuevo estándar: control humano significativo

El profesor recuerda que el debate está en fase aún preliminar, y abierto a argumentos y planteamientos. Uno de los más interesantes es la posibilidad de que la responsabilidad penal recaiga sobre los sistemas de AI. Este argumento está fundamentado en que la UE introdujo entre sus estados miembros la responsabilidad penal de las personas jurídicas –“sobre lo que expresé mi oposición, ya que no era necesario desde un punto de vista de política criminal”, especifica Romeo–. Un supuesto de gran interés aunque el autor no lo cree necesario, al menos en el corto y medio plazo.

Pero las nuevas tecnologías calientan este debate. Dar respuesta a realidades como los Sistemas de Armas Autónomas Letales (LAWS) o el vehículo autónomo obligan a ello. Y es aquí donde entra en juego otro concepto que devuelve el dedo inculpatorio al hombre como creador. Es el control humano significativo (CHS), que defiende que son los humanos, y no las computadoras o los algoritmos, quienes deben mantener el control “y así poder ser moralmente y quizás también legalmente responsables”. Romeo recomienda que el CHS se convierta en un estándar de las nuevas tecnologías: “Es nuestro deber como especie que de alguna manera domina el planeta y sus seres vivos, a pesar de que lamentablemente muchas veces se abusa de esa potestad”.

¡Únete a la comunidad de personas que ya están definiendo su futuro!