Introducción

AuthorJosé Miguel Hernández López
ProfessionLicenciado en Derecho
Pages13-37
13
INTRODUCCIÓN
«Tres Leyes de la Robótica:
Primera. Un robot no hará daño a un ser humano o, por inacción, permitirá
que un ser humano sufra daño.
Segunda. Un robot debe cumplir las órdenes dadas por los seres humanos, a
excepción de aquellas que entrasen en conflicto con la primera ley.
Tercera. Un robot debe proteger su propia existencia en la medida en que esta
protección no entre en conflicto con la primera o con la segunda ley».
[Isaac Asimov, Yo, robot, 19501]
¿Por qué se debe regular la inteligencia artificial (IA)?
No cabe duda de que las ‘máquinas inteligentes’ se están convirtiendo en una realidad
cotidiana en la vida de millones de personas, cambiando la forma en que trabajamos,
1 Isaac Asimov (1920-1992) fue profesor de bioquímica en la facultad de medicina de la
universidad de Boston y escritor mundialmente conocido por sus obras de ciencia ficción
y divulgación científica. De 1950 es la novela Yo, robot, formada por el conjunto de relatos
que se publicaron originalmente en las revistas norteamericanas Super Science Stories y
Astounding Science Fiction, entre 1940 y 1950. En concreto, las tres leyes de la robótica
aparecen por primera vez en el relato de Isaac Asimov «Círculo vicioso» (Runaround), de
1942, y que se incorporan a la novela Yo, robot. Escritor prolífico, de entre sus obras des-
taca la serie de las fundaciones: Fundación (1951), Fundación e imperio (1952) y Segunda
fundación (1953).
Reglamento de Inteligencia Artificial
José Miguel Hernández López a cargo de la edición anotada y concordada
14
enseñamos, aprendemos, disfrutamos del tiempo de ocio o investigamos, con las con-
siguientes cuestiones éticas y legales que debemos afrontar. Son muchas, por tanto,
las preguntas que debemos plantearnos y que nos alertan contra su deshumanización:
¿nos podrán hacer entrevistas de trabajo ‘robots inteligentes’?; ¿las aplicaciones infor-
máticas de IA podrán juzgar a las personas?; ¿‘mecanismos con IA’ evaluarán pruebas
en los colegios, institutos o en las universidades?; ¿en nuestros trabajos recibiremos
órdenes de ‘jefes-robot’? … En definitiva, ¿podemos confiar en la IA? Para poder
responder a todos estos interrogantes, no vale la idea de una desregularización que
libere de obligaciones a los que disponen de información y poder, y se vacíen de con-
tenido los derechos de las personas. No son correctas posiciones de indiferencia (de
las personas) o de inhibición (de los poderes públicos). La confianza en el buen hacer
de los proveedores; responsables de la distribución; importadores o distribuidores de
sistemas de IA no es en modo alguno suficiente. Si se quiere tener el control de la IA
debemos establecer una normativa que refuerce las garantías sobre su desarrollo y
aplicación. La globalización impone nuevas estructuras de poder. Además de los Esta-
dos y las organizaciones supraestatales como la Unión Europea, nos encontramos con
corporaciones tecnológicas multinacionales cuya actividad puede afectar —y afecta—
a los derechos fundamentales y que, en consecuencia, deben ser objeto de regulación,
en este caso concreto en relación con la IA. Como señalaba hace dos milenios P. Ovi-
dius Naso: «Datae leges ne fortior omnia posset» («Las leyes se han hecho para que el
poderoso no lo pueda todo»)2.
Si se tiene como objetivo la adopción de una IA «centrada en el ser humano y fiable» (C.
1, RIA), deben aprobarse normas jurídicas y crearse instituciones que garanticen la segu-
ridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamen-
tales de la Unión Europea. Formamos parte de sociedades complejas, interconectadas,
con innumerables fuentes de riesgos que pueden poner en peligro los derechos de las
personas. En este contexto el Derecho juega un papel crucial como herramienta para la
resolución de conflictos.
2 P. Ovidius Naso, Fasti 3, 279. Los Fasti se publicaron en torno al año 12 d. C. Tomamos la cita
de la obra de Herrero Llorente, Diccionario de expresiones y frases latinas, Editorial Gredos,
Madrid, 1980, p. 65.

To continue reading

Request your trial

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT