https://static.elcomercio.es/www/menu/img/tecnologia-desktop.jpg

La inteligencia artificial ya tiene principios éticos

Inteligencia Artificial./Archivo
Inteligencia Artificial. / Archivo

Las leyes robóticas de Asimov marcan el paso

JOSÉ A. GONZÁLEZMadrid

«Aunque puede traer beneficios a los individuos y la sociedad, la IA también puede tener un impacto negativo». Así explica la Comisión Europea la llegada de la Inteligencia Artificial a la vida de los europeos.

Un desembarco que ya se ha producido con la entrada de esta en los teléfonos móviles de última generación, aunque el despliegue total llegará en los próximos años. Su mayor exponente son los robots humanoides que sean capaces de imitar y realizar tareas humanas.

Con esta base, Bruselas ya trabaja en el primer borrador de los principios éticos «para una Inteligencia Artificial confiable». El texto, aún provisional, propone una serie de principios rectores como la supervisión por parte de seres humanos y el respeto por la privacidad y la transparencia, para lograr una «Inteligencia Artificial centrada en el ser humano».

El grupo de trabajo está formado por 52 expertos de todos los ámbitos de la sociedad que trabajan «para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan poder confiar en ellos y saber que su privacidad es respetada», explica Andrus Ansip, vicepresidente de la Comisión Europea.

De momento, el primer borrador presentado por los expertos europeos consta de 36 páginas resumidos en dos grandes pilares. El primero de ellos es un propósito ético en el que, acotan los ponentes, la inteligencia artificial deberá respetar la regulación vigente y los derechos humanos.

Un principio con más de 70 años de antigüedad. En 1942, Isaac Asimov escribió en uno de sus relatos llamado Círculo vicioso, las conocidas como leyes de la robótica. En concreto son tres las que escribió este escritor y profesor ruso de bioquímica.

El primer punto escrito por Asimov afirmaba que «un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño».

La segunda norma explicaba la relación entre los humanos y los robot. «Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley».

Por último, la tercera ley de la robótica de Asimov está relacionada con el segundo pilar escrito por los expertos de la Unión Europea. « La inteligencia artificial deberá garantizar que, incluso siendo usada con buenas intenciones, la falta de pericia tecnológica en su manejo no causa un daño involuntario», se explica en el borrador comunitario.


Asimov cerraba su artículo con la siguiente frase: «Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley». En el texto comunitario, los expertos establecen cinco puntos inquebrantables.

El respeto al bien y no hacer el mal es básico en el nuevo borrador. Además se establece que las acciones de la inteligencia artificial han de ser explicables y debe ser justa.

En el borrador también se disponen como valores básicos la ausencia de discriminación, la necesidad de que siempre sea posible una supervisión por parte de seres humanos, y el respeto a la privacidad de los mismos.

El texto definitivo se publicará en marzo de 2019. Este grupo de trabajo está abierto a nuevas sugerencias y aportaciones hasta el próximo 18 de enero.

 

Fotos

Vídeos