La ‘batalla’ entre robots y humanos se disputará en el terreno de las leyes

INTELIGENCIA ARTIFICIAL Efefuturo.- La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del ...
publicado por
Agencia EFE avatar photo
hace karma
0

INTELIGENCIA ARTIFICIAL

Efefuturo.- La convivencia cada vez mayor con robots y sistemas de inteligencia artificial plantea cuestiones que, mas allá del propio desarrollo tecnológico, entran en la filosofía, la ética y el derecho, y parece que es aquí y no en una posible amenaza para la raza humana donde estarán los “conflictos robóticos” del futuro.

CARMEN FERNÁNDEZ MADRID Viernes 19.08.2016

La idea de que la inteligencia artificial pueda adelantar a la humana no tiene aplicación en términos absolutos sino que sólo tiene sentido dentro de determinados contextos, según expertos consultados por Efe, que añaden que ya hay robots y software autónomos que toman decisiones más allá de sus algoritmos preprogramados y pueden aprender y adaptarse a situaciones imprevisibles no anticipadas.

También pueden adelantarnos en velocidad de cálculo y complejidad de datos pero “la inteligencia humana no se dedica sólo a computar sino que está puesta en activo con el mundo y con otras personas, es social”, apunta Fernando Broncano, catedrático de Lógica y Filosofía de la Ciencia de la Universidad Carlos III de Madrid (UC3M).

Les falta versatilidad y sentido común -a las máquinas-, y quedan lejos de lo que sería una inteligencia artificial general, dotada de singularidad“, añade Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas.

“Una máquina no llegará a tener conciencia de lo que está haciendo, podrá jugar al ajedrez pero no sabrá que está jugando, no sabe lo que es competir ni tendrá el sentimiento de que está compitiendo con el hombre para derrotarle”, amplía López de Mántaras: “hay motivaciones e intenciones que dudo mucho que vayan a tener”.

La ciencia ficción influye en nuestra imagen de los robots y personas como Stephen Hawking “plantean un escenario apocalíptico” en el que la inteligencia artificial conllevaría el fin de la raza humana, pero para Mántaras se está hablando de periodos futuros irracionales, sin entender el “estado del arte” en este campo e incluso infravalorando la propia complejidad del cerebro.

La ‘amenaza real’ se juega en el campo de la ética

“La ‘amenaza real’ está en el campo de la ética”, dice Mántaras, quien subraya que “la gran cuestión, más que el grado de inteligencia, es el grado de autonomía que se le conceda a una máquina, una vez éstas se extiendan en nuestro entorno inmediato”.

Imagen de archivo de una exposición sobre inteligencia artificial en el Museo Tinguely de Basilea (Suiza).

Imagen de archivo de una exposición sobre inteligencia artificial en el Museo Tinguely de Basilea (Suiza).

Este es el punto central a la hora de replantearnos la nueva legislación y las responsabilidades, y aquí hay que hablar de niveles que nos llevan a problemas morales y jurídicos muy importantes, señala por su parte Broncano.

A nivel moral la responsabilidad es de los humanos, puntualizan ambos expertos, y Mántaras añade: las máquinas no tienen conciencia, intencionalidad, ni maldad propias.

Teresa Rodríguez de las Heras, profesora titular de Derecho Mercantil en la UC3M, profundiza en esta línea indicando que “la diversidad de enfoques y la pluralidad de intereses impiden un tratamiento único y global de los avances de la robótica”.

“Esto conlleva un retraso en la intervención normativa, necesario en cualquier caso para evitar una respuesta inadecuada que obstaculice el desarrollo tecnológico o distorsione la competencia en el mercado”.

Para esta experta, el tratamiento jurídico ante la autonomía y capacidad de decisión -del robot- implicaría el reconocimiento de personalidad, la asunción de derechos y obligaciones, y la atribución de responsabilidad; “quizá haya que trabajar con un concepto de ‘persona artificial’ o replantearnos la propia noción de persona -en equivalencia al concepto de persona jurídica-“.

Limitar ciertas aplicaciones

Ciertas aplicaciones y áreas deberán limitarse, y no hay que permitir un 100 % de autonomía, como en el caso de los drones que disparan sin intervención humana, robots-soldados o los algoritmos de transacciones de alta frecuencia (“high-frequency trading”).

Estos últimos “toman decisiones en milisegundos y compiten entre sí expulsando del mercado al agente humano y llevando a caídas de la bolsa perjudiciales incluso para la economía de un país”, por lo que se hace fundamental una regulación, coincide López de Mántaras.

Pensar en la posibilidad de que las máquinas adquieran derechos robóticos equiparables a los humanos plantea además un problema humanístico y filosófico “inquietante”, de acuerdo a Broncano, para el que en breve plazo habrá que enfrentarse a los mismos dilemas éticos que surgen en nuestra relación con los animales.

“No hay una respuesta ‘todo o nada’ pero tenemos que plantearnos nuestra sensibilidad hacia sistemas que tengan cierta autonomía y capacidad de sensibilidad respecto a ellos mismos, al mundo y a su relación con nosotros”, precisa.

Para Mántaras, sin embargo, no tendría cabida hablar de derechos robóticos ya que las máquinas no sufren y aún cuando se habla de robots con emociones se hace en sentido metafórico porque no las sienten: un robot no verá peligrar su supervivencia ya que “a partir del momento en que no hay pensamiento consciente, todo esto desaparece”.

Fuente: EFE Noticias – Futuro