Empieza a ser habitual ver informaciones donde el concepto Inteligencia Artificial (IA) es utilizado en diversos contextos. Una primera aproximación puede llevar a pensar en robots humanoides, con capacidad de raciocinio al nivel de los humanos, algo que hemos visto ya en diversas películas. Sin embargo, ¿es eso posible? Rotundamente no. Al menos en el estadio actual de las máquinas.

Sin embargo, empieza a ser una realidad que ciertos softwares, asociados o no a maquinaria física, comiencen a aprender de sus propios errores sin necesidad de intervención del factor humano, sin necesidad de reprogramaciones. Ello es posible gracias a la incorporación de programas predictores que a través de miles de ejemplos facilitan  la interpretación de patrones de datos y, en la siguiente ocasión, actuar de forma diferente hasta conseguir interacciones empáticas con los humanos. Se realiza de manera automática, a través de un sistema conocido como machine learning que va aprendiendo hasta lograr simular el pensamiento humano e interaccionar con un humano de una forma que resulte agradable.

Ahora bien, en este proceso de aprendizaje, ¿existen límites éticos a sus avances y a su nuevo comportamiento? En definitiva, lo que planteo es si debe existir una ética en los robots, la conocida como Roboética (¡Ojo! no Robótica).

No es una pregunta baladí. Ya existen muchas aplicaciones robotizadas que toman decisiones constantemente que invaden los campos de la privacidad, que seleccionan perfiles en redes en función de parámetros que pueden tener sesgo machista, o con comportamientos que realicen discriminación de género, etc.

Conscientes de esta problemática ya se han alzado voces desde diversas instancias gubernamentales para profundizar en esa cuestión. En la Unión Europea se abrió el debate y desde la Comisión se propició la creación de un grupo de expertos en IA (AI HLEG) que  desarrollaron una guía con ciertas pautas para minimizar esos riesgos. Al final el Parlamento Europeo ha creado un código ético de conducta en este campo. Sus ejes principales son:

  • Proteger a los humanos del daño causado por robots: la dignidad humana.
  • Respetar el rechazo a ser cuidado por un robot.
  • Proteger la libertad humana frente a los robots.
  • Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
  • Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes-  que puedan generar una empatía artificial.
  • Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
  • Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
  • Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.

Ahora bien, ¿tienen ética las máquinas? los robots no tienen valores ni consciencia más allá de lo que se les programa y consienta. Donde se debe poner el foco en sus creadores. Hay que focalizar la intervención en los diseñadores, en los productores de aplicaciones, incluso en la interacción de algunos usuarios que con sus comportamientos reiterados encaminan el machine learning por determinados vericuetos poco aconsejables. Un ejemplo de buen camino es el desarrollo de Ethyka, un módulo de IA capaz de decidir ante dilemas humanos y que ha sido desarrollado por unos ingenieros españoles. La ética debe ir dirigida más a los humanos que a las máquinas. Y se debe apostar por algunos valores que pueden ser compartidos por casi toda la humanidad: respeto a la dignidad humana, a la libertad de decisión, la búsqueda del bien común, inclusión, no uso militar, preservar la privacidad de la personas… y algunos otros que dejo a la reflexión del lector.

Más información en:

https://ai100.stanford.edu/sites/default/files/ai_100_report_0831fnl.pdf

https://elpais.com/elpais/2017/06/16/opinion/1497602599_425102.html


Dr. Joaquín Marqués

Twitter: @Quim_Marques

LinkedIn: www.linkedin.com/in/joaquimmarques

Entradas recomendadas