Parnaso noviembre 2019
 

Inteligencia Artificial: temores, realidades y dilemas éticos

Inteligencia Artificial: temores, realidades y dilemas éticos
Miércoles, 17 de abril 2019

El desarrollo de una inteligencia artificial, capaz de aprender y mejorarse a sí misma, ha dado pie a temores relacionados con la posibilidad de que los robots superen a los humanos y se adueñen del mundo. ¿Qué hay de verdad en esto? Ramón López de Mántaras, Director del Instituto de Investigación en IA del CSIC, nos responde.

Interactiva.- La IA está teniendo más repercusión en la sociedad que nunca ¿a qué se debe? 

Ramón López de Mántaras, Director del Instituto de Investigación en Inteligencia Artificial del CSIC.- En los últimos cinco años, el impacto se ha notado sobre todo porque han aparecido una serie de aplicaciones de la IA con mucho éxito, los juegos de GO (como Pokémon Go), los avances en el diagnóstico médico basado en imágenes, asistentes personales de voz, la generación de música y de obras de arte, cosas que han sido muy mediáticas y que dan la impresión de que la IA es ya algo muy avanzado. Lo que tienen en común es que funcionan muy bien los sistemas de aprendizaje profundo basados en la recopilación de grandes cantidades de datos y encontrar patrones en ellos. Aunque no son nuevas, estas técnicas de IA son factibles ahora porque disponemos de grandes cantidades de datos para entrenar los algoritmos y que aprendan a tomar bien las decisiones, así como la gran capacidad de cálculo que tienen los ordenadores actuales de altas prestaciones, con una velocidad increíble en la resolución de operaciones. La combinación de estos dos factores ha permitido el desarrollo de aplicaciones espectaculares en juegos, en medicina, en sistemas de asistentes virtuales, lo que ha generado el reciente “boom” en torno a la IA. Lo que ha cambiado es la cantidad de datos de los que se dispone y la velocidad y potencia de los ordenadores.

Interactiva.- Además de los aportes que trae la IA en la vida diaria de las personas, se habla también del lado oscuro, de los peligros o amenazas que encierra. ¿Cuál es tu opinión al respecto?

Hay temores infundados y otros que se están subestimando. Ningún sistema de IA por sí mismo se planteará como objetivo controlar a la Humanidad o adueñarse del planeta, no tiene sentido. La malicia está en los seres humanos, somos nosotros los que queremos controlar, acumular poder y riqueza. Eso sí, la IA puede convertirse en una herramienta que puede ser mal usada, si se pone al servicio de personas con objetivos inaceptables, pero en este caso no se puede culpar a la IA o al robot, sino a la persona o personas que están detrás, que le han programado para que alcancen objetivos como las armas autónomas, el control de la ciudadanía o manipulaciones con fines políticos alterando elecciones presidenciales. Los verdaderos temores en torno a la IA no están en la singularidad o en que haya súper inteligencias que intenten adueñarse del mundo y nos esclavicen, los problemas de verdad los tenemos ya encima de la mesa y están vinculados al mal uso de la tecnología de la IA para fines inaceptables por parte de grupos de poder.

Interactiva.- ¿Cuáles son los retos entonces a la hora de poner un marco regulatorio para evitar los peligros reales asociados al avance de la IA?

Los potenciales beneficios de la IA son tan enormes y extraordinarios que es una lástima que exista esa otra cara de la moneda, es una tecnología de doble uso. Por eso, yo creo que la clave está en la educación, en la formación de las personas desde muy pronto, desde la escuela, en el fomento del pensamiento crítico en los estudiantes y del estudio de los aspectos éticos en torno a la tecnología. Eso se está empezando a hacer, pero hay que poner más esfuerzos, como en regular o directamente prohibir cosas como las armas autónomas. Dotar de autonomía a un arma, a un artefacto que puede disparar un misil, a un tanque autónomo o a un robot soldado... Todo esto hay que evitarlo completamente, prohibirlo, además de regular y certificar que los sistemas basados en IA no tienen sesgos, que no discriminan por género, color de piel, etc… Hay que crear organismos que certifiquen que un algoritmo es justo antes de distribuirlo. Yo no estoy a favor de prohibir, pero hay situaciones extremas en las que hay que tomar medidas tajantes, como se hizo al prohibir las armas químicas.

Interactiva.- Otro de los peligros a los que muchos temen es la sustitución por parte de las máquinas de infinidad de puestos de trabajo ¿Cuál es tu opinión al respecto?

En la mayoría de los casos, un puesto de trabajo se compone de varias tareas, 20 o 30 actividades en promedio y muy pocos se limitan a una sola actividad específica. En la actualidad son muy pocas las actividades que pueden ser automatizadas y hay ciertas cosas en las que la capacidad de las máquinas es muy limitada o es imposible sustituir el factor humano, como en la capacidad de socialización, la empatía, la facultad de adaptarse a los cambios o situaciones inesperadas, el manejar la excepcionalidad… Todavía hay una gran cantidad de aspectos del mercado laboral que están lejos de automatizarse, lo que no significa que sea imposible algún día, pero todavía no. De hecho, a mi juicio, algunas cosas no deberían automatizarse nunca, aunque se pudiera, habría que conservar siempre el factor humano en actividades como la medicina, el cuidado de las personas, todo lo que necesite de contacto humano y empatía. Por otra parte, no todas las actividades son automatizables, por lo que creo que la tendencia hacia la que vamos es la de equipos persona-máquina, porque ambos trabajando colaborativamente consiguen un mejor resultado que traba jando por separado. Esto ya se ha demostrado en diagnósticos médicos, cuando se combina la IA con el ojo clínico del médico, el porcentaje de error baja muchísimo, hay casos en los que el equipo médico-máquina consigue un diagnóstico acertado en un 99,5% de los casos. El conjunto persona-máquina tiene mejores resultados que las decisiones tomadas por separado y es por allí por donde debería ir la evolución del mercado laboral.

Interactiva.- ¿Cómo ves la salud de la ciencia y la investigación en España en materia de IA y qué hace falta para estar a la altura de las circunstancias?

Hasta ahora no se le ha prestado la atención que merece por parte del gobierno. Durante 2018 se ha elaborado un borrador de un libro blanco, pero en estos momentos está bastante congelado el tema y no me consta que vaya a salir publicado. Un libro blanco es la base sobre la cual se pueden tomar decisiones y priorizar sobre los diferentes aspectos de la IA, tomar decisiones de política científica sobre la estrategia a seguir en IA en España. Desafortunadamente, dentro de nuestro contexto, en la Europa Occidental, vamos retrasados; hay varios países que ya tienen avanzada y definida su estrategia en IA. Si no nos damos prisa, saldremos retrasados en esta carrera. En el mundo empresarial la IA ya está jugando un papel muy importante y, en ese apartado, todavía estamos a tiempo, porque la adopción de esta tecnología en el ámbito empresarial dentro y fuera de España todavía es muy incipiente. Creo que España aún tiene tiempo de elaborar una estrategia realista y razonable de IA a corto plazo, para ello tiene que recuperar y no desaprovechar los trabajos que se han hecho en este borrador de libro blanco de la IA en España.

Interactiva.- En un contexto en el que se está intentando desvincular el apartado humanístico del científico, y tras mencionar la importancia que le das a la ética detrás de las decisiones que se tienen que tomar en IA ¿Cómo crees que se debería enfocar esta relación?

Tanto en la educación de ingenieros e informáticos, todos los perfiles vinculados al ámbito de la IA, tienen que tener más formación en aspectos humanísticos, ética, filosofía… Es muy transversal, es importante que se tomen en cuenta las enseñanzas más humanísticas en el desarrollo de la IA para una toma de decisiones más humana y justa.


Grupo Control