El desarrollo de aplicaciones basadas en los avances de la IA está sacudiendo a la sociedad como un torbellino. Casi todos se han animado a usar herramientas de texto, imagen, video, edición, traducción… basadas en IA. Sin embargo, a la misma velocidad estamos siendo testigos de los peligros de la falta de control y seguimiento en ese desarrollo, un temor que ha estado desde el mismo inicio del interés humano por crear nuevas formas de inteligencia, como pasó con las máquinas y los robots.
Ya en 1942 Asimov planteaba las tres leyes de la robótica: Primera: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño. Segunda: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley. Tercera: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Algo así debería diseñarse en torno a la Inteligencia Artificial, como han demostrado las más recientes polémicas surgidas en torno a la generación de falsos desnudos, falsos audios, falsos videos, mediante aplicaciones de inteligencia artificial (IA), planteando cuestionamientos éticos y de privacidad. Europa ya ha avanzado en la regulación de esta tecnología, pero esto es un problema en el que deberían involucrarse todos los gobiernos y también las grandes tecnológicas, ya que la regulación de la inteligencia artificial se vuelve imperativa para proteger los derechos individuales y preservar la confianza en la era digital. Es necesario establecer límites claros sobre el uso de la IA en contextos sensibles, garantizando la transparencia en la creación y distribución de contenido generado artificialmente. Además, se debe fomentar la responsabilidad de los desarrolladores y la aplicación de sanciones en casos de abuso. La IA seguirá formando parte de nuestras vidas, nos toca garantizar que sea de forma segura.