En mi “vida anterior” aprendí que el desarrollo de la IA debía estar basada en unos principios de confianza y transparencia sobre la tecnología utilizada, la propiedad de los datos, y el objetivo de la misma (aumentar la inteligencia del ser humano). Aspectos importantísimos eran cómo evitar los sesgos (por raza o inclinación sexual por ejemplo), y quién y cómo se había entrenado al sistema. Este ha sido mi enlace de referencia durante muchos años https://www.ibm.com/artificial-intelligence/ethics
En los últimos tiempos, con la popularización de estas herramientas y su integración en cada vez más aplicaciones, vuelve a estar de moda el debate sobre la ética en la Inteligencia Artificial, y la necesidad de su regulación.
Mi opinión al respecto, respondiendo al titular del Cinco Días indicado al final de este post, es que sí lo es. Es necesario algún tipo de regulación.
Y ahora vienen los “peros” y las limitaciones… ¿seremos capaces de poner vallas a este inmenso campo que es la IA? ¿quién o quiénes van a establecer esa regulación? ¿no limitará esa regulación el desarrollo de una tecnología que puede ser capaz de aportar enormes beneficios a la humanidad?
Siempre han existido miedos en cada avance tecnológico que ha puesto en peligro funciones desarrolladas por el ser humano, desde la Revolución Industrial, hasta las calculadoras o las hojas de cálculo. En general, limitar y regular estos avances nunca ha sido positivo para el progreso de la tecnología. La diferencia en estos momentos son las consecuencias que puede acarrear una aplicación “ciega” de la IA, en la que no se conozca cuál es la fuente de los datos, quién es su propietario, y cuál es la tecnología que se utiliza para evitar los sesgos propios del ser humano que ha generado esos datos.
Es necesaria una amplitud de miras y visión de futuro por parte de los reguladores, y un trabajo conjunto con la industria tecnológica, que lleva décadas lidiando con este asunto.
El debate está servido. Aquí dejo el enlace.