Los flujos y almacenamiento de información digital han permitido notables mejoras en la vida de las personas y el rendimiento de las empresas, pero a su vez ha causado amenazas a la privacidad y el derecho de las personas, para ello surge la necesidad de tener una correcta regulación de la inteligencia artificial.
Hoy en día los datos son el principal motor de la economía digital.
Si bien estos datos impulsan un gran avance en la economía y el funcionamiento de las empresas, también generan polémica al atentar contra la privacidad de las personas que ceden su información. Es muy frecuente que las personas no tengan idea de cómo su perfil, geolocalización, rostro o historial de visitas en línea terminan en manos de proveedores que conocen sus intereses. Sin embargo, al navegar en internet, descargar una aplicación o realizar ciertas transacciones se da el consentimiento para el tratamiento de la información.
Los avances de las nuevas tecnologías y la inteligencia artificial han impulsado a los algoritmos a niveles que hubieran sido inimaginables años atrás. Actualmente en el campo de la biometría se ha vuelto posible los reconocimientos faciales y de voz o incluso reconocer la forma de escribir o de caminar de una persona, por lo que los algoritmos hoy en día nos conocen incluso más que nosotros mismos. Lo que supone riesgos a derechos fundamentales como la privacidad.
En cuanto a los algoritmos no solo existen vulneraciones a la privacidad, sino riesgos de seguridad. Muchas veces hay un flujo de datos sensibles que, si no están correctamente encriptados, pueden caer en las manos equivocadas y ser usados con fines maliciosos como suplantación de identidad, ciber extorsión, secuestros de datos, etc.
¿Hasta dónde puede llegar la inteligencia artificial? ¿Es posible controlarla?
Actualmente casi todas las publicaciones, anuncios publicitarios y productos que se nos recomienda en internet vienen dados por algoritmos que reconocen nuestro comportamiento y preferencias. Pero ¿son las soluciones propuestas por los algoritmos fiables o éticas? ¿existen códigos éticos que regulen estos algoritmos?, y de ser así ¿Cómo se define un comportamiento ético en la inteligencia artificial?
El problema es que, sin una regulación adecuada de la inteligencia artificial, los sistemas tienen una mayor probabilidad de ser inexactos e inseguros.
En segundo lugar, toda persona tiene una serie de derechos digitales que deben ser respetados a la hora de usar nuestros datos. Esto significa que todo el mundo, incluidas las empresas y los gobiernos, tienen que seguir ciertas normas a la hora de tomar decisiones. Cuando alguna persona se salta las normas acordadas y perjudica a otra, debe responder por ello. Dicho esto, las agencias que regulan la inteligencia artificial deben garantizar el respeto de estas normas y de que toda persona que las infrinja tiene que rendir cuentas, normalmente a través del derecho administrativo, civil o penal.
Normativas existentes
Aunque no existe todavía una regulación especifica para la inteligencia artificial, ya hay una serie de normativas que protegen a las personas. Entre ellas, las leyes de protección de datos, de protección de los consumidores y de competencia en el mercado. En ciertos países como EEUU ya se han aprobado leyes para que próximamente las empresas tengan que notificar cuando utilizan algoritmos para selección de personal o la prohibición del reconocimiento facial.
En el caso de la Unión Europea se está trabajando en una futura legislación que promueva la innovación, proteja los derechos humanos y garantice la seguridad de las personas.