Por Matías Kehaike
El auge de la inteligencia artificial (IA) en nuestra sociedad actual ha generado una serie de desafíos legales que necesitan una respuesta rápida por parte de las autoridades correspondientes. En el ámbito europeo, el encuentro del avance tecnológico y la salvaguarda de los derechos fundamentales de los usuarios dio lugar al dictado de una legislación específica con la finalidad de regular el desarrollo, despliegue y uso de los sistemas de inteligencia artificial. En el presente artículo se examinarán las cuestiones legales que rodean la IA en la Unión Europea, incluidos cambios en las regulaciones, consideraciones éticas y obstáculos inherentes.
Principales aspectos novedosos de la ley europea
Las principales novedades que trae la legislación europea en torno a la IA se focalizan en establecer un marco regulatorio a la IA en Europa, para que, los desarrollos existentes y futuros de sistemas de Inteligencia artificial dentro de la Unión Europea cumplan con unos mínimos requisitos de seguridad, de confianza, de transparencia y sobre todo con los valores humanos, además del respeto de los derechos significativos de las personas. Por otro lado, aquellos que no cumplan con estas normas van a ser sancionados económicamente.
Así, han desarrollado un sistema con distintos niveles de riesgo en función de cómo la tecnología afecte a los derechos fundamentales de las personas, se prohibirán los sistemas biométricos que se basen en la raza, las creencias políticas y religiosas y la orientación sexual. Allí, estarán diferenciados distintos comportamientos, desde Riesgos mínimos hasta riesgos inaceptables.
Riesgos y beneficios
El motivo central de dicha regulación estuvo en cabeza de ciertas aplicaciones y sistemas de la IA considerados como un peligro para los derechos fundamentales de los ciudadanos. Siendo así, los principales aspectos novedosos de esta ley recaen en las salvaguardias y excepciones para usos de seguridad, lo que permitirá la utilización de la vigilancia biométrica, siempre con autorización judicial. Por el contrario, no se podrán reconocer las emociones de las personas en empresas y colegios mediante el uso de estas tecnologías.
Específicamente, las principales amenazas que se intentarán solucionar son de índole social y de seguridad nacional, también se encuentran los sistemas de alto riesgo de IA para la protección de los derechos antes mencionados. Aquí entran, la democracia, el sistema de salud, la seguridad, entre otras áreas.
Además, esta ley de la Unión Europea incluye una evaluación obligatoria sobre los efectos en los derechos fundamentales. De esta manera, se establecen cuatro niveles de riesgos, que se analizarán en detalle.
Clasificación según el riesgo que representa la IA
Debido al posible riesgo que puede representar el empleo de la IA, la Unión Europea decidió encasillar a cada sistema con un nivel de peligrosidad, que van desde riesgos mínimos hasta riesgos inaceptables o inadmisibles.
La mayor proporción de los sistemas de IA actuales entran en el primer nivel de peligrosidad, el de “Riesgo mínimo”, dentro de esta categoría podemos encontrar a los sistemas de recomendación o los filtros de mensajes no deseados basados en la IA. Estos, gozarán de ningún tipo de restricción u obligación al respecto, debido a que no representan ningún tipo de riesgo importante para los ciudadanos. De igual forma, las empresas voluntariamente podrán establecer códigos de conducta adicionales para una mayor seguridad de sus usuarios.
En cuanto a la IA de “alto riesgo”, se encuentra permitida, pero debe cumplir con una serie de requisitos estrictos, tales como supervisión humana continua, documentación precisa y detallada, información clara para los usuarios, entre otros.
Dentro de esta categoría, encontramos a los sistemas de IA considerados de “alto riesgo” que engloban ciertas infraestructuras críticas, tales como el agua, gas, electricidad y transporte; Los sistemas relacionados con la formación académica o profesional, como, por ejemplo, la corrección de exámenes; Los dispositivos médicos, como en el caso de la ayuda de la IA dentro del ámbito médico-clínico; La administración de la justicia y procesos democráticos; ETC.
Ilustración 1 – Fuente: https://www.telefonica.com/es/sala-comunicacion/blog/una-regulacion-europea-de-la-inteligencia-artificial-adecuada-y-sin-fronteras/
Como última categoría de riesgos, se encuentra la IA de “Riesgos prohibidos”. Dentro de la regulación a la IA mediante la ley europea, se encuentran algunos riesgos que son inadmisibles, en otras palabras, se encuentran totalmente prohibidos aquellos sistemas de IA que afecten a los derechos fundamentales de las personas y su seguridad. Esto incluye a los sistemas de IA que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, tales como el reconocimiento mediante datos biométricos en espacios públicos, con algunas excepciones para el uso policial en casos de antiterrorismo.
Se encuentra un último nivel que se refiere a la sensibilización y la información hacia los usuarios, a este se lo llama sistemas de IA de “riesgo de transparencia específico”. Este hace referencia a los sistemas de IA como los Chatbots (respuestas automatizadas), los usuarios deben saber que están interactuando con un robot. Los videos, fotos, noticias (incluyendo las Fake news) realizadas con IA deberán estar identificadas como tales, en otras palabras, lo que se genere mediante la IA debe llevar una identificación visible.
Sanción a los infractores
Como era de esperar, dicha normativa prevé rigurosas penas para aquellos que decidan saltarse estas reglas, con multas que van desde un porcentaje del volumen total de negocios de la compañía infractora del año fiscal previo o incluso una cantidad predeterminada “aún mayor”, siempre teniendo en cuenta la falta cometida y la proporción empresarial.
Esto no hace otra cosa que remarcar los propósitos de esta ley, principalmente la protección de los derechos fundamentales de los usuarios y su seguridad. Fomentando así, la innovación tecnológica y estableciendo rigurosas pautas para aquellos sistemas de IA más peligrosos.
Etapas próximas para la entrada en vigor y sus reacciones
El proyecto normativo europeo “provisional” necesita de la aprobación formal por parte del Parlamento Europeo y del Consejo, entrará en vigor 20 días después de su respectiva publicación en el diario oficial. Cumplidos estos pasos, la ley europea sería funcional y aplicable dos años posteriores a su entrada en vigor (Aproximadamente en 2026), con la excepción de algunas partes específicas, tales como las prohibiciones de los sistemas de inteligencia artificial, ya que se encuentran operativas.
Por consiguiente, esta novedosa regulación a la IA ha generado diversas reacciones, tanto en los usuarios como en las empresas. En cuanto al efecto en los usuarios, sin dudas este es totalmente positivo, puesto que busca protegerlos de cualquier tipo de amenaza y alertarlos con un nivel preciso de detalle de la información que están buscando.
Del otro lado se encuentran las empresas y los expertos en la materia, en donde se puede observar distintas opiniones encontradas. Sin embargo, la mayoría se expresó al respecto señalando que van a respetar la ley, pero han solicitado que dicha implementación no cause un desmedro a nivel económico en estas compañías. Profesionales del ámbito empresarial, sostienen que brindar un mayor grado de herramientas para la sociedad impulsa la innovación.
No obstante, diversas ONGs y grupos activistas esperaban una ley con un enfoque más restrictivo, haciendo énfasis en que esta normativa tiene muchos “vacíos legales” que no dejan en claro hasta qué nivel las sanciones y las prohibiciones van a ser respetadas.
Primer país en legislar la IA
En consecuencia, se puede afirmar que la Unión Europea, después de varios años de idas y venidas, finalmente se ha convertido en la primera asociación económica y política en legislar a la IA. Así, tal como se señaló anteriormente, esta nueva legislación tiene como objetivo central que la IA en el ámbito europeo no suponga un riesgo para los usuarios y respete los derechos fundamentales de las personas, a la par que permita la constante innovación.
Asimismo, es importante señalar que hay otros países en los cuales se ha regulado a la IA, pero ninguna parte del mundo posee una ley que regule tantos aspectos de una manera detallada y ordenada como lo hace la Unión Europea. En el caso de EEUU, se encuentra un decreto vigente mediante el cual las empresas que utilicen a la IA y supongan un riesgo grave para la seguridad nacional, se encuentran obligadas a notificar a las autoridades.
Por otro lado, también existe “la declaración de Bletchley”, en donde 28 países (Incluyendo a China y EE. UU) se han comprometido a fortalecer el desarrollo responsable de la IA. Entre sus puntos claves se destacan, La transparencia y rendición de cuentas, la cooperación internacional, entre otras. En pocas palabras, podemos observar que sigue el espíritu normativo de la ley europea, aunque con menos precisión y detalle que dicha ley.
Problemas sobre el control de la IA
El gran problema surge cuando nos referimos al control de la IA, ya que la gran pregunta que se hace la mayoría de la sociedad es, ¿se puede controlar a la IA? Ante este interrogante, surgen abundantes análisis realizados por numerosos profesionales y empresarios en este ámbito.
Así pues, algunas de las personas más importantes del mundo en este ámbito, tales como Stephen Hawking y Elon Musk, han manifestado su preocupación de la posibilidad de una amenaza existencial para la humanidad por parte de este tipo de tecnologías. Por su parte, Stuart Russell, profesor de ciencias de la computación en la universidad de Berkeley y profesor adjunto de cirugía neurológica en la Universidad de California en San Francisco, ha expresado que “no hay que preocuparse de las máquinas por su consciencia, sino por su competencia “, además agregó “Deberíamos cambiar toda la base sobre la cual construimos sistemas de IA”, refiriéndose a que nos debemos alejar de la noción de darle a la IA objetivos fijos.
Desde otra perspectiva, Isaac Asimov, el famoso escritor y profesor de bioquímica en la facultad de medicina de la universidad de Boston, se ha referido acerca de los robots en sus relatos. En estos, establecía una serie de leyes, en donde dichas máquinas no podían hacerles daño a los seres humanos y debían seguir las órdenes dadas por estos.
En resumen, todos los profesionales del ámbito de la IA destacan la volatilidad y rapidez que tienen este tipo de tecnologías, por lo que es una tarea sumamente ardua y perseverante poderla controlar. Particularmente, el ámbito que puede traer mayores consecuencias negativas si esta tecnología se llegara a salir de control, es en la ciberseguridad. En donde, abunda la ciberdelincuencia y robo de datos en estos tiempos que corren, por lo que esto debe ser un punto crucial para desarrollar herramientas de ciberseguridad basadas en la IA capaces de detectar este tipo de situaciones y combatirlas.
Para finalizar este tema, me gustaría personalmente remarcar lo que sostiene el Doctor Sebastián Chumbita, Abogado e investigador del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires, al respecto él expresa en sus diversas charlas y artículos jurídicos que, refiriéndose a la IA, “Si la defino, la limito”. Expresando que, si intentamos encontrar una definición de la IA, la estaremos limitando debido a todos los aspectos, antes mencionados, que este tipo de tecnologías poseen congénitamente.
Siguiendo dicha fórmula, podemos sostener desde este punto de vista que “Si controlamos a la IA, la limitamos”. Es decir, si intentamos establecer algún parámetro de control sobre esta tecnología, al fin y al cabo, estaremos restringiendo su potencial y funcionalidad. Sin embargo, no caben dudas que el mal y fraudulento uso de estas tecnologías se encuentra completamente vedado, y con el tiempo será necesario algún esquema normativo no invasivo de regulación, el cual permita control e innovación al mismo tiempo.
Concluyendo, el análisis de la normativa europea sobre la inteligencia artificial (IA) nos muestra esfuerzos continuos para tratar de mitigar los riesgos asociados a estas nuevas tecnologías. Más allá de este primer paso regulatorio, persisten algunas preocupaciones respecto al régimen de responsabilidad, la preservación de derechos fundamentales y la falta de revisión y supervisión adecuadas, lo que requiere una continua revisión y adaptación de las normativas vigentes.
De modo que, mediante una estrategia bien desarrollada y acorde a los parámetros legales, permitiría aprovechar al máximo los beneficios de esta herramienta rápida y eficaz en todos los ámbitos, ya sea empresarial, educativo, académico, etc. Por lo antes expuesto, No caben dudas del máximo potencial que tiene esta herramienta, pero sin un marco regulatorio y con el continuo avance de las tecnologías en estos tiempos, se vuelve cada vez más difícil establecer un límite y un marco regulatorio competente y funcional a la IA.
BIBLIOGRAFÍA
- Alegría, J. P. (2023). Anotaciones iniciales para una reflexión ética sobre la regulación de la inteligencia artificial en la Unión Europea. Revista de derecho, 28, e3264. https://doi.org/10.22235/rd28.3264
- Linera, M. Á. P. (2023). La propuesta de «Ley de inteligencia artificial» europea. Revista de las Cortes Generales, 81-133. https://doi.org/10.33426/rcg/2023/116/1775 ISSN: 0213-0130
- Masseno, M. D. (2022). Consideraciones breves sobre los fundamentos de la propuesta de Ley de Inteligencia Artificial de la Comisión Europea. Journal of Law and Sustainable Development, 10(1), e0238. https://doi.org/10.37497/sdgs.v10i1.238 ISSN:2764-4170
- Ortega, A. O. (2021). Hacia un régimen europeo de control de la Inteligencia Artificial. Real Instituto Elcano.
- Álvarez, Irene Iglesias. «Europa será la primera potencia mundial en tener su propia ley de inteligencia artificial.» Computerworld Spain, 4 May 2022, p. NA. Gale OneFile: Informe Académico, link.gale.com/apps/doc/A758621430/IFME?u=anon~fdb7c99f&sid=googleScholar&xid=15ba44d6. Accessed 8 Jan. 2024.
- AI Act and Individual Rights: A Juridical and Technical Perspective. (2022). Università degli Studi dell’Aquila, L’Aquila, Italy, 3221. CC BY 4.0 DEED – Attribution 4.0 International
- Spinak, E., & Spinak, E. (2023, 20 diciembre). Investigación y comunicación científica, la IA y la legislación que se avecina | SciELO en perspectiva. SciELO en Perspectiva. https://blog.scielo.org/es/2023/11/24/investigacion-y-comunicacion-cientifica-la-ia-y-la-legislacion-que-se-avecina/
- Casado, E. G. (2021). El enfoque europeo de inteligencia artificial. Dialnet. https://dialnet.unirioja.es/servlet/articulo?codigo=8510535