por: Luis Fernando Valarezo
La Inteligencia Artificial (IA) continúa experimentando un crecimiento exponencial en todo el mundo. Tanto en empresas como en instituciones, su aplicación representa una ventaja competitiva y promete eficiencia. Encontramos su aplicación que va desde lo simple, como la automatización de tareas o resolver problemas cotidianos, hasta en temas más complejos, como las industrias farmacéutica o de seguridad militar. Nadie quiere quedarse fuera.
Sin embargo, como cualquier otra herramienta poderosa, un mal uso de la IA puede resultar en consecuencias desastrosas. Por ejemplo, se ha observado que los algoritmos de contratación de personal tienden a ofrecer puestos de trabajo específicos, como conductores o cajeros de supermercado, en mayor proporción a mujeres o afroamericanos[1]. Además, está el fiasco de lo que fue caso de Google Gemini[2]. Por último, y no menos preocupante, están quienes usan la IA de forma maliciosa.
En este contexto, la Unión Europea (UE) ha dado los primeros pasos con la Ley de Inteligencia Artificial. Esta ley dispone clasificar la tecnología en función de su nivel de riesgo. En primer lugar se encuentran las de riesgo inaceptable, que serían las IA que captan y analizan datos faciales, como el caso de los sistemas de puntuación de ciudadanos en China[3]. Luego están las de riesgo alto, como las herramientas de escaneo de currículums vitae y las que utilizan sistemas biométricos de identificación, que deberán cumplir con requisitos estrictos para su uso, como la supervisión humana, registro de actividad, sistemas de mitigación de riesgos, información clara, ciberseguridad, etc. Por último, estarían las que no están catalogadas en las categorías anteriores, que tienen una regulación menos estricta.
En Latinoamérica, Brasil busca replicar este marco regulatorio presentado por la UE, aun cuando no adopta el enfoque prohibitivo, y se inclina por una regulación proactiva orientada a guiar el desarrollo tecnológico sin comprometer la protección de los ciudadanos. Su objetivo es proporcionar directrices claras y promover la participación social para garantizar un uso adecuado de la IA.
Por su parte, el presidente de los Estados Unidos, Joe Biden, ha optado por regular la IA a través de un decreto ejecutivo (executive order) en el que exige a los desarrolladores presentar al gobierno federal los resultados de sus pruebas de seguridad, especialmente cuando sus proyectos representan un grave riesgo para la seguridad nacional, económica o la salud pública.
En conclusión, la IA se encuentra en un punto crucial de desarrollo. Todos debemos estar a la altura de este gran cambio que se nos avecina y entre los desafíos se encuentra el crear un panorama regulatorio para garantizar su uso ético y responsable. El objetivo siempre debe ser protegernos y que la IA nos resulte beneficioso a todos.
[1] “All the Ways Hiring Algorithms Can Introduce Bias” https://hbr.org/2019/05/all-the-ways-hiring-algorithms-can-introduce-bias
[2] “Google programó el generador de imágenes de Gemini para que fuera inclusivo. Se ha pasado (mucho) de la raya” https://www.xataka.com/robotica-e-ia/google-programo-generador-imagenes-gemini-fuera-inclusivo-se-ha-pasado-mucho-raya
[3] “‘Una jaula invisible’: así es como China vigila el futuro” https://www.nytimes.com/es/2022/07/04/espanol/china-vigilancia.html