Tras dos intensos años de trabajo y consultas, el Parlamento Europeo ha votado las enmiendas a la propuesta de Ley de Inteligencia Artificial, más conocida como Ley de IA. La votación supone un hito importante para alcanzar la primera regulación de la IA en todo el mundo.
Con el escenario listo para iniciar las negociaciones de un texto final de la ley, es posible que el debate se extienda hasta finales de 2023, por lo que podemos asegurar que el período de negociación será tan intenso como el anterior, si no más.
Hasta la actualidad, el marco regulador propuesto por la Unión Europea (UE) establece cuatro objetivos específicos:
- Garantizar que los sistemas de IA comercializados y utilizados dentro de la UE sean seguros y respeten la legislación en materia de derechos fundamentales, así como los valores de la UE.
- Garantizar la seguridad jurídica para facilitar la inversión y la innovación en IA.
- Reforzar la gobernanza, así como la aplicación efectiva de la legislación vigente, de los derechos fundamentales y de los requisitos de seguridad aplicables a los sistemas de IA.
- Facilitar el desarrollo de un mercado único de aplicaciones de IA que sean legales, seguras y fiables. En este sentido, la confidencialidad y la protección de datos son elementos fundamentales para lograr una IA confiable. De ahí la necesidad de garantizar la transparencia de los modelos de IA mediante una documentación clara para el cliente respecto al diseño, funcionamiento, capacitación y ensayos de la tecnología, así como una supervisión minuciosa a través de pruebas y evaluaciones continuas.
Los requisitos propuestos por la UE comparten la misma visión que los principios éticos relacionados con la IA de Workday, que me gustaría desgranar a continuación.
Enfoque responsable de la IA
Con casi una década de experiencia desarrollando y ofreciendo soluciones embebidas de IA, en Workday creamos una serie de principios éticos internos que nos sirven de guía a la hora de innovar y usar aplicaciones con esta tecnología. En concreto, nuestros esfuerzos en materia de IA se sustentan en cuatro pilares.
El primero consiste en que la IA debe impulsar el talento humano, asumiendo tareas repetitivas de escaso valor añadido para el trabajador. El segundo radica en el impacto positivo que debe generar en el conjunto de la sociedad, promoviendo el desarrollo profesional inteligente y la movilidad interna en las empresas.
El tercero garantiza la transparencia y la igualdad en las organizaciones, eliminando cualquier tipo de sesgo y consecuencia no deseada, como la parcialidad. El cuarto y último pilar asegura que nuestro compromiso con la privacidad y la protección de datos se cumple a lo largo de todo el proceso de desarrollo de aplicaciones con IA.
Es gratificante ver los esfuerzos que se están haciendo para desarrollar y coordinar un consenso multilateral respecto a la IA
Además, disponemos de un Consejo Asesor y un equipo de IA Responsable que se ocupa de asesorar sobre nuevas cuestiones que no estén contempladas en nuestras directivas o procesos. El equipo de IA Responsable es el encargado de definir los protocolos adecuados para las pruebas de mitigación de riesgos, hacer recomendaciones razonables y elevar al Consejo cualquier cuestión que necesite de revisión y aprobación adicionales.
Además, hemos creado un programa de gobernanza que cuenta con un equipo interdisciplinar conformado por científicos sociales y de datos que se encargan de la revisión ética de nuestras tecnologías, para mitigar todo tipo de sesgos.
Pero si algo nos han enseñado todos estos años es que las políticas e iniciativas internas de las empresas no son suficientes a la hora de llenar las brechas que abre la tecnología. Tenemos, por tanto, el deber de elevar al debate público los aprendizajes que la experiencia adquirida con nuestros clientes nos proporciona, así como las preocupaciones que nos pueda suscitar.
Principios éticos globales
Desde 2019, mucho antes del nacimiento de plataformas como ChatGPT y de la polémica originada respecto a los límites de esta tecnología, Workday asumió un rol activo en el debate público para garantizar que la IA esté alineada con unos principios éticos y se utilice para hacer el bien.
Una regulación proporcionada, con unos requisitos razonables para los casos de uso de la IA, y con un enfoque de mitigación de riesgos potenciales, puede ayudar a construir esa confianza, lo que impulsará la innovación en un entorno más seguro y confiable.
Workday es un proveedor de software de gestión de recursos humanos y finanzas cloud, y, como tal, las empresas nos confían sus datos más sensibles, por lo que somos plenamente conscientes de que la IA debe ganarse la confianza de las personas.
En la actualidad, Workday continúa participando en debates por todo el mundo en los que se pide el establecimiento de una regulación más segura. En Estados Unidos, por ejemplo, fue uno de los principales defensores de la legislación que autoriza al Instituto Nacional de Estándares y Tecnología a desarrollar un marco de gestión de riesgos de la IA.
Durante años, hemos instado al Congreso de los Estados Unidos para que apruebe una ley sobre IA, y estamos trabajando con legisladores de California y de la ciudad de Nueva York en propuestas de políticas concretas para reforzar la confianza en esta tecnología.
Por otra parte, en Europa estamos colaborando con el gobierno del Reino Unido, que busca capacitar a las autoridades reguladoras para supervisar el despliegue de aplicaciones de IA confiables.
Las normativas pueden adoptar diferentes formas, pero algo que tienen en común todos los países democráticos del mundo es que intentan aprovechar las ventajas que ofrece la IA mientras mitigan y gestionan adecuadamente los posibles riesgos. Resulta muy gratificante ver los esfuerzos que están haciendo distintos organismos y países por desarrollar y coordinar un consenso multilateral respecto a esta tecnología en foros internacionales como el de la OCDE, el G7 y el Consejo de Tecnología y Comercio de la UE-EE.UU.
Workday seguirá interactuando con los legisladores y reguladores de todo el mundo para abogar por una ley más precisa, basada en la mitigación de los riesgos y que favorezca una innovación segura y confiable.
A medida que nos acercamos a un texto final de la Ley de IA —cuya aprobación está prevista para comienzos de 2024— confiamos en que los esfuerzos de la Unión Europea servirán como catalizador para alcanzar un consenso internacional sobre los principios políticos fundamentales y contribuirán a lograr una armonización global de políticas de IA.