La Unión Europea está liderando el camino hacia una regulación más estricta de la inteligencia artificial (IA). La Ley de IA de la UE se está convirtiendo en un estándar global para la regulación de la IA, y se espera que tenga un efecto más allá de las fronteras de la UE.
La Ley de IA de la UE clasifica los sistemas de IA en tres categorías de riesgo: inaceptable, alto riesgo y riesgo limitado o mínimo. Los sistemas de IA que cumplan con el nivel de riesgo inaceptable serán prohibidos, lo que incluye sistemas de manipulación que causan daño, sistemas de identificación biométrica en tiempo real utilizados en espacios públicos para el cumplimiento de la ley y todas las formas de puntuación social. Los sistemas de IA de alto riesgo, como los modelos de escaneo de solicitantes de empleo, estarán sujetos a requisitos legales específicos. En cambio, la categoría de riesgo limitado y mínimo incluye muchas de las aplicaciones de IA que las empresas usan en la actualidad, como los chatbots y las herramientas de gestión de inventario impulsadas por IA, y en gran medida no se regularán.
Las organizaciones que diseñan y desarrollan modelos de IA tendrán que cumplir con requisitos específicos. Por ejemplo, las organizaciones con sistemas de IA de alto riesgo deberán implantar un sistema de gestión de riesgos, gobierno y gestión de datos, documentación técnica, mantenimiento de registros y registros, transparencia y suministro de información a los usuarios, supervisión humana, precisión, robustez y ciberseguridad, evaluación de la conformidad y registro con el gobierno del estado miembro de la UE.
Es probable que la regulación incluya pruebas periódicas de confiabilidad para modelos y un escrutinio con un tercero para evaluar su funcionamiento dentro de márgenes de error aceptables. Las organizaciones deberán prepararse para esta nueva regulación educando a sus equipos, auditando sus modelos existentes y planificados, adoptando un marco para diseñar soluciones de IA responsables y estableciendo estrategias de mitigación de riesgos y gobernanza de IA.
Aunque la Ley de IA aún está en borrador y sus efectos globales están por determinarse, las empresas ya están sintiendo el efecto de regulaciones similares, como la propuesta de Ley de datos e inteligencia artificial de Canadá y la regulación de empleo automatizada de la ciudad de Nueva York. Las empresas independientes y las empresas de EE. UU. también se darán cuenta rápidamente de que les conviene cumplir con esta regulación.
En resumen, la regulación de la IA se está convirtiendo en una realidad, y las organizaciones deben prepararse para el éxito en este nuevo panorama regulatorio de la IA ética y justa. La educación de los equipos, la auditoría de modelos existentes y planificados, la adopción de un marco para diseñar soluciones de IA responsables y la estrategia de mitigación de riesgos y gobernanza de IA son algunos de los pasos que las organizaciones pueden tomar para prepararse para una regulación de IA más estricta.
Para ampliar informacion puedes seguir este enlace al articulo sobre la acta de UE AI en wikipedia.
Libro recomendado sobre inteligencia artificial: