ERP. El Reglamento de la Ley 31814 sobre Inteligencia Artificial (IA), aprobado mediante el DS N.° 115-2025-PCM, fue calificado como un avance importante para el país por la firma legal Niubox, especializada en derecho digital y nuevas tecnologías. El documento establece un marco regulatorio gradual —con plazos de adecuación de entre uno y cuatro años— que permitirá al sector público y privado adaptarse progresivamente a las nuevas exigencias.
Un marco inicial con oportunidades y retos
Óscar Montezuma, CEO y fundador de Niubox, señaló que el reglamento sienta las bases para una IA responsable, al incorporar principios de privacidad, gestión de riesgos y transparencia. Sin embargo, advirtió que un exceso de regulación podría frenar el desarrollo del sector privado, recordando que en el Congreso existen actualmente 27 proyectos de ley adicionales sobre IA, lo que podría generar incertidumbre.
Monteza también expresó preocupación por algunos aspectos del texto:
- La prohibición amplia de ciertos usos de IA sin criterios técnicos claros.
- La ambigüedad en conceptos como la “clasificación de personas”, que podría dar lugar a interpretaciones discrecionales y afectar desarrollos legítimos.
A pesar de ello, consideró que el reglamento constituye un primer marco de referencia positivo, susceptible de ajustes en el futuro, y una oportunidad para que Estado, empresas y ciudadanos se adapten responsablemente al uso de la IA.
Principales implicancias del Reglamento
De acuerdo con Niubox, los puntos más relevantes del reglamento son:
Autoridad rectora: La Secretaría de Gobierno y Transformación Digital (PCM) será la encargada de dirigir, evaluar y supervisar el uso de la IA en el país. Sin embargo, no tendrá facultades sancionadoras.
Principios rectores: Se establecen garantías como la no discriminación, la protección de datos personales, la defensa de los derechos fundamentales, la supervisión humana y la transparencia algorítmica. El marco se inspira en la regulación europea, aunque con un enfoque más flexible.
Clasificación de riesgos: Se diferencian los usos prohibidos, como manipulación de decisiones personales, vigilancia masiva sin base legal, sistemas autónomos letales en el ámbito civil o análisis biométrico discriminatorio; y los usos de alto riesgo, permitidos bajo condiciones estrictas en áreas críticas como educación, salud, programas sociales, selección laboral y gestión de activos estratégicos.
Transparencia algorítmica: Los desarrolladores de sistemas de alto riesgo deberán informar de forma clara la finalidad, funciones y decisiones de la IA, incluso mediante el etiquetado visible en productos o servicios.
Obligaciones para el Estado: Las entidades públicas deberán aprobar políticas de uso ético, aplicar estándares técnicos como la NTP-ISO/IEC 42001:2025, publicar el código fuente de soluciones de IA financiadas con fondos públicos y garantizar la supervisión humana en los procesos.
Formación de capacidades: Se promueve la educación en IA desde la enseñanza básica hasta la especialización avanzada, fomentando talento y sensibilización en la ciudadanía.
Implementación gradual
El reglamento contempla un cronograma de implementación de uno a cuatro años, con el fin de otorgar a los sectores público y privado un plazo razonable para adecuarse a las exigencias normativas, equilibrando la innovación con la protección de los derechos ciudadanos.