Logotipo de Parasoft

WEBINAR

Hoja de ruta para pruebas automatizadas de C/C++ para la seguridad de la IA y la norma ISO/PAS 8800

La carrera por desplegar IA y seguridad en vehículos de carretera La IA se está acelerando, pero el camino para lograrlo de forma segura está plagado de complejos desafíos a nivel de sistema. La norma ISO/PAS 8800:2024 ofrece una guía crucial que define requisitos rigurosos para los sistemas de IA en arquitecturas E/E relacionadas con la seguridad. Para los desarrolladores automotrices, esto implica mayores exigencias en materia de verificación, validación y garantía de seguridad, especialmente para la implementación de software o la interacción con componentes de IA.

Mire este seminario web donde se analiza cómo la norma ISO/PAS 8800 reformula la seguridad de la IA como una disciplina de ingeniería continua, abordando las brechas que dejaron estándares como ISO 26262 y SOTIF.

Obtén una hoja de ruta práctica para el cumplimiento normativo y las pruebas de IA de última generación en una sola sesión. Lo que aprenderás:

  • From theory to workflow. Transformar las cláusulas ISO/PAS 8800 en un proceso de seguridad de IA claro y procesable.
  • Integrate your safety strategy. Combine las normas ISO 26262 y SOTIF con la 8800 para cerrar las brechas de seguridad específicas de la IA.
  • Master the AI safety life cycle. Aplicar el estándar desde la curación de datos hasta la validación del sistema y el monitoreo operativo.
  • Automate compliance and evidence. Aproveche las pruebas de desplazamiento a la izquierda, CI/CD y trazabilidad para desarrollar su caso de seguridad más rápido.

Comprensión de la norma ISO/PAS 8800: conceptos básicos

La norma ISO/PAS 8800 se centra en garantizar la seguridad de los sistemas de IA en los vehículos. Abarca la IA que se ejecuta dentro del vehículo e incluso la IA externa que influye en su comportamiento, como los semáforos inteligentes. La norma es clara: no promete una seguridad perfecta. En cambio, busca reducir los riesgos relacionados con la IA a un nivel aceptable dentro del plan de seguridad general del vehículo. Es importante destacar que la ISO/PAS 8800 no reemplaza normas anteriores como ISO 26262 (para seguridad funcional) o SOTIF (para la seguridad de la funcionalidad prevista). Trabaja en conjunto con ellos, cubriendo las deficiencias que introduce la IA.

What’s New With AI Safety?

Gran parte de la confusión en torno a la seguridad de la IA se debe al lenguaje. La norma ISO/PAS 8800 lo aclara al distinguir entre un sistema fallando y siendo insuficienteUn sistema de IA podría funcionar exactamente como se programó, pero aun así ser inseguro por falta de conocimiento, datos o capacidad para gestionar nuevas situaciones. Estos no son errores de software típicos, sino lagunas en la comprensión. Esto significa que la seguridad de la IA requiere nuevas formas de pensar, nuevas evidencias y nuevos enfoques para gestionar estos riesgos.

Basándose en los estándares existentes

La norma ISO/PAS 8800 está diseñada para integrar los conocimientos previos de los equipos. Se basa explícitamente en las normas ISO 26262, ISO 21448 (SOTIF) e ISO/IEC 22989 (terminología de IA). Esto significa que no tiene que descartar sus prácticas de seguridad actuales. En cambio, las está ampliando para abarcar la IA. Considere la seguridad de la IA como una evolución de la seguridad del sistema, no como un campo completamente nuevo.

El ciclo de vida y la garantía de la seguridad de la IA

La seguridad de la IA no es una cuestión de último momento; debe planificarse y gestionarse durante toda la vida útil del sistema. La norma ISO/PAS 8800 describe un ciclo de vida de seguridad de la IA de referencia que abarca desde la definición de requisitos y el diseño hasta las pruebas, la implementación y la operación continua. En el caso de los sistemas de aprendizaje automático, este es un proceso iterativo: se perfecciona y mejora hasta alcanzar los objetivos de seguridad.

El argumento de la garantía: demostrar la seguridad

Quizás la parte más crítica de la norma ISO/PAS 8800 es cómo aborda la prueba de la seguridad de la IA. Técnicamente, no se puede... La IA es absolutamente segura. En cambio, se construye un argumento de garantía estructurado. Esto implica exponer claramente las afirmaciones de seguridad y respaldarlas con pruebas sólidas. Estas pruebas van más allá de las simples cifras de precisión. Incluyen:

  • Data coverage. Qué tan bien representan los datos de entrenamiento las condiciones del mundo real.
  • Robustez. Cómo se comporta la IA bajo distintas situaciones de estrés o entradas inesperadas.
  • Pruebas. Resultados de varios métodos de prueba.
  • Architectural safeguards. Características de seguridad integradas en el diseño del sistema.
  • Monitoring strategies. Cómo se rastrea el rendimiento del sistema.
  • Operational controls. Reglas y procedimientos sobre cómo se utiliza la IA.

La seguridad de la IA es, en última instancia, un argumento razonado y respaldado por evidencia de que el sistema, en su conjunto, es aceptablemente seguro.

Datos: un activo de seguridad crítico

Muchos fallos de la IA se deben a problemas con los datos. La norma ISO/PAS 8800 considera los datos un activo crítico para la seguridad. Esto significa que los conjuntos de datos necesitan su propio ciclo de vida, que incluye definición, verificación, validación y mejora continua. La falta de escenarios, datos sesgados o errores de etiquetado pueden conducir directamente a un comportamiento inseguro de la IA. Por ejemplo, un sistema de detección de peatones debe funcionar de forma fiable en todas las condiciones previstas: día, noche, lluvia, nieve o calles concurridas. Si faltan escenarios críticos, como un peatón parcialmente oculto, en los datos de entrenamiento, el sistema podría fallar al detectarlos, lo que supone un grave riesgo para la seguridad.

Pruebas y verificación de sistemas de IA

Verificar que la IA cumple con los requisitos de seguridad y validar su funcionamiento seguro en el mundo real es un desafío. Los sistemas de IA procesan datos de alta dimensión, y los requisitos pueden ser imprecisos. La norma ISO/PAS 8800 exige pruebas multinivel, desde los componentes individuales de la IA hasta el sistema integrado y el vehículo completo. Esto incluye una combinación de:

  • Pruebas estadísticas
  • Repetición del escenario
  • Pruebas de robustez
  • Simulation, for example, using tools like Carla, Nvidia Drive Sim
  • Pruebas de hardware en el bucle

Estos métodos ayudan a explorar escenarios inusuales o extremos y a validar datos cuando las pruebas físicas no son viables. La clave es que las pruebas de IA deben ser sistemáticas, repetibles y estar directamente vinculadas a los objetivos de seguridad.

Más allá del análisis de fallos tradicional

Las fallas de la IA pueden ser sistémicas, no solo errores. Pueden provenir de lagunas de datos, generalizaciones incorrectas (donde la IA aplica incorrectamente patrones aprendidos) o interacciones inseguras con otros sistemas. Si bien se pueden utilizar métodos tradicionales de análisis de fallas, los enfoques de teoría de sistemas como STPA suelen ser más adecuados para el comportamiento complejo de la IA. Ser proactivo para garantizar la calidad reduce el riesgo y genera la evidencia necesaria para su argumento de aseguramiento.

Mantener la IA segura después de la implementación

La seguridad no termina una vez que el vehículo está en la carretera. Los sistemas de IA operan en un mundo dinámico. La norma ISO/PAS 8800 enfatiza:

  • Monitoreo operativo to catch anomalies or unexpected inputs.
  • Recolección de datos de campo to learn about new conditions the AI encounters.
  • Periodic reassessments of the assurance argument.
  • Controlled updates like over-the-air software patches.

El despliegue es solo el comienzo de la responsabilidad operativa. La garantía continua es la forma en que la IA se mantiene segura durante toda la vida útil del vehículo.

Pasos prácticos: Pruebas y automatización

Entonces, ¿cómo implementan los equipos la norma ISO/PAS 8800? La norma hace hincapié en la identificación temprana de los riesgos de la IA. Esto implica adoptar un enfoque de pruebas de desplazamiento a la izquierda.

  • Static code analysis and coding standards. La detección temprana de fallas de software tradicionales en el código que rodea a la IA ayuda a prevenir problemas incluso antes de que se conviertan en condiciones desencadenantes de la IA.
  • Automated unit testing. Usando frameworks como GoogleTest garantiza que la lógica de control, las barreras de seguridad y los mecanismos de seguridad funcionen según lo previsto, especialmente cuando los resultados de IA se incorporan al software crítico para la seguridad.
  • Continuous integration/continuous deployment (CI/CD). La integración del análisis de seguridad, las pruebas unitarias y la cobertura de código en los pipelines de CI/CD permite a los equipos verificar continuamente que los cambios no introduzcan nuevos riesgos. Esto refuerza la naturaleza iterativa de la seguridad de la IA.
  • Traceability and compliance automation. Vincular los requisitos a los resultados de las pruebas Ayuda a generar artefactos de cumplimiento en tiempo real, lo que facilita mostrar cómo se cumplen los requisitos de seguridad.

Pruebas impulsadas por IA para la eficiencia

La IA introduce una complejidad que las pruebas tradicionales por sí solas no pueden gestionar por completo. Las pruebas autónomas impulsadas por IA pueden ayudar corrigiendo automáticamente infracciones, generando pruebas, mejorando la cobertura, priorizando riesgos y acelerando el cumplimiento. Esto reduce el esfuerzo manual, acelera la comercialización de productos y ayuda a los equipos a cumplir con las exigentes e iterativas expectativas de seguridad de normas como ISO/PAS 8800 sin agotarse.

En esencia, la norma ISO/PAS 8800 define lo que requiere la seguridad de la IA, y herramientas y prácticas como las de Parasoft ayudan a los equipos a lograrlo de manera consistente, eficiente y a escala, cubriendo tanto los componentes de IA como los de software tradicionales.