Logotipo de Parasoft

La IA y el futuro del desarrollo de software de seguridad funcional: un camino pragmático hacia adelante

By Gareth Noyes 30 de septiembre de 2025 3 minutos de lectura

La IA promete revolucionar el software de seguridad funcional, pero su camino es doble. Continúe leyendo para obtener una hoja de ruta pragmática para aprovechar la IA de forma segura y acelerar el desarrollo hoy mismo, a la vez que se abordan cuidadosamente los riesgos de integrarla en sistemas críticos.

La IA y el futuro del desarrollo de software de seguridad funcional: un camino pragmático hacia adelante

Foto de Gareth Noyes, director fundador de NoYes Consulting LLC
By Gareth Noyes 30 de septiembre de 2025 3 minutos de lectura

La IA promete revolucionar el software de seguridad funcional, pero su camino es doble. Continúe leyendo para obtener una hoja de ruta pragmática para aprovechar la IA de forma segura y acelerar el desarrollo hoy mismo, a la vez que se abordan cuidadosamente los riesgos de integrarla en sistemas críticos.

La inteligencia artificial (IA) está transformando las industrias a un ritmo sin precedentes. Desarrollo de software integrado Los sistemas de seguridad funcional no son una excepción. Desde la industria automotriz hasta la aeroespacial, los desarrolladores están explorando cómo la IA puede mejorar la productividad, optimizar la calidad y acelerar el tiempo de comercialización. Pero, como con cualquier tecnología transformadora, el camino a seguir debe recorrerse con cautela, especialmente cuando la seguridad está en juego.

Exploremos dos dimensiones distintas de la IA en el contexto de la seguridad funcional:

  • La IA en el proceso de desarrollo y automatización de herramientas
  • IA implementada en sistemas integrados, por ejemplo, motores de inferencia

Si bien ambos son prometedores, presentan perfiles de riesgo y niveles de madurez muy diferentes. Herramientas y automatización impulsadas por IA ofrece una promesa a corto plazo de impulsar la productividad y la innovación en un campo notoriamente cauteloso, mientras que la implementación de modelos de IA en entornos integrados críticos para la seguridad está surgiendo pero amerita cierta cautela y conciencia de los riesgos.

La IA en el proceso de desarrollo: un catalizador de la productividad

El ciclo de vida del desarrollo de software para sistemas críticos para la seguridad es notoriamente riguroso. Normas como DO-178C, ISO 26262 e IEC 61508 exigen documentación exhaustiva, trazabilidad y verificación de todo el proceso de desarrollo. Esta complejidad, si bien esencial para la seguridad, a menudo ralentiza la innovación y aumenta los costes.

Aquí es donde la IA puede destacar: no reemplazando a los ingenieros, sino potenciándolos. Los procesos de desarrollo con participación humana y herramientas aumentadas por IA prometen impulsar la productividad mediante:

  • Guiar y hacer cumplir los procesos.
  • Garantizar el cumplimiento continuo de las normas.
  • Simplificar la creación o referenciación de documentación relevante.
  • Ayudamos a los desarrolladores y equipos de verificación a centrarse en las tareas importantes en cuestión.

Oportunidades clave para el desarrollo integrado

  • Generación automatizada de pruebas. La IA puede analizar requisitos y generar casos de prueba significativos, reduciendo el esfuerzo manual y mejorando la cobertura.
  • Trazabilidad de requisitos. El procesamiento del lenguaje natural (PLN) puede ayudar a vincular los requisitos con el código, las pruebas y la documentación, agilizando el cumplimiento.
  • Mejora del análisis estático y dinámico. La IA puede ayudar a identificar patrones en el código que puedan provocar defectos, mejorando así la detección temprana. Por ejemplo, la IA es muy eficaz para mejorar la relación señal-ruido y minimizar el impacto dilutivo de los falsos positivos, además de sugerir soluciones.
  • Apoyo del argumento de seguridad. Las herramientas de IA pueden ayudar a redactar argumentos de seguridad estructurados, como el uso de la notación de estructuración de objetivos, aunque la supervisión humana sigue siendo esencial.

Estas aplicaciones son determinista, auditable y acotado, lo que los hace ideales para entornos de desarrollo donde la seguridad es crucial. No toman decisiones autónomas. Ayudan a los humanos a tomar mejores decisiones. La seguridad no se puede externalizar, pero los procesos guiados pueden generar una mayor productividad, lo que permite ciclos de entrega más rápidos y mayor innovación.

Es importante reconocer que las herramientas utilizadas en el desarrollo de software de seguridad funcional pueden estar sujetas a estándares de conformidad para prevenir posibles fallos involuntarios durante el proceso de desarrollo. Por lo tanto, podría requerirse una cualificación.

Para minimizar las exigencias de la calificación de herramientas y respaldar el desarrollo seguro de aplicaciones críticas, organizaciones como Parasoft ofrecen kits de calificación para numerosas herramientas de software embebidas. De cara al futuro, Parasoft ofrecerá... Certificado TÜV SÜD para la prueba C/C++ CT con GoogleTest para apoyar a las organizaciones que necesitan cumplir con diversos estándares.

IA en sistemas integrados: una frontera de precaución

La implementación de modelos de IA, especialmente motores de inferencia como redes neuronales, dentro de sistemas integrados presenta una serie de desafíos que aún no están completamente resueltos.

Obstáculos principales

Falta de determinismo

La seguridad funcional exige un comportamiento predecible. Los modelos de IA, en particular los sistemas de aprendizaje profundo, son inherentemente probabilísticos. Sus resultados pueden variar en función de sutiles cambios en la información de entrada, lo que dificulta su validación en los marcos de seguridad tradicionales.

Alucinaciones y falsa confianza

Los modelos de lenguaje extenso (LLM) y otros sistemas de IA generativa pueden generar resultados que parecen plausibles, pero que son factualmente incorrectos. En contextos críticos para la seguridad, esto es inaceptable.

Toma de decisiones opaca

Los modelos de IA suelen funcionar como cajas negras. A diferencia de los sistemas basados ​​en reglas, su lógica interna no es fácilmente interpretable. Esta falta de explicabilidad socava la confianza y dificulta la certificación.

Ausencia de normas

Si bien la automatización de herramientas puede adaptarse a los estándares existentes, la implementación de la IA en sistemas embebidos carece de un marco regulatorio consolidado. Se están realizando esfuerzos, pero el consenso y los mandatos se encuentran en diferentes etapas de madurez en las distintas industrias. Consulte la hoja de ruta de la FAA para la IA en aviónica o estándares emergentes como la ISO 8800 en automoción.

Complejidad de verificación y validación

Los métodos tradicionales de V&V tienen dificultades para abordar la naturaleza no lineal y de alta dimensión de los modelos de IA. Demostrar que un sistema de IA se comportará de forma segura en todos los escenarios es un desafío monumental.

Una hoja de ruta pragmática

Dadas estas realidades, la estrategia a corto plazo para las organizaciones que trabajan en seguridad funcional debe ser clara:

Adopte la IA para la automatización del desarrollo

Proceda con cautela con la implementación de IA integrada

  • Limite el uso de IA a funciones que no sean críticas para la seguridad o a aplicaciones con límites estrictos.
  • Explore enfoques híbridos, como sistemas basados ​​en reglas con aumento de IA.
  • Participar en el desarrollo de normas y programas piloto para dar forma a las regulaciones futuras.

Conclusión

La IA no es una panacea, pero sí una herramienta poderosa. En el ámbito de la seguridad funcional, su mayor valor actual reside en optimizar el proceso de desarrollo, no en reemplazar la lógica determinista en los sistemas embebidos, aunque también se están realizando mejoras en ese ámbito.

Al centrarse en la automatización de herramientas, las organizaciones pueden desbloquear ganancias de productividad y acelerar la innovación, sin comprometer los rigurosos estándares de seguridad que protegen vidas.

El futuro de la IA en los sistemas de seguridad integrados llegará, pero debe construirse sobre una base de confianza, transparencia y eficacia demostrada. Hasta entonces, usemos la IA donde es más eficaz: ayudando a las personas a construir sistemas más seguros, más rápido.

Garantizar la seguridad de la IA y el aprendizaje automático en sistemas integrados

Ver video