Colección de citas famosas - Colección de versos - Ayúdame a traducir este artículo en inglés.
Ayúdame a traducir este artículo en inglés.
Los sistemas de las máquinas son cada vez más complejos, por lo que las consecuencias de sus errores son mayores y menos predecibles. Para compensar los crecientes riesgos percibidos, se ha sugerido reducir o incluso eliminar la intervención humana en sistemas complejos críticos para la seguridad. Las máquinas no tienen la capacidad de controlar completamente sistemas complejos, por lo que es inevitable que haya situaciones que requieran el juicio humano, la creatividad y la adaptabilidad para resolverlas, porque esta es su habilidad única. Sin embargo, los errores humanos siempre existen en los sistemas de interacción persona-computadora. Por supuesto, el aprendizaje y el progreso sólo pueden mejorar a partir de los errores, que no son más que un efecto secundario de la capacidad de razonamiento humano en situaciones inciertas. La automatización se puede utilizar en una variedad de contextos de seguridad, pero el aumento de la automatización crea una excusa para que los humanos monitoreen e intervengan para detectar, diagnosticar y corregir las consecuencias de las fallas del sistema. De hecho, los humanos no desempeñan un papel muy bueno en el seguimiento.
En la aviación, existe una clara necesidad de un mejor sistema de asignación de responsabilidades de seguimiento. Un ejemplo claro es que, a pesar de los impresionantes logros de Boeing en automatización y aviación, durante los últimos 32 años, Boeing ha culpado a los pilotos por entre el 70% y el 75% de los errores graves en accidentes de vuelo (según los estándares convencionales). Otra estadística muestra que el error humano aumentó del 20% en 1960 al 80% en 1990 de todos los incidentes del sistema. Las tasas de error causadas por factores humanos parecen compensar las mejoras provocadas por la automatización.