spot_img
11.7 C
Madrid
marzo, martes 19, 2024

José Sánchez-Alarcos: «no me asusta el progreso de la IA, sino el deterioro de las capacidades humanas»

José Sánchez-Alarcos es experto en Organización y Factores Humanos, ergónomo certificado, psicólogo de la aviación y experto externo de EASA

Nuestros monográficos

- Publicidad -spot_img

Florencia Amat / Aviación Digital, Sp. – El uso de la inteligencia artificial (IA) es un tema recurrente de debate, y no por pocos motivos. Plantea una serie de preguntas éticas y morales dependiendo del terreno en el que se implante. Para labores automatizadas y repetitivas, lo cierto es que tirar de la IA nos ahorra tiempo y esfuerzo que podemos invertir en otras actividades que solo requieran del factor humano. Ahora bien, ¿hasta qué punto podemos fiarnos de esta tecnología?

La inteligencia artificial y la seguridad

En Aviación Digital entrevistamos a José Sánchez-Alarcos, experto en Organización y Factores Humanos, Ergónomo certificado, Psicólogo de la Aviación y experto externo de EASA, para conocer de primera mano su opinión acerca de temas como el uso de los automatismos en la aviación. «Creo que hay un concepto clave que la IA no puede tener: el concepto de significado, de finalidad», apunta. «En el famoso caso del río Hudson, la inteligencia artificial tendría que haber procesado una cantidad de datos inviables«, mientras que el piloto simplemente usó la lógica para saber lo que estaba sucediendo.

Sin embargo, a Sánchez-Alarcos le preocupa «la segunda singularidad: una devaluación del conocimiento humano y su sustitución». En este sentido, la IA puede buscar «datos que no quieres que entren en la ecuación».

En el asunto del Single Pilot, Sánchez-Alarcos «ve un problema más serio de lo aparente» y «está convencido de que esto está considerado como una estación de paso». No quieren quedarse ahí: miran hacia un futuro con aviones pilotados exclusivamente por máquinas. Esta práctica, probablemente, comenzaría por el transporte de carga para ganarse la confianza de los futuros pasajeros que, por el momento, son reticentes a esta medida. «Jugarán con políticas de precio«, confirma el psicólogo.

La inteligencia artificial puede anularte en el sentido cognitivo, pero es que además, «la capacidad de decisión está muy limitada en estos casos, ya que si sigues al sistema y te equivocas, realmente estás haciendo lo que debías hacer», apunta el ergónomo. «Pero si te equivocas por contradecir al sistema que supuestamente te apoya, esa equivocación es mucho más costosa».

Los automatismos en la aviación deberían siempre complementarse con el conocimiento antiguo. «Hay que distinguir muy bien cuándo el conocimiento antiguo es obsoleto y cuándo no lo es: y cuando no lo es, lo tengo que cuidar», afirma. Los pilotos no deben dejar «deteriorar sus capacidades humanas» en aras de estos automatismos.

El deterioro del conocimiento en la aviación se ve, por ejemplo, en los casos de incidentes en los que los informes resaltan que hay que «ir totalmente pegado al procedimiento», sin tener en cuenta las experiencias y capacidades humanas que se entrecruzan con las normas de facto y que pueden ayudar en situaciones de emergencia, como en el caso del accidente de un A320 en Inglaterra. «Hay cosas que se están perdiendo porque simplemente nos estamos quedando en el procedimiento».

A Sánchez-Alarcos «le choca» el porcentaje del 80% que se le atribuye a los «errores humanos» en los accidentes en aviación. «¿Cuántos accidentes son evitados por la intervención humana? Esa es la otra parte. Y parece que se olvida». Aunque el factor humano «sea el menos fiable de la cadena» por su «poca constancia de repetición», no quiere decir que sea el menos seguro. «Seguridad y fiabilidad no son sinónimos: son dos cosas distintas».

Caso práctico

Desde el sector de la aviación, ya hay mucha gente haciéndose preguntas. Sánchez-Alarcos probó suerte con la famosa web ChatGPT, generador automático de respuestas. ChatGPT tiene una variante –ChatPDF– capaz de analizar textos en PDF y, a partir de ellos, responder a preguntas.

Más allá de las implicaciones morales de la inteligencia artificial, en este caso la pregunta radica en la certeza y buen funcionamiento de la misma. Para comprobar la fiabilidad de ChatPDF, Sánchez-Alarcos utilizó un informe oficial de un accidente de avión. A partir de su análisis, pudo sacar sus propias conclusiones.

Tras introducir el documento pertinente, Sánchez-Alarcos comenzó a plantear las típicas preguntas que suelen ser automáticamente contestadas tras leer el informe con detenimiento. Sin embargo, cuando el experto llegó a la pregunta relacionada con la experiencia del piloto, la IA afirmó que en el informe no se detallaba tal cosa.

¿Cuántos informes de accidentes hemos visto que no incluyan datos básicos como la experiencia del piloto? Más bien pocos. Por eso, a Sánchez-Alarcos le saltaron las alarmas. Más chocante fue el momento en el que preguntó acerca de la existencia de fallos técnicos en el avión, donde ChatPDF contestó que no había constancia en el documento de ese tipo de datos. Curioso, ¿verdad?

Al psicólogo aeronáutico no le cuadraron mucho las respuestas. Por eso, y al ser un caso que no conocía en profundidad, decidió leer por sí mismo el informe y comprobar la «infalibilidad» de la máquina. Y, sorpresa: sí que contenía información sobre la formación de los pilotos, la cual «no sólo abarcaba la experiencia general y de tipo y el papel; incluía diferentes cursos realizados por ambos pilotos», cuenta Sánchez-Alarcos.

Además, el incidente empezó por un fallo en el sistema de aviso de despegue, lo que quiere decir que sí que existieron fallos técnicos, al contrario de lo que ChatPDF comentó al principio. Estos datos, claramente identificados por un humano leyendo el informe, no pudieron ser detectados por la inteligencia artificial a raíz de las preguntas planteadas.

Algunas de las preguntas realizadas por José Sánchez-Alarcos a ChatPDF a partir del informe de un accidente de avión

Como apunta el experto de EASA, es lógico que lleguemos a pensar que la inteligencia artificial es mucho más precisa y rápida que el cerebro humano, pero nada más lejos de la realidad. El lenguaje que utiliza, sofisticado y técnico, nos puede dar la falsa ilusión de que todo lo que dice es incontestable. Este trampantojo, que no es más que una manera de ganar nuestra confianza a través de palabras cultas y velocidad en las respuestas, puede hacernos confiar de más en estas tecnologías que por supuesto están sujetas también a revisiones.

La IA como ayuda, no como sustitución humana

Hay áreas en las que esta herramienta no debe ser más que un mero apoyo de la actividad humana. En la aviación, la inteligencia artificial se utiliza en casos como en la gestión del tráfico aéreo, donde se utilizan algoritmos de aprendizaje automático para analizar grandes cantidades de datos en tiempo real y tomar decisiones en tiempo real para optimizar las rutas y minimizar el riesgo de colisiones. Todo ello, por supuesto, en presencia y bajo supervisión de controladores aéreos.

Además, la inteligencia artificial ayudará en el futuro próximo, cuando la demanda de viajeros y la producción de aeronaves se multiplique considerablemente (ya que se espera un crecimiento de ambos sectores en los próximos años). La IA puede ser una aliada a la hora de acomodar el tráfico y gestionar el flujo de pasajeros en los aviones disponibles.

Otra aplicación de la IA en la aviación es el mantenimiento predictivo, que utiliza análisis de datos para predecir cuándo se debe realizar el mantenimiento preventivo de los aviones y las piezas de repuesto, lo que permite a las compañías aéreas ahorrar costos y reducir el tiempo de inactividad de la flota.

También se está utilizando la IA en la formación de pilotos y la simulación de vuelo, donde se utilizan tecnologías de realidad virtual y aumentada para mejorar la formación y la experiencia de los pilotos.

En Aviación Digital ya comentamos hace unas semanas el impacto de la inteligencia artificial en la aviación, de la mano de José Manuel Serrano Esparza. Él y Sánchez-Alarcos coinciden en que la inteligencia artificial no es infalible, y que la presencia de una persona que controle los posibles fallos de la misma es esencial.

- Publicidad -spot_img

Más artículos

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Todos los canales

Últimos artículos