Por Miguel López-Muñiz Goñi.
Descarga del artículo en PDF
Este artículo está relacionado con La seguridad vial y las infraestructuras, imprescindible para entender qué son las causas de los accidentes, y la influencia de las infraestructuras en la siniestralidad y en la seguridad viaria, incluye las Pirámides de la Inseguridad Vial.
La lectura de ambos artículos da una visión contextual de la influencia de las infraestructuras y la responsabilidad de la Administración, en la siniestralidad y en la seguridad viaria.
Nota preliminar.
Rescatado del olvido, este trabajo es una comunicación al V Congreso Internacional de Derecho de Circulación celebrado en Madrid en 1963, que además fue publicado en la Revista de Derecho Español y Americano, nº 4 (abril-junio) de 1964. Trata de la perspectiva jurídica sobre un asunto que en la actualidad viene adquiriendo relevancia por muchos motivos, sobre todo por la necesidad material y social de que la Administración ejerza sus competencias y facultades para la funcionalidad y la seguridad del tráfico en las infraestructuras viarias (dicho sea, lo mismo que en 1963).
Su autor, Miguel López-Muñiz Goñi, no precisa presentación en el ámbito del Derecho y menos aún en el de la Accidentología. Esto no es, por tanto, ni un prologo ni nada que se le parezca, es una simple nota recordando el contexto en el que se escribió este trabajo, sin olvidar algunos rasgos que definen a su autor, y algunos hechos que se han producido en los 44 años que han transcurrido desde que se escribió, estamos en abril de 2007.
D. Miguel es un adelantado a su tiempo, con extraordinaria visión de futuro, analítica y sintética, a la vez que profunda y práctica, no desliga su profesión de jurista de su interés por la siniestralidad viaria y por la Accidentología, que deviene de la necesidad de saber cómo y porqué es esa tragedia; una necesidad de ciencia muy personal que ya definió Ortega y Gasset en Del estudiar y el estudiante, y que es una constante en todos los que han intentado avanzar a la vanguardia de esa especialidad emergente que es la Accidentología viaria, que no acaba de cuajar pese a que es muy necesaria para la sociedad, muy atacada por la pseudo – ciencia y las creencias en el origen de la siniestralidad viaria.
Pronto le llegó esa inquietud a D. Miguel, pues como él mismo dice, al poco de tomar posesión de su cargo en el juzgado de Almansa (Albacete), ya se enfrentó al drama que produce un «punto negro», que conmueve y suscita preguntas, que no asaltan al cerebro sino al corazón, creando la necesidad de saber –de ciencia- a la que se refería Ortega y Gasset en su artículo, publicado en 1933 en el Diario La Nación de Buenos Aires.
Almansa era y es ruta obligada para el tráfico viario entre la costa mediterránea y la meseta, entre Madrid y las provincias de Alicante y Murcia. España empezaba a salir del agujero de la posguerra y todo lo que le rodeó, y el incremento de vehículos motorizados fue esencial para conseguirlo. Pero, con ello, los accidentes de circulación se convirtieron en un problema de primera magnitud, alterando la vida apacible de los juzgados en cuyo partido se encontraba algún tramo de las grandes carreteras de la época.
Del ajetreo en el juzgado de Almansa y de la inquietud personal, vendría ACCIDENTES DE TRÁFICO. PROBLEMÁTICA E INVESTIGACIÓN, obra que sigue siendo obligada para los investigadores experimentados, y más aún para quienes dan sus primeros pasos en la materia.
Por esos años, finales de los 50 y principios de los 60, y ante el problema de la siniestralidad, en España se crearon, entre otros, el Seguro Obligatorio de Automóviles, el Fondo Nacional de Garantía de Riesgo de la Circulación, la Jefatura Central de Tráfico y la Agrupación de Tráfico de la Guardia Civil, y es en ese contexto, para la mayoría de nosotros ya histórico, en el que se escribió esta comunicación.
Desde el punto de vista científico y técnico destacan muchas cosas en este trabajo. Fíjese el lector que López-Muñiz ya habla de la necesidad –y la responsabilidad- de mejorar la formación y los criterios de selección de conductores, y de la necesidad de controlar la corrección del estado de los vehículos, campos en los que se ha avanzado en los más de 40 años que han transcurrido, y precisamente en los aspectos descritos por D. Miguel, aunque no tanto como puede parecer a simple vista.
Pero aún destacan más sus referencias a la infraestructura viaria como elemento activo en la producción de la siniestralidad, algo que aún hoy muchos no conciben ni admiten, pese a las evidencias lógicas y empíricas que no permiten otras conclusiones, y que obviamente es responsabilidad de la Administración, aunque intervienen otros actores.
Aún destaca más otra afirmación, cuya veracidad, como todas las afirmaciones de López-Muñiz, quedaría demostrada posteriormente por los hechos: «En el planeamiento de una carretera comienza precisamente la prevención del accidente de tráfico.»
La mejora técnica de las carreteras ha sido uno de los elementos determinantes para conseguir el nivel de seguridad alcanzado en la segunda mitad del siglo XX, con unos volúmenes de tráfico que han aumentado mucho más allá de lo que ya era inimaginable a principios de los años sesenta cuando se escribió este trabajo. Y, sin embargo, ello ha sido disminuyendo accidentes y víctimas; en los últimos quince años los muertos de las carreteras españolas han disminuido a la mitad. Y son hechos ante los que no caben argumentos, están ahí.
Obviamente esa prevención que comienza en el fase de planeamiento, sigue en la fase de construcción y en la de mantenimiento y explotación. Y repito, algo que aún hoy muchos no conciben ni admiten, pese a las evidencias lógicas y empíricas que no permiten a otras conclusiones con el razonamiento científico o demostrativo, pues la corrección técnica de las infraestructuras viarias son determinantes para la seguridad y la siniestralidad viaria, de su estado y condiciones depende en buena parte que se produzca la una y la otra, dado que los elementos artificiales estáticos del sistema viario actúan sobre la seguridad (activa y pasiva) de todos los elementos dinámicos (peatones y vehículos), y éste es un hecho que no entra en el ámbito de lo que es científicamente opinable. En ese sentido se pronunciaba la propuesta de Directiva de la Comisión Europea de 5 de octubre de 2006, proponiendo estudios de impacto en la seguridad de la red para las nuevas vías o sus modificaciones, auditorias de seguridad desde el proyecto hasta la puesta en servicio, la gestión de la seguridad viaria controlando el riesgo y eliminando los «puntos negros», y la realización de inspecciones periódicas de la seguridad de las vías en servicio.
Miguel López-Muñiz Goñi fue el primero en afirmar una gran verdad, incontestable y demostrada, como es que, «los accidentes de tráfico son la consecuencia de problemas técnicos sin resolver».
Frase que marca el camino a seguir en Accidentología y en Ingeniería viaria, especialidades que lejos de ser antagonistas (como algunos pretenden que parezcan), son complementarias y están obligadas a crecer juntas, puesto que comparten objeto, objetivos, incógnitas e inquietudes: una, la Accidentología, con un juicio crítico riguroso, identificando problemas, planteando preguntas y el modo de obtener respuestas verdaderas, porque en tráfico sólo sirve la verdad; la otra, la Ingeniería, es la creatividad con el ingenio que le caracteriza y define, la que junto con la ciencia ha hecho posible este enorme y complejo tinglado que es el sistema viario, buscando soluciones a los problemas, mejorando la funcionalidad y la seguridad. De ese modo es como se ha avanzado, y como se ha obtenido la funcionalidad y la seguridad que objetivamente tenemos, y que no sólo hay que mejorar, sino que también hay que conservar.
Más que necesaria, es imprescindible la conservación de ese patrimonio esencial (para y de la sociedad), que son la infraestructuras viarias. No hacerlo suficientemente implica una regresión de consecuencias nefastas para la sociedad en todos los aspectos; y dejar perder lo conseguido, siendo imprescindible para la vida y la prosperidad, y para la seguridad de las personas, es una peligrosa e imperdonable sandez que ninguna sociedad se puede permitir.
Por ello es seguro que la Ingeniería seguirá inventando para avanzar en conservación, en funcionalidad y en seguridad, del mismo modo que la Accidentología seguirá planteando problemas, preguntas y críticas, porque ambas existen para eso, son las especialidades propias del sistema viario y sus fenómenos, y son interdisciplinarias, precisan del auxilio del saber de otras especialidades científicas y técnicas, pero sin perder de vista sus principios y fundamentos, los propios de la especialidad (que son comunes a las dos), ni las condiciones y pautas que rigen en la estructura y en el funcionamiento del sistema viario, que las impone la Naturaleza, no el hombre, sin olvidar sus funciones en la sociedad, porque de ello dependen: la calidad de vida de las personas, el desarrollo de las actividades socioeconómicas, y la supervivencia de muchas personas. La siniestralidad viaria sigue siendo el primer problema de seguridad pública entre todos los fenómenos violentos que amenazan la supervivencia y la integridad de la población del planeta, y no se puede bajar la guardia.
Miguel López-Muñiz Goñi como Josef Stannard Baker, son en Accidentología lo que Ezra Hauer es en Ingeniería, brújulas que marcan el camino a seguir. Su visión de futuro desde la realidad de su presente deviene de su pensamiento, que es claramente avanzado a su tiempo.
El tiempo es un juez implacable que pone las cosas en su sitio (impone el orden natural en las cosas), y da a cada uno lo suyo (hace justicia).
En lo que a siniestralidad y seguridad viaria se refiere, el tiempo ha ido poniendo las cosas en su sitito (y a los hechos me remito), y con ello también ha ido haciendo justicia a Miguel López-Muñiz Goñi, como hace con todos.
Sirvan estas líneas a modo de acta, pues uno no hace mas papel que el de secretario del tiempo y los hechos, que son los que verdaderamente dicen y mandan.
Luis M. Xumini.
Descarga del artículo completo en PDF
14 mayo 2007
Mitos y leyendas: la relación causa-efecto entre la velocidad y los accidentes
Este artículo se publicó en la revista Carreteras, nº 131, Madrid, 2004. Se escribió principalmente para investigadores y técnicos, aunque también se pensó en los profanos que podían tener interés en este asunto, de ahí que en él se mencionan algunas cosas que para el primer ámbito eran innecesarias.
Tan sólo una advertencia preliminar, que físicamente la velocidad no sea causa o agente hacedor de accidentes, ello no significa que pueda irse a la velocidad que plazca, sino a la velocidad que el sistema viario puede mantener en equilibrio en cada lugar y momento, lo cual no depende solamente de los conductores, como se indica en el texto.
Mitos y leyendas: la relación causa-efecto entre la velocidad y los accidentes.
Luis M. Xumini.
La velocidad es un tema de constante y antigua controversia dado que muy pronto se planteó si tenía influencia en la siniestralidad del tráfico. Desde entonces se han realizado múltiples estudios con los resultados conocidos por todos. Esencialmente, que se muestra como indicador de riesgo si su valor se aleja de la velocidad media del tráfico. Lo cual resulta coherente con lo que sostenía J. Stannard Baker, que en 1957 (1) decía así:
"…si se considera el accidente como la incapacidad del sistema vial para garantizar viajes exentos de daños y lesiones (como se ha venido haciendo), entonces la velocidad inadecuada para las condiciones viarias existentes, más que un factor del fallo del sistema, es un síntoma del mismo."
Esto es, que la velocidad inadecuada no es una causa sino una consecuencia del fallo. En los años 70 se produjo un valioso hallazgo. Ante una crisis petrolera se impuso una limitación de la velocidad en las autopistas de EE.UU., bajando los registros de los accidentes y las víctimas. La conexión estadística entre las variables era evidente: por ello hubo quien se apresuró a sostener que la velocidad era la causa, puesto que fue lo que se varió. Obviando así lo dicho por Baker, pues, aunque la velocidad inadecuada es un síntoma o consecuencia del fallo del sistema, estadísticamente se hallará conectada a los accidentes y a las víctimas, que también son efectos o síntomas del fallo del mismo sistema. En términos lógicos, las tres variables se sitúan en los consecuentes del fallo, no en sus antecedentes o causas.
En realidad, el hallazgo de los 70 indicaba que las condiciones de configuración del sistema no eran correctas para la velocidad a la que se le hacía funcionar. Al bajar la velocidad de funcionamiento mejoró la adecuación funcional a las condiciones de configuración; y por lo tanto disminuyeron los fallos y sus otros síntomas o efectos, los accidentes y las víctimas.
Sin embargo, aquel valioso hallazgo que confirmaba empíricamente el razonamiento de Baker y que, por lo tanto, marcaba la estrategia para mejorar la seguridad en cuanto a la velocidad, no se supo entender. Así, unos han seguido insistiendo en la presunción de una inexistente e insostenible relación general de causa-efecto (jamás explicada); y otros, en que aquel hecho no era demostrativo de nada y, por lo tanto, manteniendo criterios subjetivos acerca de la velocidad.
Por otro lado, en un sentido particular (en el de un accidente), es frecuente hallar informes de investigadores policiales y privados, anuarios estadísticos, artículos, sentencias, manuales y todo tipo de publicaciones donde se menciona expresamente la velocidad excesiva o inadecuada como la causa de un accidente. Pero no así la explicación de cómo y por qué es esa relación de causa-efecto que sostienen, que se da por supuesta sin más.
Pese a todo lo dicho, y ya más recientemente, en Europa se han establecido correlaciones estadísticas entre el valor de la velocidad y los registros de los accidentes y las víctimas. Y con la proporción hallada, los autores de tal estudio llegan a pronosticar la cantidad de accidentes y víctimas que se evitarían por cada unidad que se disminuya en los límites genéricos de velocidad. Lo cual, además, parece fundamentar una política europea sobre la velocidad y los métodos de su control. Aunque, en términos lógicos esas predicciones suponen a la velocidad como antecedente necesario, general y proporcional de los consecuentes, esto es, que de facto tal predicción se está sosteniendo del mismo modo que se interpretó hace 30 años la correlación de los 70 en EE.UU., es decir, con la presunción de una insostenible relación general de causa-efecto.
Victor Irureta (2), al esclarecer otro mito sobre el calculo de la velocidad por deformación, acuñó el término "Accidentología Mágica" para referirse a la investigación de accidentes que no se ajusta a la metodología de las ciencias.
¿Es posible avanzar en seguridad y en justicia fundándose en los mitos y leyendas que sostiene la Accidentología Mágica? ¡Pues claro que no! Pero eso es lo que hay en materia de investigación sobre tráfico, que todavía no hemos dado el paso definitivo del mito al logos. Y dicho así, parece que somos unos cafres de especial pedigrí. Pues no, porque no estamos en situación distinta al resto de las ciencias y las técnicas.
La insuficiente investigación teórica, y en consecuencia, la insuficiencia metodológica que afecta a la ciencias y a las técnicas en general, ha venido agravándose durante el siglo XX, al ir desapareciendo de las aulas la filosofía, la lógica y la metodología de las ciencias.
Además, hoy, cualquier investigador profesional que desee prepararse en esas materias tendrá serias dificultades para aclararse, dada la confusión creada durante el siglo XX por filósofos y científicos. Y, ¿cómo puede trabajar científicamente un investigador profesional, tratando de hacer descubrimientos y aplicaciones beneficiosas para la sociedad, sin tener claros los fundamentos de la metodología de las ciencias?
¿Cómo encontrar la verdad sin un claro criterio de verdad?
¿Cómo distinguir las causas de algo sin una noción clara de lo que son las causas?
¿Cómo justificar y planificar métodos específicos de investigación si no sabemos los fundamentos y la estructura de un método genérico de investigación?
La consecuencia de esta explosiva combinación no es otra que la superficialidad científica y la perdida de rigor y objetividad: un estancamiento científico nada propicio para los avances en unas técnicas emergentes como son el tráfico y la seguridad vial. Es decir, que habrá que esforzarse en materia de formación y en investigación teórica y metodológica, si queremos seguir adelante con menos muertos por los caminos.
Y, desde luego, en estas condiciones es muy difícil aclarar si existe o no una relación de causa-efecto, porque ya no se distingue bien lo que es causa de lo que es efecto.
La causalidad es un tema complejo que ha hecho correr ríos de tinta durante siglos. Pero, actualmente no será difícil encontrar quien sostenga que la mecánica cuántica invalidó el principio de causalidad en favor del principio de indeterminación. Y dicho sea, con la firme oposición de Einstein que defendió la causalidad hasta su muerte.
La negación de la causalidad choca contra el sentido común, pero encaja en los postulados de la física atomista con la noción de causa que rige en la física moderna a partir de Galileo. Antes de él, la noción de causa tiene por motivo dar razón de las cosas mismas; pero, después, la noción de causa da razón de variaciones y desplazamientos en tanto que son susceptibles de medida y expresión matemática. Y con ello, la física moderna renunció a explicar la naturaleza ontológica del cambio, para limitarse a dar una razón mensurable del movimiento.
Así, la causalidad también sufre una profunda transformación en el ámbito científico y técnico dada la enorme influencia del mecanicismo, que se transforma más con la física cuántica, al quedar instalada en la sospecha permanente con los paradigmas del mecanicismo estadístico.
En lo referente a los accidentes de tráfico se aprecia un uso frecuente del "factor de riesgo" en el sentido de elemento hacedor o concausa, no propiamente como una causa eficiente, sino más bien en el sentido de la permanente sospecha típica de la macroinvestigación epidemiológica de accidentes, atrapada en el fangoso terreno de la hipótesis deducida de la probabilidad estadística, y con graves problemas metodológicos en la obtención de los datos.
También es frecuente el uso de causa desencadenante para referirse a la causa eficiente y el de causas contribuyentes para otras que se consideran han participado en el accidente. Con el mismo sentido también hay quien denomina factores desencadenantes y factores contribuyentes. Asimismo se utilizan los términos de causa inmediata para referirse a la causa eficiente, y causas mediatas para los que otros denominan causas o factores contribuyentes.
En fondo de esas nociones de causa se encuentra la noción genérica: aquello de lo cual procede lo causado (el efecto) de modo especifico. Ahora bien, ello no significa que cuando se habla de las causas de los accidentes se tenga el mismo concepto y se entienda o refiera a la misma entidad, porque en la especificidad del modo es cuando se confunden las cosas.
Con el fin de paliar la deplorable situación de la metodología científica mecanicista, en el primer tercio del siglo XX se gestó la teoría general de los sistemas, en un intento de lograr una metodología integradora para el tratamiento de los problemas provocados por los paradigmas mecanicistas y la hiperespecialización científica. Su meta no es buscar analogías entre las ciencias, sino más bien evitar la superficialidad científica que las ha estancado, proporcionando un nuevo paradigma científico que supere la perspectiva analítica típica del mecanicismo, insuficiente para la biología y otras especialidades entonces emergentes.
En las perspectivas holistas, que consideran el todo y las partes, las totalidades organizadas se encuentran en un nivel que supera a la mera suma de las partes. Se considera a los sistemas como compuestos de elementos pero con un matiz importante: que siempre se tiene en cuenta la interdependencia de los elementos en el todo.
Un sistema así concebido se entiende como un conjunto de elementos relacionados entre sí funcionalmente de modo que cada elemento es función de algún otro, no se dan los elementos aislados ni superfluos. Por eso, el sistema no resulta de la adición de los elementos como simples partes, pues cada elemento tiene una función que está coordinada con las funciones de los otros. La organización estructural desempeña así una función esencial.
El enfoque de la teoría general de los sistemas permite obtener una síntesis entre la perspectiva mecanicista típica de la ciencia clásica, de tipo analítico y centrada en los elementos componentes y en su agregación, y la perspectiva global y finalista, de tipo sintético, en la que las propiedades de conjunto desempeñan una función decisiva.
La perspectiva sistémica así entendida puede situarse metodológicamente si se utiliza como modelo, y, ontológicamente si además hace referencia a la articulación de la realidad que estudia.
Dado que las funciones adquieren un papel preponderante en esa teoría general, con ella resurge la noción de causa que da razón de las cosas mismas, puesto que hay que explicar para qué son las cosas que hay en el Universo. Así, mientras el mecanicismo se atiene a la causa eficiente y a una causalidad lineal, la perspectiva sistémica precisa la causa final y se atiene a la causalidad circular. Lo que nos conduce a la concepción y clasificación aristotélica que en síntesis dice así:
• La causa eficiente: el principio del cambio.
• La causa material: aquello de lo que algo surge o por lo que algo llega a ser.
• La causa formal: la idea o el paradigma.
• La causa final: el fin, la realidad hacia la cual algo tiende a ser.
Encuadrándolas en la perspectiva sistémica de la teoría general, la causa final (la realidad hacia la cual algo tiende a ser) se identifica con la función, tanto del sistema como la de cada uno de los elementos que actúan relacionados funcionalmente.
La causa material (aquello de lo que algo surge o por lo que algo llega a ser) se identifica con la estructura y la organización del sistema, es decir, sus elementos, las relaciones funcionales y sus efectos, las interacciones que se producen en el funcionamiento.
La causa eficiente (el principio del cambio) se identifica con los cambios en las condiciones estructurales, los elementos y la organización del sistema, puesto que es lo que modifica las relaciones que actúan en su funcionamiento.
Como es obvio, la identificación de esas causas y sus relaciones va a depender muy mucho de las causas formales, es decir, de las ideas, paradigmas o modelos que se tengan sobre ese sistema y su correspondencia con la articulación de la realidad, es decir, del desarrollo y la precisión de un modelo o teoría fundamental sobre ese sistema que contenga las pautas que lo configuran y gobiernan, que además permite planificar la metodología especifica, tanto para controlarlo como para investigarlo.
En definitiva, la complejidad y la heterogeneidad que supone el todo y las partes plantea la necesidad de nociones causales ontológicas, precisas y reconocibles como son las aristotélicas. También impone ir aceptando que en la génesis de muchos fenómenos subyace una causalidad plural, compleja y heterogénea como es la circular, que no es sencilla de manejar a las primeras de cambio cuando se está acostumbrado a la causalidad lineal típica del mecanicismo.
Queda claro que el fenómeno final y el funcionamiento de un sistema siempre es el efecto de las relaciones funcionales entre los elementos de su estructura y el modo en el que están organizados. Y que un cambio o insuficiencia en éstos conlleva un cambio o insuficiencia en las relaciones que a su vez modifican el funcionamiento y, por lo tanto, el fenómeno final.
Por otro lado, J. Stannard Baker (1), al referirse a las causas de los accidentes dice así:
"Para evitar situaciones cruciales que pueden conducir a daños o lesiones, será necesario que en los elementos de la trilogía carretera-hombre-vehículo se realicen determinadas operaciones [funcionales]. Las operaciones [funcionales] que fallan y conducen al accidente son factores operativos [causales] de dicho accidente."
Por lo tanto, en la noción holista y funcional en la que podemos distinguir lo que es y sucede en el tráfico y sus accidentes, no queda más que opción que atenernos a la teleología que exige la teoría general de los sistemas, es decir, a la noción de Aristóteles y los Escolásticos, explicar por causa final: por la realidad hacia la cual algo tiende a ser.
Así, y tal y como en tráfico entendemos a la velocidad, no es otra cosa que un parámetro que expresa una dimensión geométrica (en el contexto espacio-tiempo) del movimiento de traslación, que a su vez también indica el efecto del tamaño de ese movimiento: la distancia que se recorrerá en una unidad de tiempo.
Dado que el movimiento de traslación es el efecto propio del sistema de tráfico, la velocidad es un parámetro geométrico del fenómeno funcional de ese sistema, que se produce funcionando equilibradamente tanto dinámica como cinemáticamente. Pero en tráfico no cabe hablar de cinemática prescindiendo de las causas, puesto que la geometría del movimiento en este sistema es causada, es decir, que el fenómeno funcional es consustancial al equilibrio geométrico que, al igual que el dinámico, es causado de propósito porque es una pauta constante: una ley impuesta por la Naturaleza para que el sistema pueda funcionar.
Pero el valor de la velocidad no nos dice si tales equilibrios existen o no, porque un parámetro geométrico no indica relaciones absolutas, está condicionado por el sistema de referencia que se emplee. Por ello la velocidad en sí misma no indica otra cosa que el tamaño del movimiento de traslación y el efecto que producirá si se mantiene.
Ello se verifica en la vida cotidiana fácilmente. Por ejemplo, una caja que no cabe en el hueco de una estantería, ¿qué es lo incorrecto, la caja o el hueco? Si empleamos la caja como referencia será el hueco, pero también podemos hacerlo a la inversa. En realidad sólo podemos decir que existe una desadaptación geométrica, sus causas se encuentran en el fallo del sistema que pretendía colocar la caja sin saber si las condiciones de ambos elementos se adaptaban o no, esto es, sin verificar (o sin la capacidad de saber) si existía o no una relación funcional entre ambos.
Luego, cuando hablamos de la velocidad lo hacemos de la dimensión geométrica a la que se está produciendo el fenómeno funcional o en su caso el accidental, pero de nada más que de eso.
Dado que la estructura y la organización funcional del sistema son las que equilibran su funcionamiento. Es la incoherencia o fallo en esa estructura física y en su organización funcional en donde se encuentra la causa final, material y eficiente de un desequilibrio del movimiento o mal funcionamiento y el fenómeno físico accidental que se genera. Por lo tanto, un parámetro geométrico (las dimensiones de la caja) como es la velocidad, no puede ser causa final, material ni eficiente del mal funcionamiento o desequilibrio del movimiento en el que aparece el fenómeno accidental (la caja no cabe en el hueco de la estantería).
Y ello se verifica lógicamente porque el movimiento geométricamente desequilibrado o mal funcionamiento (que es lo que constituye la velocidad excesiva e inadecuada a las condiciones existentes), no puede ser causa final, material ni eficiente de sí mismo, del movimiento geométricamente desequilibrado o mal funcionamiento. Sino que sigue siendo una consecuencia de la acción conjunta de los elementos del sistema, de alguna incoherencia, fallo o deficiencia en la estructura y en la organización funcional, que altera las relaciones funcionales y los efectos de éstas, produciendo en este caso un fallo en la estimación de la velocidad de funcionamiento o tamaño del movimiento de traslación.
Aún queda más sólida la afirmación por el hecho de que es imposible disociar el fenómeno funcional del correcto funcionamiento del sistema, como también lo es separar el fenómeno accidental del mal funcionamiento. Y la disyunción es imposible material y lógicamente, porque el fenómeno funcional no es consecuencia o efecto del correcto funcionamiento, sino consustancial a él, porque no puede darse lo uno sin lo otro. Asimismo, el fenómeno accidental es consustancial al mal funcionamiento, porque un accidente no puede existir sin un desequilibrio del movimiento (geométrico y dinámico) o mal funcionamiento, que es siempre un consecuente lógico y un efecto material del fallo (causa final, material y eficiente) en las condiciones de la estructura y en la organización funcional del sistema.
Luego, es imposible establecer y, por tanto, sostener, una relación de causa-efecto entre la velocidad y los accidentes, ni en sentido general ni en particular, porque entre la causa y el efecto, la velocidad, es simplemente la dimensión geométrica del cambio o movimiento.
La relación causa-efecto existe en todos los sentidos entre la configuración funcional del sistema y la velocidad de su funcionamiento. Si fallan las relaciones funcionales al establecer la velocidad de funcionamiento que permiten las condiciones de la estructura en ese momento, el funcionamiento será incorrecto porque está desequilibrado. Momento en el que pueden generarse fenómenos accidentales en un último proceso de claros rasgos estocásticos, del que habría que hablar más detenidamente.
Por lo tanto, si existen correlaciones estadísticas respecto a la velocidad y la accidentalidad, lo único que cabe concluir es que: o bien la velocidad de funcionamiento (el tamaño del movimiento) no es la que soportan las condiciones de configuración del sistema para mantenerlo equilibrado; o, que esas condiciones no son suficientes para mantener equilibrado el tamaño del movimiento (la velocidad de funcionamiento) con el que se hace funcionar el sistema.
Si surge la tentación de afirmar que los usuarios son los que fallan al estimar o decidir la velocidad de funcionamiento para las condiciones de configuración, reafirmamos que materialmente sólo ellos pueden fallar. Sin embargo, cuestión bien distinta es que sean los causantes finales y eficientes del fallo, porque pueden no serlo en absoluto. Este asunto, al igual que el anterior, requiere un examen más detenido y extenso del que podemos dedicar en estas paginas.
Suponer una relación causal entre la velocidad y los accidentes, es un desorden lógico (de los tantos que existen en cuestiones de tráfico) que impide percibir la realidad, y en consecuencia, dirigir los esfuerzos hacia las verdaderas causas de los terribles accidentes de tráfico.
O avanzamos en investigación teórica, o es imposible avanzar en la funcionalidad y la seguridad del tráfico viario, porque sin teoría es difícil (por no decir imposible) conformar la metodología para conseguirlo. Las ideas que no contemplan la realidad del sistema (las pautas que la Naturaleza impone en su configuración y funcionamiento), no hacen más que crear y mantener disfunciones, y con ello, el nivel de fallos en su funcionamiento cotidiano.
Pero, dado que la investigación teórica depende en gran parte de la reflexión y la observación de la realidad (del hombre, el Universo y las cosas que contiene), por el momento lo tenemos crudo, porque esa actividad no está muy moda que digamos.
“…lo-que-es, es, y, lo-que-no-es, no es, eso es la verdad.” (Aristóteles).
Notas.
1. "Traffic Accident Investigator's Manual for Police". J. Stannard Baker, The Traffic Institute, Northwestern University, Evanston, Illinois. 1957. Edición al español, Dirección General de la Jefatura Central de Tráfico. Madrid. 1970.
2. "Validez del calculo de velocidad por deformaciones". Víctor Irureta. Seguridad Vial, www.seguridad-vial.com. 2002.
Tan sólo una advertencia preliminar, que físicamente la velocidad no sea causa o agente hacedor de accidentes, ello no significa que pueda irse a la velocidad que plazca, sino a la velocidad que el sistema viario puede mantener en equilibrio en cada lugar y momento, lo cual no depende solamente de los conductores, como se indica en el texto.
Mitos y leyendas: la relación causa-efecto entre la velocidad y los accidentes.
Luis M. Xumini.
La velocidad es un tema de constante y antigua controversia dado que muy pronto se planteó si tenía influencia en la siniestralidad del tráfico. Desde entonces se han realizado múltiples estudios con los resultados conocidos por todos. Esencialmente, que se muestra como indicador de riesgo si su valor se aleja de la velocidad media del tráfico. Lo cual resulta coherente con lo que sostenía J. Stannard Baker, que en 1957 (1) decía así:
"…si se considera el accidente como la incapacidad del sistema vial para garantizar viajes exentos de daños y lesiones (como se ha venido haciendo), entonces la velocidad inadecuada para las condiciones viarias existentes, más que un factor del fallo del sistema, es un síntoma del mismo."
Esto es, que la velocidad inadecuada no es una causa sino una consecuencia del fallo. En los años 70 se produjo un valioso hallazgo. Ante una crisis petrolera se impuso una limitación de la velocidad en las autopistas de EE.UU., bajando los registros de los accidentes y las víctimas. La conexión estadística entre las variables era evidente: por ello hubo quien se apresuró a sostener que la velocidad era la causa, puesto que fue lo que se varió. Obviando así lo dicho por Baker, pues, aunque la velocidad inadecuada es un síntoma o consecuencia del fallo del sistema, estadísticamente se hallará conectada a los accidentes y a las víctimas, que también son efectos o síntomas del fallo del mismo sistema. En términos lógicos, las tres variables se sitúan en los consecuentes del fallo, no en sus antecedentes o causas.
En realidad, el hallazgo de los 70 indicaba que las condiciones de configuración del sistema no eran correctas para la velocidad a la que se le hacía funcionar. Al bajar la velocidad de funcionamiento mejoró la adecuación funcional a las condiciones de configuración; y por lo tanto disminuyeron los fallos y sus otros síntomas o efectos, los accidentes y las víctimas.
Sin embargo, aquel valioso hallazgo que confirmaba empíricamente el razonamiento de Baker y que, por lo tanto, marcaba la estrategia para mejorar la seguridad en cuanto a la velocidad, no se supo entender. Así, unos han seguido insistiendo en la presunción de una inexistente e insostenible relación general de causa-efecto (jamás explicada); y otros, en que aquel hecho no era demostrativo de nada y, por lo tanto, manteniendo criterios subjetivos acerca de la velocidad.
Por otro lado, en un sentido particular (en el de un accidente), es frecuente hallar informes de investigadores policiales y privados, anuarios estadísticos, artículos, sentencias, manuales y todo tipo de publicaciones donde se menciona expresamente la velocidad excesiva o inadecuada como la causa de un accidente. Pero no así la explicación de cómo y por qué es esa relación de causa-efecto que sostienen, que se da por supuesta sin más.
Pese a todo lo dicho, y ya más recientemente, en Europa se han establecido correlaciones estadísticas entre el valor de la velocidad y los registros de los accidentes y las víctimas. Y con la proporción hallada, los autores de tal estudio llegan a pronosticar la cantidad de accidentes y víctimas que se evitarían por cada unidad que se disminuya en los límites genéricos de velocidad. Lo cual, además, parece fundamentar una política europea sobre la velocidad y los métodos de su control. Aunque, en términos lógicos esas predicciones suponen a la velocidad como antecedente necesario, general y proporcional de los consecuentes, esto es, que de facto tal predicción se está sosteniendo del mismo modo que se interpretó hace 30 años la correlación de los 70 en EE.UU., es decir, con la presunción de una insostenible relación general de causa-efecto.
Victor Irureta (2), al esclarecer otro mito sobre el calculo de la velocidad por deformación, acuñó el término "Accidentología Mágica" para referirse a la investigación de accidentes que no se ajusta a la metodología de las ciencias.
¿Es posible avanzar en seguridad y en justicia fundándose en los mitos y leyendas que sostiene la Accidentología Mágica? ¡Pues claro que no! Pero eso es lo que hay en materia de investigación sobre tráfico, que todavía no hemos dado el paso definitivo del mito al logos. Y dicho así, parece que somos unos cafres de especial pedigrí. Pues no, porque no estamos en situación distinta al resto de las ciencias y las técnicas.
La insuficiente investigación teórica, y en consecuencia, la insuficiencia metodológica que afecta a la ciencias y a las técnicas en general, ha venido agravándose durante el siglo XX, al ir desapareciendo de las aulas la filosofía, la lógica y la metodología de las ciencias.
Además, hoy, cualquier investigador profesional que desee prepararse en esas materias tendrá serias dificultades para aclararse, dada la confusión creada durante el siglo XX por filósofos y científicos. Y, ¿cómo puede trabajar científicamente un investigador profesional, tratando de hacer descubrimientos y aplicaciones beneficiosas para la sociedad, sin tener claros los fundamentos de la metodología de las ciencias?
¿Cómo encontrar la verdad sin un claro criterio de verdad?
¿Cómo distinguir las causas de algo sin una noción clara de lo que son las causas?
¿Cómo justificar y planificar métodos específicos de investigación si no sabemos los fundamentos y la estructura de un método genérico de investigación?
La consecuencia de esta explosiva combinación no es otra que la superficialidad científica y la perdida de rigor y objetividad: un estancamiento científico nada propicio para los avances en unas técnicas emergentes como son el tráfico y la seguridad vial. Es decir, que habrá que esforzarse en materia de formación y en investigación teórica y metodológica, si queremos seguir adelante con menos muertos por los caminos.
Y, desde luego, en estas condiciones es muy difícil aclarar si existe o no una relación de causa-efecto, porque ya no se distingue bien lo que es causa de lo que es efecto.
La causalidad es un tema complejo que ha hecho correr ríos de tinta durante siglos. Pero, actualmente no será difícil encontrar quien sostenga que la mecánica cuántica invalidó el principio de causalidad en favor del principio de indeterminación. Y dicho sea, con la firme oposición de Einstein que defendió la causalidad hasta su muerte.
La negación de la causalidad choca contra el sentido común, pero encaja en los postulados de la física atomista con la noción de causa que rige en la física moderna a partir de Galileo. Antes de él, la noción de causa tiene por motivo dar razón de las cosas mismas; pero, después, la noción de causa da razón de variaciones y desplazamientos en tanto que son susceptibles de medida y expresión matemática. Y con ello, la física moderna renunció a explicar la naturaleza ontológica del cambio, para limitarse a dar una razón mensurable del movimiento.
Así, la causalidad también sufre una profunda transformación en el ámbito científico y técnico dada la enorme influencia del mecanicismo, que se transforma más con la física cuántica, al quedar instalada en la sospecha permanente con los paradigmas del mecanicismo estadístico.
En lo referente a los accidentes de tráfico se aprecia un uso frecuente del "factor de riesgo" en el sentido de elemento hacedor o concausa, no propiamente como una causa eficiente, sino más bien en el sentido de la permanente sospecha típica de la macroinvestigación epidemiológica de accidentes, atrapada en el fangoso terreno de la hipótesis deducida de la probabilidad estadística, y con graves problemas metodológicos en la obtención de los datos.
También es frecuente el uso de causa desencadenante para referirse a la causa eficiente y el de causas contribuyentes para otras que se consideran han participado en el accidente. Con el mismo sentido también hay quien denomina factores desencadenantes y factores contribuyentes. Asimismo se utilizan los términos de causa inmediata para referirse a la causa eficiente, y causas mediatas para los que otros denominan causas o factores contribuyentes.
En fondo de esas nociones de causa se encuentra la noción genérica: aquello de lo cual procede lo causado (el efecto) de modo especifico. Ahora bien, ello no significa que cuando se habla de las causas de los accidentes se tenga el mismo concepto y se entienda o refiera a la misma entidad, porque en la especificidad del modo es cuando se confunden las cosas.
Con el fin de paliar la deplorable situación de la metodología científica mecanicista, en el primer tercio del siglo XX se gestó la teoría general de los sistemas, en un intento de lograr una metodología integradora para el tratamiento de los problemas provocados por los paradigmas mecanicistas y la hiperespecialización científica. Su meta no es buscar analogías entre las ciencias, sino más bien evitar la superficialidad científica que las ha estancado, proporcionando un nuevo paradigma científico que supere la perspectiva analítica típica del mecanicismo, insuficiente para la biología y otras especialidades entonces emergentes.
En las perspectivas holistas, que consideran el todo y las partes, las totalidades organizadas se encuentran en un nivel que supera a la mera suma de las partes. Se considera a los sistemas como compuestos de elementos pero con un matiz importante: que siempre se tiene en cuenta la interdependencia de los elementos en el todo.
Un sistema así concebido se entiende como un conjunto de elementos relacionados entre sí funcionalmente de modo que cada elemento es función de algún otro, no se dan los elementos aislados ni superfluos. Por eso, el sistema no resulta de la adición de los elementos como simples partes, pues cada elemento tiene una función que está coordinada con las funciones de los otros. La organización estructural desempeña así una función esencial.
El enfoque de la teoría general de los sistemas permite obtener una síntesis entre la perspectiva mecanicista típica de la ciencia clásica, de tipo analítico y centrada en los elementos componentes y en su agregación, y la perspectiva global y finalista, de tipo sintético, en la que las propiedades de conjunto desempeñan una función decisiva.
La perspectiva sistémica así entendida puede situarse metodológicamente si se utiliza como modelo, y, ontológicamente si además hace referencia a la articulación de la realidad que estudia.
Dado que las funciones adquieren un papel preponderante en esa teoría general, con ella resurge la noción de causa que da razón de las cosas mismas, puesto que hay que explicar para qué son las cosas que hay en el Universo. Así, mientras el mecanicismo se atiene a la causa eficiente y a una causalidad lineal, la perspectiva sistémica precisa la causa final y se atiene a la causalidad circular. Lo que nos conduce a la concepción y clasificación aristotélica que en síntesis dice así:
• La causa eficiente: el principio del cambio.
• La causa material: aquello de lo que algo surge o por lo que algo llega a ser.
• La causa formal: la idea o el paradigma.
• La causa final: el fin, la realidad hacia la cual algo tiende a ser.
Encuadrándolas en la perspectiva sistémica de la teoría general, la causa final (la realidad hacia la cual algo tiende a ser) se identifica con la función, tanto del sistema como la de cada uno de los elementos que actúan relacionados funcionalmente.
La causa material (aquello de lo que algo surge o por lo que algo llega a ser) se identifica con la estructura y la organización del sistema, es decir, sus elementos, las relaciones funcionales y sus efectos, las interacciones que se producen en el funcionamiento.
La causa eficiente (el principio del cambio) se identifica con los cambios en las condiciones estructurales, los elementos y la organización del sistema, puesto que es lo que modifica las relaciones que actúan en su funcionamiento.
Como es obvio, la identificación de esas causas y sus relaciones va a depender muy mucho de las causas formales, es decir, de las ideas, paradigmas o modelos que se tengan sobre ese sistema y su correspondencia con la articulación de la realidad, es decir, del desarrollo y la precisión de un modelo o teoría fundamental sobre ese sistema que contenga las pautas que lo configuran y gobiernan, que además permite planificar la metodología especifica, tanto para controlarlo como para investigarlo.
En definitiva, la complejidad y la heterogeneidad que supone el todo y las partes plantea la necesidad de nociones causales ontológicas, precisas y reconocibles como son las aristotélicas. También impone ir aceptando que en la génesis de muchos fenómenos subyace una causalidad plural, compleja y heterogénea como es la circular, que no es sencilla de manejar a las primeras de cambio cuando se está acostumbrado a la causalidad lineal típica del mecanicismo.
Queda claro que el fenómeno final y el funcionamiento de un sistema siempre es el efecto de las relaciones funcionales entre los elementos de su estructura y el modo en el que están organizados. Y que un cambio o insuficiencia en éstos conlleva un cambio o insuficiencia en las relaciones que a su vez modifican el funcionamiento y, por lo tanto, el fenómeno final.
Por otro lado, J. Stannard Baker (1), al referirse a las causas de los accidentes dice así:
"Para evitar situaciones cruciales que pueden conducir a daños o lesiones, será necesario que en los elementos de la trilogía carretera-hombre-vehículo se realicen determinadas operaciones [funcionales]. Las operaciones [funcionales] que fallan y conducen al accidente son factores operativos [causales] de dicho accidente."
Por lo tanto, en la noción holista y funcional en la que podemos distinguir lo que es y sucede en el tráfico y sus accidentes, no queda más que opción que atenernos a la teleología que exige la teoría general de los sistemas, es decir, a la noción de Aristóteles y los Escolásticos, explicar por causa final: por la realidad hacia la cual algo tiende a ser.
Así, y tal y como en tráfico entendemos a la velocidad, no es otra cosa que un parámetro que expresa una dimensión geométrica (en el contexto espacio-tiempo) del movimiento de traslación, que a su vez también indica el efecto del tamaño de ese movimiento: la distancia que se recorrerá en una unidad de tiempo.
Dado que el movimiento de traslación es el efecto propio del sistema de tráfico, la velocidad es un parámetro geométrico del fenómeno funcional de ese sistema, que se produce funcionando equilibradamente tanto dinámica como cinemáticamente. Pero en tráfico no cabe hablar de cinemática prescindiendo de las causas, puesto que la geometría del movimiento en este sistema es causada, es decir, que el fenómeno funcional es consustancial al equilibrio geométrico que, al igual que el dinámico, es causado de propósito porque es una pauta constante: una ley impuesta por la Naturaleza para que el sistema pueda funcionar.
Pero el valor de la velocidad no nos dice si tales equilibrios existen o no, porque un parámetro geométrico no indica relaciones absolutas, está condicionado por el sistema de referencia que se emplee. Por ello la velocidad en sí misma no indica otra cosa que el tamaño del movimiento de traslación y el efecto que producirá si se mantiene.
Ello se verifica en la vida cotidiana fácilmente. Por ejemplo, una caja que no cabe en el hueco de una estantería, ¿qué es lo incorrecto, la caja o el hueco? Si empleamos la caja como referencia será el hueco, pero también podemos hacerlo a la inversa. En realidad sólo podemos decir que existe una desadaptación geométrica, sus causas se encuentran en el fallo del sistema que pretendía colocar la caja sin saber si las condiciones de ambos elementos se adaptaban o no, esto es, sin verificar (o sin la capacidad de saber) si existía o no una relación funcional entre ambos.
Luego, cuando hablamos de la velocidad lo hacemos de la dimensión geométrica a la que se está produciendo el fenómeno funcional o en su caso el accidental, pero de nada más que de eso.
Dado que la estructura y la organización funcional del sistema son las que equilibran su funcionamiento. Es la incoherencia o fallo en esa estructura física y en su organización funcional en donde se encuentra la causa final, material y eficiente de un desequilibrio del movimiento o mal funcionamiento y el fenómeno físico accidental que se genera. Por lo tanto, un parámetro geométrico (las dimensiones de la caja) como es la velocidad, no puede ser causa final, material ni eficiente del mal funcionamiento o desequilibrio del movimiento en el que aparece el fenómeno accidental (la caja no cabe en el hueco de la estantería).
Y ello se verifica lógicamente porque el movimiento geométricamente desequilibrado o mal funcionamiento (que es lo que constituye la velocidad excesiva e inadecuada a las condiciones existentes), no puede ser causa final, material ni eficiente de sí mismo, del movimiento geométricamente desequilibrado o mal funcionamiento. Sino que sigue siendo una consecuencia de la acción conjunta de los elementos del sistema, de alguna incoherencia, fallo o deficiencia en la estructura y en la organización funcional, que altera las relaciones funcionales y los efectos de éstas, produciendo en este caso un fallo en la estimación de la velocidad de funcionamiento o tamaño del movimiento de traslación.
Aún queda más sólida la afirmación por el hecho de que es imposible disociar el fenómeno funcional del correcto funcionamiento del sistema, como también lo es separar el fenómeno accidental del mal funcionamiento. Y la disyunción es imposible material y lógicamente, porque el fenómeno funcional no es consecuencia o efecto del correcto funcionamiento, sino consustancial a él, porque no puede darse lo uno sin lo otro. Asimismo, el fenómeno accidental es consustancial al mal funcionamiento, porque un accidente no puede existir sin un desequilibrio del movimiento (geométrico y dinámico) o mal funcionamiento, que es siempre un consecuente lógico y un efecto material del fallo (causa final, material y eficiente) en las condiciones de la estructura y en la organización funcional del sistema.
Luego, es imposible establecer y, por tanto, sostener, una relación de causa-efecto entre la velocidad y los accidentes, ni en sentido general ni en particular, porque entre la causa y el efecto, la velocidad, es simplemente la dimensión geométrica del cambio o movimiento.
La relación causa-efecto existe en todos los sentidos entre la configuración funcional del sistema y la velocidad de su funcionamiento. Si fallan las relaciones funcionales al establecer la velocidad de funcionamiento que permiten las condiciones de la estructura en ese momento, el funcionamiento será incorrecto porque está desequilibrado. Momento en el que pueden generarse fenómenos accidentales en un último proceso de claros rasgos estocásticos, del que habría que hablar más detenidamente.
Por lo tanto, si existen correlaciones estadísticas respecto a la velocidad y la accidentalidad, lo único que cabe concluir es que: o bien la velocidad de funcionamiento (el tamaño del movimiento) no es la que soportan las condiciones de configuración del sistema para mantenerlo equilibrado; o, que esas condiciones no son suficientes para mantener equilibrado el tamaño del movimiento (la velocidad de funcionamiento) con el que se hace funcionar el sistema.
Si surge la tentación de afirmar que los usuarios son los que fallan al estimar o decidir la velocidad de funcionamiento para las condiciones de configuración, reafirmamos que materialmente sólo ellos pueden fallar. Sin embargo, cuestión bien distinta es que sean los causantes finales y eficientes del fallo, porque pueden no serlo en absoluto. Este asunto, al igual que el anterior, requiere un examen más detenido y extenso del que podemos dedicar en estas paginas.
Suponer una relación causal entre la velocidad y los accidentes, es un desorden lógico (de los tantos que existen en cuestiones de tráfico) que impide percibir la realidad, y en consecuencia, dirigir los esfuerzos hacia las verdaderas causas de los terribles accidentes de tráfico.
O avanzamos en investigación teórica, o es imposible avanzar en la funcionalidad y la seguridad del tráfico viario, porque sin teoría es difícil (por no decir imposible) conformar la metodología para conseguirlo. Las ideas que no contemplan la realidad del sistema (las pautas que la Naturaleza impone en su configuración y funcionamiento), no hacen más que crear y mantener disfunciones, y con ello, el nivel de fallos en su funcionamiento cotidiano.
Pero, dado que la investigación teórica depende en gran parte de la reflexión y la observación de la realidad (del hombre, el Universo y las cosas que contiene), por el momento lo tenemos crudo, porque esa actividad no está muy moda que digamos.
“…lo-que-es, es, y, lo-que-no-es, no es, eso es la verdad.” (Aristóteles).
Notas.
1. "Traffic Accident Investigator's Manual for Police". J. Stannard Baker, The Traffic Institute, Northwestern University, Evanston, Illinois. 1957. Edición al español, Dirección General de la Jefatura Central de Tráfico. Madrid. 1970.
2. "Validez del calculo de velocidad por deformaciones". Víctor Irureta. Seguridad Vial, www.seguridad-vial.com. 2002.
12 mayo 2007
Los Ayuntamientos y la seguridad vial
Pese a que muchos siguen pronunciándose rotundamente sobre las causas de la siniestralidad viaria con creencias y suposiciones, sin reparar en la poca consistencia de sus afirmaciones, porque esas causas aún no se han investigado como hay que hacerlo para saberlas con acierto, los hechos también siguen mostrando cuál es la realidad viaria. Porque la realidad es tozuda y se muestra como es, por muchos que sean los que se empeñen en afirmar otra cosa.
Cuando se repiten y concentran fenómenos físicos violentos (accidentes y víctimas) en un punto o tramo viario (punto negro), es porque sus causas finales son defectos en las condiciones de los elementos artificiales estáticos, o sea, fallos en las condiciones de la vía, en su entorno, en los objetos que se instalan en ella, en la señalización, en el balizamiento, en el alumbrado, en las normas de circulación, etc.
Claro, que a la mayoría de las personas les es difícil explicar coherentemente cómo provoca accidentes de tráfico una norma mal redactada; un semáforo oculto, mal regulado o mal ubicado; una señal oculta, mal diseñada, mal colocada o incoherente; una marca vial tardía o imperceptible; la falta de balizamiento o su mala ubicación; una recta, cruce, curva o rotonda mal diseñada o mal conservada; una señalización informativa ineficaz, inexistente o tardía; o los objetos que se instalan en las vías, tales como árboles, buzones, carteles publicitarios, papeleras, contenedores y muchas más cosas. Pero, para eso estamos los accidentólogos. Y si bien es cierto que en España jamás hemos tenido tantos expertos en accidentología como hay ahora, también es cierto que jamás hemos tenido a tanta gente que no ha investigado un accidente en su vida dando clases y otorgando títulos de experto en accidentología, sin rubores ni complejos.
La verdad es que somos muy pocos los que sabemos algo de esto, y en general no se atiende mucho a nuestras indicaciones, se atiende mucho más a los pseudo-científicos, que, con sus estudios alquímicos, generalmente basados en presunciones y procedimientos que no pasan una mínima crítica metodológica, plantean soluciones filosófales, tales como reeducar a los 6 000 millones de habitantes de este planeta, para que nos adaptemos a no sabemos qué, pues no definen nada con claridad y coherencia; o haciendo rocambolescas operaciones estadísticas por las cuales se afirma que por cada km/h que se reduzca la velocidad se salvarán miles de vidas, aunque no se de ni se halle explicación física coherente que echarse a la boca y sea digerible por las neuronas.
No se imaginan la cantidad de estudios que hay acerca de la percepción del riesgo por parte de los usuarios, pero, sin definir lo que es riesgo en el sistema viario; y claro, si sus autores ya no saben definir de qué estamos hablando cuando se refieren al riesgo viario, difícilmente van a poder explicarnos cómo lo perciben los usuarios.
Más peor aún, lo que es físicamente la seguridad viaria estaba sin definir hasta que un servidor, tras varios ensayos, escribió una definición física de "Lo que es riesgo y seguridad en el sistema viario" (1). Sin embargo, en este mundo hay hasta catedráticos de seguridad vial sin definir en qué consiste físicamente la materia de su cátedra, ni cuál es el modo de materializar lo que es físicamente la seguridad viaria, porque, claro, es imposible hacerlo si antes no se sabe y se define físicamente lo que es eso.
Pero sigamos con lo indicado en el título. Los hechos muestran descaradamente que el 80% de los muertos de las carreteras de España se producen en la red secundaria y en la red local, es decir, que cuando los fenómenos físicos violentos (accidentes y muertos), se repiten y concentran en la red secundaria y local, pese a que soportan mucho menos tráfico y a menos velocidad que la red principal, es que los fallos que los producen se encuentran principalmente en las condiciones de los elementos artificiales estáticos de la red secundaria y local, o sea, fallos en las condiciones de la vía, en su entorno, en los objetos que se instalan en ella, en la señalización, en el balizamiento, en el alumbrado, en las normas de circulación, etc. Fallos que hay que detectar y explicar metro a metro para poder solucionarlos, mejorando la seguridad aprovechando los recursos e inversiones que dispone la Sociedad para poder hacerlo; porque eso, aumentar la seguridad, es lo que realmente hace disminuir los accidentes, las víctimas y su gravedad.
Todo eso es en carreteras, pero la siniestralidad urbana es la gran desconocida en España. Los datos que se pueden ver en las memorias de las policías locales de una provincia, sobrepasan las cifras de la siniestralidad urbana en los registros de la DGT sobre esa misma provincia, indicando que la realidad urbana puede ser más de diez veces superior a los datos que le llegan a la DGT, en coherencia con los registros de las aseguradoras.
Si la responsabilidad de la seguridad de la red secundaria se reparte entre el Estado, las Comunidades Autónomas y las Diputaciones Provinciales, los Ayuntamientos ostentan en exclusiva la responsabilidad y la obligación de actuar sobre la seguridad de la red local de carreteras y caminos, y de las calles, plazas y avenidas.
Y que los elementos artificiales estáticos, la vía, su entorno, los objetos que se instalan en ella, la señalización, el balizamiento, el alumbrado, etc., actúan de modo determinante sobre la seguridad y la siniestralidad del movimiento de los peatones y vehículos (elementos dinámicos), es un hecho que no entra en el ámbito de lo que es científicamente opinable en materia de accidentología y seguridad vial. Claro, que, ¿acaso importa?
1. Galardonado con el Premio Nacional AIPCR 2007 Construcción, mantenimiento y explotación de carreteras, a la excelencia profesional en los campos científico y técnico.
Cuando se repiten y concentran fenómenos físicos violentos (accidentes y víctimas) en un punto o tramo viario (punto negro), es porque sus causas finales son defectos en las condiciones de los elementos artificiales estáticos, o sea, fallos en las condiciones de la vía, en su entorno, en los objetos que se instalan en ella, en la señalización, en el balizamiento, en el alumbrado, en las normas de circulación, etc.
Claro, que a la mayoría de las personas les es difícil explicar coherentemente cómo provoca accidentes de tráfico una norma mal redactada; un semáforo oculto, mal regulado o mal ubicado; una señal oculta, mal diseñada, mal colocada o incoherente; una marca vial tardía o imperceptible; la falta de balizamiento o su mala ubicación; una recta, cruce, curva o rotonda mal diseñada o mal conservada; una señalización informativa ineficaz, inexistente o tardía; o los objetos que se instalan en las vías, tales como árboles, buzones, carteles publicitarios, papeleras, contenedores y muchas más cosas. Pero, para eso estamos los accidentólogos. Y si bien es cierto que en España jamás hemos tenido tantos expertos en accidentología como hay ahora, también es cierto que jamás hemos tenido a tanta gente que no ha investigado un accidente en su vida dando clases y otorgando títulos de experto en accidentología, sin rubores ni complejos.
La verdad es que somos muy pocos los que sabemos algo de esto, y en general no se atiende mucho a nuestras indicaciones, se atiende mucho más a los pseudo-científicos, que, con sus estudios alquímicos, generalmente basados en presunciones y procedimientos que no pasan una mínima crítica metodológica, plantean soluciones filosófales, tales como reeducar a los 6 000 millones de habitantes de este planeta, para que nos adaptemos a no sabemos qué, pues no definen nada con claridad y coherencia; o haciendo rocambolescas operaciones estadísticas por las cuales se afirma que por cada km/h que se reduzca la velocidad se salvarán miles de vidas, aunque no se de ni se halle explicación física coherente que echarse a la boca y sea digerible por las neuronas.
No se imaginan la cantidad de estudios que hay acerca de la percepción del riesgo por parte de los usuarios, pero, sin definir lo que es riesgo en el sistema viario; y claro, si sus autores ya no saben definir de qué estamos hablando cuando se refieren al riesgo viario, difícilmente van a poder explicarnos cómo lo perciben los usuarios.
Más peor aún, lo que es físicamente la seguridad viaria estaba sin definir hasta que un servidor, tras varios ensayos, escribió una definición física de "Lo que es riesgo y seguridad en el sistema viario" (1). Sin embargo, en este mundo hay hasta catedráticos de seguridad vial sin definir en qué consiste físicamente la materia de su cátedra, ni cuál es el modo de materializar lo que es físicamente la seguridad viaria, porque, claro, es imposible hacerlo si antes no se sabe y se define físicamente lo que es eso.
Pero sigamos con lo indicado en el título. Los hechos muestran descaradamente que el 80% de los muertos de las carreteras de España se producen en la red secundaria y en la red local, es decir, que cuando los fenómenos físicos violentos (accidentes y muertos), se repiten y concentran en la red secundaria y local, pese a que soportan mucho menos tráfico y a menos velocidad que la red principal, es que los fallos que los producen se encuentran principalmente en las condiciones de los elementos artificiales estáticos de la red secundaria y local, o sea, fallos en las condiciones de la vía, en su entorno, en los objetos que se instalan en ella, en la señalización, en el balizamiento, en el alumbrado, en las normas de circulación, etc. Fallos que hay que detectar y explicar metro a metro para poder solucionarlos, mejorando la seguridad aprovechando los recursos e inversiones que dispone la Sociedad para poder hacerlo; porque eso, aumentar la seguridad, es lo que realmente hace disminuir los accidentes, las víctimas y su gravedad.
Todo eso es en carreteras, pero la siniestralidad urbana es la gran desconocida en España. Los datos que se pueden ver en las memorias de las policías locales de una provincia, sobrepasan las cifras de la siniestralidad urbana en los registros de la DGT sobre esa misma provincia, indicando que la realidad urbana puede ser más de diez veces superior a los datos que le llegan a la DGT, en coherencia con los registros de las aseguradoras.
Si la responsabilidad de la seguridad de la red secundaria se reparte entre el Estado, las Comunidades Autónomas y las Diputaciones Provinciales, los Ayuntamientos ostentan en exclusiva la responsabilidad y la obligación de actuar sobre la seguridad de la red local de carreteras y caminos, y de las calles, plazas y avenidas.
Y que los elementos artificiales estáticos, la vía, su entorno, los objetos que se instalan en ella, la señalización, el balizamiento, el alumbrado, etc., actúan de modo determinante sobre la seguridad y la siniestralidad del movimiento de los peatones y vehículos (elementos dinámicos), es un hecho que no entra en el ámbito de lo que es científicamente opinable en materia de accidentología y seguridad vial. Claro, que, ¿acaso importa?
1. Galardonado con el Premio Nacional AIPCR 2007 Construcción, mantenimiento y explotación de carreteras, a la excelencia profesional en los campos científico y técnico.
Suscribirse a:
Entradas (Atom)