Antonio Cabrales.Nada es Gratis.25/07/2011.Cambridge parece superficialmente un lugar pacífico. Pero el otro día yendo a la facultad me fijé en un letrero que decía neighborhood watch. Como sabía por el tiempo que viví en La Jolla esto no es buena noticia, así que me fui a las estadísticas y comprobé que de hecho Cambridge tiene una tasa de criminalidad algo superior a la media del Reino Unido. Pero, ¿qué es el “neighborhood watch”? Pues un programa en el que los vecinos, organizados por un “capitán de manzana” o “coordinador de calle,” que centraliza la información y se la envía a la policía, se comprometen a informar cuando sospechan de alguien que pueda estar realizando, o dispuesto a realizar, una actividad criminal en un barrio. Hoy les hablaré un poco del programa y de por qué no siempre es efectivo.
Es evidente que este tipo de actividad debe haber existido desde tiempos inmemoriales. Pero el origen histórico de este programa en su versión actual (con cartelitos en medio de la calle y demás parafernalia) se debe al escándalo causado por la violación y asesinato de Kitty Genovese en Nueva York en los años 60 del siglo pasado. Aparentemente un buen número de vecinos habían visto lo que pasaba y no solamente no intentaron impedirlo sino que ni tan sólo llamaron a la policía (en realidad la historia es bastante más compleja, y merece que hablemos de ellas en más detalle otro día). Pronto se formaron grupos de vecinos con el objetivo de vigilar los barrios y denunciar actividades sospechosas, y el movimiento se fue extendiendo por el país, y como puede verse por mi ejemplo incluso fuera de él.
Y, ¿qué efecto ha tenido? Pues un artículo del Journal of Experimental Criminology realiza un meta-análisis de la literatura sobre el programa, y concluye que, en general, los estudios que han analizado el programa han encontrado efectos positivos. Lo que quizá resulte más sorprendente es el hecho de que sea “en general” en lugar de “universalmente”. Vamos a repasar primero un poco la evidencia, y después analizaremos qué puede estar impidiendo un mayor efecto de la misma. Los investigadores encontraron 137 artículos relacionados, pero alrededor de 100 no eran elegibles para el meta-análisis (por ejemplo, 60 eran puramente descriptivos y 27 no tenía un grupo de control para comparar). De lo 30 elegibles había algunas repeticiones, por lo que quedaron 18 estudios que evaluaban 36 programas diferentes. Como se puede ver en el resumen descriptivo de los estudios en la tabla 1, hay muchos estudios que presentan efectos positivos, pero alguno presenta resultados negativos, y muchos de ellos tienen resultados inciertos.
No todos los estudios valen para el meta-análisis porque no reproducen un resultado cuantitativo que se pueda usar, pero hay 18 en los que sí se puede hacer. De todas formas, para interpretar el resultado final hay que tener en cuenta que como puede verse en la tabla, los estudios que pueden entrar en el meta-análisis contienen una proporción mayor (y estadísticamente significativa) de aquéllos que presentan resultados positivos.
El meta-análisis compara y agrega los odds ratios de los distintos estudios, como puede verse en la figura 2. El odds ratio para cada estudio es el ratio de las tasas de variación entre los índices de criminalidad antes y después de la intervención en la zona tratada frente a la zona de control. La agregación es difícil porque los estudios tienen distintos tamaños y variabilidades. Las últimas líneas del gráfico señalan los resultados para el método de efectos fijos (FEOR), el de efectos aleatorios (REOR), así como el de ajuste multiplicativo de varianza (MVAOR). Aunque los resultados no son idénticos para todos los métodos, parecen indicar un efecto positivo de entre un 19 y un 36 por ciento de reducción del crimen.
Pero aunque parece que hay un efecto positivo en general, a mí me queda la duda de por qué no es más claro el efecto. Al fin y al cabo hay muchos estudios que presentan efectos negativos o no significativos. Para explicarlo una posibilidad es usar el modelo de Bandyopadhyay y Chatterjee, quienes muestran que si los ciudadanos tienen señales equivocadas (o peor, sesgadas contra ciertos grupos de personas), van a denunciar en exceso a la policía, que perderá el tiempo examinando falsas denuncias y esto hace más fácil cometer crímenes mientras la policía investiga las falsas alarmas. Esto sugiera que aunque el programa parece útil, su introducción debe hacerse con precaución.
Otra razón por la que la explicación de Bandyopadhyay y Chatterjee es interesante es que aunque en España no existe este tipo de programas, tenemos algo que puede generar efectos parecidos, las alarmas de compañías privadas de seguridad. Y esto me lleva a preguntarme si la proliferación de estos sistemas de seguridad no puede estar haciendo subir el crimen en nuestro país. Como de costumbre, la conclusión es que probablemente necesitamos más investigación.