Lurralde :inv. espac.

N. 5 (1982)

p. 409-471

ISSN 1697-3070

ELEMENTOS DE METODOLOGÍA DESCRIPTIVA

PARA EL ANÁLISIS ESPACIAL

 

Constancio DE CASTRO AGUIRRE

Universidad Publica de Navarra

Pamplona

INTRODUCCIÓN

Esta breve iniciación en Metodología Cuantitativa va dirigida a quienes de alguna manera sienten la necesidad de equiparse adecuadamente frente a la tarea de analizar datos. El geógrafo moderno está encarando una nueva situación de la disciplina. Algunas publicaciones locales sobre temas urbanos (1) han puesto en evidencia la necesidad de afrontar el análisis de datos en síntesis inteligibles y rigurosas. Por ejemplo. una elemental familiarización con los temas sobre lugares centrales requiere del geógrafo actual un dominio firme sobre la confección de indicadores estadísticos. y un conocimiento más profundo de los alcances de la teoría le estará vedado mientras no se sumerja en el manejo de modelos temáticos más complejos (2)). Podríamos ir aduciendo uno tras otro distintos campos de estudios. la utilización del suelo agrícola e industrial. la localización de servicios y áreas tributarias. las infraestructuras de comunicación. los desplazamientos migratorios. el tráfico de mercancías. la marcha cotidiana al lugar de trabajo. el esquema cognitivo de la ciudad.. .Todos estos temas de acuciante interés para un geógrafo de nuestros días hacen impostergable una formación en Metodología Cuantitativa.

Queremos sin embargo preciar desde las primeras líneas nuestro enfoque con respecto a lo que se viene llamando técnicas o métodos cuantitativos indistintamente (3).

No entra en nuestra intención aportar un libro más de Estadística al acervo de los ya existentes. Entendemos que el estudiante e investigador incipiente requiere dos niveles de conocimiento en estas materias de soporte. Uno es el nivel instrumental de dominio sobre las técnicas analíticas; este nivel en el que se alcanza en cursos de Estadística o Matemáticas aplicadas a las Ciencias Sociales. En Sociología. Ciencias Políticas. Ciencias de la Información y ahora en Geografía son habituales este tipo de cursos. Pero hay un segundo nivel cuya necesidad se viene notando en la medida en que proliferan los cursos mencionados con sus respectivos manuales. Este sería un nivel en el que se profundiza en el entramado lógico que subyace a las técnicas e instrumentos analíticos. En este nivel el estudiante aprende a ser crítico y creativo; en virtud de tal persigue infatigablemente un sentido e interpretación a las manipulaciones numéricas : Es decir no confecciona tablas ni elabora cálculos por cubrir una apariencia de prestigio científico sino que busca rigor y precisión en sus afirmaciones. Podría descender al terreno de los ejemplos y mostrar que cuanto estoy diciendo no es gratuito. Este nivel es el que yo llamo propiamente metodológico; abre un camino. introduce en el «saber hacer» del trabajo científico. Rebasa por tanto el nivel que hemos llamado instrumental y que consiste en un dominio de técnicas de manejo numérico. que son por sí mismas ciegas. en cuanto a su valor representativo.

Posiblemente a un matemático le llamen la atención estas distinciones de nivel porque en su leal saber piensa que no existe sino un modo de entender la matemática. El sabe que familiarizarse con la matemática es habitar un mundo de formas abstractas. El hecho de que estas formas representen algo fuera de sí mismas. es decir se constituyan en modelos del mundo empírico. no pertenece propiamente al espíritu matemático. Los que nos cobijamos bajo la etiqueta un poco pretenciosa de científicos sociales no podemos esperar que vengan los matemáticos a alertarnos del uso indebido que hacemos de las manipulaciones numéricas. Nos corresponde a nosotros mismos esta autocrítica. Por todas estas razones. abrigamos la idea de ofrecer una auténtica iniciación en Metodología Cuantitativa.

No obstante todo lo dicho, tampoco podemos prescindir de la exposición de ciertas técnicas que son del dominio común en los manuales. Sin embargo, cuando aludimos a una técnica numérica, buscamos la brevedad de la fórmula y tratamos de exponer el sentido lógico de la misma, mostrando su trascendencia al ámbito de las observaciones empíricas. De paso, una advertencia al lector con respecto al uso de fórmulas estadísticas. A poco trato que se tenga con los manuales al uso, se notará una terca reincidencia en la exposición de fórmulas simplificadoras del cálculo. Un ejemplo, citado en todos los manuales, es el de los procedimientos diversos para abreviar el cálculo del promedio aritmético. Nos extraña sobremanera este hecho, ya que si hay algo notorio en ello, es su manifiesta inutilidad frente a las calculadoras de bolsillo modernas. Tales fórmulas no eran sino un andamiaje para facilitar los cálculos, cuando estos eran hechos a mano. Como todo andamiaje, ocultan la verdadera fachada de las fórmulas, originales y simples.

El sentido lógico que propugnamos en esta iniciación Metodológica, se hace más visible justamente, en las fórmulas originarias. De ahí pues, nuestro intencionado silencio con respecto a la mayoría de fórmulas, de las que hacen gala los manuales.

Tratándose de un libro dedicado a los geógrafos, algo peculiar debe señalarse en esta Metodología Cuantitativa que la distingue de los libros orientados a otras parcelas del conocimiento social. Lo distintivo de la Geografía, lo que confiere al análisis geográfico personalidad propia e inconfundible es la localización. Pero la localización en sí misma adquiere dos tratamientos totalmente diversos; en unos casos es tratada como variable y en otros casos como constante. Es muy corriente, por ejemplo, que el geógrafo reúna masas de datos, series estadísticas abundantes referentes a un lugar, sea este una ciudad, una región o un país. La condición de lugar es en esos casos, una condición constante; se considera variable la observación afectada por la masa de datos o series estadísticas, por ejemplo temperaturas, volúmenes de precipitación, tasas de ocupación laboral, kilómetros de carretera asfaltada, cabezas de ganados, etc. Puede darse evidentemente la comparación entre dos ciudades, dos regiones o dos países, pero el valor cuantitativo de localización queda preferido. De la misma manera, pueden ser más de dos los lugares a considerar. Siempre que la localización no sea tomada como variable, los datos resultantes serán datos que denominaremos volumétricos y las distribuciones numéricas reciben el tratamiento estadístico convencional: se fijan parámetros de posición, parámetros de dispersión, coeficientes de regresión, etc.

Cuando la localización entra, ella misma, en el juego de una variable, nos enfrentamos a un caso totalmente distinto. Los datos resultantes en este caso pueden ser de varios tipos; unas veces se trata de datos propiamente ubicativos y otras veces de datos de superficie o densidad; habría que añadir a éstos los datos de conexión, tales como los que se estudian en las redes de transporte. El instrumento por excelencia que puede guiarnos y adentrarnos al estudio de la localización como variable es el mapa. En el mapa encontramos unas veces la representación de los datos ubicativos; la distribución resultante puede conducirnos a la determinación de centros de gravedad ya técnicas espaciales tales como el análisis de la vecindad más próxima. Otras veces encontraremos en el mapa representaciones de coropletas o isopletas según sea que tratemos con distribuciones de áreas en forma discreta o continua. Lo mismo cabe decir de las líneas que representan el trazado del ferrocarril o la carretera, indicándonos la conexión entre localidades diversas. Más adelante trataremos los aspectos específicos del mapa como fuente de datos de medida espacial.

La investigación geográfica afronta la consideración de toda la gama de datos, de que venimos hablando: datos volumétricos, datos ubicativos, datos de áreas, datos de conexión. En realidad pensamos que el estatus de datos no viene dado gratuitamente por la observación; es más bien el investigador quien confiere a sus observaciones, un status de dato, según sea la perspectiva del modelo y nivel de medida en que se coloque. Es así como puede considerarse el dato geográfico fruto de un enfoque metodológico, en donde incurre con innegable poderío el modelo de análisis. El modelo de análisis que está subyaciendo a una representación cartográfica es un modelo geométrico a base de puntos, líneas, superficies y volúmenes. Los puntos le sirven al geógrafo para representar la localización; las líneas le sirven para propósitos diversos:

para definir límites territoriales, para representar diferencias de intervalo en observaciones cuantificadas (líneas de isocontornos) y para representar movimientos y flujos; en las superficies encaja el geógrafo, la dispersión o concentración de los fenómenos. Los volúmenes representan la tercera dimensión; mediante ella el geógrafo, manteniendo constante la referencia espacial, desarrolla la distribución numérica de los fenómenos. Por ende, todas las observaciones acerca de población, actividad humana, económica y cultural reciben la investidura de dato volumétrico; es decir, la distribución, el análisis y confección consiguiente, de indicadores sobre estos fenómenos, vienen a quedar representados en esta tercera dimensión del modelo que justifica la denominación de dato volumétrico.

En este corto Manual de Metodología Cuantitativa queremos presentar al geógrafo, una incursión en los datos volumétricos, datos ubicativos y datos de superficie. No entramos en los datos de conexión por las siguientes razones. El sustrato matemático sobre el cual se estudia la conectividad geográfica es de carácter topológico, concretamente la Teoría de Grafos. Esto involucra un dominio de conocimientos instrumentales radicalmente distinto del que se requiere para el análisis de los otros tipos de datos. El objetivo que nos estamos imponiendo consistirá en escudriñar en la entraña conceptual y metodológica del tipo de dato y en ir mostrando el esquema lógico, bajo el cual el geógrafo puede hacer uso de los instrumentos analíticos que puede dotarle el aprendizaje matemático y estadístico convencional.

PARTE I: DISTRIBUCIONES NUMÉRICAS. DATOS VOLUMÉTRICOS.

CAPÍTULO 1

MASAS DE DATOS. NECESIDAD DE INDICADORES.

El geógrafo se ha enfrentado siempre con masas de datos. Ya sea una serie de valores numéricos sobre precipitaciones. sobre temperaturas, sobre movimientos migratorios o sobre número de establecimientos comerciales en una determinada actividad, las masas de datos parecen perseguirlo por doquier. Frente a esta exuberancia de información creemos que pocas veces saca todo el partido que debiera. La ciencia siempre ha rehuido la confusión y parece incuestionable que las masas de datos tienden a confundir. El geógrafo como cualquier científico necesita reducir la variabilidad a un esquema manejable. Por supuesto que en esta tarea de reducción el científico se va alejando de la realidad y ahí radica uno de los problemas del quehacer científico. El hombre de ciencia deberá vigilar atentamente su trabajo, fiscalizarlo sin compasión para no ofrecer unos resultados deformes en pugna con la realidad. Un instrumento que ha dotado a las ciencias de observación de la disciplina adecuada es la Estadística. Por supuesto que quien la utiliza no está inmunizado de utilizarla mal; pero siempre ofrecerá una plataforma de objetividad susceptible de una confrontación permanente.

La reducción de la masa de datos se lleva a cabo mediante la confección de indicadores. Un indicador representa a toda la masa de datos; por eso mismo es imperativo conocer como se obtiene y cuales son sus limitaciones. Entre indicadores que han obtenido divulgación figuran por ejemplo, la renta per cápita y la densidad de población. La renta per cápita consiste en una cifra que trata de representar los ingresos económicos de toda una comunidad; como tal ha sido objeto de muchas críticas. Evidentemente es fácil mostrar la discrepancia de la renta per cápita con los ingresos que obtienen determinados individuos. La densidad de población es otro indicador obtenido de la misma forma que la renta per cápita; sin embargo no hemos observado entre los geógrafos la misma conciencia crítica que ante la renta per cápita. Creemos que un buen dominio de ciertos conceptos estadísticos le dará al geógrafo una capacidad técnica para confeccionar indicadores y una actitud crítica para alertarlo sobre algunos usos indiscriminados de los mismos.

La primera noción que debe manejarse ante una masa de datos es la diferencia conceptual entre elemento y variable. Elementos son todas aquellas unidades de observación; pueden ser personas, animales u objetos inanimados dependiendo de la naturaleza de la investigación. Si se trata de conocer los salarios de los trabajadores de una localidad rural, las unidades de observación las constituyen los trabajadores; si se trata de conocer los pesos del ganado en un mercado rural, las unidades de observación las constituyen las cabezas de ganado; si se trata de inventariar el número de establecimientos comerciales en un conjunto de localidades las unidades de observación vienen dadas por dichas localidades. El concepto de variable se refiere a una característica de los elementos y consiste en la magnitud con que dicha característica es observada. Así por ejemplo, la cuantía del salario percibido, el peso del ganado y el número de establecimientos constituyen variables. En cada variable se reunirán tantos valores como elementos, teniendo cada valor correspondencia estricta con un elemento. A veces la variable se determina mediante la apreciación de una cualidad en el elemento de observación; por ejemplo, raza del ganado para el caso antes mencionado de las cabezas de ganado. En estos casos la variable no está definida cuantitativa, sino cualitativamente, como mera presencia o ausencia del rasgo en cuestión.

En ocasiones sucede que no es fácil discernir entre elemento y variable; nos referimos al hecho de identificar en la práctica cual es cual. Los datos del geógrafo a veces se presentan en una dimensión temporal, manteniendo constante el lugar; a veces la dimensión temporal deja de tener interés y se toman los datos en una dimensión espacial. Por ejemplo, en el caso de los establecimientos comerciales, ¿qué pasa si en vez de considerar varias localidades tomamos en cuenta solamente una y observamos el censo de establecimientos en la misma durante un período de diez años? .¿Cuáles constituyen las unidades de observación y cuál sería la característica o variable que se imputa a esas unidades? Antes de que el lector conteste a la pregunta vea la semejanza con otra situación. Imagine que tiene la serie de precipitaciones anuales del mismo lugar y a lo largo del mismo período. Para contestar a la pregunta quizás le sea útil tomar como criterio qué es lo que varía en ambos ejemplos. El lugar es el mismo y el período de observación también. En un caso se toma el número de establecimientos y en el otro el volumen de precipitaciones. Está claro que estas constituyen las variables que caracterizan cada situación. Ahora bien, cada variable consiste en un conjunto de valores: el conjunto de diez valores de precipitación anual y el conjunto definido por el número de establecimientos censados anualmente durante los diez años. ¿Cuál es según esto la unidad de observación a la que corresponde cada valor anotado? No puede ser otra que el año de observación. Por consiguiente a los mismos elementos pueden asignárseles variables distintas. Esta consideración es decisiva para el estudio de densidades, índices per cápita, correlaciones, etc... que serán estudiadas más adelante. La falta de nitidez en esta diferenciación conceptual ha conducido a nuestro modo de ver a las siguientes aseveraciones que encontramos en Estébanez & Bradshaw (3, Pág..392) «... en las distribuciones espaciales, la clase es una porción de la superficie terrestre y la frecuencia de clase es el número de unidades de población contenidas en esa porción de la superficie terrestre; por ejemplo, un mapa de densidades puede considerarse como una distribución de frecuencias espaciales». Sugerimos al lector que evalúe estas afirmaciones con la información que irá adquiriendo en próximos capítulos, especialmente en los capítulos 2 y 8.

La diferencia conceptual entre elemento y variable es básica para la confección de indicadores. El indicador siempre está dado en los términos de la variable; no es sino un valor hipotético asignable a los elementos bajo algún supuesto. Existen dos tipos de indicadores, los cuales se complementan entre si: los indicadores de posición central y los de dispersión. Los Indicadores de posición central tratan de representar la masa de datos sobre una hipótesis de uniformidad. Como esta hipótesis puede estar muy lejos de la realidad conviene a su vez adquirir una idea de la discrepancia. Vienen entonces al caso los indicadores de dispersión, los cuales tratan de representar la variabilidad real de la masa de datos. Tomemos como ejemplo las variables siguientes de la Tabla I.

 

Provincias Superficie labrada (miles Ha) Número cabezas bovino
Albacete 779,5 5.8850
Badajoz 2.056,3 141.928
Burgos 661,6 113.905
C. Real 1.005,3 59.334
Córdoba 726,2 85.287
Cuenca 770,0 7.739
Jaén 684,8 32.460
Sevilla 826,6 149.607
Toledo 932,2 91.382
Zaragoza 882,9 43.839

TABLA I

Fuente: Anuario económico y social 1975

Hemos seleccionado las diez provincias españolas con mayor cantidad de superficie labrada (primera variable). Tomamos en consideración además el número de cabezas de ganado bovino (segunda variable). Ante una rápida inspección puede apreciarse que las cifras varían bastante dentro de cada variable. Si quisiéramos tomar una sola cifra como representativa, ¿cuál escogeríamos? .Este es el problema que resuelven los indicadores de posición central, concretamente el promedio aritmético. La validez representativa de este indicador es tanto mayor cuanto más sentido tenga la hipótesis de uniformidad.

Si sumamos los valores en cada variable y dividimos la suma por el número de provincias tendremos el promedio buscado. En símbolos esto se expresa del modo siguiente. Sea N el número de elementos, en nuestro caso provincias, sujetos a observación. La variable la designamos por la letra X. La suma de los valores de la variable se indica mediante el símbolo de sumatoria que es una sigma griega. Tendremos, por consiguiente, expresado en símbolos

(I)   

el conjunto de operaciones que da lugar al promedio aritmético, el cual se designa mediante la letra indicativa de la variable con una barra superpuesta, o sea, . Si queremos una mayor precisión en los símbolos debemos hacer uso de sub índices. Así, por ejemplo, el desarrollo de la suma indicada mediante ΣX sería:

X1+X2+........+XN

Los subíndices identifican a cada uno de los N elementos o provincias. Por consiguiente la fórmula (1) podemos escribirla:

(II)     

~

en donde el subíndice «i» denota que cada entero positivo desde 1 hasta N identifica a los elementos en la forma que se haya convenido. Siguiendo con nuestro ejemplo, en donde N =10, a Albacete le corresponde 1, a Badajoz 2, a Burgos 3 y así sucesivamente.

Los promedios obtenidos para nuestras dos variables son: Superficie labrada: 926,5 Cabezas bovino: 73.136,1

Ahora bien, cual es el valor representativo de estas cifras. En otras palabras, cuanto se apartan las cifras reales de este promedio. Viene en nuestro auxilio un segundo indicador. esta vez de dispersión. El indicador buscado no es otro que la desviación típica. Su fórmula es como sigue:

(III)

De acuerdo con esta fórmula 1) se calculan las diferencias de cada valor con respecto al promedio, 2) se elevan al cuadrado esas diferencias, 3) se suman, 4) se divide la suma por N y 5) se obtiene la raíz cuadrada.

Quizá le llame la atención al lector la operación de elevar al cuadrado y después la de obtener una raíz cuadrada. La razón es la siguiente. Si no se elevan al cuadrado las diferencias con relación al promedio el resultado de la suma será siempre cero. Es decir, unas son diferencias positivas y otras negativas y en conjunto vienen a anularse unas con otras. La raíz cuadrada convierte al indicador de dispersión a las unidades originarias en que está la variable. Las desviaciones típicas que corresponden a nuestras series son:

Superficie labrada: 388,45

Cabezas bovino: 49.130,00

Para tener una idea comparativa de la dispersión en ambas variables es bueno obtener el coeficiente de variación. es decir. la cuantía de desviación que corresponde a cada unidad del promedio; esta cifra multiplicada por cien nos da los siguientes resultados :

Superficie labrada

(A) promedio. 926.5

(b) desviación: 388.45

(c) coef. Var.: b/a x 100=42%

Cabezas bovino

(a) promedio: 73.136,1

(b) desviación: 49.130

(c) coef. var.: b/axI00=67%

Puede apreciarse a través de estas cifras que la variabilidad es mayor en las cabezas de bovino. lo cual significa que el indicador de posición. o sea el promedio aritmético. es menos representativo en esta variable. En otras palabras el asignar a estas cifras una cifra promedio de ganadería bovina es mucho más arriesgado que el hecho paralelo de asignarles una extensión de superficie labrada como indicador promedio.

Con objeto de hacer plenamente consciente al geógrafo que ha de usar estos indicadores conviene enriquecer la idea sobre la contextura lógica de los mismos. La hipótesis de uniformidad a que nos referíamos antes plantea el por qué de la escogencia del promedio aritmético. Es decir . si los valores fuesen todos iguales haríamos bien en escoger el promedio aritmético para señalar esa uniformidad. Esto es lo que nos dice el estadístico. Pero inmediatamente preguntamos ¿Por qué ha de ser el promedio aritmético el valor indicado para ese supuesto y no otro? .El estadístico tiene la siguiente respuesta: Dado un conjunto de valores hemos de contar siempre con una limitación que es la suma de esos valores. Los valores en sí podrían ser otros con tal de que la suma sea la misma. Es evidente por tanto que. para mantener una idea de uniformidad no hay otra alternativa a escoger sino la del promedio aritmético. consistente en repartir esa suma en tantas porciones iguales como elementos. Pero además si escogiésemos como indicador de posición central cualquier otro valor. la discrepancia de los datos sobre el mismo en el cálculo de la desviación típica nos arrojaría siempre una cuantía más grande. En otras palabras. promedio y desviación típica son indicadores que ofrecen una información ajustada a criterios de minimización; se conforman a lo que en la ciencia se ha denominado e] principio de la parsimonia.

La presentación de ambos indicadores. de posición central y dispersión. ofrece a los geógrafos una herramienta útil para analizar datos espaciales. Veremos más adelante su aplicación en el estudio de áreas pobladas. Pocas veces hemos visto. por ejemplo. utilizar el indicador de dispersión aplicado a fenómenos de poblamiento. No obstante hay que decir que los indicadores propuestos constituyen un primer acercamiento; en un segundo acercamiento la masa de datos. o más exactamente la variable observada. se somete a una ordenación previa con lo que surge un nuevo punto de vista para los indicadores.

CAPÍTULO 2

ORDENACIÓN DE LA VARIABLE. TABLAS Y FUNCIONES DE DISTRIBUCIÓN. POSICIONES FRÁCTILES. LA CURVA DE LORENZ.

Cualquier masa de datos. decíamos antes. tiende a confundir. La raíz de este fenómeno hay que buscarla en una incompatibilidad manifiesta entre la razón y el caos. La masa de datos cuanto más grande es. más caótica. La razón humana por su parte no puede asimilar lo caótico; antes bien. debe desentrañarlo y crear una nueva configuración. Esto significa tanto como producir un orden dentro de la masa de datos. No otra cosa hace el estadístico cuando sugiere ordenar los valores de la variable. Vamos a tomar como punto de apoyo los datos de la Tabla 2. Se recogen un total de 36 municipios guipuzcoanos y se nos dan las cifras de superficie y el número de licencias comerciales. La selección de los municipios está hecha sobre la base de una población superior a los tres mil habitantes. Fijémonos de momento en las cifras de superficie. Una idea sumaria. de síntesis que podemos adquirir sobre el conjunto es el rango de la variable. es decir. la diferencia de valor existente entre el mínimo y el máximo valor de la variable. Anotemos de paso que este sería un indicador de dispersión conforme al concepto anteriormente expuesto. ya que indica la cuantía de variación existente en la totalidad de los elementos. Volveremos sobre el tema más adelante. De momento nos interesa señalar que al establecer los dos puntos extremos iniciamos una nueva operación sobre la variable. cual es la de ordenar sus valores.

Municipio Km2 Licencias comerciales
Andoain 28 206
Arechavaleta 29 56
Azcoitia 55 137
Azpeitia 70 150
Beasain 29 213
Cestona 43 73
Deva 51 92
Eibar 59 696
Elgoibar 57 193
Escoriaza 40 34
Fuenterrabia 28 160
Hernani 42 380
Ibarra 5 43
Irún 42 1.047
Lazcano 11 60
Legazpia 42 100
Lezo 12 57
Mondragón 30 331
Motrico 34 82
Oñate 108 154
Orio 9 67
Oyarzun 60 108
Pasajes 6 445
Placencia 14 71
Rentería 31 516
San Sebastián 73 3.651
Tolosa 37 465
Urnieta 26 80
Usurbil 24 81
Vergara 77 237
Villabona 17 67
Villafranca 5 250
Villarreal 7 81
Zarauz 14 321
Zumárraga 16 143
Zumaya 11 105

TABLA 2

Municipios de Guipúzcoa con más de 3000 habitantes (Fuente AME. Banesto 1975)

En la ordenación puede que surjan valores repetidos. con lo cual se pone al descubierto un nuevo concepto. el de distribución de frecuencias. En los datos que nos sirven de ejemplo no hay tantos valores repetidos pero sí hay los suficientes para entender el concepto. En la Tabla 3 se reproducen los mismos datos de la Tabla anterior pero esta vez dispuestos de forma ordenada. Cuando efectuamos la ordenación es necesario insistir nuevamente en la diferencia entre variable y elementos. Dijimos anteriormente que a cada valor corresponde un elemento. lo cual en nuestro caso equivale a decir que cada municipio ostenta una cifra de superficie. La variable. kilómetros de superficie. corresponde en cada caso a un municipio. En la Tabla 3. se exponen ordenadamente las cifras de superficie. comenzando por la menor. La ordenación de valores proporciona varios casos con el mismo valor. Una distribución de frecuencias consiste en asignar a cada valor el número de elementos que le corresponde. Por eso en toda Tabla de distribución de frecuencias se dan, por un lado, la columna de valores y por otro, la columna de frecuencias correspondientes. Los matemáticos llaman a esta correspondencia una función de distribución.

X F(X) Fac (X)
5 2 2
6 1 3
7 1 4
9 1 5
11 2 7
12 1 8
14 2 10
16 1 11
17 1 12
24 1 13
26 1 14
28 2 16
29 2 18
30 1 19
31 1 20
34 1 21
37 1 22
40 1 23
42 3 26
43 1 27
51 1 28
55 1 29
57 1 30
59 1 31
60 1 32
70 1 33
73 1 34
77 1 35
108 1 36

TABLA 3

Distribución de frecuencia simple y acumulada (Variable X= Superficie)

Volviendo a la alusión de Estébanez y Bradshaw de la página 414 se tendrá ahora una mejor información para evaluar los conceptos allí emitidos. El concepto de clase no es sino el fruto de establecer intervalos en la variable; de este modo quedan agrupados varios elementos en una sola clase. produciendo las frecuencias de clase. Por ejemplo, si en la Tabla 3 se establecen intervalos de diez en diez, se producen las correspondientes asignaciones de frecuencia.

X F(x)
1-9 5
10-19 7
20-29 6
...... .....

Debemos señalar que es establecimiento de clases y sus correspondientes Tablas de frecuencias agrupadas o frecuencias de clase (no confundir con frecuencias acumuladas} se han originado entre los estadísticos por razones de economía de esfuerzo. Estos motivos pueden considerarse hoy inexistentes dadas las facilidades de cálculo que proveen las calculadoras de bolsillo.

Siguiendo el criterio expuesto en la introducción eliminamos en nuestra línea expositiva estas formulaciones y construcciones accesorias que desvían la atención de los conceptos centrales en los que es importante hacer hincapié.

Estas Tablas de distribución contribuyen en forma considerable al enriquecimiento de los indicadores. Cuando se da un indicador de posición central, tal como por ejemplo la renta per cápita, es muy útil recurrir a la forma de distribución. Son muy importantes al respecto los indicadores que surgen de la consideración de posiciones fráctiles. Estas posiciones nacen de las distribuciones acumuladas, tales como la presentada en la Tabla 3. El concepto de posición fráctil alude a los elementos que han sido puestos en orden por correspondencia con la ordenación de la variable. Es decir, en nuestro ejemplo Ibarra y Villafranca ocupan la posición jerárquica inferior de la distribución, mientras Oñate ocupa la posición más alta. Por supuesto repetimos que esa ordenación es consecuencia de haber ordenado la variable. Hemos señalado las dos posiciones extremas de la jerarquía; pero es evidente que por la misma vía pudiéramos señalar otras posiciones intermedias o fráctiles. Hay algunas entre éstas que se han hecho típicas; por ejemplo, las denominadas posiciones cuartiles. Esto nos obliga a conceder alguna atención al tema de la tipificación.

Dado un conjunto de N datos, entendiendo por N el número de elementos, los valores de la variable serán M, siendo M igualo menor que N. La razón es muy sencilla. Si todos los elementos están caracterizados por distintos valores, entonces M es igual a N. Pero si algunos elementos coinciden en tener el mismo valor, entonces necesariamente M será menor que N. En la Tabla 3 puede apreciarse cuanto estamos diciendo. El número de municipios, o sea N, es igual a 36. Pero desde el punto de vista de la superficie, no hay 36 valores distintos siendo M menor que N. El concepto de posición fráctil se define como la función de frecuencia acumulada correspondiente a cada valor de la ordenación. En la Tabla 3 al primer valor de la ordenación, le corresponde la función de frecuencia acumulada 2. Al último valor de la ordenación habrá de corresponder siempre la posición enésima que en nuestro caso es la 36&. Obviamente las posiciones dependerán siempre de dos cosas, del número N de elementos y del número M de valores en la ordenación. Una manera de solucionar este problema consiste en establecer unas posiciones' típicas que no dependan del tamaño del conjunto. Las posiciones típicas definen a priori un número de posiciones que habitualmente suelen ser cuatro, diez o cien. Las posiciones se llaman en cada caso cuartiles, deciles o centiles. Veamos la reducción a posiciones típicas con los datos que nos sirven de ilustración, Tabla 4.

Típica Posiciones Bruta Valores (Km2)
Cuartil 9 13
Cuartil 18 29
Cuartil 27 43
Cuartil 36 108
Típica Posiciones Bruta Valores (Km2)
Decil 1 4 7
Decil 2 7 11
Decil 3 11 16
Decil 4 14 26
Decil 5 18 29
Decil 6 22 37
Decil 7 25 41,3
Decil 8 29 55
Decil 9 32 60
Decil 10 36 108
TABLA 4

Tabla de posiciones y valores típicos calculada sobre tabla anterior

Queremos reducir a cuatro posiciones típicas toda la distribución de frecuencias acumuladas de la Tabla 3. Es evidente que la cuarta posición cuartil habrá de coincidir con la enésima posición, o sea, la 36a posición bruta. Por una simple regla de proporciones estableceremos las restantes posiciones cuartiles; así por ejemplo :

36/4: : X/3; 36/4: : X/2; 36/4: : X/1

La posición cuartil tercera vendrá dada por la posición bruta 27a. La posición cuartil segunda por la posición bruta 18a y la posición cuartil primera por la posición bruta 9a. Hacemos la distinción entre posiciones típicas y posiciones brutas. Posiciones brutas son las que se derivan de la distribución originaria sin ninguna tipificación. Podemos observar que en las proporciones planteada para la búsqueda de las posiciones cuartiles siempre se repite una razón que es la razón 36/4. L\amaremos a ésta, razón de reducción o tipificación. Generalizando, si se tienen N = tamaño del conjunto o número de elementos, K = posiciones típicas fijadas, la razón de tipificación vendrá dada por N/K. A su vez cada una de las posiciones típicas se definirá como posición fráctil primera, posición fráctil segunda, ..., posición fráctil K-ésima. Haciendo i = 1, 2, ...K, la correspondencia de cada posición fráctil típica con la posición bruta vendrá dada por :

N/K. i (i = 1, 2, ...K)

Siguiendo con nuestro ejemplo, las posiciones deciles en términos de función de distribución acumulada o posiciones brutas serían:

decil primero 3,6
decil segundo 7,2
decil tercero 10,8
decil cuarto 14,4
decil quinto 18,0
decil sexto 21,6
decil séptimo 25,2
decil octavo 28,8
decil noveno 32,4
decil décimo 36,0

Dejamos al lector la solución de lo que serían algunas posiciones centiles en la misma distribución de datos. ¿Cuál es la interpretación que puede darse a estos indicadores de posición fráctil? .En primer lugar debe tenerse en cuenta que estas posiciones surgen como consecuencia de haber ordenado la variable. Por tanto cada posición es un Indicador del número de elementos que están por encima y por debajo del mismo, de acuerdo con el criterio usado para la ordenación es decir, de acuerdo con la variable que se ha ordenado. En nuestro ejemplo de los 36 municipios guipuzcoanos el criterio de ordenación ha sido la superficie de extensión. La posición cuartil primera señala que nueve municipios caen por debajo de la misma y veintisiete por encima; la posición cuartil tercera señala que veintisiete municipios caen por debajo de la misma y nueve por encima. Tómense algunos casos de posiciones deciles. Por ejemplo la posición decil quinta establece que dieciocho municipios caen por debajo de la misma y otros dieciocho por encima. Pero ¿qué pasa con las posiciones que se expresan en forma fraccionaria? Se observará que la fracción no puede aludir a un número real de elementos, puesto que estos han de expresarse necesariamente mediante números enteros. En este caso se conviene en tomar el número entero más próximo a la fracción. Por ejemplo la posición decil tercera señalará que hay once municipios por debajo de la misma y veinticinco por encima; la posición decil séptima señalará a su vez veinticinco municipios por debajo de la misma y once por encima.

Una interpretación exhaustiva de los indicadores de posición fráctil debe manejar simultáneamente, tanto las posiciones de los elementos. como los valores de la variable. Es decir. recordemos una vez más que las posiciones señalan número de elementos, por encima y por debajo, de acuerdo a un valor en la ordenación de la variable. Así, por ejemplo, la posición cuartil tercera se corresponde con el valor 43 en la variable; o sea, Que el valor de 43 Km2 de extensión sirve de discriminante para señalar que las tres cuartas partes de los municipios tienen superficies iguales o inferiores y sólo una cuarta parte tienen superficies superiores. De la misma manera, el decil quinto señala el punto mediano de la ordenación, es decir aquel por encima y debajo del cual existen mitad y mitad de los elementos: concretamente, éste es el valor de 29 Km2 de extensión. Obsérvese de paso que cuartil segundo y decil quinto, señalan las mismas posiciones de la distribución, a las cuales corresponde el valor que recibe el nombre de mediana.

Surge aquí otro problema cuando intentamos buscar en la Tabla 3 el cuartil primero, o el decil séptimo. La posición bruta en la distribución acumulada que corresponde al cuartil primero es 9 y la que corresponde al decil séptimo es 25. Ambas posiciones no figuran en la Tabla 3 bajo el encabezado de F ac (X). ¿Qué se hace, en este caso, para buscar el valor de la ordenación correspondiente?

Se procede por un método de Interpolación de la siguiente manera:

Primero, se determinan las dos posiciones vecinas, superior e inferior, en la Tabla 3 bajo el encabezado F ac (X). En el caso del cuartil primero las posiciones 8 y 10.

Segundo, se buscan los valores de la variable que corresponden a dichas posiciones vecinas; en nuestro caso los valores 12 y 14.

Tercero, se adopta el supuesto de un segmento continuo entre ambos valores con una distribución uniforme para las posiciones vacantes entre la posición 8 y la posición 10.

Cuarto, por interpolación se hallará un valor convencional para la posición vacante que nos concierne.

Véase esta interpolación gráficamente representada en la Fig. I.

Se observará que tal valor convencional no existe en los datos reales. Es simplemente un indicador y como tal nos dice que dentro del rango o recorrido de la variable, que se extiende desde S, superficie mínima, hasta 108, superficie máxima, el valor 13 señala la extensión por debajo de la cual se encuentra una cuarta parte de los municipios y por encima, las tres cuartas partes restantes.

Una vez de fijar los valores para las posiciones típicas, se alcanza una idea de la variabilidad mediante la diferencia entre los valores correspondientes a dos posiciones. Es muy usada, por ejemplo, la diferencia Intercuartílica como indicador de dispersión; consiste en la diferencia de valores correspondientes al cuartil primero y tercero. En el ejemplo, esta diferencia será :

43 -13 = 30. Este indicador tiene el inconveniente de que se apoya en sólo dos observaciones de la distribución. El geógrafo echa de menos un indicador que le informe sobre la distribución en su totalidad. Es el que vamos a desarrollar a continuación.

Tras haber expuesto la técnica de las posiciones fráctiles y su teoría subyacente, estamos en capacidad de elaborar un instrumento analítico que puede ser manejado en forma intuitiva. Sin apartarnos de )os datos con que venimos trabajando, imaginemos la siguiente situación :

-Cada municipio ostenta una determinada superficie.

-Estos valores de superficie que constituyen la variable, se ordenan tal como se mostró en la Tabla 3.

-A continuación puede elaborarse una suma acumulada de estos valores; véase Tabla 5

Xac Diez Tramos Posiciones deciles correspondientes
10    
16    
23    
32    
54    
66    
94    
110 124,2 3,4
127    
151    
177    
233 248,4 4,7
291    
321    
352 372,6 5,7
386    
423    
463 496,8 7,1
589    
632 621,0 7,6
683    
738 745,2 8,1
795    
854 869,4 8,5
914    
984 993,6 9,2
1.057    
1.134 1.117,8 9,6
1.242 1.242 10

TABLA 5

Se acumulan los valores de la variable, no las frecuencias. Sobre el total acumulado  se fijan diez tramos iguales

Con los valores acumulados de la Tabla 5 se puede proceder a un fraccionamiento sobre bases convencionales (diez, cien, etc..,) semejantes a las que se han fijado para la tipificación de las funciones de frecuencia acumulada. Llegamos así a la elaboración de curvas de Lorenz que nos permiten una mejor comprensión de las distribuciones en su totalidad. Véase Fig. 2.

En esta Fig. 2 se relaciona la variable, en forma de valores acumulados y fraccionados en diez tramos, con la función de frecuencia acumulada que corresponde a esos valores. La curva de Lorenz establece la hipótesis de una equidistribución, de modo que a las posiciones típicas de la ordenada, corresponda el mismo valor típico en la abscisa. En otras palabras, si la tipificación se hace sobre la base 10, la curva de Lorenz haría corresponder los diez puntos de abscisa y ordenada en la diagonal de la Fig. 2. La realidad discrepa de la hipótesis establecida y la curva de Lorenz nos advierte gráficamente sobre la cuantía de esta discrepancia. Cuanto mayor sea el área comprendida entre la diagonal y la curva, mayor es la discrepancia. Se ha llegado a elaborar un índice numérico de esta discrepancia. El fenómeno de discrepancia puede verse con dos enfoques. O se ve como una concentración de municipios en áreas pequeñas o se ve como una absorción de grandes áreas. por parte de unos pocos municipios. En realidad es la cara y cruz de la misma moneda. El índice a que nos referimos es un índice de concentración y consiste en la razón entre el área delimitada por la diagonal y la curva y el área del triángulo rectángulo, que tiene como base la diagonal de la Fig. 2. El cálculo resulta tedioso e impropio de este manual elemental. por lo que nos contentamos de momento con mostrar su aspecto intuitivo. Más adelante volveremos sobre este concepto. al hablar de indicadores para áreas.

Una de las aplicaciones más importantes que puede darse a estos instrumentos analíticos es en la evaluación y comprensión cabal de los indicadores per cápita. Tomemos el caso de la renta per cápita de distintos países. Es un lugar común el comentario a la fragilidad de las cifras per cápita como indicadores válidos de las distribuciones de ingresos. Lo que sucede, en realidad, no es que el indicador per cápita sea intrínsecamente malo. sino que falla el supuesto sobre el cual se apoya el indicador. Ya dijimos antes que la renta per cápita se basa en la hipótesis de una distribución uniforme y todos sabemos que los ingresos que se perciben en una determinada colectividad se alejan mucho de esa uniformidad. Tomemos por ejemplo el caso de Venezuela y Noruega, con la misma proporción de habitantes por Km2, Ver Fig. 3. En la Fig. 3 se ponen de manifiesto las diferencias de distribución existentes en ambos países. Si se hace un desglose de lo presentado en dicha Figura se notarán las siguientes observaciones:

  NORUEGA %ingresos VENEZUELA %ingresos
Al 20% más pobre de la población (tramo por debajo de centil 20) le corresponden 4,5 3,0
Al 30% inferior a la mediana (tramos entre centil 50 y 20) 20,5 11,1
Al 30% superior a la mediana (tramo entre centil 80 y 50) 34,7 27,9
Al 15% que está por debajo del 5% más alto (tramo entre centil 95 y 80). 25,3 31,6
Al 5% más alto (tramo por encima de centil 95) 15,0 26,4

 

Con objeto de facilitar al lector alguna familiaridad con estos indicadores de posición le proporcionamos los datos de la Fig. 4 (página siguiente) en donde podrá encontrar abundante material para confeccionar gráficos de Lorenzo

Figura 4

En general se observarán mayores índices de concentración en los países de América Latina comparados con los países desarrollados, los cuales aparecen levemente subrayados en el gráfico. En otras palabras, los grupos situados por encima del centil 80 (cuarta y quinta columna de izquierda a derecha) acaparan una parte sustancial del ingreso; o sea, más de la mitad de las rentas corresponden a un 20% de la población en los países latinos.

CAPÍTULO 3

VARIABLES DE MEDICIÓN DERIVADA.

En las Ciencias Físicas existen unas medidas fundamentales y otras derivadas; ejemplo de las primeras pueden ser las medidas de la masa y la longitud que no se apoyan en medidas previamente elaboradas. Ejemplo de medida derivada es la velocidad. En las Ciencias Sociales puede darse el mismo fenómeno. Hay variables cuya asignación numérica no se basa en previas mediciones; cuando a un conjunto de elementos constituido por municipios se le asignan valores en variables. tales como población, o número de camas de hospital, tenemos variables de medición fundamental. Pero si a esos mismos municipios les asignamos valores tales como una tasa de variación demográfica, o camas hospitalarias per cápíta, estamos frente al caso de variables de medición derivada.

Las variables así obtenidas por vía de medición derivada, adoptan generalmente la forma de un cociente. Los términos de este cociente son unas veces dos tomas de observación en una misma variable correspondiéndose con dos momentos en el tiempo: es el caso de las tasas de variación. Otras veces los términos del cociente corresponden a dos variables distintas: es el caso de las densidades, y de los índices per cápita.

Es importante que recordemos aquí la distinción conceptual establecida en capítulos anteriores entre elemento y variable. A un mismo conjunto de elementos -decíamos entonces pueden asignársele valores en distintas variables. Si damos entrada al factor tiempo en nuestras consideraciones. es posible recoger observaciones de valor en la misma variable, en dos tiempos diferentes; tendríamos en ese caso dos series de valores atribuibles al mismo conjunto de elementos. Este hecho de la multiplicidad de valores da pie a derivar nuevas variables sobre la base de las ya existentes. La forma común de derivar esta nueva medición es mediante la operación conocida como cociente o razón. El resultado de este cociente no es una nueva observación en el genuino sentido de la palabra; es ni más ni menos un ente ficticio que nos servirá para muchos propósitos .

De la misma manera que anteriormente hemos insistido en el valor hipotético que tienen los indicadores de posición central, así también aquí creemos conveniente recalcar que los cocientes ponen de manifiesto no un dato de observación, sino un ente de razón; a saber, cuánto es lo que de una variable corresponde a cada unidad de otra variable tomada como base. La elección de tomar a una variable como base es en principio arbitraria, pero debe atenerse a una secuencia lógica coherente. Por ejemplo, entre dos variables, tales como cabezas de ganado y extensión puede sustentarse una relación obvia, expresada en forma de cociente. Pero cual ha de ser tomada como base o divisor: he ahí una decisión que pertenece al investigador. Si se toma la extensión como base, tendríamos el número de cabezas por cada unidad de extensión (sean éstas kilómetros cuadrados, hectáreas, etc.). Habitualmente este cociente recibe el nombre de densidad. Pero cabría también un cociente a la inversa, en donde fueran las cabezas de ganado tomadas como base. En este caso tendríamos la cantidad de extensión que corresponde a cada cabeza de ganado. Más adelante nos dedicaremos al estudio de las densidades, ya que éstas comportan una innegable implicación espacial.

El concepto de tasa. Para un elemento dado existe la asignación de un valor en la, consideración de una variable. Pero esta observación lleva implícita la fijación de un momento en el tiempo. En la medida en que demos entrada al intervalo de tiempo, podremos tomar dos observaciones para el mismo elemento; llamemos a los valores asignados :

Variable Tiempo
Xt t
Xt+1  t+1

El cociente formado por el incremento (Xt+ 1- X) con respecto al valor del momento inicial Xt, o sea :

(Xt+1-Xt )/Xt

constituye una tasa de variación para el intervalo de tiempo considerado. Habitualmente las tasas así calculadas producirán fracciones muy pequeñas como es obvio, pero ello no comporta ninguna alteración conceptual tal como ha querido hacerse ver en algún texto (4). Por consiguiente el concepto de tasa hace referencia a la variación que se observa en una variable dentro de un intervalo de tiempo; de ahí que en realidad las tasas debieran llevar la denominación completa de .tasas de variación".

El modelo originario de tasa reside en el campo físico, de donde se ha extendido a las Ciencias Sociales. Veamos esta adaptación conceptual en forma concreta. Tomaremos la idea originaria de tasa del campo de la Física. Imaginemos un viaje en automóvil desde San Sebastián hasta Barcelona; para ser precisos señalaremos un punto de partida en San Sebastián y un punto de llegada en Barcelona. La distancia que tomamos de un mapa de carreteras es de 521 kilómetros. Supongamos que el tiempo transcurrido es de 5 horas 30 minutos. La tasa a que se cubrió esta distancia es de 94, 72 km/hora. Ahora bien, ésa es una tasa media o promedio; como tal implica que manteniendo constante la velocidad y siendo el total de tiempo empleado 5 horas y media, ése viene a ser el recorrido por hora. Pero inmediatamente advertimos que el automóvil ha podido variar la velocidad horaria aún cuando el total de tiempo transcurrido sea el mismo; incluso es fácil imaginar que ha podido detenerse y tomar un descanso en el camino. La tasa media es por tanto una resultante de las diversas tasas reales logradas en diferentes partes de la ruta. Volvemos pues a insistir en el carácter irreal (carente de realidad observable) de estos cocientes denominados tasas. La mejor aproximación que hace el físico a la realidad es mediante el concepto de tasa instantánea y que matemáticamente se formula así:

lim ΔD/ΔT

ΔT→0

Las deltas Δ son los símbolos de incremento ( Δ D: incremento de distancia, Δ T : incremento de tiempo). El cociente entre ambos indica la distancia adicional recorrida en un tiempo adicional. Cuando este tiempo es el mínimo que podemos imaginar, decimos que tiende a cero, en símbolos Δ T →0. El límite de ese cociente es la tasa instantánea.

¿Cómo puede trasladarse este concepto al campo de la demografía, por ejemplo? En primer lugar conviene precisar que no se aplica la noción infinitesimal de incremento de tiempo. Se fijan unos intervalos de tiempo que se mantendrán inalterables; habitualmente estos intervalos consisten en un año. En segundo lugar, no se parte de un valor cero para la variable población. De manera que el incremento producido en población debe hacer referencia al valor de población que se toma en el punto de partida. La tasa de variación demográfica se calcula por tanto, a partir del siguiente esquema:

Población Tiempo
P t
Pt+1 t+1

como el cociente:

(i)                 (Pt+1-Pt)/t

 

Pero habida cuenta de que en la variación poblacional inciden básicamente los fenómenos de natalidad y defunción, es usual considerar a éstas como variables aisladas y por tanto el cociente originalmente formado en (i) se va desdoblando en diferentes cocientes que llevan también el nombre de tasa, tasa de natalidad en un caso y tasa de mortalidad en otro, Puestos en una perspectiva geográfica si los elementos o unidades de observación son determinadas circunscripciones territoriales a las que se asignan valores de población, tampoco podremos dejar de lado el factor migratorio que los afecta. De aquí resultan las tasas migratorias. Todas estas tasas reflejan aspectos parciales de la variación experimentada en los volúmenes de población, pero es muy útil calcularlas en forma aislada porque permiten evaluar diferencias importantes en el desarrollo tecnológico y social de los pueblos. Véase el siguiente texto de Ives Lacoste (5) :

La adopción de medios sanitarios potentes ha provocado una disminución espectacular de las tasas de mortalidad en la mayoría de los países subdesarrollados. En Jamaica pasó de 28 por mil en 1921, a 13 por mil en 1950 y a 8,9 por mil en 1961. En Ceilán 29 por mil en 1925,20 por mil en 1946, 9 por mil en 1961. En Venezuela 21, 7 por mil en 1920, 14, 7 por mil en 1946, 7 por mil en 1962. En Costa Rica 23 por mil en 1920, 14 por mil en 1946, 7,9 por mil en 1962.

Pero aún hay más. Partiendo de las siguientes fórmulas:

a)         (Número de nacimientos/ Población total) x100

b)       (Número de defunciones Población total) x100

podemos determinar el crecimiento natural como la diferencia entre (a) y (b). Sin embargo. por muy sensata que parezca una tasa así calculada. veremos los inconvenientes a que da lugar .

Por ejemplo se observa que la proporción de hombres y mujeres -y concretamente de éstas en edades jóvenes no es la misma en áreas urbanas y rurales. Sabido es que pueden apreciarse diferencias sustanciales en tasas de fecundadas (número de nacidos/madre) según edades de las madres como puede observarse en la siguiente Tabla que reproduce el caso de Yugoslavia en 1954 (6).

Edad de la madre Nacimientos Número de mujeres (en miles) Tasa de fecundidad para 1000 mujeres)
 15-19años 34.131 863 39,5
20-24 años 168.888 857 196,7
25-29 años 149.198 770 192,0
30-34 años 84.064 619 135,7
35-39 años 30.622 377 81,5
40-44 años 19.542 538 36,3
45-49 años 3.758 502 7,5
50-55 años 768 434 1,8
Totales 490.971 4.960 691,0
TABLA 6

 

Estas tasas nos dicen cuantos hijos nacen por cada mil mujeres agrupadas en edades. A su vez ya se sabe que la distribución o pirámide de edad revela marcadas diferencias entre áreas rurales y urbanas. por lo que resulta de interés elaborar índices de crecimiento basados en estas tasas de fecundidad. En 1935 un demógrafo, R.R. KUCZYNSKI presentó las siguientes observaciones para calcular una tasa neta de reproducción. Si una generación de madres, decía, logra reproducir el mismo número de madres para la segunda generación, es entonces cuando tendremos un auténtico reemplazamiento. Conforme a unos datos procedentes de Australia se tenía por ejemplo que cada millar de madres dieron vida durante todo su período de procreación a 1517 niñas. De otro lado, según estimaciones procedentes de tablas de mortalidad, se podía esperar que de todas esas niñas, el 87% podían llegar a edades de procreación. Por consiguiente un millar de madres habían dado nacimiento a 1.318 futuras madres. De acuerdo con estas cifras la tasa neta de reproducción sería 1.318.

El concepto de tasa ha ido perdiendo su perfil originario en la medida en que se ha extendido en aplicaciones. Uno de esos ejemplos lo constituyen Las llamadas tasas laborales de empleo. Efectivamente suele llamarse tasa de ocupación al cociente :

Población ocupada/ Población activa

en donde se considera población activa a la comprendida entre 15- 64 años. Estas tasas se definen para un momento dado sin ninguna intervención del período de tiempo en donde podría apreciarse una auténtica tasa de variación. Así formulada, la tasa de empleo no es sino un cociente entre dos variables, una de las cuales, la definida como población activa es una variable normativa, producto de una definición legal; podría llamarse población en capacidad de trabajo. Cuando la población realmente trabajadora no llega a una determinada porción de la población capaz, ese residuo flotante puede convertirse en crítico, puesto que muestra uno de los problemas más inquietantes de cualquier sociedad organizada: el desempleo. En una perspectiva geográfica podríamos caracterizar las regiones o provincias, o cualquier otra unidad territorial, con las tasas de paro, tal como se muestra en el mapa que tomamos de Mundo Obrero de fecha 26 de diciembre de 1979. Mediante una técnica cartográfica adecuada, vg. de coropletas, es posible alcanzar una visión intuitiva rápida sobre la localización de las zonas álgidas.

Figura 5: mapa tasa de paro por provincias en España

Las tasas han pasado a conformar el vocabulario usual de la economía y demografía. Indudablemente se haría interminable una lista exhaustiva de todas las tasas imaginables; el investigador decidirá en cada momento la elaboración del índice que más le convenga a sus propósitos.

Los índices per cápita. Antes hemos señalado el caso especial en que la variable tomada como base es una superficie o área; en esos casos -dijimos- el cociente adquiere el nombre de densidad. Pasemos ahora a señalar el caso en que la variable divisor es población; para este tipo de cocientes se ha acuñado el nombre de índice per cápita.

Hay una sutil distinción que debe ser tomada en cuenta en este tipo de cocientes. Unos son simplemente promedios aritméticos. como es el caso de los ingresos o renta per cápita. Los individuos humanos son aquí considerados como elementos o unidades de observación. a quienes corresponde un valor de la variable ingresos o renta. En los otros casos. la unidad de observación es una cantidad territorial y la población de individuos humanos es una variable. la cual sirve de base para elaborar el cociente con otra variable. Así. por ejemplo. productos o servicios tales como camas de hospital. centros asistenciales, médicos, teléfonos instalados, kilómetros de carretera asfaltada, etc. son ejemplos de variables que se prestan a formar un índice per cápita. Es decir. bajo la primera consideración. ejemplo ingresos per cápita. la variable «ingresos» es imputable a cada individuo. Bajo la segunda consideración. en cambio. la variable -ya sean médicos, kilómetros de carretera, etc. -es imputable como un todo indiviso a la colectividad . En el primer caso la imputación a cada individuo se materializa en forma de salario. de beneficios provenientes de la propiedad. del subsidio de paro. de pensiones de jubilación. etc. En el segundo caso obviamente el individuo disfruta del servicio sin que pueda determinarse con exactitud la cuota de percepción correspondiente. Mientras que la cifra per cápita en el primer caso tiene el sentido de aludir a una hipótesis de uniformidad. en el segundo caso no lo tiene; es más bien una ficción que sirve de indicador para referir un valor de variable a un valor de población y establecer así ciertas diferencias en la distribución de valores per cápita entre unidades territoriales.

Un ejemplo de índice per. cápita. que no ha sido advertido como tal por los estudiosos de la geografía. lo tenemos en los estudios de centralización. Hemos observado con frecuencia que el cociente de establecimientos entre población para un determinado bien o servicio dentro de una localidad dada recibe el nombre de «coeficiente teórico de localización» (7).

Hay que suponer que el valor del numerador en este cociente será menos que el valor del denominador; en otras palabras, no tiene sentido que haya tantos establecimientos como personas. Por lo tanto la unidad convencional que se toma para la variable que sirve de base. o sea población. puede ser no un individuo. sino cien. Esto es lo que se indica en la fórmula de Precedo. El indicador resulta más fácil de comunicar si en vez de decir que a la región X le corresponde una fracción determinada de establecimiento por cabeza. decimos que le corresponden tantos establecimientos por cada cien habitantes.

Preguntémonos ahora cómo puede elaborarse un coeficiente de localización con un índice per cápita. Supongamos que existen para una determinada región k localidades. Es evidente que para un bien o servicio específico podrá calcularse el índice per cápita tanto de la región conjunta como de cada una de las localidades.

 ((N1i)/(P1)) x ((N2i)/(P2i)).......x ((Nki)/((Pk)) x Σkj=1(Ni/P)j

siendo N1i , N2i : número de establecimientos para el bien i en la localidad 1, en la localidad 2, P1 , P2: población de la localidad 1, localidad 2, etc. 

Es evidente que si todas las localidades arrojan el mismo índice tendremos entonces una distribución uniforme. Al no ocurrir esto, la localidad con mayor índice nos mostrará que, en cuanto a ese bien o servicio se refiere, dispone de un mayor abastecimiento. En otras palabras esto significa que el bien es más fácil de localizar en donde muestra mayor índice per cápita de establecimientos que lo dispensan.

Podemos generalizar estos conceptos a una matriz de establecimientos per cápita.

MATRIZ A: ESTABLECIMIENTOS PER CÁPITA

La fila identificada como REGIÓN en la matriz nos da unos valores de referencia. Si la REGIÓN recoge la suma de establecimientos y población correspondientes a las localidades, el índice obtenido para cada bien en la región nos da el valor convenido para una hipótesis de uniformidad. Tómese el bien identificado por 1. A modo de teorema podemos establecer:

si     N11/P1=N21/P 2=............= N k1/Pk    entonces esta igualdad debe extenderse a   

 

k

k
   Σ

  Nj1  /

Σ

     Pj

j=1

j=1

 

Recuérdese para la demostración de este teorema lo que sucede en la igualdad de razones a saber:

a/b=c/d.....m/n= (a+c+.....+m)/(b+d+....n)

Debemos advertir no obstante que sólo en este caso de distribución uniforme de los índices per cápita, el índice regional adquiere el carácter formal de un promedio aritmético. Cuando la distribución resultante para un determinado bien no es uniforme, el índice regional entonces, no equivale al promedio aritmético; en otras palabras, no reúne las propiedades formales del promedio aritmético y no se ajusta a la hipótesis de uniformidad. Estas consideraciones son pertinentes por ejemplo, para llevar a cabo una ordenación de las localidades, de acuerdo a la magnitud de los índices que ostentan. Llegados aquí, es conveniente presentar algunas ideas acerca de las transformaciones numéricas que es posible efectuar y el sentido lógico en que están soportadas.

Índices per cápita conjugados. Volvamos a la matriz A en donde se nos dan localidades y bienes como encabezamiento de filas y columnas. En la consideración de cada fila de la matriz, tenemos los índices per cápita correspondientes a la serie de bienes; es decir, en términos estadísticos formales, por cada elemento o unidad de observación (localidad) se nos dan valores tomados en distintas variables (bienes). Es evidente que situándonos en la perspectiva de un solo bien (una sola variable) podemos construir una función de distribución y calcular para la misma promedios, varianzas, desviaciones típicas al igual que cuando hacíamos esto en el capítulo 1. Del mismo modo puede llevarse a cabo una ordenación de los elementos (en nuestro caso localidades) por consideración a los valores que ostentan en cada variable. Pero he aquí que se nos presenta un problema de inmediato. Surgirán tantas ordenaciones posibles de las mismas localidades, cuantos bienes sean tomados en consideración. ¿Es posible entonces elaborar una sola ordenación que tome en cuenta a todos los bienes conjuntamente?; en otras palabras ¿existe algún procedimiento estadístico que nos permita conjugar todas las ordenaciones efectuadas en una sola? .Veamos con detalle cual es el problema lógico que subyace a esta cuestión.

Imaginemos una ordenación de seis elementos de acuerdo a tres variables. Eliminaremos de momento la identificación de los elementos proponiendo únicamente las posiciones resultantes Ver Fig. 6. Evidentemente a un mismo elemento pueden convenirle distintas posiciones al cambiar la consideración de la variable; es decir , si un elemento X aparece en la posición segunda de acuerdo a la variable I, puede que aparezca en la misma posición u otra distinta, de acuerdo a la ordenación de la variable II y así sucesivamente. Lo que aquí nos interesa destacar es el hecho de que los intervalos de ordenación son diferentes para cada variable. Este hecho perturba notablemente la posibilidad de conjugar las ordenaciones de las tres variables en una sola. y éste es precisamente el hecho frecuente en el tema que nos atañe, o sea, en la ordenación de localidades de acuerdo a índices per cápita obtenidos para las mismas, bajo la consideración de distintos bienes o servicios.

Con miras a solventar este problema sugerimos una transformación de los valores obtenidos en la matriz A. Esta transformación tiene por objeto reducir las diferencias surgidas en los intervalos de ordenación a unidades íntercambiables entre las distintas variables. Solamente creando este tipo de unidad intercambiable podrá obtenerse una ordenación de los elementos que conjugue la consideración de todas las variables. La transformación que puede conducirnos al logro de estas unidades intercambiables procede del siguiente modo. Adoptaremos una nomenclatura para representar los valores de la matriz A. Llamemos Xji al índice per cápita (establecimientos entre población) que corresponde a la localidad j en la consideración del bien i.

Es decir el índice per cápita de cada localidad G = I, 2, ...K) se tipifica tomando en cuenta la dispersión de valores dentro de la perspectiva de cada bien. De este modo se hace posible intercambiar las diferencias obtenidas en un determinado bien, con las de otro cualquiera. Llevando a cabo la tipificación para todos los bienes (columnas en la matriz) se obtendrá una nueva matriz B de valores tipificados Z.

La suma obtenidas en la última columna de la matriz B nos dará el criterio para ordenar las localidades tomando en consideración toda la gama de bienes conjuntamente.

Medidas de centralidad. Tal vez importa señalar que el coeficiente de localización utilizado en la investigación geográfica no es siempre un índice per cápita, aún cuando sigue siendo una variable de medición derivada. Es muy frecuente elaborar un proceso de conjugación de índices similar al que hemos descrito. Incluso es posible que se den coincidencias aparentes que deben ser cuidadosamente detectadas para que quede de manifiesto la diferencia en el trasfondo conceptual. A título orientativo vamos a referirnos a uno de los coeficientes más comúnmente usados, el de Wayne K. Davies (8). Este autor da tres denominaciones distintas al índice constituido por:

c= (t/T)100

en donde

t = un establecimiento para la función t

T = el número total de establecimientos para la función t en todo el sistema

Lo llama coeficiente de localización, medida de centralidad y grado de focalidad. Teniendo en cuenta que dentro de un sistema pueden existir distintas localidades, se obtendrá un valor de centralidad para cada localidad multiplicando el valor C por el número de establecimientos existentes para la función t en esa localidad. Si se obtienen los valores de centralidad de todas las funciones registradas, la suma de los mismos nos da el índice funcional de la localidad en cuestión.

Creemos importante señalar que el concepto planteado por Davies no es una razón entre variables, tal como nosotros hemos venido desarrollando en el presente capítulo. Desde un punto de vista formal Davies maneja:

1) Un conjunto de localidades dentro de un sistema (elementos).

2) Un conjunto de funciones (variables).

3) Número de establecimientos para cada función (valores).

Véase esto en forma intuitiva en la matriz C.

Matriz c: Establecimientos

Los valores en cada celda de la matriz son número de establecimientos. En la última fila donde dice SISTEMA. se alojan la suma total de establecimientos para cada función. Pues bien. el valor de centralidad que propone Davies no consiste sino en transformar el valor Xji (número de establecimientos por localidad) en una proporción con respecto al total de establecimientos en el sistema dividiéndolo por

k

   Σ

 Xji 

j=i

Esto evidentemente no es una razón entre variables, ya que los valores correspondientes a las localidades. expresados como número de establecimientos con respecto a una función. se dividen por una constante. Se obtiene así una nueva matriz D de valores Pji (proporciones) que puede expresarse en forma de porcentajes. tal como señala la fórmula originaria de Davies.

Matriz D: valores de centralidad Davies

Obsérvese que el sistema, en este caso, da el valor cien. Esta nueva matriz vamos a leerla en sentido horizontal. Se tendrán así, para cada localidad, los valores de centralidad correspondientes. La suma de los valores de la fila, nos dará el ansiado índice funcional de Davies.

Pj1+ Pj2 + ...+ Pji + ...Pjm = índice funcional.

Debemos señalar sin embargo. que en los más recientes trabajos sobre centralidad (9) se vuelve a un índice per cápita para valorar adecuadamente la centralidad.

CAPÍTULO 4

DEPENDENCIA ENTRE DOS VARIABLES.

Desde el momento en que se tienen valores asignados a las mismas unidades de observación. en distintas características; surge un nuevo tema de análisis: el de la dependencia entre variables ya consecuencia de éste, otros dos temas más. a saber el grado de covariación estadística y la posibilidad de pronosticar una variable a partir de la otra. Concretamente si se tiene un conjunto de localidades {unidades de observación) y tomamos los valores de población por un lado y el número de licencias comerciales por otro. podemos plantearnos si estas variables muestran o no alguna dependencia. El concepto de dependencia se presta a muchas interpretaciones. por lo cual conviene precisar nuestro enfoque. Se trata para nosotros de una dependencia empírica. resultante de los hechos observados. sin que hagamos pronunciamiento alguno acerca de su posible relación causal. lo cual sería más discutible. Si las localidades con alto índice de población muestran a su vez un alto índice comercial y viceversa. las de baja población muestran un índice comercial pobre. tenemos algún fundamento para sospechar que existe cierta dependencia entre ambas variables. Llamemos X e Ya ambas variables. El comportamiento covariante de ambas puede ser fruto de:

a) que existe una relación causal entre ambas.

b) que una tercera variable Z sea causa de las variaciones entre ambas

c) que exista una relación causal indirecta, es decir, que X actúe sobre y por mediación de una tercera variable Z.

La determinación de alguna de estas alternativas como explicación del fenómeno exige un cuidadoso diseño de investigación. De momento vamos a fijar nuestra atención en el hecho primario que consiste en determinar si existe o no la dependencia entre variables a la que estamos aludiendo. Este problema puede despejarse mediante la disposición de los datos en una nube de dispersión. Véanse en la FIG 7 cuatro colecciones de datos.

Figura 7: cuatro colecciones de datos

Para configurar una nube de dispersión se alinean las dos variables en las dimensiones de abscisa y ordenada indistintamente. De este modo se conforma una tabla encabezada con valores de filas y columnas; estos valores se disponen ordenadamente. En el interior de la tabla se encuentran las frecuencias de observación o el número de elementos que se observan para cada par de valores. Si .X. es la variable identificada en las columnas. e Y la variable identificada en las filas. para el cruce Xi Yi existe la frecuencia denotada por F(Xi Yj ). o más brevemente Fij. Esta será una tabla de distribución bivariante. Además de esto tenemos la última columna de la derecha identificada por fy en donde se nos representan las frecuencias de observación correspondientes a la variable Y aisladamente considerada; añádase también la fila en la base de cada cuadro identificada por fx la cual representa las frecuencias de observación correspondientes a la variable X aisladamente considerada. Ambas reciben el nombre de frecuencias marginales. o distribuciones marginales.

La Fig. 7 nos sitúa en un primer acercamiento de tipo intuitivo al tema de la dependencia y correlación. La primera tabla de valor r = 0 nos muestra la independencia entre las variables. En cambio la tabla en el extremo inferior derecho de valor r = .92 nos muestra una acusada dependencia entre las variables. Para tener una apreciación más analítica del tema hay que considerar las distribuciones condicionales. Tómese en ambos cuadros el valor X = 5 en la cabecera de columnas; para ese valor dado, encuéntrese la distribución de valores en la variable Y. Se tendrán las dos distribuciones condicionales siguientes: f* y f**

  para X=5 Para X=8
Y f* f** f* f**
12 - - - -
11 - - - -
10 - - - -
9 9 - 6 15
8 15 - 6 38
7 16 - 13 16
6 25 22 15 -
5 26 44 12 -
4 9 23 5 -
3 7 - 4 -
2 4 - - -
1 1 - 1 -
0 - - - -
f* : cuadro extremo superior izquierdo r =0 

f** : cuadro extremo inferior derecho r = .92

Si se repite el mismo procedimiento para X = 8, se encuentran las siguientes similitudes y diferencias. La dispersión manifiesta en f* para ambas distribuciones condicionales (X = 5, X = 8) tiene lugar en tomo a la misma gama de valores .Y.. La concentración propia de f** para esas mismas distribuciones condicionales (X = 5, X = 8) ocurre en dos tramos muy distintos de valores Y. Las distribuciones f* están tomadas del cuadro primero de la Figura 7, en donde las variables X e Y se muestran independientes. Por esta razón el valor promedio de Y ya sea que tomemos la distribución condicional X = 5 o la X = 8, sigue sin alterarse arrojando el valor 6. Sin embargo, algo muy distinto sucede en las distribuciones f** que corresponden a los datos del cuadro inferior derecho en la Figura 7: Ahí, el valor promedio de Y varía según el factor condicional. Quiere decirse que en ese caso las variables se muestran altamente dependientes. Nótese de paso que las distribuciones condicionales pueden elaborarse en cualquiera de las dos variables, es decir, del mismo modo pueden fijarse valores de Y como condicionantes dando lugar a distribuciones condicionales de .X. .

Ahora estamos en capacidad para entender el significado de las líneas trazadas en los cuadros. En primer lugar existe en todos ellos un trazado de dos perpendiculares en los valores centrales de las variables; estos valores centrales son los correspondientes a los promedios en ambas distribuciones marginales .X. e .Y.. Pero además encontramos unas líneas oblicuas en algunos cuadros: esas líneas oblicuas están trazadas de acuerdo a los puntos promedios de las distribuciones condicionales. Las dos líneas de cada cuadro corresponden a la distribución condicional de Y dado X y a la distribución condicional de X dado Y. En el lenguaje técnico reciben el nombre de líneas de regresión. Aquí puede ser oportuna una digresión histórica que a su vez nos ayudará a profundizar el concepto. El término fue acuñado por Francis Galton, quien como es sabido, trabaja ardientemente tratando de aquilatar algunas leyes de la herencia humana. Los datos que a la sazón reunía Galton eran estaturas de padres e hijos. Formalmente hablando, las unidades o elementos de observación estaban constituidos por familias y las variables que se tomaban en cuenta eran de un lado la estatura promedio de ambos padres y de otro lado la estatura promedio de todos los hijos en edad adulta. Nada tenía de extraño el que a padres altos correspondieran hijos altos ya padres bajos de estatura, hijos también bajos. Pero una cosa llamó la atención del investigador: los hijos de los padres extremadamente altos así como de los padres extremadamente bajos mostraban tendencia a huir de ambos extremos. Esta tendencia de la mediocridad quedó consagrada con el nombre de línea de regresión (10).

Se observará que en el cuadro superior izquierdo no existen las líneas oblicuas; las líneas de regresión en ese cuadro coinciden con las perpendiculares. Es una característica formal de la independencia entre dos variables. A su vez las dos regresiones tienden a acercarse entre sí en la medida en que crece la dependencia entre las variables. A partir de aquí tenemos dos temas a dilucidar como secuela de la dependencia establecida. Los trataremos en el mismo orden histórico en que fueron abordados. Primeramente el tema del pronóstico; si las variables en estudio se muestran dependientes. quiere decirse que una puede servir de base para pronosticar valores en la otra. Este tema se enlaza con las líneas de regresión. En segundo lugar el tema de la correlación. o sea el tema de definir el grado de covariación común en ambas variables.

La regresión. El tema del pronóstico que abordamos aquí no tiene ninguna implicación de tipo temporal como ocurre con las series de tiempo. Se trata de estimar valores en una variable a partir de la información dada en otra. Si se tiene por ejemplo el comportamiento de un conjunto de municipios en lo que respecta a consumo de Kilovatios y producto bruto, y dado que exista una estrecha dependencia entre ambas variables, será posible estimar el producto bruto de algunos municipios con sólo conocer su consumo energético. Conviene adelantar aquí, un comentario aclaratorio. Hemos dichos que las líneas de regresión pueden elaborarse en ambos sentidos, es decir, en el sentido de estimar la variable .Y. sobre la base de .X. o al revés, en el sentido de estimar .X. sobre la base de .Y.. Formalmente no hay problema en ello, porque se hace abstracción de la naturaleza concreta de las variables, y se atiende únicamente a las expresiones numéricas que representan los valores observados. En otras palabras esto quiere decir que el estadístico prescinde del hecho de que las variables en estudio sean, por ejemplo, precipitaciones y volumen de cosecha; está claro que de ser así, no tendría sentido plantearse el pronóstico de precipitaciones a partir de las cosechas conocidas, pero sí al revés. Esto hace que sea importante en las investigaciones concretas que se llevan a cabo, el decidir cual va a ser la variable dependiente que queremos pronosticar, y cual la variable Independiente que sirve de base al pronóstico.

Hay otra precisión conceptual muy importante para el geógrafo investigador. Nosotros estamos hablando, en primer lugar, de observaciones recogidas en dos variables, por ejemplo municipios con datos de consumo energético y producto bruto. Cuando ahora planteamos el pronóstico de estimación nos estamos refiriendo siempre a uno de esos municipios observados. Se nos dirá entonces ¿qué utilidad práctica tiene estimar un valor que ya nos es conocido? Sería más interesante el problema si nos refiriésemos a un municipio fuera de ese conjunto y para el cual sólo contásemos con un valor observado en la variable independiente, por ejemplo, consumo energético. Entonces definitivamente sí tendría utilidad el pronóstico que pudiéramos hacer, en cuanto a producto bruto. Pero el problema que surge aquí es el de asumir que ese municipio fuera del conjunto observado, tiene el mismo comportamiento que los otros, en lo que respecta a las variables en estudio. Por consiguiente la cuestión se nos traslada a otro plano de consideraciones ¿cómo puede el investigador asumir razonablemente esta condición? El tema planteado tiene algo que ver con la inferencia estadística, lo cual exige una perspectiva de consideraciones que van más allá de una receta apresurada. En el presente manual estamos presentando al geógrafo una metodología netamente descriptiva, que creemos muy importante, pero debemos alertarlo, a su vez, de las fronteras conceptuales que delimitan las posibilidades de acción de esta metodología. No obstante creemos que, aún dentro de los límites estrictos en que nos estamos moviendo, podemos dar al lector una orientación en el tema planteado. El investigador puede en efecto asumir que un determinado municipio guarda similitud razonable con un conjunto dado de municipios; para ello cuenta con otra serie de informaciones. Pero además ¿qué significa la similitud de un elemento con un conjunto que ya es de por sí variado? La situación concreta que se tenga entre manos nos dirá algo sobre esa variación y sobre la holgura que puede permitirse para que un elemento extraño se incorpore al conjunto sin causar estridencia.

La holgura a la que-estamos aludiendo puede perfilarse mediante la dispersión existente en torno a la línea de regresión. Veamos pues, como se elabora una línea de regresión. Anteriormente dimos alguna idea al respecto.

1.- Se establecen todas las distribuciones condicionales F y/x (frecuencias observadas en .Y. para cada valor dado de .X.). ,

2.- Se hallan los promedios M y/x en esas distribuciones condicionales.

Dijimos entonces que la línea de regresión pasa por los puntos promedios M y /x. Este es el caso más simple. En la realidad pocas veces ocurre así. Generalmente los puntos promedios de las distribuciones condicionales no suelen alinearse en una recta. Para que ocurra el caso más simple, tiene que cumplirse la siguiente ecuación :

(i)         My/x=a+bx

Esta ecuación define que entre los valores M y/x y X existe una relación lineal; por tanto el establecer una línea de puntos M y/x o una línea de regresión consiste, en este caso, en conocer los parámetros de la ecuación (i).

En la realidad lo que ocurre es que los puntos medios M y/x no suelen alinearse en una recta. ¿Cómo trazar entonces la recta de regresión? Es evidente que la recta que vaya a tomarse producirá algunos desvíos con respecto a todos los puntos observados; una solución rutinaria que dan los matemáticos a este tipo de problemas, consiste en que la suma de todos los desvíos al cuadrado, sea la misma. Esta recta ajustada por mínimos cuadrados daría la siguiente ecuación (ii).

(ii) Y' = â + bX en donde

Σ(Y' -Y)2 = mínimo.

Los parámetros a y b de la ecuación (ii) se calculan por las fórmulas siguientes:

Se obtienen así los llamados coeficientes de regresión que definen la recta; habitualmente sólo el parámetro B recibe el nombre de coeficiente de regresión.

Veamos a título ilustrativo dos ejemplos numéricos sencillos:

Ejemplos numéricos sencillos

En la recta de la Fig. 8B pueden apreciarse los desvíos de los valores reales de Y con respecto a la recta ajustada.

Cuando se tiene una nube de dispersión con muchos datos, la recta de regresión puede ser utilizada con otros propósitos diferentes al pronóstico. Así por ejemplo, en la Figura 9 que reproducimos de un trabajo previamente publicado (11).

Figura 9: inmigrantes y emigrantes en 1960

En esta figura 9 se dispone de los siguientes datos: un indicador de ingresos por un lado y saldos migratorios por otro, para los distintos estados de USA. El indicador de ingresos se da en forma de mediana y el saldo migratorio en forma de cociente entre inmigración o entrada en el estado y emigración o salida del estado. Tal como puede apreciarse en el gráfico hay una leve tendencia al saldo migratorio positivo, asociado con el crecimiento de ingresos. Pero los casos particulares de Florida, Arizona y California se desvían tanto de la recta de regresión que no sería sensato atribuir sus saldos migratorios positivos al mero factor económico. En otras palabras, el análisis de regresión efectuado sobre los datos, pone de manifiesto :

-que las masas migrantes se mueven tras el atractivo económico

 -que sin embargo, la succión migratoria de ciertas plazas no se explica únicamente por el atractivo económico.

El razonamiento lógico que subyace a estas conclusiones es el siguiente: dado que los datos reales se desvían de una recta de regresión, debemos tener algún criterio para aceptar como tolerable un determinado desvío. Ese criterio no es otro que la desviación Standard. Para calcularlo se sigue el procedimiento siguiente :

1.- a cada elemento o unidad de observación se le busca el valor X (variable independiente) y dos valores en la variable dependiente, a saber, el valor estimado mediante la recta de regresión que identificamos por Y' más el valor real identificado por Y.

2.- Se determinan los desvíos Y'-Y

3.- Se elevan al cuadrado (Y' -Y)2

4.- Se suman Δ(Y' -Y)'

5.- Se divide por el número de observaciones libres

            Δ(Y' -Y)'/N-2

6.- Se obtiene la raíz cuadrada.

    (v)         S y' .x = (√(Y' -Y)'/N -2)

Con las fórmulas planteadas de (i) a (v) se tienen todos los instrumentos necesarios para llevar a cabo un análisis de regresión completo. En páginas anteriores hablábamos de la holgura permisible para aceptar elementos extraños dentro del conjunto en donde se establece la recta de regresión. Este tema vuelve a empalmarse ahora, con los casos concretos de Florida, Arizona y California de la Figura 9. El desvío que estos casos presentan con respecto a la recta de regresión ¿está o no dentro de la holgura permisible? La regla de decisión que puede usarse para dilucidar el tema se establece del modo siguiente:

Si los desvíos de los casos en estudio rebasan una cuantía de 1,65 S y' .x se descartan los casos de la hipótesis planteada en la recta de regresión.

Este descarte implica que los casos en estudio no admiten una explicación satisfactoria bajo la hipótesis de regresión entre ambas variables. Desde el punto de vista de introducir elementos extraños en el conjunto de datos, la holgura tolerada para situar los valores pronosticados, se encuentra dentro de los límites: ±1,65 S y' .x. Es decir, a los valores pronosticados se les sumaría y restaría la cuantía 1,65 S y' .x para establecer el intervalo de un pronóstico aceptable. La fijación de esta cuantía se debe a un orden de consideraciones teóricas, impropias de este manual, de la misma manera que consideramos también impropias las deducciones de la fórmula (iii) y (iv), anteriormente planteadas.

La correlación. Este tópico contempla el grado de asociación entre variables, sin detenerse a pensar en pronósticos de una a partir de otra. Históricamente se cuenta que Galton elaboró la primera fórmula de correlación que después fue mejorada por su biógrafo y admirador Karl Pearson. Pensaba Galton en un principio, en relacionar dos medidas de dispersión, una la que surge de enfrentar los datos a la recta de regresión y otra, la ya conocida varianza en la variable tomada como dependiente. La dispersión calculada frente a la recta de regresión evidentemente ha de ser menor, siempre que los datos adopten una forma de distribución covariante. Es decir :

(vi)        Σ (Y -Y')2  ≤   Σ(y -y)2  

Intuitivamente puede verse esto en las cuatro tablas bivariantes de la Figura 7. En la tabla inferior derecha, máxima covariación de datos, piénsese lo que significa hallar la dispersión en torno a la recta de regresión de. Ya partir de x. o por el contrario, en torno a la recta indicativa del promedio de Y. El promedio Y es constante para todos los valores de la variable, mientras que el estimado Y' mediante regresión, se va modificando en el mismo sentido que la variable. Solamente en la tabla superior izquierda coinciden recta de regresión y recta central, porque justamente ahí los datos no ofrecen ninguna covariación. Por tanto cuando no existe ningún tipo de asociación se nos da :

Para los demás casos en que sí existe una asociación, se tendrá la desigualdad estricta de la fórmula (vi). De este modo elaborando un cociente entre ambos miembros de la desigualdad, a saber ,

llegaremos a obtener un índice de la covariación o correlación entre las variables. En un principio se usó la expresión:

            (viii)        

 

la cual indicaba perfectamente los límites mínimo y máximo de la correlación. Para que la correlación se definiera como mínima o inexistente, el cociente de (viii) daría como resultado la unidad de acuerdo con lo establecido en (vii). Para que la correlación se definiera como máxima, el numerador del cociente, o sea, ~ (y -Y')' debería ser igual a cero, lo que implica que los valores observados coinciden con la recta de regresión.

Pearson en 1895 formula el índice que hoy se conoce con su nombre (12)

 

el cual tiene además de la propiedad de extenderse entre -1 y + 1 la de exhibir características adecuadas para la inferencia estadística. Esta fórmula (ix) surge de un concepto muy simple. Extendiendo la idea de varianza a una situación de dos variables, se obtiene el concepto de covarianza. Por otro lado, dentro de la hipótesis del ajuste lineal se puede definir una covarianza máxima como aquella que surge del hecho de que una variable sea transformación lineal de la otra. En un momento dado la covarianza hallada y la covarianza máxima, pueden darnos el grado de acercamiento mutuo. Concretamente la fórmula (ix) puede desdoblarse en dos factores:

en donde el primer factor representa la covarianza de X e Y, la cual se divide por la covarianza máxima representada en la expresión de la media geométrica de las dos varianzas. Mediante una manipulación algebraica sencilla puede demostrarse que la fórmula es equivalente a siempre que se acepte la transformación lineal Y = a + bX. Ahora bien esta función lineal entre las dos variables, es la que sugiere la idea de que ambas variables deben covariar al máximo grado, por lo cual se acepta la idea de que la expresión sea indicativa de covarianza máxima en ese caso. Justamente esto es lo que ocurre cuando la fórmula de Pearson (ix) arroja como resultado la unidad.

Hay que reconocer que la correlación no es un instrumento tan fecundo como la regresión. Nos dice únicamente el grado de asociación, así como el sentido de la misma entre dos variables. Dentro del contexto histórico en que surgió tuvo como finalidad el ser un indicador susceptible de adoptar distribuciones probabilísticas conocidas. Modernamente la correlación comienza a tener uso en el descubrimiento de estructuras relacionales latentes en conjuntos de variables. Es decir, si se tienen no dos, sino muchas variables, es posible elaborar matrices de correlación y de ahí proseguir hacia un análisis de tipo multidimensional. Pero estos temas escapan por su naturaleza a las limitaciones impuestas a este manual.

Una advertencia final sobre distintas fórmulas de correlación que es posible encontrar en los manuales. No nos vamos a detener en las fórmulas construidas para simplificación de cálculo, obedeciendo a la pauta que nos hemos trazado en la introducción. hay; sin embargo, algunas fórmulas que responden a las diferencias surgidas en la naturaleza de los datos. Encontramos básicamente las diferencias siguientes en cuanto al nivel métrico de las variables (ver cuadro).

Cuando las variables están medidas a un nivel ordinal debe entonces calcularse para cada elemento o unidad de observación la diferencia .d» que comporta la comparación de rangos entre ambas variables. Como esta operación hay que llevarla a cabo a través de todos los elementos. la fórmula contiene el símbolo de sumatoria. A su vez, el símbolo N denota el número de elementos. La fórmula, por muy extraña que parezca, se deriva de los mismos conceptos que se plantearon en la fórmula de Pearson.

El otro caso se refiere a la correlación biserial. Puede ocurrir, con alguna frecuencia, que alguna de las dos variables en consideración se presenta dicotomizada, esto es, dividida en dos grandes categorías. Por ejemplo. si en un conjunto de localidades se quiere correlacionar el ingreso per cápita con la categoría urbana-rural estaremos en este caso. Sea .P» la proporción de localidades urbanas; necesariamente «q» será la proporción de localidades rurales. Los restantes símbolos de la fórmula representarán:

        Mp: promedio del ingreso per cápita dentro del grupo de localidades urbanas

        Mq: promedio del ingreso per cápita dentro del grupo de localidades rurales.

        St: desviación típica de la variable ingreso per cápita en el conjunto de localidades.

Al igual que en el caso de la correlación ordinal no consideramos oportuno el desarrollo demostrativo del entronque de esta fórmula con la fórmula de Pearson. Sepa pues el lector .que el soporte conceptual de la correlación sigue siendo el mismo.

CAPÍTULO 5

SERIES DE TIEMPO

El cambio a través del tiempo puede considerarse una característica importantísima en el análisis geográfico, ya que incorpora un elemento de dinamismo real a las variables observadas. La serie de tiempo se define como un observación sucesiva del mismo fenómeno, visto a través de un período de tiempo. Es usual presentar las series de tiempo en un gráfico de coordenadas identificando la dimensión temporal en abscisa y el fenómeno observado en la ordenada. Véanse por ejemplo, los siguientes datos de licencias comerciales en Guipúzcoa y Álava durante el período 1964-1973 (Fuente: AME, Banesto, 1975).

  1964 65  66 67 68 69 70 71 72 73
Álava 2727 2158 2101 2503 3313 3479 3559 3575 3702 3484
Guipúzcoa 7678 10005 9940 10545 11235 11785 11678 13036 13346 12601

Su representación en unas coordenadas sería como sigue:

A veces es conveniente elaborar escalas logarítmicas; esto sucede siempre que las diferencias o saltos en las variables sean muy grandes. En el análisis de las series cronológicas se pretenden básicamente dos cosas: exponer una medida del crecimiento o decrecimiento e identificar líneas de tendencia.

Medidas de cambio. Para lograr una visión adecuada del cambio es necesario elaborar números índices. Un procedimiento rápido para ello consiste en:

1.- Escoger un año base; los valores del año base los simbolizaremos mediante X0

2.- Los valores de los años restantes se expresan como porcentajes de dicho año base. o sea X1 /X0 .100.

Según este procedimiento la Fig. 10 se transforma en la siguiente Fig. 11:

Figura 11 Números índices de la evolución de licencias comerciales (Base 1964)

Sólo así se nos permite comparar los cambios interanuales de las dos series. A la vista de la Fig. 11 no cabe duda de que el crecimiento comercial de Guipúzcoa es mucho mayor que el de Álava para el período aludido.

Sin embargo, debemos ser muy cautos en las afirmaciones que se desprenden de los números índices. Sobre todo en lo que concierne a niveles de desarrollo económico, Por ejemplo cuando se está en una fase de despegue. el crecimiento mostrado por los números índices puede ser violento. Mientras que cuando se están alcanzando niveles de saturación, los crecimientos relativos apenas se destacan. Es decir, importa mucho a efectos comparativos situar cualitativamente el año cero: saber si ese año significa un comienzo o una meta en la carrera del desarrollo. Posiblemente dentro del cuadro que nos sirve de ejemplo podemos utilizar e] siguiente contexto de referencias. El desarrollo comercial no es sino un producto de un fenómeno más complejo que llamamos avance urbano. Para una justa apreciación de los índices de desarrollo comercial en ambas provincias. Álava y Guipúzcoa, tal vez fuera necesario elaborar un perfil de indicadores, dando entrada a una constelación de variables en torno al fenómeno urbano. El tema, ciento por ciento atractivo, se sale de los límites que nos hemos propuesto en el presente manual.

Líneas de tendencia. Así como el número índice muestra la cuantía de un cambio con relación a un año tomado como base y en este sentido se expresa mediante un salto producido en el eje de ordenadas, la línea de tendencia no se interesa en la cuantía de los cambios, sino en su dirección, El número índice es un elemento descriptivo de hechos consumados; la línea de tendencia apunta hacia el futuro y en tal sentido vale como elemento de pronóstico. Tomemos los datos de Álava y Guipúzcoa y tratemos de elaborar una tendencia. Ver figura 12.

Figura 12: líneas de tendencia

Existen diversos procedimientos para ello que pueden agruparse en dos clases principales

a) Ajustes lineales basados en la técnica de promedios.

b) Ajustes basados en mínimos cuadrados.

Vamos a ejemplificar solamente con el primer tipo de procedimiento. Una vía rápida de producir una línea de tendencia con los datos mencionados, es uniendo el promedio de los cinco primeros años con el promedio de los segundos cinco. Se obtiene así una tendencia como la que se muestra en la Figura 12.

Las series que nos sirven de ejemplo son muy cortas y no tendría mucho sentido mostrar procedimientos más refinados. Basta decir que aún dentro de la categoría de ajustes lineales existen otros procedimientos de promedios móviles, que suavizan mucho más las disparidades resultantes entre cada punto real y cada punto ajustado. El punto real es el valor observado en la serie para cada año; el punto ajustado sería el punto de la recta correspondiente a cada año.

Cuando se adopta una línea de tendencia como elemento de pronóstico se asumen varios supuestos frente a los cuales debe estar atento el geógrafo.

El primer supuesto se refiere a las disparidades que acabamos de mencionar. Se supone que esas disparidades son una especie de variaciones erráticas en torno a la línea ajustada y en ese sentido se supone que se compensan unas con otras. Para adoptar este supuesto hay que disponer de una serie muy larga de observaciones. El segundo supuesto adopta cierta constancia en los factores que han concurrido en el pasado con respecto a los que van a concurrir en el futuro. Es decir, se descarta cualquier tipo de innovación que puede alterar la situación de estos factores. Solamente así puede alcanzar validez el pronóstico.

PARTE II: DISTRIBUCIONES ESPACIALES. DATOS UBICATIVOS Y DE DENSIDAD

CAPÍTULO 6

EL MAPA COMO MODELO DE MEDICIÓN REPRESENTATIVA y FUENTE DE DATOS.

En la teoría cartográfica no Se ha reparado el volumen de trabajo lógico subyacente a la elaboración de mapas. La lengua inglesa utiliza el término «map» en dos niveles de profundidad. En el nivel usual se ha querido aludir a la representación común de fragmentos de superficie terrestre, en una hoja plana, mediante algún tipo de proyección. Pero adicionalmente, el idioma inglés reserva el término «map» otro significado matemático más profundo: cualquier observación empírica llevada a una representación simbólica en donde se guarden ciertas reglas formales, se dice que ha sido «mapeada» (mapped en inglés). La correspondencia entre objetos empíricos y símbolos, y sobre todo entre operaciones empíricas y relaciones formales, se convierte en punto central de discusión para la justificación de un «mapa». Este tipo de trabajo indagatorio ha recibido recientemente el nombre de Metacartografía (13). La ausencia de esta perspectiva ha ocasionado a nuestro juicio esas clasificaciones superficiales de los mapas geográficos, en mapas cualitativos y mapas cuantitativos, perpetuando una tradición que aún hoy día penetra en algunos ámbitos desinformados del mundo científico. Sin embargo, esta vieja antinomia ha perdido vigencia frente a las modernas teorías de la medición, que encuentran acogida creciente en muchas áreas del conocimiento social.

La construcción de un mapa implica dos tipos de operaciones: una, la localización para la cual, se ha de fijar un sistema de coordenadas y un tipo de proyección; la segunda operación del cartógrafo consiste en la representación simbólica, con su secuela de reglas formales implícitamente en juego, de los fenómenos inherentes al espacio terrestre

Nos vamos a referir, de momento, a esta segunda operación. El cartógrafo, aún sin saberlo, ha estado muy atento a reproducir lo que en las modernas teorías de la medición recibe el nombre de niveles de medida. Dijimos anteriormente que el mapa se construye bajo la inspiración de un modelo geométrico, en donde se manipulan diversos entes abstractos, tales como puntos, líneas y áreas: Estos entes tienen correspondencia con los símbolos utilizados por el cartógrafo, A veces el cartógrafo utiliza el símbolo de un ancla para denotar un punto geográfico; a veces la silueta de un barco. Con ambos símbolos pretende indicarnos la presencia de un puerto de mar y a su vez establecer un matiz de mayor o menor caladero. Otras veces se trata de un círculo pintado en negro o de un círculo rodeado de un anillo para indicarnos distintos tamaños de ciudades, Con su repertorio de símbolos, el cartógrafo nos introduce subrepticiamente en una teoría de Isomorfismos estructurales (14). ¿Qué queremos señalar con este concepto? Veamos.

Las observaciones comunes del geógrafo. ciudades. puertos de mar. diferentes usos del suelo. ...pasan en primer término por un proceso de clasificación. Este proceso define una estructura de clases bajo una relación de equivalencia. Es decir constituyen una clase todos los puertos. otra clase todas las ciudades. otra clase las áreas con cultivo de cereal. etc. El geógrafo aborda una representación de este trabajo clasificatorio escogiendo símbolos que respondan en forma biunívoca a estas clases. He ahí el primer nivel categorial de la medición. Pero como ya se señaló en líneas anteriores. la observación geográfica no se limita a clasificar sino que avanza hacia planos conceptuales más exigentes. como cuando quiere matizar bajo forma de ordenación, diferencia entre puertos mayores y menores, megalópolis y centros poblados menores, agricultura intensiva y extensiva. etc.

También para estas diferencias ordenadas ha encontrado el cartógrafo un lenguaje de representaciones simbólicas. He ahí el segundo nivel ordinal de la medición. Un paso más se avanza al definir unidades en la diferenciación, estableciendo intervalos de magnitud constante. Por ejemplo centros poblados hasta 50.000 habitantes de 50 a 100.000. de 100 a 500.000 y así sucesivamente. En un principio la representación de intervalos ha sido pobre, por carecer de instrumentos adecuados. Con el tiempo la cartografía se ha ido enriqueciendo hasta el punto que puede afirmarse con Hagget que «la historia de la exploración geográfica es también la historia de mejorar los niveles de medida» (15).

Entre los símbolos que se manejan para representar intervalos constantes son muy notables las líneas de isocontornos. Estas líneas de isocontornos comenzaron a usarse en el siglo XVI pero no llegaron a tener amplia acogida hasta el siglo XVIIl. la popularidad de los isocontornos hay que atribuírsela a Edmund Halley quien utilizó la técnica de unir lugares con el mismo ángulo de orientación mediante un trazado de líneas curvas (ver Figura 13).

Figura 13 Una porción del mapa de Halley

Las líneas de isocontornos, hoy día, reciben diversas denominaciones específicas: isobaras para señalar puntos de igual presión, isotermas para puntos de igual temperatura, etc. Constituye éste el tercer nivel de medición de Intervalos. Por consiguiente puede afirmarse que la cartografía ha significado, entre otras cosas, la construcción de instrumentos de medida para el geógrafo, en diferentes niveles de medición, básicamente en niveles categoriales ordinarios y de intervalos. Los niveles de medición que se han mencionado tienen carácter acumulativo, es decir los niveles superiores contienen y acumulan la información de los niveles inferiores. En concreto, el nivel de intervalos supone y contiene en su construcción, el proceso de categorización y ordenamiento.

Hay que notar también el hecho de que la representación cartográfica no es rígida, y permite llevar el mismo fenómeno a representación, mediante diferentes técnicas. Veamos a título de ejemplo la Figura 14 que nos ilustra un área poblada de Kansas (EE.UU.).

Figura 14: muestra de un área poblada de Kansas

Se trata de cinco representaciones cartográficas de una misma realidad. En la representación (a) se nos da el área total distribuida en 105 zonas con indicación de la densidad de población correspondiente a cada zona. La representación (a) sirve, en realidad. para mostrarnos los datos que van a ser representados mediante diferentes procedimientos técnicos. La representación (b) nos ofrece una versión muy común, la denominada mapa coroplético, que consiste en usar diferentes grados de sombreado o combinaciones de color, para señalar la variación poblacional. La representación (c) es un mapa isoplético, en donde se utilizan curvas para unir lugares de valor constante en la característica que se está midiendo. en nuestro caso densidades de población. La representación (d) utiliza la tercera dimensión para señalar, mediante técnicas volumétricas las diferencias en cuestión. Finalmente la representación (e) ofrece una suavización volumétrica que hoy en día es muy común, gracias al auxilio de trazadores conectados a un procesador electrónico. La ilustración ha tenido por objeto mostrarnos la versatilidad de la representación cartográfica.

Volvamos ahora a los aspectos de localización que se mencionaron como inherentes a la construcción de mapas. Hay básicamente dos tipos de datos en el análisis espacial que vamos a presentar: unos son datos referentes a distribuciones de puntos; otros son datos referentes a distribuciones de áreas. Por supuesto, no se agotan aquí las posibilidades del análisis espacial, pero tampoco pretendemos ir más allá de una exposición introductoria. La cuestión es decidir qué va a ser considerado como punto o área; pertenece en realidad a la esencia de cada investigación. A veces las ciudades podrán ser consideradas como puntos ya veces como áreas; e1\o no puede ser decidido de antemano, sino en cada caso, en virtud de los propósitos concretos de la investigación. Si lo que se quiere es comparar las facilidades de teléfonos públicos que ofrecen dos o más ciudades, se nos presentan dos casos posibles. En un caso consideraremos las instalaciones telefónicas repartidas dentro del casco de la ciudad; en ese caso nos interesa considerar las ciudades como áreas. Pero pudiera suceder que solamente nos interesara un índice per cápita tal como teléfonos instalados por cada mil habitantes; en ese caso las ciudades estarían consideradas como puntos.

CAPÍTULO 7

DATOS UBICATIVOS

¿Cuales son las características que esencialmente definen una distribución de puntos? Hay tres medidas importantes que todo geógrafo debe dominar ampliamente: unas son medidas de ubicación central; otras son medidas que atañen a la dispersión y al agrupamiento; finalmente las terceras se refieren a las funciones de distancia que pueden elaborarse a partir de cada punto.

Las medidas de ubicación central se producen por los procedimientos que ya se han descrito anteriormente en los indicadores de posición central. Evidentemente los cálculos deben hacer referencia a los dos ejes de coordenadas geográficas. La situación de partida es siempre un conjunto de puntos, los cuales necesariamente se definen e identifican de acuerdo a unas coordenadas, tal como se muestra en la Figura 15.

Figura 15: situación de partida

Se han calculado dos medidas, un promedio señalado por + y una mediana que se determina mediante el cruce de la línea AB con la línea CD. Evidentemente las coordenadas que sirven como origen son trazadas arbitrariamente. La línea AB deja a un lado y otro de su valor de abscisa el mismo número de puntos; la línea CD hace otro tanto con su valor de ordenada correspondiente. Es bueno advertir que el promedio, como medida de ubicación central, no tiene el significado lógico que dábamos a los indicadores de posición central; la diferencia estriba en que éstos son medidas unidimensionales, mientras que ahora tratamos con medidas bidimensionales. En el caso que nos ocupa, se trata más bien de un significado físico de centro de gravedad para el conjunto de puntos, y como tal es un elemento conceptual que nos ayudará a describir la distribución. Por ejemplo, si partimos del conjunto de capitales de provincia, en España, puede calcularse el centro de gravedad; lo mismo podría hacerse partiendo de los centros poblados de Guipúzcoa. Ahora bien, ése sería un centro de gravedad atendiendo exclusivamente a la localización espacial de cada punto. Pero si además de la localización de las capitales (caso de España) o de los pueblos (caso de Guipúzcoa) estuviéramos interesados en ponderarlas con el peso de población respectivo tendríamos entonces un promedio ponderado que seguramente desplazaría al centro de gravedad originario. Este somero análisis plantea al geógrafo las primeras interrogantes acerca de las peculiaridades de los asentamientos humanos. Se lo sugerimos como ejercicio al lector interesado. Es evidente que pueden utilizarse muchos y diferentes criterios de ponderación: por ejemplo. población activa en una determinada rama de actividad agrícola. industrial. etc. Asignando a cada localidad el peso que le corresponda en el criterio. se obtendrá un centro de gravedad distinto para cada caso.

El concepto de dispersión es complementario al concepto de concentración. A mayor dispersión. menor concentración y viceversa. Por tanto las medidas que se van a exponer aquí. atañen a una distribución de puntos. y son indicadores tanto de dispersión como de concentración. Sin embargo usaremos el término de dispersión. Hay tres manaras de medir la dispersión según sean los puntos tomados como referencia: la dispersión con respecto al punto de ubicación central: la dispersión con respecto a cualquier otro punto convencionalmente adoptado. y la dispersión que ofrecen los puntos en su mutua relación. La dispersión. con respecto a la ubicación central. puede ser de dos tipos. según se adopte como ubicación central el centro de gravedad o la medianía.

Dispersión con respecto al centro de gravedad. En este caso se procede al cálculo de una distancia standard expresada como:

        (i)                    Dist Stan = √(ΣD2/N)

 

en donde D constituye la distancia de cada punto definido por sus coordenadas (X. Y) con respecto al centro de gravedad y N es el número de puntos.

Dispersión con respecto a la mediana, Aquí puede calcularse una medida equivalente a la diferencia intercuartílica.  De la misma manera que hemos trazado líneas medianas en ambos sentidos de las coordenadas (recuérdense las líneas AB y CD en la Figura 15) así también pueden trazarse líneas cuartílicas en ambos sentidos de las coordenadas. Si se trazan las líneas correspondientes a los cuartiles primero y tercero. se obtendrá un espacio encerrado entre las mismas. de tipo rectangular, tal como se muestra en la Figura 16.

Figura 16

Ofrecemos en esta Figura el espacio intercuartílico para dos distribuciones hipotéticas.

Evidentemente cuanto mayor sea el área del espacio cuartílico con respecto al área de la distribución total. quiere decirse que la dispersión es mayor. Hablamos siempre. por supuesto. de dispersión en torno a la mediana.

Dispersión con respecto a cualquier punto. La escogencia del punto de referencia puede ser decisiva para mostrar el carácter de ciertas distribuciones. Piénsese. por ejemplo. en establecimientos comerciales como puntos a analizar dentro de un área urbana. Es evidente que trae cuenta en esos casos fijar el centro de la ciudad. como punto de referencia. Este centro de la ciudad generalmente suele estar señalado por sus habitantes. como un punto de alta densidad comercial y de ningún modo tiene el carácter de un centro geométrico. La Figura 17nos muestra el caso de Nottingham. Los círculos han adoptado como centro el distrito comercial de la ciudad. Se han trazado cinco círculos que se extienden en un radio de 1/4, 1/2, 1, 3/2 y 2 millas. Se reflejan en la Figura dos tipos de establecimientos: zapaterías señaladas con puntos negros y pequeñas tiendas de pescado al detal preparado identificadas + .Las dos distribuciones, zapaterías y pescaderías muestran alrededor del 80% de sus puntos dentro del círculo de dos millas. Sin embargo. a simple vista se observa la diferencia de dispersión en ambas distribuciones. estando las zapaterías muy concentradas en el primer círculo de 1/4 de milla de radio.

Figura 17: Tomado de Hammond & McCullagh, Quantitative Techniques in Geography, Oxford, 1974

Dispersión de puntos en su mutua relación. Hasta aquí las medidas de dispersión se han tomado con respecto a un punto previamente definido. Estas medidas tienen un aspecto vulnerable si se considera la posibilidad de que una distribución puede ser dispersa en relación a un punto y al mismo tiempo puede mostrar alta concentración en el sentido de que los puntos estén arracimados en grupos varios. El arracinamiento o agrupamiento puede ocurrir en torno a cualquier punto. De ahí la necesidad de examinar este problema y elaborar algún indicador al respecto.

El agrupamiento de puntos en mutua relación es a su vez, una función del grado de uniformidad de la distribución. Tradicionalmente el geógrafo ha examinado los asentamientos humanos considerados como puntos bajo un esquema dicotómico, en términos de concentración o dispersión. Sin embargo los asentamientos considerados como puntos ofrecen aspectos de distribución que no quedan totalmente satisfechos con las nociones de concentración y dispersión. Es necesario acudir al concepto de tipos de distribución. Hay esencialmente tres tipos de distribución como se muestra en la Figura 18 (página siguiente). Los puntos representan siempre posiciones en una superficie y como tales se localizan mediante coordenadas. Los puntos aluden a asentamientos o cualquier otro fenómeno localizable. Cuando la distribución es uniforme la distancia de cualquier punto con respecto a su más inmediato vecino es prácticamente la misma. Cuando la distribución está arracimada. quiere decirse que habrá uno o varios núcleos en donde la distancia de cada punto a su más inmediato vecino sea realmente pequeña, mientras que por otro lado habrá áreas grandes completamente desiertas. Cuando la distribución es aleatoria no se muestra una tendencia definida en ninguno de ambos sentidos. El problema real consiste en la elaboración de un indicador que dé cuenta del fenómeno de distribución, tal como se ha expuesto. Estos indicadores han sido inicialmente desarrollados por los botánicos y tratan de ofrecer una escala continua que va de un extremo, en donde todos los puntos bajo consideración están agrupados, al otro extremo, en donde todos los puntos están uniformemente distribuidos.

Figura 18

 

El indicador que se ha elaborado con éxito para dar cuenta del tipo de distribución ha recibido el nombre de «índice de la vecindad más próxima» (nearest neighbor index) y fue puesto en circulación por Clark y Evans (15).

El indicador define el grado en que una distribución espacial observada se aparta de una distribución espacial teórica. En un extremo de la escala se daría el valor producido por un arracinamiento total, en donde todos los puntos considerados coincidirían en la misma ubicación. En el otro extremo se daría el valor producido por una máxima dispersión, efecto a su vez de una gran uniformidad en la distribución; el modelo geométrico de esta uniformidad distributiva sería el de un hexágono en donde cada punto equidista de los restantes. La fórmula de este indicador es como sigue:

El cálculo del numerador no presenta ningún problema.

1.- Se calcula la distancia de cada punto a su vecino más próximo.

2.- Se suman todas las distancias así calculadas para cada punto.

3.- Se divide la suma obtenida por el número de puntos.

El cálculo del denominador estriba en la fórmula:

1/2√(N/A)

N: número de puntos

A: área donde se encierra el conjunto de puntos N.

Esta fórmula se basa en el hecho de que en una modalidad aleatoria, la distribución (frecuencias para puntos que caen en áreas delimitadas, se define por la función de Poisson. Obsérvese que el valor de área debe venir dado en la misma unidad en que se miden las distancias del numerador. Por ejemplo, si las distancias se dan en kilómetros, el área vendrá dada en kilómetros cuadrados y así sucesivamente.

El resultado de la fórmula (ii) puede variar desde cero hasta un máximo de 2,15. El valor cercano a cero es indicativo de que existe una distribución muy agrupada, con una tendencia a minimizar las distancias entre puntos vecinos. Cuando el valor anda cerca de la unidad, por defecto o por exceso. significa que las distancias observadas tienen un carácter aleatorio. Finalmente cuando el valor rebasa la unidad es indicativo de que existe tendencia a una distribución uniforme y por tanto a maximizar las distancias. Véase la siguiente ilustración de algunos asentamientos urbanos en determinadas áreas de Estados Unidos (16). En la Figura 19 puede verse el valor escalar que correspondería a 19 estados americanos en este análisis de distribución de asentamientos. Nótese que en el estado de Texas se han tomado dos zonas (NO y SE) con lo que resultan en realidad 20 zonas estudiadas. Se observará que la mayoría de zonas analizadas tienden al esquema de uniformidad. En la Figura 20 se representan algunos casos concretos pertenecientes a los dos extremos de la escala: el caso de Washington y Utah ejemplos de distribución arracimada. y los casos de Minnesota. Missouri y Kansas como ejemplos de distribución tendiente a la uniformidad.

Figuras 19 y 20

Veamos el cálculo del índice a través de un ejemplo de 13 localidades situadas en una región inglesa (17).

Figura 21

El fechado en la Figura 21 entre pares de puntos nos indica la distancia al vecino más próximo. A veces el flechado es doble. es decir se orienta en ambas direcciones; en esos casos ambos puntos se consideran el más próximo vecino el uno respecto del otro. El cálculo del numerador de la fórmula (ii) se hará mediante la siguiente tabla:

Downham -Swaffuam 21.40
Swaffuam -Watton 12.27
Watton -Swaffuam 12.27
East Dereham -Watton 14.30
Nymondham -Attleborough  8.90
Attleborough -Wymondham 8.90
Diss -Attleborough 16.80
Brandom -Thetford 9.40
Thetford -Brandom 9.40
Newmarket -Mildenhall  13.00
Mildenha1l -Newmarket 13.00
Bury St Edmunds -Mildenhall 17.20
Stowmarket -Bury St Edmunds 20.80

El promedio de estas distancias arroja el valor de 13.73 Km. De otro lado el denominador de la fórmula (ii) se calculará mediante los siguientes pasos :

 1- N =13;         A=60x60=3600

2 - 2 √(N/A = 2√0,00361

3 - (1/2√/N/A)) = 8,3

El índice buscado nos dará el valor 13,73/8,3 = 1,65 el cual representa una tendencia a la uniformidad distributiva.

Cuales son las observaciones que pueden hacerse al .índice del vecino más próximo

1.- En primer lugar debe señalarse que este índice no establece diferenciación alguna entre un esquema de agrupación única y uno de agrupación múltiple.

2.- En segundo lugar el índice tiende a promediar los patrones espaciales menores dentro del espacio mayor en que se inscriben, y por tanto puede dar origen a una impresión errónea de aleatoriedad.

3.- En tercer lugar hay que admitir que la selección del vecino más próximo es un tanto arbitraria; podría extenderse el cómputo a vecinos de menor proximidad. obteniéndose resultados diferentes.

4.- Aún en el caso de que el índice calculado para un análisis concreto se aproxime a la unidad, ello no significa que los puntos tomados en consideración (por ejemplo, asentamientos) hayan de ser resultado de azar .

Todo esto significa que el índice debe ser manejado con cautela. Presenta a su favor el hecho innegable de que cuando arroja un valor diferente de la unidad, ofrece una pista para interpretar el fenómeno que se analiza, bien sea bajo una tendencia al agrupamiento o bajo una tendencia a la uniformidad.

CAPÍTULO 8

MEDIAS CENTROGRÁFICAS, MAPAS DE VECTORES

Los datos ubicativos se definen mediante unas coordenadas en el espacio físico: en este sentido el geógrafo dispone de una plataforma elemental, para iniciar el análisis espacial. Por otro lado hemos visto en el análisis volumétrico lo que dan de sí las distribuciones numéricas; pero ambos análisis, el ubicativo físico y el volumétrico, se presentan divorciados, ajenos el uno del otro. Tradicionalmente el geógrafo ha acumulado ambos tipos de análisis superponiendo el uno sobre el otro. La unidad del análisis así lograda, era un tanto artificial y retórica. Inspirados en el nuevo espíritu geográfico, queremos ofrecer una metodología más penetrante, que se introduzca en la entraña del hecho geográfico, y ofrezca una visión bien ensamblada y compacta de los elementos en juego, es decir, de los datos volumétricos y los datos ubicativos. Ahora bien ¿Cómo incorpora el geógrafo toda la riqueza de observaciones acumuladas mediante datos volumétricos a una perspectiva de localización? En otras palabras ¿cómo confiere los atributos espaciales de la localización a los datos volumétricos anteriormente estudiados? La respuesta no deja de ser sencilla y hasta sorprendente: el instrumento formal del que dispone el geógrafo para llevar a cabo esta síntesis es la ponderación.

La ponderación consiste, como lo dice la misma palabra, en otorgar un peso (pondus en latín) a los valores de localización. Dado un conjunto de puntos, éstos se someten a un factor que altera los valores originarios de coordenadas físicas, Por ejemplo: sean los puntos en cuestión los municipios guipuzcoanos de la Tabla 2. Es evidente que de acuerdo a sus valores de coordenadas puede calcularse un centro de gravedad. Pero si queremos darle a ese centro de gravedad un significado no meramente físico, sino demográfico, tendremos que tomar en consideración el peso que cada municipio arrastra en virtud de su carga demográfica. ¿Cómo se calcula ese peso demográfico? En primer lugar habrá que determinar la población total que corresponde al conjunto de todos los municipios señalados. En segundo lugar, se establece la porción de población que corresponde a cada municipio sobre el total. Esta porción constituye el factor de peso que buscamos.

El criterio de ponderación elegido, en este caso la población, hará desplazar el centro de gravedad físico hacia un nuevo punto. Este análisis se ha utilizado con éxito para mostrar los desplazamientos demográficos en el tiempo. Peter Taylor (18) lo utiliza con datos de trece censos desde 1850 hasta 1970. Véase en la Figura 22 el movimiento este-noroeste con la población de IOWA. Puede apreciarse incluso el año de 1890 como año crítico, en que cesa el desplazamiento escalonado hacia el oeste y a partir de la II Guerra se inicia un movimiento reverso hacia el este.

Figura 22: Movimiento este-noroeste de la población de Iowa

De la misma manera podrían utilizarse otros criterios de ponderación, tales como población asalariada, empleo en una determinada rama de actividad, salarios producidos, etc. Por ejemplo los censos de la industria manufacturera en Estados Unidos nos proporcionan los desplazamientos que pueden apreciarse en la Fig. 23.

Figura 23

Se observa una tendencia en la primera mitad del siglo XX hacia el oeste, debido sin duda, a la presencia de California como un gran polo manufacturero. Al mismo tiempo es curioso advertir la diferencia en las coordenadas norte-sur de la tendencia de los salarios, con respecto al volumen de trabajadores. El volumen de trabajadores acusa una tendencia sureña, mientras que las cotizaciones salariales, al revés, manifiestan una tendencia a ubicarse hacia el norte. Este análisis, sin más, pone al descubierto un hecho de desigualdad económica reflejado en una perspectiva espacial: los salarios del norte, son más altos que los del sur. Hallazgos de esta naturaleza reflejan algo más que una curiosidad aislada y comienzan a enriquecer la temática de la Geografía moderna con nuevos aportes; en la actualidad toma incremento considerable la llamada Geografía del Bienestar (19).

Indudablemente también se han cometido excesos de apreciación por la vía de los métodos centrográficos, como en el caso bastante bien conocido de los geógrafos rusos. Sabido es que en 1925 los rusos instauraron el Laboratorio Centrográfico Mendeleev en Leningrado. Este laboratorio que hacía el honor al famoso químico pretendía servir de soporte a los planificadores rusos. En una ocasión la recomendación del Laboratorio fue de limitar la pretendida expansión siberiana en la producción de cereal, con objeto de preservar el centro de gravedad en el tradicional granero de Rusia. Este apego a ideas concebidas echó por tierra el prestigio del Laboratorio y puso bien en claro una vez más, que la actitud del investigador debe estar siempre abierta para la captación de nuevos hechos.

A través de las Figuras expuestas queda claro que un fenómeno económico se plasma especialmente y puede ser captado mediante un análisis adecuado. Sobre todo se patentiza la tendencia del desplazamiento en el tiempo, dando lugar al esbozo de principios y leyes generales, muy lejos del análisis tradicional de la Geografía en donde ha prevalecido la valoración de lo individual sobre lo general. El instrumento formal que hemos presentado -el centro de gravedad ponderado- plantea sin duda evidencias útiles para el establecimiento de principios generales del desplazamiento.

Conviene subrayar que ésta es justamente la orientación del nuevo espíritu geográfico: la formulación y sustentación de leyes generales en evidencias tácticas elaboradas dentro de las más rigurosas exigencias. De este modo se ahuyenta la especulación y el sesgo subjetivo de la Geografía tradicional.

Creemos, sin embargo, que la utilidad de este instrumento rebasa el análisis del desplazamiento en el tiempo, y ofrece posibilidades para el diagnóstico en un momento dado. Anteriormente hemos aludido al ejemplo de los municipios guipuzcoanos, y decíamos que podríamos hallar el centro de gravedad demográfico en contraste con el centro meramente físico. En caso de existir una diferencia, que suponemos la hay, esto indicaría, por de pronto, dos cosas :

1.- que la población guipuzcoana no se distribuye por igual en el conjunto de puntos que identifican los municipios: o sea, que la distribución poblacional es asimétrica dentro del espacio asignado.

2.- Además la localización del centro demográfico, con respecto al centro físico, nos indicaría la orientación espacial que toma dicha asimetría.

Si este análisis se repite para otras regiones o provincias, por ejemplo para regiones costeras y regiones del interior tendríamos la posibilidad de comparar el comportamiento demográfico en distintos contextos espaciales. Del punto de vista de representación cartográfica sugerimos la utilización de vectores, indicando en el punto de arranque del vector el centro físico y en el punto de llegada el centro demográfico.

De este modo cabe representar un mapa de las regiones o provincias con la señalización de vectores indicativos de un proceso dinámico de la población en el espacio. Esta representación es totalmente distinta de la representación coroplética de densidades, a la que aludiremos más adelante. En el caso de representar las provincias españolas, el mapa coroplético de densidades atribuye un valor uniforme de densidad a toda la provincia, mientras que en el mapa de vectores para cada provincia se señala el desvío orientativo de la fuerza de tracción poblacional. Aunque no hemos visto la aplicación de la centrografía, en este sentido abrigamos, sin embargo, algún optimismo acerca de tales posibilidades. Nos sentimos muy apoyados en el fondo por las investigaciones que adelanta Waldo Tobler en la representación cartográfica de flujos migratorios (20).

Las posibilidades de análisis no se detienen aquí. Cabe, en efecto, llevar a cabo el contraste entre distintos criterios de ponderación, tales como población total y empleo, en una determinada actividad o población y renta percibida, etc. ¿Qué significado tiene el contraste? Se sabe que la renta percibida adopta una distribución asimétrica, tal como vimos en el capítulo 2. Ahora bien para un determinado contexto espacial, que engloba a un conjunto de puntos, podemos determinar dos centros de gravedad, utilizando en un caso el criterio de ponderación demográfica y en otro caso el criterio de ponderación de ingresos percibidos. En concreto podría servirnos de referencia el ejemplos de los municipios guipuzcoanos. El cálculo del centro demográfico ya ha sido visto. El centro de los ingresos económicos lleva el siguiente proceso: habría que fijar, en primer lugar, la suma de ingresos para cada municipio; después se tomaría el ingreso global de la provincia, y finalmente la porción correspondiente a cada municipio con respecto a ese global. De este modo se obtendría el peso correspondiente a cada punto o municipio. Los centros hallados mediante ambos procesos de ponderación pueden coincidir o ser diferentes. La coincidencia indica que el proceso ponderativo mediante ambos criterios, el demográfico y el económico, no produce alteraciones, o sea que la población y el ingreso van a la par en los municipios guipuzcoanos. En caso de resultar una diferencia tendríamos la evidencia contraria, o sea, que la población y el ingreso van a la par en los municipios guipuzcoanos. En caso de resultar una diferencia tendríamos la evidencia contraria, o sea, que la población y el ingreso no se comportan a la par . Conviene matizar la significación espacial de este hecho. Efectivamente no se debe confundirlo con la asimetría de los ingresos en una población, tal como se estudia en el capítulo 2. Allí la localización no fue tomada en cuenta como atributo o variable espacial. Aquí, en cambio, es esta variable la que se toma en cuenta primordialmente. En cuanto a la representación cartográfica se refiere, volvemos a repetir lo dicho anteriormente. Al igual que entonces y aplicando el análisis a las provincias españolas, tendríamos un mapa de vectores que nos señalaría en cada provincia el desvío del centro de gravedad económico, con respecto al centro de gravedad demográfico.

Como comentario final a esta capítulo digamos lo siguiente:

La utilización de las técnicas centrográficas, llevadas a cabo por Tamames (21), ha conducido a una visión muy limitada sobre la validez de las mismas en el análisis geográfico. Posiblemente ello ha desalentado a los investigadores, a juzgar por la escasez que observamos en el uso de estos métodos. Esperamos contribuir a un cambio de actitud con el enfoque aquí presentado.

CAPÍTULO 9

DATOS DE DENSIDAD

La columna vertebral del análisis espacial, ya sea a través del dato ubicativo o a través del dato de densidad, es la consideración del punto geográfico. El punto geográfico sirve de asiento a las variables del análisis volumétrico ya los atributos espaciales a los que dimos entrada en esta segunda parte. En el punto geográfico se concitan la localización y la densidad como características espaciales primordiales. La noción de punto geográfico es una abstracción conceptual que no debe limitarse con exclusividad al atributo espacial de localización o dato ubicativo. El conjunto de puntos geográficos que anteriormente (ver capítulo 7) venía definido por sus coordenadas, ahora lo consideramos identificado por sus áreas correspondientes. Tendremos, pues, un conjunto de áreas sirviendo de base de sustentación a muchos de los fenómenos estudiados en el análisis volumétrico: población humana, cabezas de ganado, producción agrícola e industrial, distintos bienes o servicios, etc. Para cada uno de estos fenómenos se puede determinar su correspondiente densidad de tal modo, que la densidad se convierte en una variable espacial, cuya función de distribución puede ser establecida. Así es como se va enhebrando la metodología cuantitativa que se inició en el análisis volumétrico, prosiguió en el análisis de localización, y termina ahora en el análisis de densidades. De este modo los fenómenos estudiados en el análisis volumétrico, con absoluta independencia de sus atributos espaciales, terminan por ser definitivamente incorporados al análisis espacial.

El concepto de densidad. Formalmente hablando este concepto pertenece a las variables de medición derivadas, que se estudiaron anteriormente. Siempre que en un cociente entre variables se tome como divisor o base, una unidad de superficie, l1amamos al índice, resultante densidad. Una de las aplicaciones más comunes de este cociente es la que se elabora con poblaciones humanas. Dado un conjunto de puntos geográficos (que son nuestros elementos o unidades de observación hablando en términos estadísticos) recogemos en ellos los valores correspondientes a población y superficie (variables en términos estadísticos). El cociente formado por :

Población / Superficie

constituye el concepto de densidad más trajinado. Pero el concepto puede aplicarse por igual a poblaciones animales o vegetales, o a cualquier otra realidad contable. Así, por ejemplo, el caso que se nos presenta en la Tabla 2 de este manual, en donde se nos dan los municipios guipuzcoanos por encima de 3000 habitantes, con sus correspondientes valores en superficie y número de licencias comerciales. Es evidente que se puede calcular la densidad comercial de los municipios guipuzcoanos a partir de las licencias operantes. Nos encontraríamos, por ejemplo, con el hecho de que mientras Pasajes ostenta una densidad de 74,2, Escoriaza, en cambio, apenas llega a la unidad con una cifra de 0,8. Una densidad alta no quiere decir necesariamente que abunde la actividad comercial. Por ejemplo Irún o San Sebastián ostentan mayor número de licencias que Pasajes; concretamente Irún, bastante más del doble, y San Sebastián, mas de ocho veces. Pero las densidades correspondientes son menores. Esto significa que la densidad no es un concepto absoluto sino relativo, dicho en otras palabras, que la densidad nunca alude a una realidad observable sino a una relación entre realidades observables. La relación en sí misma no es observable, sino un ente ficticio producto del razonamiento humano. Estas consideraciones vienen al caso porque queremos insistir ante el lector, en que es el investigador quien puede forjar una relación de densidad como un indicador que sirva para sus propósitos. No tendría sentido, por tanto, pasar revista a una serie de indicadores de densidad, como si se tratara de un repertorio preestablecido. En el caso que nos ocupa -licencias comerciales- es bueno hacer las siguientes puntualizaciones orientativas, que pueden ilustrar a manera de ejemplo, sobre el uso de los indicadores de densidad.

.Las licencias comerciales presumen una actividad de intercambio, y como tales se apoyan en una idea de concentración urbana. A mayor concentración, más fácil la actividad de intercambio.

.De hecho puede haber diferencias en cuanto al carácter de concentración, en las distintas unidades municipales.

.Estas diferencias repercutirán directamente en la densidad comercial por municipios.

Por consiguiente, en una investigación particular, puede resultar tautológico calcular la densidad comercial por municipios y/o sus índices de concentración urbana. Se desprende de todo esto una regla de oro para el geógrafo investigador: No es el cálculo de índices, el que conduce a ideas válidas, sino más bien, una vez de tener las ideas, son éstas las que deben conducir a indicadores cuantitativos precisos y relevantes.

Debemos añadir una nota más acerca de la construcción de estos índices de densidad. Cuando decimos que es el investigador quien tiene plena libertad para construir los índices, queremos señalar dos cosas:

Primero que el investigador elige la variable que va a dar la denominación al índice; población humana. población vegetal. número de tractores, licencias comerciales, etc. Esta variable es la que opera como dividendo en el cociente y, por tanto, es la que sigue siendo definida con las mismas unidades en el resultado. Este resultado será una densidad de población, de especie vegetal, de tractores, de licencias comerciales, etc.

Segundo queremos señalar también que el investigador debe estar muy atento a las definiciones territoriales adoptadas como elementos de observación. Estas definiciones constituyen la base sobre la que el investigador ha de montar el análisis espacial. Según se escojan estas definiciones territoriales, así será de relevante o no, la distribución de las densidades. Por ejemplo, tratándose de servicios muy escasos o de poca difusión no tiene sentido analizar su densidad en unos niveles de agregación bajos. Este es el caso de servicios que tienen razón de ser a niveles de provincia y se los quiere analizar a niveles de municipio. y al contrario. tratándose de servicios de gran difusión, no tiene mucho sentido analizarlos a un alto nivel de agregación, como sería el caso de actividades que pueden registrarse a nivel de municipios llevándolos a analizar a nivel de provincia. Este es un tema lindante con los estudios de centralidad. muy escasos en nuestro país.

Veamos ahora, como puede trabajarse con las funciones de distribución de densidades. Utilizaremos los datos de la Tabla 2, obteniendo la densidad comercial de cada municipio. Si procedemos a una ordenación de los valores de densidades obtenidos, llegamos a una Tabla de Distribución de Frecuencias, tal como se indica en el capítulo 2. He aquí la Tabla 6 con dichos resultados.

X F  
0,8 1
1,4 1
1,7 1
1,8 2
1,9 1
2,1 1
2,4 2 Cuartil 1º
2,5 1
3,0 2
3,4 2
3,9 1
4,8 1
5,1 1
5,4 1 Cuartil 2º
5,7 1
7,4 3
8,6 1
8,9 1
9,0 1
9,5 1
11,0 1 Cuartil 3º
11,6 1
11,8 1
12,6 1
16,6 1
22,9 1
24,9 1
50,0 2
74,2 1 Cuartil 4º
TABLA 6

 

Es útil subrayar. una vez más. la identificación de los conceptos formales -elemento y variable- en esta Tabla de Distribución. Los elementos nos son otros que las definiciones municipales. y la variable en este caso es la densidad comercial. A cada municipio corresponde un valor de densidad. La columna encabezada por frecuencias representa el número de municipios que corresponde a los valores de densidad dispuestos en una ordenación.

¿Cómo puede trabajar el geógrafo con una tabla de distribución de densidades? La idea básica es que la densidad en cuestión -en nuestro caso, la densidad comercial- varía a través de las unidades territoriales tomadas en consideración. El geógrafo necesita precisar la idea de esa variación; en consecuencia, obtiene distintos indicadores. Uno, el menos sofisticado de todos, consiste en la diferencia entre la máxima y la mínima densidad registrada; este indicador recibe en la terminología estadística formal la denominación de «rango o amplitud de la variable». Para un conjunto de 36 municipios guipuzcoanos, la densidad comercial varía entre 0,8 y 74,2. Otro indicador consistirá en la diferencia existente, no entre los dos elementos extremos de la ordenación, sino entre dos elementos más centrales. Si se eliminan de nuestra consideración dos porciones extremas de la distribución, por ejemplo el 25% de municipios en el extremo inferior, más el 25% de municipios en el extremo superior, nos quedamos con una porción central de la distribución, definida por los cuartiles primero y tercero respectivamente. En nuestro ejemplo, la amplitud intercuartílica resultante es de 11,0 menos 2,4, o sea 8,6. Véanse las diferencias que surgen en nuestro ejemplo ante la consideración de la amplitud total, 73,4, y de la amplitud intercuartilica 8,6. Esto quiere decir que el 50% de casos situados en los extremos muestran una gran dispersión. Todavía más, si se comparan ambos extremos, veremos que surge una gran asimetría, ya que el primer 25% de casos se extiende entre los valores 0,8 y 2,4, mientras que el último 25% se extiende entre 11,0 y 74,2. Por consiguiente está claro que la densidad comercial de Guipúzcoa, lejos de presentar uniformidad, se presenta como un fenómenos de alta concentración espacial. Es evidente que por el mismo procedimiento seguido hasta aquí podríamos calcular la diferencia entre los deciles primero y noveno, despreciando en este caso, no el 25 % de casos en cada extremo de la distribución, sino sólo el 10%. Hasta ahora tendríamos siempre un indicador de la variación apoyado únicamente en dos casos o elementos. Recuérdese que formalmente estos conceptos fueron expuestos en el capítulo 2. De la misma manera que entonces volvemos a utilizar un instrumento analítico, que estudia la variación, apoyándose no en dos casos sino en la distribución en su totalidad; nos referimos a la curva de Lorenz.

La curva espacial de Lorenz. Esta curva vuelve a adquirir importancia como instrumento analítico al hablar de categorías espaciales. Consideremos los datos de la Tabla 7, en donde se ha elaborado para cada municipio guipuzcoano el valor de área y el número de licencias comerciales, en forma de porcentajes. Vamos a proceder al análisis de ambas variables -área municipal y licencias comerciales -para obtener algunos indicadores de concentración comercial en unidades espaciales. En este caso la técnica de elaboración de la curva de Lorenz diferirá un poco de la que se mostró anteriormente. Ello se hace con objeto de que la curva avance en saltos cada vez menores, en los tramos de la ordenada, a medida que se aleja del origen; para lograrlo los valores espaciales (áreas de municipios) deberán acumularse en una ordenación peculiar en la línea de la abscisa.

Municipio Km2 (% sobre el total) Licencias comerciales (% sobre el total)
Andoain 2,2 1,9
Arechavaleta 2,3 0,5
Azcoitia 4,5 1,2
Azpeitia 5,7 1,4
Beasain 2,3 1,9
Cestona 3,5 0,7
Deva 4,1 0,8
Eibar 4,8 6,3
Elgoibar 4,6 1,7
Escoriaza 3,2 0,3
Fuenterrabia 2,3 1,4
Hernani 3,4 3,4
Ibarra 0,4 0,4
Irún 3,4 9,5
Lazcano 0,9 0,5
Legazpia 3,4 0,9
Lezo 1,0 0,5
Mondragón 2,4 3,0
Motrico 2,8 0,7
Oñate 8,8 1,4
Orio 0,7 0,6
Oyarzun 4,9 1,0
Pasajes 0,5 4,0
Placencia 1,1 0,6
Rentería 2,5 4,7
San Sebastián 5,9 33,2
Tolosa 3,0 4,2
Urnieta 2,1 0,7
Usurbil 1,9 0,7
Vergara 6,2 2,1
Villabona 1,4 0,6
Villafranca 0,4 2,3
Villarreal 0,6 0,7
Zarauz 1,1 2,9
Zumárraga 1,3 1,3
Zumaya 0,9 1,0

TABLA 7

1.- Sobre los valores porcentuales obtenidos en la Tabla 7 se efectúa la razón R licencias comerciales entre áreas.

2.- Los municipios se disponen en un orden de acuerdo con la cuantía de la razón R, obteniéndose el listado de la Tabla 8 .

3.- En esta Tabla aparecen consignados en forma acumulativa, tanto los valores de área municipal, como las licencias comerciales.

4.- Se indican en la variable que se va a situar en la abscisa (áreas municipales) los puntos correspondientes a diez tramos iguales.

s.- Se señalan por correspondencia a estos tramos los puntos de la variable que se va a situar en la ordenada.

De este modo se tienen todos los elementos de información para construir la curva espacial de Lorenz, tal como se muestra en la Figura 24..

Municipio R Superficie Km2 Acum. Licencias comerciales Acum
Pasajes 8,00 6 6 445 445
Villafranca 5,75 5 11 250 695
San Sebastián 5,63 73 84 3.651 4.346
Irún 2,79 42 126 1.047 5.393
Zarauz 2,64 14 140 321 5.714
Rentería 1,88 31 171 516 6.230
Tolosa 1,40 37 208 465 6.695
Eibar 1,31 59 267 696 7.391
Mondragón 1,25 30 297 331 7.772
Villarreal 1,17 7 304 81 7.803
Zumaya 1,11 11 315 105 7.908
Hernani 1,00 42 357 380 8.288
Ibarra 1.00 5 362 43 8.331
Zumárraga 1,00 16 378 143 8.474
Andoain 0,86 28 406 206 8.680
Orio 0,86 9 415 67 8.747
Beasain 0,82 29 444 213 8.960
Fuenterrabia 0,61 28 472 160 9.120
Lazcano 0,55 11 483 60 9.180
Placencia 0,54 14 497 71 9.251
Lezo 0,50 12 509 57 9.308
Villabona 0,43 17 526 67 9.375
Elgoibar 0,37 57 583 193 9.568
Usurbil 0,37 24 607 81 9.649
Vergara 0,34 77 684 237 9.886
Urnieta 0,33 26 710 80 9.966
Azcoitia 0,27 55 765 137 10.103
Legazpia 0,26 42 807 100 10.203
Motrico 0,25 34 841 82 10.285
Azpeitia 0,24 70 911 150 10.435
Arechavaleta 0,22 29 940 56 10.491
Cestona 020 43 983 73 10.564
Oyarzun 0,20 60 1.043 108 10.672
Deva 0,19 51 1.094 92 10.764
Oñate 0,16 108 1.202 154 10.918
Escoriaza 0,9 40 1.242 34 10.952

TABLA 8

Figura 24: Curva de Lorenz en el que se comparan superficie y licencias comerciales de los municipios guipuzcoanos siguiendo los datos de la tabla

¿Qué nos sugiere la inspección de la Figura 24? A tramos iguales en la abscisa corresponden tramos desiguales en la ordenada. Es decir, al primer 10% de áreas municipales acumuladas, corresponde un 49% de licencias comerciales y así sucesivamente. La concentración de licencias comerciales es pues evidente, a través de este instrumento analítico. Sin embargo, se puede obtener un índice numérico partiendo de esta misma curva, tal como se apuntó en páginas anteriores. Se trataría de un índice de concentración tal como se muestra en la fórmula:

en donde:

Tj: valores correspondientes a los tramos de la ordenada para i = 1, 2. ...10

Min {ΣT}: mínimo de la sumatoria de los valores de T. Ello sucede siempre que la curva coincida con la diagonal. Este mínimo será Igual a 10 + 20 + ... + 100 = 550.

Max {Σ T}: máximo de la sumatoria. Sucede cuando el primer tramo alcanza el valor 100 y por consiguiente T1 = T22 = = T10= 100. Al sumarse estos valores se obtendrá Max.{ΣT} = 1000. .

El índice de concentración (IC) propuesto tiene la virtud de que se extiende entre cero y uno. 0<IC ≤ 1. Para obtener IC = 0 debe obtenerse:

lo cual indica justamente. que la curva se sitúa a lo largo de la diagonal. En nuestro caso las licencias comerciales estarían igualmente repartidas por las superficies municipales. Por otro lado para obtener IC = 1 sería necesario :

Es decir, estaríamos en el caso de que todas las licencias comerciales se hallarían concentradas en el primer tramo de la abscisa (Fig. 9 bis). Si queremos hallar el índice de concentración para los datos reales de la Fig. 9 bis, éste no será otro que :

IC =(847 -550)/(1000 -550) = 0,66

La representación cartográfica de la densidad. En la ejemplificación del capítulo 6 se puso de manifiesto la posibilidad de llevar a cabo una representación variada para un mismo fenómeno de densidad. La finalidad última de estas representaciones es servir de apoyo intuitivo a la captación de una idea. La densidad comercial de Guipúzcoa que nos ocupa en el presente capítulo muestra una distribución semejante a la de Kansas, que se expuso en el capítulo 6; ambas presentan una forma muy asimétrica concentrando altos valores de densidad en un extremo alejado de la distribución. El lector puede juzgar por sí mismo cual es la representación más adecuada para esta idea.

De momento procederemos a dar unas reglas prácticas para los dos tipos fundamentales de representación. Veamos en primer lugar la representación coroplética. Esta consiste básicamente en llevar a cabo una clasificación.

1.- Se establecen las unidades o elementos de observación como áreas territoriales bien definidas.

2.- Se define el número de clases o intervalos para la variable. Esta decisión pertenece por entero al investigador y dependerá de la matización que quiera dar al sombreado coroplético, etc. Con objeto de mantener una discriminación adecuada se recomienda utilizar entre cuatro y seis clases.

3.- Viene a continuación el fijar los límites de valor para cada clase. Conviene aquí alertar al geógrafo sobre el uso de procedimientos que pudieran parecer inocuos. Existe una solución estadística muy extendida y que consiste en establecer intervalos constantes; esta solución comporta algunos inconveniente para la representación cartográfica, que es recomendable obviar. Cuando las densidades son muy asimétricas, que es el caso más frecuente, los intervalos constantes acarrean como consecuencia una acumulación de elementos en una sola clase. Esto origina grandes extensiones del mapa que se quiere representar, asignadas a una clase e intervalo de densidad con evidente deterioro de la finalidad pretendida. Si lo que se quiere es hacer patente 0 visible el contraste de la distribución conviene equilibrar el reparto de áreas entre los distintos intervalos de densidad. Lo que sucederá entonces es que estos intervalos habrán de ser irregulares en cuanto a los valores abarcados. Para lograr esto se procede a una tabla de acumulación de frecuencia o elementos, en donde los elementos vienen identificados con sus áreas correspondientes. Por ejemplo si en la Tabla anteriormente descrita para el caso de Guipúzcoa se obtiene por un lado la ordenación de densidades y por otro lado se identifican los elementos con sus áreas correspondientes, tendremos:

Densidad (de menor a mayor) Área Km2 Área acumulada
0,8 40 40
1,4 108 148
1,7 43 191
1,8 51 242

A continuación se traza una función en donde los valores de abscisa designan las densidades y los valores de ordenada, las áreas acumuladas. De este modo será posible determinar unos tramos semejantes en la ordenada, los cuales proporcionarán los intervalos de densidad que se están buscando.

En las Figuras 25.26.27 que tomamos de P. Davis (21) se nos da el procedimiento señalado todas sus fases.

Figuras 25, 26 y 27

 

La representación coroplética es ciertamente muy común, pero no es quizás la más eficiente, Si volvemos atrás al capítulo 6 podremos valorar una modalidad del mapa coroplético, por así decirlo en relieve, utilizando una técnica volumétrica. El histograma en tres dimensiones es quizá el más apropiado de todos para traducir la asimetría a un lenguaje intuitivo. El histograma en tres dimensiones no requiere incluso de ningún proceso clasificatorio, sino que a cada elemento o área que sirve de unidad de observación se le asigna una altura proporcional al valor de la variable o densidad.

El otro tipo de representación de nombre isoplética trata de dar una visión más globalizarte del fenómeno de densidad. Entendemos por tal una visión no fragmentada en áreas menores, sino abarcadora de la superficie total que se quiere representar, sin ningún constreñimiento a las circunscripciones territoriales que sirven de unidades de observación. Los cambios de la variable no se representan bruscamente de acuerdo a las fronteras territoriales, sino mediante curvas de isocontornos que unen puntos de igual valor. Esta representación puede verse en el capítulo 6 ajustada a los mismos datos que sirvieron para el mapa coroplético de Kansas.

Habitualmente el trabajo que supone la representación isoplética es algo más complicado que el que se describió anteriormente para el mapa coroplético. Veamos sus pasos :

1.- Los valores de la variable se atribuyen en este caso a un punto central dentro de las áreas que sirven de unidades de observación.

2.- Se decide el número de isocontornos que van a ser utilizados. Esta decisión depende, a su vez de los intervalos más aconsejables entre los distintos isocontornos. Por tanto la decisión última se basa en una apreciación personal del investigador, acerca de los datos que tiene entre manos. Cuando se trata de variables físicas, tales como relieve, temperaturas, precipitaciones, etc. es aconsejable utilizar intervalos constantes. Pero al tratar de variables comportamentales, como la densidad comercial, lo único que puede decirse es que el investigador se muestre muy atento a lo que le dicen los otros.

Véase el tratamiento de este problema en los datos de la Figura 25. Limitándonos a una zona parcial de la misma puede observarse en ella el desarrollo de todo el proceso. Ver Figura 28.

Figura 28

Figura 28: Se representan las siguientes fases de trabajo. A: Ubicación del punto representativo de cada área. B: Para cada par de puntos adyacentes se buscan las posiciones determinadas en la clave. C. D: Trazo de isolíneas: ambos mapas representan dos soluciones alternativas.

El resultado final se verá en la Figura 29 en donde aparece reproducida la misma superficie que se mostró anteriormente en el mapa coroplético.

Figura 29

CAPÍTULO 10

LA CORRELACIÓN ESPACIAL

En este tema convergen enfoques y puntos de vista muy variados, que resulta difícil ensamblar bajo un modelo cuantitativo. Están por un lado los geógrafos que exigen la representación del análisis mediante mapas. De otro lado los hay que suficientemente familiarizados con el análisis numérico obtienen resultados que en medio de su abstracción son válidos para una interpretación espacial. En una perspectiva temática, la geografía electoral y la geografía económica han ofrecido ricas plataformas de ensayo a la correlación espacial. Uno de los primeros frutos logrados bajo el nuevo espíritu de la Geografía fue precisamente la monografía que lleva por título .La medida de la asociación en la Geografía Industrial (22). Esta monografía brota de un equipo de trabajo agrupado en torno al recién fundado por entonces Departamento de Geografía en la Universidad de Iowa. Este Departamento junto con Washington, Northwestern y Chicago serán los responsables directos de lo que se ha llamado el nuevo espíritu geográfico y que constituye un movimiento de ideas llamado a extenderse hacia todos los ámbitos académicos con algún nivel de exigencia.

Es fácil entender que el mapa haya atraído la atención del geógrafo en todas las edades de la disciplina. Incluso en la edad más reciente, los geógrafos formados en un nuevo y revolucionario estilo intelectual hablan de mapas mentales, mapas comportamentales, etc. bajo las más rigurosas exigencias de un modelo matemático (23). Sin embargo debemos usar alguna cautela para poder hablar de los mapas de correlación espacial. Nosotros hemos hablado en este manual de mapas de vectores, para señalar las tendencias centrográficas de distintas variables y por supuesto hablamos de mapas de densidad tanto en su forma coroplética como isoplética. Frente al tema de la asociación espacial, no obstante nos sentimos acobardados para sugerir una representación cartográfica. No barruntamos en el actual horizonte de las técnicas disponibles una vía para llegar al mapa de la correlación. Puede surgir alguna confusión al respecto, en el uso de los llamados mapas de residuales. En varios textos hemos visto una alusión a este tipo de mapas, a nuestro juicio no bien encaminada. Preciso es aclarar el concepto de «residual» como primer paso. Recuérdese que cuando hablamos de la regresión se establecía para cada unidad de observación:

-un valor dado en X (variable independiente).

-un valor estimado en la variable dependiente según la fórmula de regresión: Y' = a + b X -el valor actual observado Y.

Pues bien la diferencia Y'-Y constituye un residual. Véase, por ejemplo, el mapa de residuales que elabora Clark (24) utilizando las cifras de cabezas de cerdo (variable dependiente) y cabezas de vacuno (variable independiente) por cada circunscripción de condado (unidad de observación). Véase el mapa en la figura 28.

Figura 28

El mapa que representa a Nueva Zelanda del Norte no destaca ,a nuestro modo de ver un hecho de correlación, sino más bien otro hecho distinto. Nótese bien que la hipótesis planteada en esta regresión es que las variaciones en producción de cabezas de cerdo corren paralelas con las de producción en cabezas de vacuno. Nos encontramos con el hecho de que algunos condados se apartan de la línea de regresión en una cuantía considerable. Viene aquí a planteársenos el problema de la holgura al que nos referimos en el capítulo 4. Entonces adoptamos como regla de decisión la de que cuando un elemento se apartaba de la línea de regresión en una cuantía superior a 1,65 Sy' ,x era bueno descartar al elemento de la hipótesis. Aplicando este juicio al caso de Nueva Zelanda, tendríamos que eliminar del cuadro hipotético planteado, todos los condados que aparecen fuertemente sombreados, tanto por rayado como por punteado. Todo ello significa en los términos planteados por el investigador, que la producción de vacuno no puede tomarse como un buen factor de covariación para determinar la producción de porcino.

Tampoco puede escapar a nuestra consideración el intento de comparar mapas como un avaluo de correlación espacial. En el mismo Departamento de Geografía de Iowa antes citado, se publica una monografía en este sentido (25).

Acerquémonos a un caso concreto para ver el problema con toda nitidez. Dentro del estado de Nebraska se tienen las dos distribuciones siguientes: una referente a población rural y otra referente a precipitaciones anuales, ambas tomadas en 1950. Con esos datos censados para los distintos condados del estado se han elaborado los mapas de isopletas que pueden observarse en la Figura 29.

Figura 29

Figura 29: (a) Isopletas de población rural (personas por milla cuadrada). (b) Isopletas de precipitación. Tomado de A. Robinson & R. Bryson, A. Method for Describing Quantitatively the Correspondence of Geographic Distributions; Annals AAG, 1957, vol. 47.

¿Cómo puede llevarse a cabo un avalúo de la Correspondencia existente en ambos mapas? En el valor de las isolíneas puede verse una tendencia de descenso hacia el oeste, común para ambos mapas. Pero ¿es ésta una apreciación suficiente del fenómeno de correlación? ¿logramos por esta vía de inspección ocular aquilatar el grado e intensidad de la correlación? Estas preguntas nos obligan a la búsqueda de técnicas cuantitativas más precisas.

Volviendo a las fórmulas del capítulo 4 es posible llevar a cabo un análisis de correlación y regresión. Sin necesidad de llevar a cabo un cálculo prolongado y laborioso con el censo completo del estado nos limitamos a observaciones tomadas en 26 puntos. Obtenemos así una muestra del estado. Para tener la seguridad de que dicha muestra represente adecuadamente al estado se han de seguir ciertas reglas en la obtención de la muestra. Esas reglas se derivan de lo que en la jerga estadística se denominan principios de muestreo aleatorio. Una vez de tener escogidos los 26 puntos se toman en ellos los valores de población rural y precipitaciones. Efectuados los cómputos para una correlación de Pearson dan, en este caso, el resultado de 0,80 el cual hay que considerar bastante alto. Véanse los valores para ambas variables en un diagrama de dispersión (Figura 30).

Figura 30

La disposición de los puntos en la nube de dispersión nos indica una tendencia congruente con la correlación hallada. Veamos ahora los mismos datos desde el ángulo de la regresión. Comenzaremos por determinar cual va a ser la variable dependiente que en este caso no ofrece dudas; establecemos como talla población rural. La ecuación de regresión obtenida es Y' = = 0,5826X -7,939; el gráfico de la misma puede verse en la Figura 31 que nos indica los desvíos residuales de cada punto o localidad.

Figura 31

 

 

El valor obtenido en estos cómputos y aún su expresión gráfica en coordenadas analíticas no es posible trasladarlo con plenitud al lenguaje cartográfico. Sin embargo. hay algo que debe ser señalado. En primer lugar queremos referirnos nuevamente a la confección de mapas de residuales. Si bien es verdad que no es el aspecto de correlación entre variables lo que se pone de manifiesto en esos mapas, sin embargo, pueden resultar útiles para la localización de aquellos puntos que caen fuera de una hipótesis. En el ejemplo de Nueva Zelanda (Figura 28) los condados que muestran el comportamiento heterodoxo con respecto a la hipótesis establecida, casi todos ellos son contiguos. Algunas características de localización, por tanto, pueden evidenciarse muy bien en estos mapas residuales y ello puede suscitar en el investigador nuevas pistas de exploración. En segundo lugar queremos apuntar hacia un concepto de correlación espacial, aunque no venga provisto de representación cartográfica. La correlación como tal es un índice numérico de covariación entre dos distribuciones numéricas.

En este sentido la correlación trabaja perfectamente con los datos que en este manual hemos llamado volumétricos. Nos preguntamos ahora como puede la correlación, al igual que otros índices estadísticos, incorporarse a una perspectiva espacial. La perspectiva espacial de la que aquí hablamos ha debido quedar clara en la parte segunda de este manual. Consiste en que un valor de localización o de área se incorpora a las variables que son objetos de correlación.

El ejemplo más claro lo vemos en los datos de Nebraska, anteriormente analizados. Allí se nos dio, por un lado, valores de población rural y, por otro, precipitaciones. Si examinamos atentamente las figuras 30 y 31 se verá que los valores de población vienen dados en forma de densidad. Pues bien, este solo hecho nos autoriza para hablar de una correlación espacial en el pleno sentido de la palabra.

Resumiendo, por tanto, existe una correlación espacial sin necesidad de que puede ser llevada a un mapa. La correlación será espacial siempre y cuando una de las variables en juego sea una variable espacial, cosa que ocurre con la densidad.,

A MANERA DE EPÍLOGO

Hemos presentado unos métodos cuantitativos elementales al servicio del geógrafo. A través de la presentación hemos puesto de relieve el carácter lógico subyacente que anima estos métodos. Hemos tratado de proveer a los geógrafos un acervo de métodos transparentes; todo lo contrario de un recetario de reglas mecánicas y ciegas. Consideramos que el riesgo de la cuantificación en la Geografía es precisamente el de incorporar unas rutinas de trabajo sin ninguna conciencia crítica. Algo de esto nos parece barruntar a través de ciertas publicaciones erizadas de cifras y de fórmulas deficientemente asimiladas.

El análisis espacial, sin embargo, penetra en muchos más tópicos que los que aquí se han tratado. Errado andará quien piense que aquí se agotó el análisis espacial como programa de trabajo. Es importante destacar algunas líneas directrices que han guiado la confección de este manual y que han de orientar nuestra labor en el futuro. Creemos en primer lugar, que el presente manual ha tenido como objetivo desarro1lar una metodología descriptiva y, en tal sentido hemos sido cuidadosos de no traspasar los límites impuestos. ¿Por qué esta vigilancia de campos y fronteras conceptuales? .Es habitual en los cursos de Estadística trazar una división en este mismo sentido: el campo de la Estadística descriptiva y el campo de la Estadística inferencial. Los propósitos de ambos campos son totalmente diferentes y la base conceptual que los sustenta también. La Estadística descriptiva busca ante todo la reducción de la masa de datos a unos pocos parámetros; la Estadística inferencial pretende extender la información obtenida en una muestra, a un conjunto más amplio, del cual la muestra ha sido extraída. En la Estadística descriptiva se manejan básicamente conceptos de la Física. En la Estadística inferencial, el concepto nuclear que se maneja es la probabilidad. Somos conscientes de que en el análisis espacial puede y debe plantearse la inferencia, pero ello comporta una introducción a la teoría axiomática de la probabilidad. He ahí la razón por la que no hemos querido tocar los temas que rozan aspectos inferenciales, tales como la autocorrelación espacial, el análisis de contingencia, pruebas de Chi-cuadrado, distribuciones binomiales y de Poisson, el análisis de varianza, etc.

En segundo lugar, aún dentro del campo descriptivo no hemos tocado ciertos temas, como la conectividad y algunos análisis multidimensionales. Como ya se dijo en la Introducción, el sustentáculo de la conectividad del punto de vista del modelo matemático, es la Teoría de Grafos. Se hace pues indispensable el manejo de ciertas nociones de topología que, al igual de la teoría axiomática de la probabilidad, están ausente en la formación intelectual de los geógrafos y no hay que darlos por supuestos. El análisis multidimensional tampoco es tema de un capítulo. En los texto de iniciación estadística para geógrafos (26) se presenta el tópico del análisis multidimensional, sin la debida sedimentación de fundamentos orientada al provecho del lector. Semejantes exposiciones no pasan de ser un ejercicio brillante para unas oposiciones. De otro lado, en los últimos veinte años, el análisis multidimensional ha sufrido profundos cambios de estilo y línea conceptual, que pasan inadvertidos por los expositores. En nuestra opinión son mucho más útiles las nuevas técnicas multidimensionales basadas en modelos de espacios métricos, que el viejo análisis factorial basado en transformaciones matriciales (27). Nuestro propósito es de continuar esta metodología descriptiva abocándonos al estudio de la conectividad y al descubrimiento de estructuras latentes, mediante técnicas multidimensionales.

NOTAS

(1) Ferrer y Precedo. las ciudades de Guipúzcoa y Vizcaya l Zugala 1977.

(2) Dacey. An Introduction to the Mathematical Theory of Central Places. Northwestern University Press 1976.

(3) Puede servir de ejemplo: J Estebanez y  R.P. Bradshaw. Técnicas de Cuantificación en Geografía. Madrid 1978.

(4) No compartimos el concepto expuesto en Estébanez & Bradshaw (o.p.), en donde se dice: .Muchas veces las magnitudes que se relacionan son muy desiguales. En esos casos, cuando el dividendo es mucho menor que el divisor, para obtener cocientes decimales, se suele multiplicar por 100, 1000 ó 10000, En esos casos se habla de tasas.

(5) Geografía del Subdesarrollo. Ariel 1971. Ver pág. 145.

(6) Tomado de A. Sauvy. La Población. EUDEBA. Bs. Aires, 1960. pág. 19,

(7) Así por ejemplo en Andrés J. Precedo. la red urbana de Navarra, Caja de Ahorros de Navarra, 1976, pág. 153 en donde se expone la fórmula

Ci= Σ((Ni ri)/P) x 100

especificando:        C: coeficiente teórico de localización del bien .í.

                                  N: número de establecimientos para el bien .i. en la región

                                    r : rango del bien .i.

                                    p : población total de la región

Dado que en esta fórmula no se precisan los alcances de la sumatoria, interpretamos lo siguiente. En primer lugar la sumatoria no puede abarcar la gama de bienes .i. puesto que entonces no tendría sentido que el resultado del cociente identificado por C se refiera a un determinado bien .i.. Creemos más bien que si los bienes o servicios se clasifican en distintos rangos el número de establecimientos, aún para un determinado bien .i., puede variar según el rango. Por consiguiente el alcance , de la sumatoria quedaría mejor precisado si se indicase :

  r=m  

Ci=

 (Σ    Nir)/P
  r=1  

en donde se suma el número de establecimientos observados por cada clase del bien que se toma en consideración: estas clases o rangos serían 1, 2 ... m.

(8) Wayne K. Davies. Centrality and the Central Place Hierarchy; Urban Studles. 1967, nº 4. págs: 61-79.

(9) David Bennison. The measurement of settlement centrality. The Professional Geographer. 1978. págs. 371.376.

(10) F. Galton Regression towards mediocrity in hereditary stature, Journal of the Antropological lnstitute, 1885, 15, págs.

246-263.

(11) C. Castro Aguirre Introducción a la Geografía Comportamental, Lurralde 1980, págs. 9-41.

(12) E. S. Pearsoo, Pearsoo creador de la Estadística Aplicada, Espasa Calpe, 1948, ver pág. 58.

(13) W. Bunge. Theoretical Geography lund Studies in Geography, 1966; ver págs. 39- 71.

(14) C. de Castro. Teoría de la Medida en Psicología y Ciencias Sociales UCV, Caracas, 1980; ver págs. 45-47.

(15) Hagget. Cliff & Frey. Locational Analysis in Human Geography; vol 2. pág. 293. J.Wiley 1977.

(15) p .J .Clark & F .C .Evans. Distance nearest neighbor as a measure of spatial relationships in population. Ecology 1954. vol. 35 págs. 445.453.

(16) Tomado de Leslie J. King. A quantitative expression of the pattern of urban settlements in selected areas of the United States Tijdshriflt voor Economishe en Sociale Geografie, 1962. vol 53, pág.1 - 7

(17) Tomamos el ejemplo de Peter Davis, Data description and presentation. Oxford University Press, 1974. pág. 32,

(18) Cfr. P. Taylor. Quantitative Methods in Geography. Houghton Mifflin 1977, pág. 23.

(19) D.M. Smith. The Geography of Social Well- Beeing in the United States, Mc. Graw Hill. 1973.

(20) Waldo Tobler radica actualmente en la Universidad de California en Sta. Bárbara.

Un trabajo que representa su actividad en el campo citado es Spatial Interaction Patterns IlASA, Laxemburg, Austria 1975. El trabajo rebasa el nivel en el que nos movemos en este manual, pero tanto él como su autor deben ser tomados en cuenta por los estudiosos de la Geografía.

(21) K. Tamames. Los centros de gravedad en la economía española, Guadiana, Madrid 1968.

(21) Data description and presentation (0xfort University Press 1974 págs 66

(22) H. McCARTY, J. HOOK, D. KNOS. The Measurement of Association in Industrial Geography, Department of Geography, State University oflowa, 1956.

(23) Ver C de Castro. Una indagación acerca del espacio métrico, espacio físico y espacio psicológico en Geografía. Lurralde. Instituto Geográfico Vasco. Mayo 1978, págs. 23.35.

(24) W. CLARK, The use ofresiduals from regression in geographical research. Nes Zealand Geographer 1967, 23, págs. 64-66.

(25) H. McCARTY & N. SALISBURY, Visual Comparison of Isopleth Maps as a Means of Determinig Correlations between Spatially Distributed Phenomena. Department ofGeography UniversityofIowa, 1961.

(26) Al ya mencionado texto de Estébanez & Bradshaw debemos añadir el del Grupo Chadule. Iniciación a los Métodos Estadísticos en Geografía. Ariel. 1980.

(27) Ver Constancio de Castro. El Análisis de Proximidades; próximo a aparecer en Publicaciones UCV. Caracas.