Lurralde :inv. espac. N. 7 (1984) p. 219-241 ISSN 1697-3070

 

LA TEORIA DE LA INFORMACION EN GEOGRAFIA

ASPECTOS INTRODUCTORIOS

 

Joseba JUARISTI LINACERO

Universidad del PaísVasco

INTRODUCCIÓN .

La revolución cuantitativa desarrollada en la Geografía de los últimos treinta años ofrece aspectos muy diferentes y contrastados. El análisis de esta revolución por parte de diversos autores (1) muestra este fenómeno como consecuencia de la corriente neopositivista de finales de la Segunda Guerra Mundial.

No obstante, la producción teórica dentro de la geografía cuantitativa está limitada a unos pocos trabajos fundamentales (2), mientras que la mayor parte de la producción la constituyen trabajos empíricos, en muchos casos sin una conexión clara con aspectos teóricos. Esta especie de «cornucopia de empiricismo» , como ha sido denominada por algún autor, es el resultado de la difusión de métodos y técnicas, mucho más que del conocimiento de unas bases teóricas, o del conocimiento de los paradigmas fundamentales sobre los que se asentaba el neopositivismo de posguerra.

La crisis del neopositivismo y el surgimiento de nuevas corrientes en Geografía (geografía radical, humanista, etc.), no ha hecho sino subrayar la importancia de la producción empírica de carácter cuantitativo desligada del contexto teórico positivista, asignando las hipótesis fundamentales a cual

quiera de las corrientes en las que cada autor se encuentre incluído (3). En este sentido la crisis del neopositivismo ha consistido en la sustitución de la ciencia única basada en paradigmas (4), en el que la cotización de los modelos más generales está sujeta a un cambio continuo, dependiendo, no ya de su valor objetivo, sino de su valor «intersubjetivo» , es decir, de la aceptación de los mismo por un mayor o menor grupo de científicos.

Dentro de la revolución cuantitativa han existido paradigmas que no han llegado a desarrollarse. Algunas fuentes inspiradoras como la teoría de la información han pasado desapercibidas. Ello puede comprobarse analizando diferentes manuales de técnicas de cuantificación dirigidos a geógrafos. Sin embargo, la teoría de la información ofrece una gran potencialidad, tanto de tipo teórico, como metodológico. Aunque algunos autores han llamado la atención sobre su valor conceptual, las principales realizaciones teóricas y prácticas parecen inalcanzables para la mayor parte de los geógrafos.

Por otra parte, el actual desarrollo de la geografía cuantitativa se caracteriza por una dispersión de métodos y técnicas (5), que hace aparecer a los geógrafos que utilizan la teoría de la información como los cultivadores de una parcelita dentro del inmenso campo de los métodos cuantitativos.

Este hecho se acentúa si tenemos en cuenta que las tendencias recientes se sitúan más sobre la «potencia» de algunas técnicas que sobre los presupuestos conceptuales de los métodos estadísticos. Nos referimos a que la creciente utilización de métodos informáticos permite la depuración de algunas técnicas de análisis multidimensional, criticadas por los supuestos iniciales (linealidad, independencia de las variables, etc.). Esta depuración se realiza a costa de utilizar ordenadores con una mayor capacidad de memoria y programas más largos.

Así, puede ser un desgaste inútil el esfuerzo por aumentar la potencia de las técnicas más conocidas y utilizadas a base de regurgitar una y otra vez los mismos datos, sin preocuparse por métodos alternativos que tienen una mayor precisión conceptual, y que además poseen la característica de una amplia aplicabilidad desde el punto de vista técnico. Tal puede ser el caso de modelos derivados de la teoría de la información.

El objeto de este artículo consiste en presentar una introducción a la teoría de la información en geografía, tanto a los aspectos conceptuales como a algunas técnicas derivadas de la misma, así como a ofrecer un breve análisis de su evolución y una revisión de la bibliografía existente hasta el momento que pueda servir como guía a aquellos que deseen profundizar algo más en el tema.

I. ORIGEN DE LA TEORIA DE LA INFORMACION.

La teoría de la información es una teoría matemática. Esto significa que para su comprensión se requiere un mínimo de conocimientos que puede estar al alcance de estudiantes de COU, o de primeros cursos de una carrera de ciencias: nociones de sumatorios, combinatoria, y operar con logaritmos. Para los modelos más complejos es necesario conocer derivación y multiplicadores de Lagrange. Sin embargo, hay que decir que existen diferentes niveles de complejidad y que cada cual puede adaptar la teoría de la información a su conocimiento de técnicas y procedimientos estadísticos, desde los más simples a los más complejos.

La base conceptual de la teoría de la información se asienta sobre uno de los paradigmas de la física: el segundo principio de la termodinámica, conocido también como ley de Carnot o ley de la entropía. El concepto de entropía servirá como apoyo de teorías y esquemas de carácter global -la teoría general de sistemas, por ejemplo- y también se intentará su introducción en geografía desde diferentes aspectos, no siempre con acierto.

El papel fundamental de la teoría de la información (en lo sucesivo, TI) será establecer un puente entre la estadística de la nueva física y la estadística de las ciencias humanas.

La TI surge en 1948 a partir de los escritos de Claude Shannon y Warren Weaver. Ambos autores eran matemáticos, si bien el primero trabajaba como técnico de la Bell Telephone. Más que una teoría, lo que aparentemente se buscaba era algo pragmático: medir la cantidad de información que podía transmitirse a través de un medio determinado (canal de información). Shannon propuso como medida de la información contenida en un mensaje la fórmula de entropía termodinámica, aplicada al número de signos utilizados en el código ya la probabilidad de los mismos.

La aplicación inmediata de la TI consistía en la construcción de códigos con un mínimo de signos, que sirviera para transmitir mensajes. La expresión mínima del código se daba en el lenguaje binario (sólo dos signos) lo que permitía la transmisión de información a través de aparatos eléctricos cuya base de funcionamiento se resumía en dos posibilidades: dejar pasar la corriente o interceptarla.

Por ello, el éxito inicial de la TI tuvo lugar en el mundo de los artefactos : calculadoras, ordenadores, autómatas, etc. Así, se vio una aplicación inmediata en la cibernética, ciencia formulada con un propósito global, y definida por su creador, Norbert Wiener como la «ciencia de la comunicación y el control" (6), entendidos ambos términos en un sentido amplio, hasta el punto de que todas las relaciones, incluso las humanas, podían considerarse como «cibernéticas», y por tanto, la nueva ciencia, podía tratar con problemas de decisión política. De esta relación inicial entre TI y cibernética surgen algunos de los tópicos más al uso, y que tienen un carácter negativo para ambas: que la TI no sirve para ser utilizada más que en la comunicación entre artefactos, o que la cibernética es una ciencia que trata de autómatas, aparatos, etc., y que -como tal ciencia- considera al hombre como un artefacto más.

Sin embargo, la TI se extenderá mucho más allá del mundo de los aparatos: se utilizará en lingüística, en semiótica, en ecología, en economía. Con una mayor tardanza comenzará a aplicarse en geografía. El fundamento de la amplia aplicabilidad radicará en los conceptos básicos de entropía e información.

Tampoco se puede tener en cuenta el origen de la TI sin tener en cuenta la evolución de la física desde finales del siglo XIX. Como es sabido, el hito más importante es la introducción de la estadística en la física, que dará lugar a un progresivo abandono de la física newtoniana. Esta línea evolutiva parte de Maxwell (1872), quien elabora una teoría del calor. A comienzos de nuestro siglo, Boltzmann en Alemania, y Gibbs en Estados Unidos desarrollan la estadística del segundo principio de la termodinámica, que, en cierta manera, servirá de base para el posterior desarrollo de la TI.

Hasta mediados del siglo XX, sin embargo, no se pensó que el concepto de entropía pudiera servir para algo más que describir el estado físico de un sistema. La aportación de la TI, en este sentido, consistió en el descubrimiento de que la entropía servía para describir la incertidumbre -y, recíprocamente, la información- asociada a una distribución de probabilidad, y, por tanto, podía ser utilizada para estudiar cualquier sistema físico o humano cuyos diferentes estados se expresaron en términos de probabilidad. Wiener señala que los primeros pasos hacia esta convergencia ya los había dado Gibbs (7), al utilizar el término «contingencia» dentro de la física. En la TI, será Hartley, en 1928, quien propondrá una primera medida de «incertidumbre», como veremos más adelante.

El principal éxito de la TI radicará, pues, en la convergencia de los conceptos físicos derivados del segundo principio de la termodinámica (entropía y negentropía), con los conceptos respectivos de incertidumbre e información, todos ellos en conexión con el concepto de probabilidad. A partir de los primeros desarrollos, la TI tomará cuerpo como ciencia formal que nutrirá a diversas ciencias empíricas, e incluso, a la propia física.

II. LOS CONCEPTOS BASICOS: ENTROPIA E INFORMACION.

Entropía.

El término entropía se debe al físico alemán Rudolf J .E. Clausius, quien lo introdujo en 1850 para representar el grado de uniformidad de la distribución de la energía en un sistema.

La termodinámica se basa en dos principios o leyes. El primero, que es el más conocido, es la ley de conservación de la energía. El segundo, que es el que aquí interesa, es la ley de la entropía, a veces también llamado el principio de la degradación de la energía.

Cuando la energía está distribuída de manera uniforme dentro de un sistema, se dice que la entropía es máxima para el sistema en cuestión. El segundo principio de la termodinámica establece que en un sistema físico cerrado -aislado de influencias externas-Ia entropía aumenta con el tiempo hasta alcanzar el valor máximo posible. Un ejemplo de esto puede ser un objeto caliente colocado junto a uno frío. El calor fluye entre ambos de tal forma que el primero tiende a enfriarse y el segundo a calentarse, hasta que ambos alcanzan la misma temperatura.

Dentro de los sistemas físicos, la energía puede distribuirse en varios niveles: desde un nivel superior (energía eléctrica o mecánica), a un nivel medios (energía química), hasta un nivel inferior (calor), (MARCHAND, 1972).

La formulación estadística de la entropía corresponde a Boltzmann, quien

demuestra que las leyes termodinámicas pueden obtenerse a partir de las leyes estadísticas. Boltzmann señala que la entropía máxima de un sistema es directamente proporcional al logaritmo del número total de configuraciones posibles que puede alcanzar ese sistema.

La fórmula de Boltzmann es,

S = K In W

siendo S, la entropía máxima; K, la constante de Boltzmann (que en termodinámica se obtiene empíricamente) y W, el número de configuraciones posibles.

En física cuántica el número de configuraciones posibles es enorme, por lo que la utilización del logaritmo está justificada, ya que permite utilizar cantidades manejables. Así, el número de distribuciones de Ni partículas «indistinguibles» en gi .estado cuánticos sería

[gi↑Ni] /Ni!

 (ZEMANSKY, 1979)

El número de configuraciones que pueden alcanzar los sistemas sociales supone, asimismo, cantidades que escapan a nuestra imaginación. Pensemos, en el ejemplo de diezmil individuos «indistinguibles» (8), distribuídos en cuatro ciudades diferentes, podrían tener un número de configuraciones, N ,

N = [(10.000 + 4- 1) ! ] / [10.000 ! (4 -1) !]= [10.003!]  / [10.000! 3 !] = 1 6677 x 10↑11   

El concepto físico de entropía es, en sí mismo, una medida de incertidumbre. Es conocer prácticamente el número de posibilidades asociado a un sistema de partículas. En sistemas con pocas partículas y pocos estados cuán

ticos, la entropía máxima es pequeña, pero esa cantidad aumenta exponencialmente si definimos más estados cuánticos y más partículas. La situación de máxima entropía significa la máxima incertidumbre, ya que todas las configuraciones tienen la misma probabilidad.

Popularmente se dice que la entropía es una media del desorden, pero, en cierta manera evoca uniformidad, y por lo tanto, orden, ya que significa «igual probabilidad de todas las configuraciones». Para resolver esta aparente contradicción tomamos un ejemplo de GOULD (1972).

En un sistema consistente en las moléculas de aire encerradas en una habitación, dichas moléculas tienden a ocupar todo el volumen posible de manera uniforme, de tal forma que si obtenemos muestras de un cierto volumen de aire en dos lugares diferentes, tenemos una alta probabilidad de haber obtenido cantidades de moléculas muy semejantes. Esta sería la situación de entropía máxima. Desde el punto de vista estadístico existen otras numerosas configuraciones a considerar, por ejemplo, que todas las moléculas se agrupen en una esquina, o que permanezcan alineadas sobre las diagonales de la habitación. En física, el pensar en configuraciones tales es una aberración, ya que cada molécula tiende a moverse aleatoriamente, y no existe ningún motivo especial que les permita agruparse u ofrecer configuraciones caprichosas que negarían la ley de la entropía.

En los sistemas sociales, por el contrario, resultaría una aberración pensar en configuraciones de máxima entropía. Ello equivaldría a negar la existencia del sistema social, negar la relación entre los individuos. Por darle la vuelta al ejemplo de Gould, si las moléculas de esa habitación fueran individuos inteligentes, con capacidad de comunicarse entre sí, el estado más probable del conjunto de moléculas se alejaría de la situación de entropía máxima: las moléculas se agruparían según intereses, aficiones, etc, etc. Lo «normal» en tal sistema serían ciertas configuraciones agrupadas.

En definitiva, las hipótesis de la física y de las ciencias sociales alrededor del concepto de entropía son radicalmente distintas. La hipótesis fundamental de los sistemas físicos es la maximización de la entropía. En mecánica estadística se dice que todos los estados cuánticos tienen la misma probabilidad. En las ciencias sociales)-: en el mundo de la biología la hipótesis fundamental consiste en la negación del segundo principio de la termodinámica: la organización social, la relación entre los individuos hace que las distribuciones en diferentes categorías se aparten de la situación de probabilidades homogéneas. La distinción entre las ciencias físicas y las demás ciencias empíricas radica en este paradigma fundamental.

La aplicación del concepto de entropía tanto a las ciencias naturales como a las sociales tuvo inicialmente amplias consecuencias de tipo conceptual. Así, el mundo de la física correspondería a lo inorgánico (lo desorganizado) con tendencia a la maximización de la entropía, mientras que en el mundo orgánico (biológico y social) la tendencia sería el apartarse de la situación de entropía máxima, en negar la entropía o tener una tendencia «negentrópica». Bertalanffy, siguiendo a Weaver , apunta esta nueva dirección en la teoría general de sistemas: «El paradigma de las leyes en torno a la complejidad no organizada es el principio segundo de la termodinámica. Hoy, en cambio, nos hallamos ante problemas de complejidad organizada en todos los niveles de la estructura jerárquica del universo» (9).

Información.

Existe un equívoco en la TI de Shannon, consistente en hacer coincidir el concepto de la entropía con el de información. Este hecho ha sido la fuente de múltiples confusiones, y ha necesitado de una precisión conceptual posterior (BRILLOUIN,1956).

En principio, la TI se ocupa de las cantidades de información contenidas en mensajes, textos, series de símbolos, etc., pero no tiene en cuenta la veracidad de estos mensajes.

El término información evoca conceptos como sorpresa, descubrimiento, etc. El hecho de adquirir información presupone conocer algo que es inesperado, que se aparta de lo corriente, de lo habitual, de lo ya conocido. Un mensaje contiene más información en la medida en que es más inesperado. La «esperanza" de un resultado determinado puede medirse en términos de probabilidades .

En termodinámica, el conocer la distribución de la energía en niveles con sus probabilidades correspondientes presupone el definir el trabajo que desarrollará un sistema hasta alcanzar la situación de entropía máxima.

En la vida corriente, la previsión de hechos y resultados suele medirse acumulando numerosas experiencias y estableciendo probabilidades basadas en grandes muestras de sucesos. Si algún resultado tiene una probabilidad mucho mayor que el resto de los resultados posibles, existirá una mayor certeza de que ese resultado, y no otro, es el que tendrá lugar. En la medida en que todos los resultados posibles tengan la misma probabilidad, existirá una mayor «incertidumbre" ante el resultado de esa experiencia.

Las primeras medidas de incertidumbre utilizadas en la TI, tienen en cuenta el número de resultados posibles de una experiencia, pero no toman en consideración la probabilidad de cada resultado. Hartley, en 1928, establece para un suceso con n resultados posibles la expresión "Iog n". A pesar de no tener en cuenta las probabilidades, la medida tenía ya dos características interesantes: la incertidumbre aumenta con el número de resultados posibles, ya que log n + 1> log n; y por otra parte, la incertidumbre asociada a una experiencia compuesta de otras dos (de m y n resultados posibles) es la suma de las incertidumbres asociadas a cada una de ellas, ya que

log (mxn) = log m + log n

(GIL ALVAREZ, 1981).

Más adelante, Shannon y Weaver formularán la «cantidad de información" teniendo en cuenta las probabilidades. La medida de la información de Shannon tiene la forma,

Siendo H, la cantidad de información; Pila probabilidad de resultado i, de tal forma que ∑pi = 1;  y n, el número total de resultados posibles.

Brillouin (1956) destacó la confusión inicial de Shannon, quien tomó. la fórmula de entropía como medida de la información, siendo propiamente una medida de incertidumbre. Efectivamente, el término H en .la fórmula de Shannon tiene dos propiedades importantes :

-H es mayor conforme es mayor el número de resultados posibles n, propiedad semejante a la fórmula de Hartley.

-H es mayor conforme el valor de la probabilidad de los resultados es semejante. Esto es, la entropía de Shannon alcanza un valor máximo cuando

P1 = p2 = p3 = ... = Pn=1/n

y, por lo tanto, H es una medida de incertidumbre.

Consideremos ahora un ejemplo: en una circunscripción electoral existen cuatro partidos políticos, cuyas probabilidades de obtener votos en las prÓximas elecciones han sido analizadas mediante una encuesta. Estas probabilidades son Pl = 0,5; P2 = 0,25; P3 = 0,2 y P4 = 0,05. Es decir, los resultados esperados consisten en que el primer partido obtenga el 50% de los votos, y los restantes, el 25, 20 y 5% respectivamente.

El resultado, al utilizar logaritmos decimales, se expresa en «dits» (10).

Si, en otro caso, las probabilidades de cada partido fueran exactamente iguales, de tal forma que Pl = P2 = P3 = P4 = 0,25, el valor de la incertidumbre sería un máximo.

Hmax = -4 (0,25 log 0,25) = log 4 = 0,6021 dits.

que sería la mayor incertidumbre posible asociada a una experiencia de cuatro resultados. En este caso, no se conoce cual de los cuatro partidos va a obtener más votos en las próximas elecciones .

En la fórmula anterior se comprueba que la incertidumbre o entropía máxima coincide con la fórmula Hartley, esto es, Hmax = log n.

El valor de la incertidumbre asociada a un suceso o a un experimento no tiene ningún sentido si no se compara esa cantidad con la incertidumbre máxima. De esta comparación se puede obtener la "información», propiamente dicha. Esta información será mayor conforme la distribución de las probabilidades se aparte en mayor medida de la situación de máxima incertidumbre,

Existe un índice, conocido como redundancia, que relaciona los valores de la entropía real y entropía máxima. Este índice tiene la forma,

R=1-H / Hmax

En nuestro ejemplo, el favor de R será,

R = 1 - [0.5059] / [ 0,6021]= 0,1598

Aunque la palabra redundancia evoca ruido, irrelevancia, etc., en este caso lo que mide es la información. Si, en nuestro ejemplo, la entropía realllegara a coincidir con la entropía máxima, es decir, si la incertidumbre fuera un máximo, el valor de R sería igual a cero, y no existiría ninguna información.

Nuevamente, la equivocidad del término se debe a las definiciones iniciales de la TI. En la transmisión de mensajes, la entropía máxima mide la capacidad de un canal de información (ASHBY, 1978).

En nuestro ejemplo, esto supondría que para transmitir la distribución de las probabilidades de los partidos políticos establecidas mediante encuesta, a través de un canal, nos sobraría un 15,98% de la capacidad de ese canal. Es decir, que ese 15, 98% podría ser el «ruido de fondo» , la redundancia.

Así pues, para nuestro propósito, redundancia significa entropía recíproca, y, por tanto, información, esto es, la medida en que una distribución de probabilidad se aparta de la situación de entropía máxima en que todos los resultados son equiprobables.

Como conclusión a este apartado hay que establecer una equivalencia entre entropía e incertidumbre: «la entropía mide la falta de información acerca del estado exacto de un sistema» (BRILLOUIN, 1956). Como conceptos de sentido contrario estarían los de negentropía e información. El término negentropía fue introducido por Brillouin para indicar aquellos sistemas físicos que tenían capacidad de producir un trabajo, cuya entropía no había alcanzado un máximo.

Finalmente, el índice de redundancia puede considerarse como una medida de información relativa. Volviendo al ejemplo de los cuatro partidos políticos puede decirse que la información asociada a esa distribución de probabilidad es de un 15, 98% , siendo 0 el valor de la incertidumbre absoluta, y 100, un máximo teórico de información, ya que la entropía real debe tender a cero para aproximarnos a esa cifra.

III. APLICACIONES GEOGRAFICAS.

Una vez establecidas las definiciones conceptuales previas puede resultar fácil, en este punto, el señalar la aplicabilidad de la teoría de la información a problemas geográficos, esto es, a todo tipo de distribuciones de probabilidad que se utilizan en geografía. Las ventajas técnicas de la entropía sobre otros índices estadísticos es enorme.

Dentro de la geografía son muy populares diversos índices de concentración y dispersión, de especialización y diversificación, de integración y segregación. Si analizamos la mayor parte de estos instrumentos descriptivos

podemos comprobar que muchos de ellos, a pesar de su compleja apariencia, no son sino variaciones de comparaciones porcentuales, en muchos casos, derivaciones de los conocidos coeficientes de Gini.

Muchos de los problemas que existen en la utilización de métodos de análisis multidimensional estriban en que se manejan datos muy heterogéneos : cifras absolutas, índices porcentuales, valores logarítmicos, etc., en diversas variables, y la interpretación posterior puede ser algo caótico.

Como señala Thomas (1980), la experiencia ha demostrado que estos métodos producen resultados que son críticamente dependientes del tamaño, extensión y número de unidades espaciales utilizadas en el análisis. Para obviar estos problemas se recurre --como indicábamos anteriormente a complicar los índices, centrando las variables, calculando autocorrelaciones, o estableciendo multiplicadores basados en la varianza de los datos. Estos problemas aparecen de forma peculiar al trabajar con sistemas urbanos, en los que una serie de características (estructura económica y especialización, por ejemplo) se analizan en unidades espaciales muy diferentes: áreas metropolitanas, ciudades de tipo medio, y en pequeños pueblos (JUARISTI, 1982, 83).

Muchas de estas dificultades pueden ser solventadas utilizando medidas de la información, que permiten homogeneizar los diferentes datos. Por otra parte, como ya ha sido señalado por diferentes autores (MARCHAND, 1972, 75), es relativamente sencillo transformar datos categóricos en probabilidades, y construir modelos en los que las variables sean definidas por el investigador, sin tener que depender de la existencia de datos censales fiables.

Sin embargo, por encima de las ventajas de tipo técnico se encuentran las implicaciones conceptuales de la teoría de la información.

Tradicionalmente, la geografía ha sido considerada, más que una ciencia, como una especie de almacén de información referida a unas unidades espaciales. El concepto de información no es unívoco y puede tener múltiples acepciones: desde aquellas que lo consideran como algo «objetivo», como aquello que muestran los objetos de por sí, o bien como algo «subjetivo», la información percibida por los sujetos. Así, de la TI parten diversas teorías, predominando las corrientes de tipo estructuralista, referidas a objetos geográficos en los que una dirección analítica no aporta una visión del funcionamiento del conjunto: la ciudad, el paisaje, la estructura social, etc, etc. También existen desarrollos en la geografía de la percepción, considerando los comportamientos humanos como condicionados por la información que reciben los individuos. Como veremos en el siguiente apartado, aún faltan suficientes desarrollos teóricos y empíricos para abordar estos problemas, pero las principales líneas evolutivas ya están trazadas.

Habría que añadir, además, que el concepto de información puede desarrollarse teóricamente como una noción anterior al concepto de probabilidad, como ya ha sido apuntado por algunos autores (GIL ALVAREZ, 1981), lo que en cierta manera supondría un planteamiento distinto al de la estadística clásica.

De todas formas, el hecho básico por el que la TI tiene aplicaciones geográficas estaría en que los geógrafos -sea cual sea la corriente en la que se encuadren- tratan siempre de explicar configuraciones espaciales de diferentes fenómenos, esto es, configuraciones negentrópicas que muestran su permanencia durante algún período de tiempo, y que evolucionan hacia otras configuraciones que igualmente niegan la entropía.

Las aplicaciones más inmediatas de la TI, pueden ser, sin embargo, mucho más sencillas. Simplemente puede tomarse la fórmula de Shannon, y la redundancia como medidas de la concentración y dispersión, de especialización y diversificación, de integración y segregación, de dependencia e independencia, etc.

Un ejemplo de esto puede ser el medir la concentración de la población y la renta en las cincuenta provincias del estado español en 1975 (11). En tal caso, la dispersión máxima vendría dada por la entropía máxima, esto es

log↓2   50 = 5,64 bits.

Las entropías reales estarían representadas por el sumatorio de las probabilidades multiplicadas por su logaritmo binario. Estas representan las cantidades,

4,81 bits para la entropía de la distribución de las rentas provinciales (valor añadido bruto)

5,07 bits para la distribución de las poblaciones provinciales.

Es decir, la entropía de las rentas se aparta más de la entropía máxima, y por tanto, se encuentran más concentran más concentradas que la población. Utilizando los índices de redundancia, estos tomarían unos valores de 0,15 para las rentas y de 0, 10 para las poblaciones provinciales.

Otra serie de aplicaciones, mucho más interesantes, se deriva del teorema de descomposición de la entropía, también conocido como «ley de entropías totales». Estas aplicaciones se refieren a distribuciones en las que la probabilidad se encuentra distribuida en dos o más caracteres.

Cuando se trata de la probabilidad distribuida según dos caracteres i y j , la entropía total se expresa,

La entropía máxima de la distribución según dos caracteres será, H↓ t max = H ↓ j max + H↓ i max = log (mxn) = log m + log n

Resulta especialmente interesante conocer la entropía condicionada por un carácter, ya que supone conocer en qué medida ese carácter influye en la distribución total.

El ejemplo que sigue a continuación trata de ilustrar este tipo de aplicaciones en tablas de contingencia bidimensionales, si bien, el teorema de descomposición de la entropía puede extenderse fácilmente a tablas multidimensionales.

La tabla 1 muestra la distribución de la población de los municipios vizcaínos de Ermua y Guernica según dos caracteres: grupos de edad y lugar de nacimiento de la población (12).

TABLA I: Distribución de la población de Ermua y Guernica según grupos de edad y lugar de nacimiento. 1975.

ERMUA GRUPOS DE EDAD

  0-19 20-64 65YMAS TOTALES
MUNICIPIO 2.503 623 76 3.202
RESTO VIZCAYA 282 693 84 1.059
RESTO PAIS VASCO 2.858 653 56 3.567  
RESTO ESTADO Y EXTRANJEROS 2.068 7.668 424 10.160  
TOTALES 7.711 9.693 640 17.988

GUERNICA GRUPOS DE EDAD

OO 0-19 20-64 65YMAS TOTALES
MUNICIPIO 4.288 3.887 728 8.903
RESTOVIZCAYA 910 3.004 718 4.632
RESTOPAISVASCO 85 217 56 358
RESTOESTADOYEXTRANJEROS 893 2.693 247 3.833
TOTALES 6.176 9.801 1.749 17.726

 

La estructura demográfica así representada nos ofrece contrastes importantes si comparamos, una por una, cada una de las 4 x 3 = 12 categorías establecidas. Sin embargo, cuando se manejan estructuras demográficas de muchos lugares, son necesarios índices sintéticos que nos señalen, en cada caso, cuáles son los factores que condicionan en mayor o menor medida la estructura demográfica total.

En nuestro caso, se ha tomado este ejemplo al ser bien conocidos los condicionamientos demográficos de estas dos villas vizcaínas, con lo que es fácil formular hipótesis. Ermua es una pequeña villa próxima al núcleo industrial de Eibar, y que durante la década de los sesenta su población pasa de poco más de tres mil habitantes a algo más de catorce mil. Este crecimiento se debe, naturalmente, al auge industrial de esos momentos, ya la llegada de inmigrantes. Guernica es una villa fundamentalmente comercial, que actúa de centro de una comarca rural importante, que mantiene un crecimiento proporcionado a su tamaño, aunque también será sensible a la llegada de la industrialización. Como es conocido también, esta villa sufre la destrucción por el bombardeo de 1937, lo que dejó una marca en la estructura por edades. No obstante, al agrupar el municipio de Guernica a varios asentamientos rurales, la población presenta un envejecimiento relativo que camufla la falta de efectivos en las generaciones superiores a los 50 años.

Con estos datos es fácil suponer que la estructura demográfica de Ermua estará más condicionada por el fenómeno inmigración, lo que implica, indudablemente, el predominio de generaciones jóvenes.

Con la estadística habitual podemos formular algunas hipótesis respecto a la dependencia e independencia de las dos características. Si calculamos los coeficientes de contingencia C de Pearson, basados en la distribución de X2, obtenemos respectivamente los valores de 0,8118 para Ermua y de 0,7084 para Guemica, lo que nos dice, efectivamente que en Ermua existe una mayor dependencia entre las características origen y distribución por edades. Pero no podemos averiguar en qué medida una característica u otra condiciona la estructura total.

Si definimos la entropía de tal forma que,

Hn = entropía total de la distribución

Ho = entropía según los lugares de origen

He = entropía según los grupos de edad

Hn/o = entropía condicionada por los lugares de origen

Hn/e = entropía condicionada por los grupos de edad

Las entropías máximas serán,

Hnmax = log212 = 3,5850

Homax = log2 4 = 2,0000

Hemax = log2 3 = 1,5850

Las redundancias respectivas se señalan con los mismos subíndices.

La tabla 2 recoge los valores de las entropías y las redundancias de ambas distribuciones.

T ABLA 2: Entropía y Redundancia de las distribuciones de la tabla 1.

Hn Ha He Hn/a Hn/e
Ermua 2,5403 1,6122 1,1758 0,9281 1,3645
Guernica 2,8628 1,5964 1,3323 1,2664 1.5305

(entropía en bits)

  Rn Ra Re Rn/a Rn/e
Ermua 0,2914 0,1939 0,2582 0,4144 0,3278
Guernica 0,2014 0,2018 0,1594 0,2010 0,2348

La interpretación de estos valores sigue los siguientes pasos :

-El valor absoluto de la entropía total es superior en Guernica. lo que indica una mayor independencia estadística en esa distribución. de acuerdo con lo establecido también mediante los coeficientes de contingencia.

-De la tabla correspondiente a las Redundancias hay que destacar que la distribución según los lugares de origen es más heteroprobable en Guernica. ya que Ro en Guernica es superior a Ro en Ermua. lo cual no impide. sin embargo. que la distribución de Ermua esté más condicionada por los lugares de origen. ya que allí Rn/o > Rn/e. mientras que la distribución de Guernica está más condicionada por los grupos de edad. ya que allí. R n/e >Rn/o

Finalmente hay que destacar que los valores Rn/o y Rn/e son superiores en Ermua ya que su estructura demográfica está más condicionada, globalmente. por ambos factores.

El método simplifica enormemente los cálculos, pues si bien las fórmulas de las entropías condicionadas requieren muchos más cálculos que la misma entropía total, éstas pueden obtenerse fácilmente ya que

Hn/o= Hn- H o y Hn/e= Hn -He.

De esta forma no es necesario recurrir a cálculos excesivamente largos para obtener las entropías condicionadas.

IV. DESARROLLO DE LA TEORIA DE LA INFORMACION EN GEOGRAFIA

Como ya se ha advertido en la introducción. la TI ha pasado desapercibida dentro de la llamada «revolución cuantitativa>, .ya que el número de artículos y monografías que utilizan la TI constituyen sólo una pequeñísima parte de la producción empírica total.

La TI en Geografía tiene poco más de veinte años de existencia. y su desarrollo presenta -dos etapas claramente diferenciadas. y separadas aproximadamente por el año 1970.

Antes que nada hay que advertir que la TI tiene una incorporación tardía a los trabajos geográficos, con respecto a otras ciencias, ya que prácticamente hasta 1970 no aparece un núcleo claro de intereses. En otras ciencias los trabajos pioneros datan de los años 50: Mandelbrot en lingüística (1953), Margalef en ecología (1958). Algo más tarde aparece en economía (Theil, 1967).

Las dos etapas pueden considerarse divididas por los trabajos de Wilson ( 1970) , quien da a la TI un campo de aplicaciones bastante atractivo dentro de lo que el llama «teoría de la interacción» (WILSON, 1980).

Antes de Wilson, la TI aparece como una serie de realizaciones puntuales en diversos temas sin una conexión clara con los aspectos teóricos fundamentales. Esta primera etapa estará caracterizada sobre todo porque la principal fuente de inspiración es la mecánica estadística, y las analogías tienen un carácter más físico que informacional. Esta tendencia, que se dice que «relanzó la desacreditada física social» (GOULD, 1972), incluirá los trabajos del propio Wilson. Las referencias bibliográficas de estos autores tratan preferentemente de manuales generales de termodinámica y mecánica estadística, y las referencias a la TI son mínimas, cuando las hay.

En este mismo período se trata de destacar el valor paradigmático del concepto de entropía, introducido desde la teoría general de sistemas. Este concepto llevó a algunas definiciones grandilocuentes acerca de la geografía, pero en algunos casos se utilizó erróneamente, como en la generalización de Berry acerca de la evolución de los modelos rango-tamaño. Muchas de estas malas interpretaciones fueron puestas de relieve por Anderson (1969).

Las principales aplicaciones dentro de este período tratan de distribuciones de tamaños de ciudades y sistemas de lugares centrales (CURRY, 1964, 67, y OLSSON, 1967). En geomorfología existen algunas aplicaciones de la mecánica estadística (LEOPOLD y LANGBEIN, 1962; SCHEIDEGGER, 1964), no obstante, los trabajos de geografía física estarán, en lo sucesivo, poco representados (13). Desde el punto de vista de modelos de interacción está el trabajo de Berry y Schwind (1969).

A finales de la década de los sesenta y comienzos de los setenta surgen algunos trabajos teóricos, con el fin de presentar la incorporación de la TI a la geografía. Son de destacar especialmente los de Medvedkov ( 1967, 70) , y los de Chapman (1970) y Marchand (1972). Pero estos trabajos, de carácter divulgativo dentro del mundo de los geógrafos quedaron olvidados frente a la potencialidad de los modelos de entropía de Wilson.

Wilson desarrolla una familia de modelos basados en la maximización de la entropía y aplicados especialmente a la interacción espacial en áreas metropolitanas. La base de los modelos es radicalmente distinta de las teorías gravitatorias clásicas: la analogía newtoniana en la que los desplazamientos -ya sean al trabajo, a la utilización de servicios o a compras son directamente proporcionales a una «masa» (empleo, concentración de servicios y comercios), e inversamente proporcionales al cuadrado de la distancia. Wilson, por el contrario, formula estas interrelaciones en términos de probabilidades individuales -la probabilidad de que un individuo se desplace de un lugar a otro-. Una vez conocidas las localizaciones de residencia, empleo, servicios, comercio, etc.,las situaciones de entropía máxima están representadas por la máxima interacción: cuando todos los individuos se desplazan fuera de sus áreas de residencia. Estos modelos tienen en cuenta otra serie de variables, como son la renta media de cada zona, tiempo medio de desplazamiento, etc. , variables que imponen una serie de restricciones formuladas mediante multiplicadores de Lagrange. La utilidad fundamental de este conjunto de modelos estriba en conocer el grado de organización de las áreas metropolitanas: en qué medida la población, el empleo, el comercio y los servicios están repartidos de una forma óptima. También hay extensiones de estos modelos que sirven para la optimización de redes de tráfico, a fin de minimizar desplazamientos y reducir los costos de congestión (ECHENIQUE et al., 1969). Algunos ejemplos de estos modelos pueden encontrarse en Ayeni (1979). Las formas de construcción de los mismos aparecen ilustradas en Wilson (1980).

La obra de Wilson causó un gran impacto dentro de la geografía cuantitativa, pues descubría posibilidades hasta entonces impensadas. Sin embargo, estos trabajos fueron una especie de arma de doble filo, en el sentido en que se colocó el listón de conocimientos matemáticos de los geógrafos bastante alto, quedando esta serie de modelos como una especie de ingeniería geográfica inalcanzable para muchos investigadores, incluso dentro del ámbito anglosajón.

Peter Gould ( 1972) dedica un artículo a intentar explicar los conocimientos necesarios para entender la obra de Wilson «Entropy in urban and regional modelling», y señala al comienzo de su artículo:

"Este libro es el más difícil de los que he leído en geografía, requiriendo de mí tales demandas que he dedicado varias semanas a construir simplemente una débil escalerilla para mirar por encima del muro del jardín geográfico de Alan Wilson". El esfuerzo ha compensado, ya que él ha plantado un cierto número de esos conceptos raros y profundos cuyo entendimiento proporciona una visión del mundo penetrante y diferente. Pocos estarán en desacuerdo con nosotros en nuestra necesidad de nuevos puntos de vista sobre problemas aún sin resolver, y ninguno negará la necesidad de nuevos puntos de vista para crear cuestiones imaginativas.

Pero el trabajo de Wilson es difícil -matemáticamente difícil para aquellos que no tengan tres o cuatro cursos especiales de graduado en matemáticas- y conceptualmente difícil si no se tiene ese fondo matemático. Wilson formó originariamente como matemático, con un considerable trabajo en campos aplicados, tales como mecánica cuántica y estadística, y su libro parecería formidable para todos como un manual en la disciplina».

Más adelante, será Melvin J. Webber (1977), quien intentará un nuevo artículo «pedagógico», tratando de explicar algunos modelos sencillos de interacción espacial.

Es muy posible, por tanto, que la dificultad matemática de la obra de Wilson haya sido una de las causas por la que muchos geógrafos no se han acercado a la teoría de la información. Las connotaciones físicas de la entropía que tienen todos los trabajos geográficos hasta los años setenta mostraban estos modelos como una rara especie de jardín geográfico.

La segunda etapa en el desarrollo de la TI en geografía podría caracterizarse por la extensión de técnicas y modelos, y por la divulgación de los conceptos básicos de la TI. Entre los trabajos que se refieren a temas básicos hay que señalar los ya citados que surgen alrededor de 1970, y posteriormente los de Marchand (1975), Gatrell (1977), Batty (1974, 76), y especialmente, por su carácter pedagógico, los publicados por el Instituto de Geógrafos Británicos dentro de la serie CATMOG: los números 31 y 37, de Thomas y de Johnston y Semple, respectivamente.

Otra serie de trabajos empíricos se refieren al campo de la geografía económica y comprenden diversas publicaciones de Semple, Horowitz & Horowitz, etc. Existen también algunas aproximaciones desde el punto de vista de la geografía comportamental, constituídos por los trabajos de Smith (1978), y de Clark y Smith (1979).

Finalmente, entre los desarrollos teóricos, destacan las aplicaciones al campo de la geografía urbana, especialmente el trabajo de Webber (1979). Webber trata de formular una «teoría de agregados», que la hace conceptualmente bastante atractiva al tratar con un tema complejo como es la ciudad. Webber señala que su teoría «es una teoría de agregados o estructural, más que una teoría individualista: afirma que algunas características sociales'son características de grupo y no propiamente la suma de características individuales», tratando de alejarse así de la carga comportamentalligada a teorías económicas y también a muchas técnicas estadísticas.

La obra de Webber se presenta también como matemáticamente compleja, ya que dedica los cuatro primeros capítulos a la elección de medidas de la información. Por otra parte no trata temas de morfología urbana -aspecto generalmente ignorado por los geógrafos cuantitativos- que, según la lógica de la TI, podrían ser incluidos en un análisis global. Los temas morfológicos han sido abordados utilizando la TI, por el semiólogo Martin Krampen (1979), y es de suponer que los geógrafos lo debieran incluir en sus trabajos.

Cabría incluir aquí que la TI en geografía, a pesar de sus veinte años de desarrollo se encuentra en una situación incipiente, que posee una gran potencialidad teórica y práctica, pero que es necesaria una esquematización de la misma, a fin de que los geógrafos puedan acceder a estos conceptos y técnicas de forma escalonada.

BIBLIOGRAFIA.

Termodinámica y física cuántica.

DARROW, K.K. (1944): «The concept of entropy». American Journal of Physics, 12, 183.

DUTTA, H. (1968): «A hundred years of entropy». Physics Today. vol 21, pp., 75-79.

MAXWELL, J.C. (1872): «TheTheoryofHeat». NuevaYork. D. Appleton.

NASH, L.K. (1965): «Elements of statistical thermodinamics», Reading, Mass. Addison- Wesley publishing Co.

ZEMANSKY, M.W. (1951): «Heat and thermodinamics». Nueva York, Mc Graw Hill. Edición castellana: «Calor y Termodinámica». Ed. Aguilar, años 1961,1973,1979.

Teoría de la información. Obras generales.

ABRAMSON, N. (1974): «Teoría de la información y la comunicación» Madrid. Paraninfo.

ACZEL, J. (1969): «On different characterizatións of Entropies». Lecture Notes in Mathematics, vol 89. pp 1 -11.

ACZEL, J. y DAROCZY, Z. (1975) : «On measures of information and their characterizations». Nueva York. Academic Press.

ASH, R.B. (1965): «Information Theory».lnterscience. J. Wiley.

BRILLOUIN, I. (1956): «Science and lnformation Theory». Nueva York. Academic Press.

ESCARPIT, R. (1977) : «Teoría general de la información y la comunicación» Barcelona. Icaria.

FAST, J.D. (1970): «Entropy». Londres. Mac Millan.

GIL ALVAREZ, P. (1981): «Teoría matemática de la información». Madrid. ICE ediciones.

GOLDMAN, S. (1953): «Information Theory». Londres. Constable & Co.

GUIASU, S. (1977): «Information Theory with applications». Nueva York. Mc Graw Hill.

HARTLEY, R. V .L. (1928): Transmission ofinformation». Bell System Technical Journal, 7, 535-63.

JAYNES, E. T .(1957): «Information Theory and Statistical Mechanics» Physical Review, vo1106, pp 620-630, yvo1108, pp 171-190.

JONES, D.S. (1979): «Elementary Information Theory». Oxford. Clarendon.

KULLBACK, S. (1959): «Information Theory and statistics». Nueva York. John Wiley.

MONTES, S. (1976): «Teoría de la Información». Madrid. Pablo del Río editor .

REZA, P.M. (1961) «An introduction to Information Theory». Nueva York. Mc Graw Hill.

SHANNON, C.E. (1948): «A mathematical theory of communication». Bell System Technical Journal, 27, pp. 379-423,623-656. Reimpreso en Shannon y Weaver 1949.

SHANNON, C.E, y WEAVER, W. (1949) «The mathematical theory of communication». Urbana. University of I1linois Press.

SINGH, J. (1972) «Teoría de la información, del lenguaje y de la cibernética». Madrid. Alianza ed. 1972.

THEIL, H. (1972): «Statistical decomposition analysis». Amsterdam. North Holland.

WEAVER, W. (1948): «Probability, rarity, interest and surprise». Science Monthly,n.o 67, pp 390-392.

YAGLOM, A.M. y YAGLOM, I.M. (1969): «Probabilité et Information» París 1969. Original en ruso, 1960.

Teoría de la información en ciencias diversas.

ASHBY, W .R. (1978): «Sistemas y sus medidas de información», en L. von Bertalanffy y otros «Tendencias en la teoría general de sistemas». Madrid, Alianza ed. 1978. Original en inglés 1972. Wiley and sons.

GEORGESCU-ROEGEN, N. (1971) «The entropy law and the economic process» Cambridge. Mass. Harvard University Press.

MANDELBROT, B. (1953) «An Informational Theory of Statistical Structure oflanguage», en Comunication Theory, W. Jackson (editor), Londres. Butterwoth; Nueva York. Academic Press.

MARGALEP, D.R. (1958): «Information Theory in Ecology». General Systems 3,36-71.

MARGALEP, R. (1980): «La biosfera, entre la termodinámica y el juego», Barcelona, ed. Omega.

PIELOU, E.C. (1977): «An Introduction to mathematical Ecology». Nueva York. Wiley. (primeraed. 1969).

PIELOU, E.C. (1975) : «Ecological Diversity» Nueva Y ork. Wiley and sons. THEIL, H. (1967): «Economics and information Theory». North Holland Publishing Co.

Teoría de la información en Geografía.

ANDERSON, J. (1969): «On general system theory and the concept of entropy in urban geography». Research paper n.o 31. London School of Economics. Graduate Geography Department.

AYENI, B. (1979): «Concepts and Techniques in urban analysis». Londres. Croom Helm.

BATTY, M. (1970): «An activity allocation model for the Nottinghamshire- Derbyshire subregion». Regional Studies, 4. pp 307 -332.

BATTY, M. (1972): «Entropy and spatial Geometry». Area. vol4. pp 230-6. BATTY, M. (1974): «Spatial entropy». Geographical Analysis», 6. pp 1-32.

BATTY, M. (1976): «Urban Modelling: algorithms, calibrations, predictions». Cambridge. Cambridge University Press.

BATTY, M. (1976): «Entropy in Spatial Aggregation». Geographical Analysis, vol8. pp 1-21.

BATTY, M., y MACKIE, S. (1972): «The calibration ofGravity, Entropy and related models of spatial interaction». Environment and Planning. vol 4, pp 205-233.

BATTY, M. y SAMMONS, R. (1979): «A conjecture on the use of Shannon's formula for measuring spatial information». Geographical Analysis 11, pp 305-310.

BERRY, B.J. L y SCHWIND. P.J. (1969): «Information and Entropy inmigrant flows». Geographical Analysis 1, pp. 5-14.

BUSSIERE, R. y SNICKARS, F. (1970) : «Derivation of the negative exponential model by an entropy maximizing method». Environment and Planning, 2. pp295-301.

CHAPMAN, G.P. (1970): «The application ofinformation theory to the analysis of population distributions in space». Economic Geography, n.o 46, pp 317-31.

CHAPMAN, G.P. (1977): «Human and Environmental systems: a geographers appraisal». Nueva York. Academic Press.

CLARK, W.A.W. y SMITH, T.R. (1979): «Modelling information use in a spatial context». Annals of the Association of American Geographers. vol 69. n.o 4, pp 575-588.

CLAYTON, C. y LAMPRECHT, J.L. (1974): «Information Theory and Geographical Differentiation » .Geografiska Annaler, 56 b, pp 78- 89.

CONNELLY, D. (1972): «Information Theory and Geomorphology», en R. Chorley (ed): Spatial Analysis in Geomorphology. Nueva York. Harper & Row.

CURRY, L. (1964) : «The randon spatial economy: an exploration in settlement theory » .Annals of the Association of American Geographers .

CURRY, L. (1967): «Central Places in the random spatial economy». Journal of Regional Science, 7 (suplemento), pp 217 -38.

CURRY, L. (1972) : «A spatial analysis of gravity flows» .Regional Studies, n. o 6, pp 131-147.

DACEY, M.P. y NORCLIFFE, A. (1976): «New entropy models in the social sciences». Environment and Planning, A. vol8, pp 299-310.

DINKEL, J.J.; KOCHEMBERG, G.A. y WONG, S.N. (1977): «Entropy maximization and geometric programing». Environment and Planning, A. vol 9. pp419-427. .

ECHENIQUE, M., CROWTHER, D. y LINDSAY, W. (1969): «A spatial model of urban stock and activity». Regional Studies. vol 3. pp 281- 312. FANO, P .L. (1969): «Organization, City size distributions and Central Places» Papers of Regional Science Association. vol. 22, pp 29-38.

GARRISON, G.B. y PAULSON, A.S. (1973): «An Entropy measure of the geographic concentration of economic activity». Economic Geography, vol. 49, pp319-324.

GOULD, P.R. (1972): «Pedagogicreview». Annals ofthe Association ofAmerican Geographers. vo162. pp 689-700.

GOULD, P.R. (1975): «Acquiring Spatial Information». Economic Geography, n.o 51, pp 87-99.

GATRELL, A.C. (1977): «Complexity and redundancy in binary maps». Geographical Analysis, n.o 9, pp 27 -41.

HEXTER, J .L. y SNOW, J .W .(1970) : «An entropy measure of relative aggregate concentration». Sothern Economics Journal, 36,pp 239-243.

HOROWITZ, A. & I. (1968): «Entropy, Markov processes and competition in the brewing industry». Journal of lndustrial Economics, n.o 16, pp. 196-2i1.

HOROWITZ, A. & I. (1970): «Employment concentration in the Common Market: an entropy approach » .Journal of the Royal Statistical Society. Series A. part. 3. pp 463-79.

HOROWITZ, A. & I. (1970): «Structural changes in brewing industry». Applied Economics, 2. pp 1-13.

JOHNSTON, R.J. y SEMPLE, R.K. (1980): «Classification using information statistics». CATMOG, n.o 37. Geo Abstracts. University of East Anglia.

JUARISTI, J. (1982): «La Estructura urbana de Vizcaya». Tesis doctoral. Universidad de Navarra. En curso de publicación.

JUARISTI, J. (1983): «Una interpretación de la entropía en un sistema de lugares centrales: el caso de Vizcaya». Comunicación presentada al curso «la geografía teórica y cuantitativa» .Oviedo 1983.

KRAMPEN, M. (1979) : «Meaning in the urban environment» .Londres. Pion.

LEOPOLD, L.B. y LANGBEIN, W.B. (1962): «The concept of entropy in landscape evolution». U .S. Geological Survey. Professional paper 500 A.

LOUVIERE, J.J. (1976): «Information processing Theory and functional form in spatial behavior», en R.G. Golledge y Ruhston (eds). Columbus. Ohio. Ohio University Press.

MARCHAND, B. (1972): «Information Theory and Geography». Geographical Analysis, 4, pp 234-257.

MARCHAND, B. (1975): «On the information content of Regional maps: the concept ofgeographical redundancy». Economic Geography, 51, pp 117 -127.

MEDVEDKOV, Y. (1967): «The regular component in settlement pattern as shown on a map». Soviet Geography: review and translátion. vol8. pp 150-68.

MEDVEDKOV, Y. V. (1967): ~<Concept of entropy in settlement pattern analysis». Papers of Regional Science Association. 18. pp 165 -168.

MEDVEDKOV, Y. (1970) : «Entropy, an assessment of potentialities in geography». Economic Geography, 46. pp 307 -316.

MORRILL, R.L. y PITTS, F. (1967): «Marriage, migration, and the mean

information field: a study in uniqueness and generality». Annals of the Association of American Geographers, 57. pp 401- 422.

OLSSON, G. {1967): «Central Place Systems, Spatial Interaction and Stochastic processes». Papers of Regional Science Association, 18, pp. 13 -45.

PAPAGEORGIU, G.J. (ed), (1976): «Mathematical Land Use Theory». Lexington. Mass. Heath.

SCHEIDEGGER, A.E. (1964): «Some implications of statistical mechanics in Geomorfology». Bulletin of the International Association of Scientific Hidrology, 9. pp 12-16.

SEMPLE, R.K. (1973) : «Recent trends in the spatial concentration of corporate headquarters» .Economic Geography. vo149. pp. 309-318.

SEMPLE, R.K. y WANG, L.H. (1970): «A Geographical analysis of Redundancy in interurban transportation links» .University of Toronto. Discussion paper n. S.

SEMPLE, R.K. y GOLLEDGE, R.G. (1970): «An analysis of entropy changes in a settlement pattern over time». Economic Geography. n.o 46, pp 157 -160.

SHEPPARD, E.S. (1976): «Entropy, Theory construction and spatial analysis». Environment and Planning. A. 7, pp 279-91.

SMITH, T .E. (1975) : «On the relative-frecuency interpretation of finite maximum-entropy distributions». Environment and Planning. A. vol7, pp 325-47. SMITH, T .R. (1978) : « Uncertainty , diversification and mental maps in spatial choice problems». Geographical Analysis. vo110. pp 120-141.

SONIS, M. G. (1969): «An application of entropic measures of uniformity to the analysis of population redistribution» (original en ruso). Traducción en Soviet Geography. review and translations, n.o 10.

THOMAS, R. W .y REEVE, D.E. (1976): «The role of Bose-Einstein statistics in point pattern analysis». Geographical Analysis, 8, pp. 113-36.

THOMAS, R. W .(1980): «Information statistics in Geography». CATMOG n.o 31. Geo Abstracts. UniversityofEastAnglia.

WALSH, J .A. y WEBBER, M.J. (1977) : «information theory: some concepts and measures». Environment and Planning. A. 9. pp 395-417.

WEBBER, M.J. (1972): «Impact of uncertainty in location». Cambridge. M.I.T. Press.

WEBBER,M.J. (1977): «Pedagogy again: what is entropy?». Annals ofthe Association of American Geographers. 67, pp 254- 66.

WEBBER, M.J. (1979): «information Theory and Urban Spatial Structure» Londres. Croom Helm.

WILSON, A.G. (1969): «The use ofanalogies in geography». Londres. Centre for Environmental Studies. Working Paper .

WILSON, A.G. (1970): «Entropy in urban and Regional Modelling». Londres Pion.

WILSON, A.G, (1974): «Urban and RegioJ1al Models in Geography and Planning», Londres, Wiley.

WILSON, A,G, (1980): «Geografía y Planeamiento urbano y regional», Barcelona, Oikos- Tau,

YA NUTENKO, L, (1970): «An Information-Theory Approach to the partitioning of an area», Soviet Geography: review and translations, 11, pp 540-544.

 

NOTAS

1. Vid, por ejemplo, CAPEL, H.: .Filosofía y ciencia en la geografía contemporánea». Ed. Barcanova. Barcelona 1981. Cfr., también, ESTEBANEZ, J.: .Tendencias y problemática actual de la geografía» ed. Cincel. Madrid 1982.

2. Los principales textos inspiradores de la corriente neopositivista en Geografía son los de HARVEY, D.: .Explanation in Geography» ed. Arnold. Londres 1969 (Traducción castellana Alianza Universidad, 1983), ABLER, R., ADAMS, J.S. y GOULD, P.: .Spatialorganization. The geographer's view ofthe world». Englewood Cliffs, Nueva Jersey. Prentice Ha111971. y BUNGE, W .: .Theoretical Geography». Lund Studies in Geography, n.a 1. Lund 1962.

3. A este respecto, Estébanez señala: «por otra parte considero que las técnicas cuantitativas pueden desligarse del positivismo y emplearse en cualquiera de los tres enfoques (positivistas, humanísticos y estructuralistas} a los que puede reducirse la multiplicidad de tendencias en geografía humana». Cfr.: ESTEBANEZ, J. «La enseñanza de la geografía cuantitativa en España». Ponencia presentada al curso: «La Geografía Teórica y Cuantitativa». Oviedo, Julio 1983.

4. Sobre el concepto de paradigma y la evolución de las ciencias, vid. KHUN. T .H.: «La estructura de las revoluciones científicas». Ed. Tecnos. Madrid 1978. En el caso de la geografía, vid.: CAPEL, H.: «Sobre clasificaciones, paradigmas y cambio conceptual en geografía», en El Basilisco, n.o 11, 1980, pp4-12. y GARCIA RAMON, O.: «Acerca del concepto de paradigma y la evolución de la geografía humana» , en Eusko Ikaskuntza, Cuadernos de sección : Geografía e Historia, n.o 1, pp. 41-44. Zarauz 1983. .

5. Acerca del futuro de la geografía cuantitativa, Bradsaw concluye: «El número creciente y la complejidad de las técnicas cuantitativas hace que la especialización en el campo de la geografía cuantitativa sea inevitable. En el futuro inmediato ningún geógrafo cuantitativo será capaz de estar al día y de asimilar todos los avances que experimenta la disciplina en este campo» Cfr. : BRAOSA W , R. : «El futuro de la geografía cuantitativa». Ponencia presentada al curso «La geografía teórica y cuantitativa». Oviedo, Julio 1983.

6. Cfr.: WIENER, N.: «Cibernética y sociedad.. Ed. Sudamericana. Buenos Aires 1969.

7. Wiener da una importancia especial a Gibbs dentro de la evolución de la física de comienzos de siglo, y en las primeras formulaciones de la teoría de la información. Cfr.: WIENER, op. cit.

8. Al decir «indistinguibles», nos referimos al número de configuraciones que resultarían sin tener en cuenta la identificacion de cada individuo. esto es, simplemente al total de distribuciones numéricas.

9. Cfr.: BERTALANFFY. L. von. «Perspectivas en la Teoría General de sistemas». Alianza ed. Madrid 1979. Cfr.: WEAVER, W. «Ideas have consecuences". Chicago. University of Chicago Press 1948.

10. Las unidades de las medidas de incertidumbre dependen de la base de los logaritmos utilizados. En termodinámica es habitual trabajar con logaritmos neperianos, con base en el número e. y la unidad de incertidumbre correspondiente se denomina .nat. (natural digit). En el ejemplo señalado aquí se han utilizado logaritmos decimales, y por lo que la unidad son los .dits. (decimal digit). En T .1. y en diversas ciencias la urtidad más utilizada se basa en logaritmos binarios, o de base dos, y se denomina .bit. (binary digit). De todas formas, resulta fácil la transformación de unas unidades a otras.

11. La fuente de estos datos es la «Renta Nacional de España y su distribución provincial. 1975». Servicio de Estudios del Banco de Bilbao.

12. Datos facilitados por el Servicio de Datos Geográficos de la Excma. Diputación foral de Vizcaya. Elaboración propia.

13. Muñoz Jiménez, en un examen de la bibliografía sobre geomorfología cuantitativa recoge 183 títulos, de los cuales, tan sólo cuatro utilizan la teoría de la información, y son prácticamente los mismos que hemos obtenido mediante referencias de otros autores. Cfr.: MUÑOZ JIMENEZ, J .: .lntróducción y desarrollo de la metodología cuantitativa en geografía». Ponencia presentada al curso: .La geografía teórica y cuantitativa» .Oviedo. J ulio 1983.