Definición

Definición


Entendemos por Geografía a aquella ciencia que se interesa por el
análisis de los fenómenos relacionados con la tierra, tanto desde
un punto de vista natural como humano. Es por esto que para la 
Geografía no sólo es importante todo lo que tenga que ver con la
superficie, los elementos naturales y territoriales, si no también
con la población que habita esos territorios y la adaptación a diferentes 

No hay comentarios:

Publicar un comentario