miércoles, 24 de marzo de 2010

Caso 10:: "Simulación de Estructuras"

El caso de esta semana giro alrededor de la resistencia en las estructuras (estímulos: A, B, C y D), vimos 4 vídeos que se enfocaron en dos ejemplos, la simulación de estructuras en los puentes usando "pontifex" y una simulación de una pieza en el programa "catia".

Pontifex es un juego de simulación donde se construyen puentes, por los cuales deben de pasar ya sean carros, un tren o un barco un determinado número de veces, el puente debe soportar su peso por si solo. Tenemos un presupuesto asignado y también podemos elegir entre diferentes materiales para su construcción.

Al estar experimentando con pontifex, me dí cuenta que lo mas importante a la hora de construir puentes son los apoyos principales, la resistencia del material, las tensiones de los mismos, donde se construirán (sobre ríos, montañas o la ciudad), la longitud del mismo, entre otras cosas.

Estos so algunos de los puentes que construí en el programa:

En la siguiente imagen se observa que el puente por si solo no genera ni puntos de tensión ni de presión, y por lo tanto se mantiene en pie.



Pero a la hora de que pase el tren este cae inevitablemente, a pesar de que tiene dos apoyos en el fondo del río. En la foto se observan los puntos de tensión (de color azul) que se estiran tanto que se rompen al final.



Otro ejemplo es el siguiente, pero al contrario del anterior, este puente se desplomo, no del todo, y de manera extraña el tren si paso las 4 veces, lo cual me dio mucha risa.. Las dos imágenes están abajo, donde se observan los puntos de tensión, en color azul, y los de presión, que van desde los amarillos, los anaranjados y los rojos.




El conocimiento intuitivo está definido como la aprehensión inmediata de las experiencias internas o externas en su experimentación o percepción. A esta aprehensión, los metafísicos la llaman espiritual, porque no es sensible, pero sabemos que existe, por lo que también se convierte en no negable. Como el ser humano, aprende por tres elementos de su estructura psíquica –la razón, el conocimiento, la voluntad- los juicios que se emiten basados en este tipo de conocimiento se vuelven entonces independientes y personales, aún cuando exista una conciencia cognoscente general en el ser humano. En otras palabras, hay conocimientos que adquirimos por naturaleza, pero que cada quién tiene en uno u otro grado.

El método de los elementos finitos

(MEF en castellano o FEM en inglés) es un método numérico general para la aproximación de soluciones de ecuaciones diferenciales parciales muy utilizado en diversos problemas de ingeniería y física. El MEF está pensado para ser usado en computadoras y permite resolver ecuaciones diferenciales asociadas a un problema físico sobre geometrías complicadas.

El MEF se usa en el diseño y mejora de productos y aplicaciones industriales, así como en la simulación de sistemas físicos y biológicos complejos. La variedad de problemas a los que puede aplicarse ha crecido enormemente, siendo el requisito básico que las ecuaciones constitutivas y ecuaciones de evolución temporal del problema a considerar sean conocidas de antemano.


Un amplio rango de funciones objetivo (variables con el sistema) están disponibles para la minimización ó la maximización:

  • Masa, volumen, temperatura
  • Energía tensional, esfuerzo tensional
  • Fuerza, desplazamiento, velocidad, aceleración
  • Sintética (definidas por el usuario)

Hay múltiples condiciones de carga que se pueden aplicar al sistema. Algunos ejemplos son:

  • Puntuales, presión, térmicas, gravedad, y cargas centrífugas estáticas
  • Cargas térmicas de soluciones del análisis de transmisión de calor
  • Desplazamientos forzados
  • Flujo de calor y convención
  • Puntuales, de presión, y cargas de gravedad dinámicas

Cada programa MEF puede venir con una biblioteca de elementos, o una que es construída con el tiempo. Algunos ejemplos de elementos son:

  • Elementos tipo barra
  • Elementos tipo viga
  • Placa/Cáscara/Elementos compuestos
  • Panel de sándwich
  • Elementos sólidos
  • Elementos tipo muelle
  • Elementos de masa
  • Elementos rígidos
  • Elementos amortiguadores viscosos

Muchos programas MEF también están equipados con la capacidad de usar múltiples materiales en la estructura, como:

  • Modelos elásticos isotrópicos / ortotrópicos / anisótropicos generales
  • Materiales homogéneos / heterogéneos
  • Modelos de plasticidad
  • Modelos viscosos

El programador puede insertar numerosos algoritmos o funciones que pueden hacer al sistema comportarse de manera lineal o no lineal. Los sistemas lineales son menos complejos y normalmente no tienen en cuenta deformaciones plásticas. Los sistemas no lineales toman en cuenta las deformaciones plásticas, y algunos incluso son capaces de verificar si se presentaría fractura en el material.

Algunos tipos de análisis ingenieriles comunes que usan el método de los elementos finitos son:

  • Análisis estructural consiste en modelos lineales y no lineales. Los modelos lineales usan parámetros simples y asumen que el material no es deformado plásticamente. Los modelos no lineales consisten en tensionar el material más allá de sus capacidades elásticas. La tensión en el material varía con de deformación.
  • Análisis vibracional es usado para probar el material contra vibraciones aleatorias, choques e impactos. Cada uno de estos incidentes puede actuar en la frecuencia natural del material y puede causar resonancia y el consecuente fallo.
  • Análisis de fatiga ayuda a los diseñadores a predecir la vida del material o de la estructura, enseñando el efecto de los ciclos de carga sobre el especimen. Este análisis puede mostrar las áreas donde es más posible que se presente una grieta. El fallo por fatiga puede también enseñar la tolerancia al fallo del material.

Los modelos de análisis de transferencia de calor por conductividad o por dinámicas térmicas de flujo del material o la estructura. El estado continuo de transferencia se refiere a las propiedades térmicas en el material que tiene una difusión lineal de calor.

martes, 16 de marzo de 2010

Caso 9:: Control y Simulacion del Caos..

El tema principal de esta sesión fue la Teoria del caos, que es un modelo teórico que intenta explicar el comportamiento de sistemas dinámicos que en principio parecen desarrollarse aleatoriamente con por ejemplo el comportamiento del tiempo atmosférico, proponiendo una nueva manera de estudiar y comprender la realidad.

Teoría del caos es la denominación popular de la rama de las matemáticas y la física que trata ciertos tipos de comportamientos impredecibles de los sistemas dinámicos. Los sistemas dinámicos se pueden clasificar básicamente en: Estables, Inestables y Caóticos .
Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.
Una de las mayores características de un sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen la atmósfera terrestre, el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.

Los Atractores son conjuntos al que un sistema evoluciona después de un tiempo suficientemente largo. Para que el conjunto sea un atractor, las trayectorias que le sean suficientemente próximas han de permanecer próximas incluso si son ligeramente perturbadas. Geométricamente, un atractor puede ser un punto, una curva, una variedad o incluso un conjunto complicado de estructura fractal conocido como atractor extraño.

Hay varios tipos de atractores, el punto fijo y el ciclo límite son atractores simples o clásicos. Cuando los conjuntos son complicados de describir, nos encontramos ante un atractor extraño.
+ Atractores clásicos

En los atractores clásicos, todas las trayectorias convergen en un único punto, es decir, todas las trayectorias terminan en un estado estacionario.

* Punto fijo: Un punto fijo o punto de equilibrio es el punto correspondiente al estado del sistema que permanece constante el tiempo. Ejemplos: el estado final de una piedra que cae, un péndulo o un vaso con agua.

* Ciclo límite: Un ciclo limite es una órbita periódica del sistema que está aislada. Ejemplos: el circuito de sintonía de una radio.

* Toro límite: Una trayectoria periódica de un sistema puede ser gobernada por más de una frecuencia. Si dos de estas frecuencias forman una fracción irracional (es decir, si son inconmensurables), la trayectoria no se cerrará y el ciclo límite se convertirá en un toro.

+ Atractor extraño: A diferencia de los atractores clásicos, los atractores extraños tienen estructura a todas las escalas. Un atractor es extraño si tiene dimensión de Hausdorff no entera (o "fractal") o si la dinámica en el atractor es caótica.

Las ecuaciones de Lorenz son empleadas principalmente en el estudio del clima



donde σ es el número de Prandtl (viscosidad/conductividad térmica), r es el número de Rayleigh (John Strutt) (diferencia de temperatura entre base y tope) y b es la razón entre la longitud y altura del sistema.

Lorenz observó dos cosas fundamentales que ocurrían en su ecuación:
Cualquier diferencia en las condiciones iniciales antes de los cálculos, incluso infinitesimal, cambiaba de forma dramática los resultados. Tan sólo se podía predecir el sistema por cortos períodos. Llevando eso a lameteorología, suponía lo que se llamó efecto mariposa, hipersensibilidad a las condiciones iniciales.
A pesar de lo anterior, la impredecibilidad del sistema, lejos de ser un comportamiento al azar, tenía una curiosa tendencia a evolucionar dentro de una zona muy concreta del espacio de fases, situando una especie de pseudocentro de gravedad de los comportamientos posibles.
Las ecuaciones de Lorenz fueron propuestas como un modelo muy simplificado de la convección en forma de anillos que parece ocurrir a veces en la atmósfera terrestre. Por ello, las tres magnitudes a las que Lorenz se refiere en su sistema son: razón de rotación del anillo, gradiente de temperatura y desviación de la temperatura respecto a su valor de equilibrio.

Lorenz descubrió que su sistema contenía una dinámica extremadamente errática. Las soluciones oscilaban irregularmente sin llegar a repetirse, aunque lo hacían en una región acotada del espacio de fases. Vio que las trayectorias rondaban siempre alrededor de lo que ahora se define como atractor extraño. El sistema de Lorenz es disipativo.

El efecto mariposa es es un concepto quehace referencia a la noción de sensibilidad a las condiciones iniciales dentro del marco de la teoría del caos. La idea es que, dadas unas condiciones iniciales de un determinado sistema caótico, la más mínima variación en ellas puede provocar que el sistema evolucione en formas completamente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande.
Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.
Su nombre proviene de las frases: "el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo" o "el aleteo de las alas de una mariposa pueden provocar un Tsunami al otro lado del mundo" así como también "El simple aleteo de una mariposa puede cambiar el mundo".
Al iterar la formula y=2x2-1, con dos series inicializadas en 0.224834 y 0.224835 respectivamente nos da la siguiente grafica:

Donde se ve que al variarle un poco a la variable inicial, obtenemos una gráfica totalmente diferente a la primera, por lo tanto es sistema caótico, independientemente de ser la misma ecuación a la que se le hacen las iteraciones.
La aplicaciones de la teoria del caos van desde el pronostico del clima, este, además de ser un sistema dinámico, es muy sensible a los cambios en las variables iniciales, es un sistema transitivo y también sus órbitas periódicas son densas, lo que hace del clima un sistema apropiado para trabajarlo con matemática caótica. La precisión de las predicciones meteorológicas es relativa, y los porcentajes anunciados tienen poco significado sin una descripción detallada de los criterios empleados para juzgar la exactitud de una predicción.

Al final del siglo XX se ha vuelto común atribuirles una precisión de entre 80 y 85% en plazos de un día. Los modelos numéricos estudiados en la teoría del caos han introducido considerables mejoras en la exactitud de las previsiones meteorológicas en comparación con las predicciones anteriores, realizadas por medio de métodos subjetivos, en especial para periodos superiores a un día. En estos días es posible demostrar la confiabilidad de las predicciones específicas para periodos de hasta cinco días gracias a la densidad entre las orbitas periódicas del sistema, y se han logrado algunos éxitos en la predicción de variaciones anormales de la temperatura y la pluviosidad para periodos de hasta 30 días.

Antes de la aparición de la Teoría del Caos, se pensaba que para que el clima llegara a predecirse con exactitud newtoniana no era más que una cuestión de introducir más y más variables en un ordenador lo suficientemente potente como para procesarlas. Sin embargo, de unas pocas variables de hace tan solo unas décadas se ha pasado a considerar cientos de miles de variables sin conseguir la predicibilidad esperada. El clima, como sistema caótico, ha de entenderse como un sistema impredecible dentro de un atractor que le confiere cierto orden a través de las estaciones. Sólo sabemos con seguridad que cada año habrá cuatro períodos con unas caracteristicas climáticas conocidas. No es esperable, conforme a la teoría del caos, que algún día consigamos averigüar con precisión matemática el tiempo que hará al día siguiente. El clima es sensible a pequeñas variaciones en las condiciones iniciales y la determinación de las condiciones iniciales con exactitud está abocado al fracaso a causa del Principio de incertidumbre de Heisenberg.

No es posible contradecir la confiabilidad de las previsiones para periodos de tiempo más largos debido a que no se han adoptado aún modelos de verificación; no obstante, los meteorólogos profesionales tienden a ponerla en duda.

Otra aplicacion es en la medicina, en el siguiente link (ver página) se explica como la teoria del caos y los fractales estan en todos lados, como se observan fractales en los pulmones, entre otras cosas.

martes, 9 de marzo de 2010

Caso 8:: "Terrormoto"

Un terremoto es el movimiento brusco de la Tierra, causado por la brusca liberación de energía acumulada durante un largo tiempo. La corteza de la Tierra está conformada por una docena de placas de aproximadamente 70 km de grosor, cada una con diferentes características físicas y químicas.

La corteza de la tierra está presionada por el manto, el cual ha quebrado su corteza en 15 grandes placas que están juntas. En los bordes donde se rozan las placas, es donde suceden los sismos y la actividad de los volcanes. El origen de los terremotos se encuentra en la liberación de energía que se produce cuando los materiales del interior de la Tierra se desplazan, buscando el equilibrio, desde situaciones inestables que son consecuencia de las actividades volcánicas y tectónica, que se producen principalmente en los bordes de la placa. Estas placas "tectónicas" se están acomodando en un proceso que lleva millones de años y han ido dando la forma que hoy conocemos a la superficie de nuestro planeta, originando los continentes y los relieves geográficos en un proceso que está lejos de completarse.

Habitualmente estos movimientos son lentos e imperceptibles, pero en algunos casos estas placas chocan entre sí como gigantescos témpanos de tierra sobre un océano de magma presente en las profundidades de la Tierra, impidiendo su desplazamiento. Entonces una placa comienza a desplazarse sobre o bajo la otra originando lentos cambios en la topografía. Pero si el desplazamiento es dificultado comienza a acumularse una energía de tensión que en algún momento se liberará y una de las placas se moverá bruscamente contra la otra rompiéndola y liberándose entonces una cantidad variable de energía que origina el Terremoto.

Las zonas en que las placas ejercen esta fuerza entre ellas se denominan fallas y son, desde luego,los puntos en que con más probabilidad se originen fenómenos sísmicos. Sólo el 10% de los terremotos ocurren alejados de los límites de estas placas.

La actividad subterránea originada por un volcán en proceso de erupción puede originar un fenómeno similar.

En general se asocia el término terremoto con los movimientos sísmicos de dimensión considerable, aunque rigurosamente su etimología significa "movimiento de la Tierra".

Existen otros muchos factores que pueden originarlos: en torno a procesos volcánicos, por hundimiento de cavidades cársticas o por movimientos de ladera, desprendimientos de rocas en las laderas de las montañas, hundimiento de cavernas o cuevas, variaciones bruscas en la presión atmosférica ocasionado ciclones e incluso la actividad humana. Algunos de estos mecanismos generan eventos de baja magnitud que generalmente caen en el rango de microsismos, temblores que sólo pueden ser detectados por sismógrafos.

En general, los terremotos son eventos naturales que son parte de una continua evolución de la tierra y ocurren en algunas franjas de la tierra bien definidas que son las placas tectónicas. Son producto del acomodamiento del planeta tierra, el cuál está formado de varias partes como vemos a continuación:

Hipocentro o Foco: Es el punto en la profundidad de la Tierra desde donde se libera la energía en un terremoto. Cuando ocurre en la corteza de ella (hasta 70 km de profundidad) se denomina superficial. Si ocurre entre los 70 y los 300 km se denomina intermedio y si es de mayor profundidad: profundo (recordemos que el centro dela Tierra se ubica a unos 6.370 km de profundidad).

Epicentro: Es el punto de la superficie de la Tierra directamente sobre el hipocentro, desde luego donde la intensidad del terremoto es mayor.

La Escala Richter representa la energía sísmica liberada en cada terremoto y se basa en el registo sismográfico. Es una escala que crece en forma potencial o semilogarítmica, de manera que cada punto de aumento puede sognificar un aumento de energía de 10 o más veces mayor. Por ejemplo: Una magnitud 4 no es el doble de 2, sino 100 veces mayor.

Magnitud --------- Efectos del terremoto

Menos de 3.5 ---- Generalmente no se siente, pero es registrado
3.5 - 5.4 ------------ A menudo se siente, pero sólo causa daños menores.
5.5 - 6.0 ------------ Ocasiona daños ligeros a edificios.
6.1 - 6.9 ------------ Puede ocasionar daños severos en áreas muy pobladas.
7.0 - 7.9 ------------ Terremoto mayor. Causa graves daños.
8 o mayor --------- Gran terremoto. Destrucción total a comunidades cercanas.

(NOTA: Esta escala es "abierta", de modo que no hay un límite máximo teórico)

La Intensidad o Escala de Mercalli se expresa en números romanos. Esta escala es proporcional, de modo qeu una intensidad IV es el doble de II. Es una escala subjetiva, para cuya medición se recurre a encuestas, referencias periodísticas, etc. Permite el estudio de los terremotos históricos, así como los daños de los mismos. Cada localización tendrá una Intensidad distinta para un determinado terremoto, mientras que la Magnitud era única para dicho sismo.

Dicha escala se mide de la siguiente forma:

I. Sacudida sentida por muy pocas personas en condiciones especialmente favorables.
II. Sacudida sentida sólo por pocas personas en reposo, especialmente en los pisos altos de los edificios. Los objetos suspendidos pueden oscilar.
III. Sacudida sentida claramente en los interiores, especialmente en los pisos altos de los edificios, muchas personas no lo asocian con un temblor. Los vehículos de motor estacionados pueden moverse ligeramente. Vibración como la originada por el paso de un vehículopesado. Duración estimable.
IV. Sacudida sentida durante el día por muchas personas en los interiores, por pocas en el exterior. Por la noche algunas despiertan. Vibración de vajillas, vidrios de ventanas y puertas; los muros crujen. Sensación como de un vehíuclo pesado chocando contra un edificio, los vehículos de motor estacionados se balancean claramente.
V. Sacudida sentida casi por todo el mundo; muchos despiertan. Algunas piezas de vajilla, vidrios de ventanas, etcétera, se rompen; pocos casos de agrietamiento de aplanados; caen objetos inestables . Se observan perturbaciones en los árboles, postes y otros objetos altos. Se detienen de relojes de péndulo.
VI. Sacudida sentida por todo mundo; muchas personas atemorizadas huyen hacia afuera. Algunos muebles pesados cambian de sitio; pocos ejemplos de caída de aplacados o daño en chimeneas. Daños ligeros.
VII. Advertido por todos. La gente huye al exterior. Daños sin importancia en edificios de buen diseño y construcción. Daños ligeros en estructuras ordinarias bien construidas; daños considerables en las débiles o mal proyectadas; rotura de algunas chimeneas. Estimado por las personas conduciendo vehículos en movimiento.
VIII. Daños ligeros en estructuras de diseño especialmente bueno; considerable en edificios ordinarios con derrumbe parcial; grande en estructuras débilmente construidas. Los muros salen de sus armaduras. Caída de chimeneas, pilas de productos en los almacenes de las fábricas, columnas, monumentos y muros. Los muebles pesados se vuelcan. Arena y lodo proyectados en pequeñas cantidades. Cambio en el nivel del aguade los pozos. Pérdida de control en la personas que guían vehículos motorizados.
IX. Daño considerable en las estructuras de diseño bueno; las armaduras de las estructuras bien planeadas se desploman; grandes daños en los edificios sólidos, con derrumbe parcial. Los edificios salen de sus cimientos. El terreno se agrieta notablemente. Las tuberías subterráneas se rompen.
X. Destrucción de algunas estructuras de madera bien construidas; la mayor parte de las estructuras de mampostería y armaduras se destruyen con todo y cimientos; agrietamiento considerable del terreno. Las vías del ferrocarril se tuercen. Considerables deslizamientos en las márgenes de los ríos y pendientes fuertes. Invasión del agua de los ríos sobre sus márgenes.
XI. Casi ninguna estructura de mampostería queda en pie. Puentes destruidos. Anchas grietas en el terreno. Las tuberías subterráneas quedan fuera de servicio. Hundimientos y derrumbes en terreno suave. Gran torsión de vías férreas.
XII. Destrucción total. Ondas visibles sobre el terreno. Perturbaciones de las cotas de nivel (ríos, lagos y mares). Objetos lanzados en el aire hacia arriba.

La Escala sismológica de magnitud de momento es una escala logarítmica usada para medir y comparar seísmos. Está basada en la medición de la energía total que se libera en un terremoto. Fue introducida en 1979 por Thomas C. Hanks y Hiroo Kanamori como la sucesora de la escala de Richter.

La Escala Medvedev-Sponheuer-Karnik, también conocida como escala MSK o MSK-64, es una escala de intensidad macrosísmica usada para evaluar la fuerza de los movimientos de tierra basándose en los efectos destructivos en las construcciones humanas y en el cambio de aspecto del terreno, así como en el grado de afectación entre la población. Tiene doce grados de intensidad, siendo el más bajo el número uno, y expresados en números romanos para evitar el uso de decimales.

Una buena forma de visualizar la energia liberada por un terremoto se muestra en la siguiente página: http://www.angelfire.com/nt/terremotosTnt/

Las ondas sísmicas son un tipo de onda elástica consistentes en la propagación de perturbaciones temporales del campo de esfuerzos que generan pequeños movimientos en un medio. Las ondas sísmicas pueden ser generadas por movimientos telúricos naturales, los más grandes de los cuales pueden causar daños en zonas donde hay asentamientos urbanos. Estas se presentan en tres tipos principales:
1) Ondas longitudinales, primarias o P: tipo de ondas de cuerpo que se propagan a una velocidad de entre 8 y 13 km/s y en el mismo sentido que la vibración de las partículas. Circulan por el interior de la Tierra, atravesando tanto líquidos como sólidos. Son las primeras que registran los aparatos de medida o sismógrafos, de ahí su nombre "P".

2)Ondas transversales, secundarias o S: son ondas de cuerpo más lentas que las anteriores (entre 4 y 8 km/s) y se propagan perpendicularmente en el sentido de vibración de las partículas. Atraviesan únicamente los sólidos y se registran en segundo lugar en los aparatos de medida.
3)Ondas superficiales: son las más lentas de todas (3,5 km/s) y son producto de la interacción entre las ondas P y S a lo largo de la superficie de la Tierra. Son las que producen más daños. Se propagan a partir del epicentro y son similares a las ondas que se forman sobre la superficie del mar. Este tipo de ondas son las que se registran en último lugar en los sismógrafos. En el siguiente link se explica más a detalle las onda sismicas, así como sus características: http://es.wikipedia.org/wiki/Onda_s%C3%ADsmica

La probabilidad de ocurrencia de terremotos de una determinada magnitud en una región concreta viene dada por una distribución de Poisson. Así la probabilidad de ocurrencia de k terremotos de magnitud M durante un período T en cierta región está dada por:

Donde: Tr (M) es el tiempo de retorno de un terremoto de intensidad M, que coincide con el tiempo medio entre dos terremotos de intensidad M.
Hoy en día se tiene la certeza de que si se inyectan en el subsuelo, ya sea como consecuencia de la eliminación de desechos en solución o en suspensión, o por la extracción de hidrocarburos, se provoca, con un brusco aumento de la presión intersticial, una intensificación de la actividad sísmica en las regiones ya sometidas a fuertes tensiones. Pronto se deberían controlar mejor estos sismos inducidos y, en consecuencia, preverlos, tal vez, pequeños sismos inducidos pudieran evitar el desencadenamiento de un terremoto de mayor magnitud.
En cuanto a las estadisticas, encontré esta página, donde se muestran los terremotos mas notables (a una magnitud mayor o igual a 7.0) a nivel mundial desde 1900 al 2005: http://alpoma.net/carto/?p=391
Las teorias de conspiración van desde que EU son los culpables de los grandes terremotos, hasta que el aire atrapado entre las capas de la Tierra los crean, entre otras. Los siguientes videos nos relatan la teoria de que EU tiene el poder de generar terremotos donde sea:
En cuanto a las aplicaciones de la simulación de terremotos, tenemos dos casos: cuando es preventiva, es decir, cuando se quiere pronosticar los efectos de un terremoto que se espera que ocurra; y la otra es la explicativa, en donde nos damos cuenta todo el panorama despues de que paso el evento, es decir, los daños causados, las perdidas, también nos podemos dar cuenta lo que hay que cambiar en las estructuras de los edificios, lo que se puede preventir, entre otras cosas.

miércoles, 3 de marzo de 2010

Caso 7:: "El Tráfico Nuestro De Todos Los Días.."

Hoy en día es raro ver a alguien en bicicleta o simplemente caminando por la calle, ahora para todo usamos el automovil, incluso si a donde nos dirigimos esta a dos o tres cuadras de nuestra casa, el carro se volvio nuesto unico medio de transporte en la ciudad, sin mencionar al transporte público (metro y autobuses).

El caso de esta semana gira alrededor del tráfico vehicular, el como nos afecta que cada vez haya mas carros y camiones en la calle. Y eso genera colas y mas colas en los cruceros, sin mencionar a los peatones (como en el video del estímulo A: http://www.youtube.com/watch?v=cj4LrSxjTIM, que es algun crucero en Shanghai), que arriesgan su vida al tratar de cruzar la calle.

En general una cola se forma cuando la demanda de un determinado servicio en mas alta que la capacidad del servidor. Entonces, enfocandonos al estímulo A, nuestra demanda serian los carros esperando la luz verde para pasar, así como los peatones intentando cruzar la calle, y nuestros servidores serian los semáforos.

Por lo tanto, los principales factores de este caso son:

  1. los semáforos,

  2. la línea de parada,

  3. los carros y

  4. los peatones,

y a su vez estos factores pueden tener mas de un factor que influye en ellos: como por ejemplo: 1) los semáforos tienen a su vez tres tipos de luces (verde, ámbar y roja), tienen también la flecha, y por lo tanto se debe de formar un carril únicamente para los que daran vuelta, el tiempo que dura cada luz; 2) La línea de parada, que es donde se forman inicialmete los carros, en caso de que el semáforo este en luz roja, tambien el conductor decide si quedarse en el carril donde viene o cambiarse a otro carril disponible. En cuanto a 3) los carros y 4) los peatones, puede influir el estado de ánimo de las personas.

Otro factor es la disciplina de la cola, por que generalmente los ultimos en llegar a la cola casi siempre pasan antes de algun carro que llego un poco antes, eso por que se tiende a invadir los carriles, lo que ocasiona en muchas veces accidentes, generando asi mas colas y cuellos de botella.

Es bueno simular el tráfico cuando se quiere mejorar la vialidad de alguna ciudad, ya sea cambiando los tiempo en los semáforos o agregando mas semáforos, agregando mas carriles (pero seria bueno que se agregaran mas y que no se hicieran mas chicos los existentes).

* Diseño de redes de transporte. Las redes se diseñan considerando tres aspectos: la geometría, la resistencia y la capacidad. En la práctica, el diseño de transporte centra sus miras en tomar los diseños geométricos y definir su ancho, número de carriles, vías o diámetro. Su producto es tomado por el especialista en pavimentos, rieles, puentes o ductos y convertido en espesores de calzada, balasto, vigas o paredes de tubería. El ingeniero de transporte es también responsable de definir el funcionamiento del sistema considerando el tiempo. No debe confundirse la complejidad del problema de transporte con el uso de tecnología avanzada. Tal vez el problema más complejo del transporte en el mundo no sea el de congestiones vehiculares en Singapur o el transporte de carga al espacio, sino el del traslado de peregrinos de La Meca a Medina, con restricciones enormes de tiempo y logística.

* Métodos para el diseño de redes de transporte. Los principales métodos para el diseño de redes incluyen el método de las cuatro etapas, el uso de la teoría de colas, la simulación y los métodos que podrían llamarse de coeficientes empíricos.


* Método de cuatro etapas. En este método se calcula separadamente la "generación de viajes", o número de personas o cantidad de carga que produce un área; la "distribución" de viajes, que permite estimar el número de viajes o cantidad de carga entre cada zona de origen y destino; la "partición modal", es decir, el cálculo del número de viajes o cantidad de carga que usarán los diferentes modos de transporte y su conversión en número de vehículos; y, finalmente, la "asignación", o la definición de qué segmentos de la red o rutas utilizarán los vehículos. Este proceso se realiza utilizando la densidad y la localización de población o de carga actual para verificar que los volúmenes previstos por el método estén de acuerdo con la realidad. Finalmente, se usan las estimaciones de población futura para recalcular el número de vehículos en cada arco de la red que se usará para el diseño. Se utiliza principalmente para la planeación de transporte y es exigido por ley en muchas zonas urbanas.


* Método de teoría de colas. Utiliza la estadística y ciertas asunciones sobre el proceso de servicio. Permite estimar, a partir de las tasas de llegada de los clientes (ya sean vehículos o personas) y de la velocidad de atención de cada canal de servicio, la longitud de cola y el tiempo promedio de atención. La tasa de llegada de los clientes debe analizarse para conocer, no solamente su intensidad en número de clientes por hora, sino su distribución en el tiempo. Se ha hallado, experimentalmente, que la distribución de Poisson y las distribuciones geométricas reflejan bien la llegada aleatoria de clientes y la llegada de clientes agrupados, respectivamente. Se utiliza principalmente para la estimación de número de casetas de peaje, surtidores en estaciones de combustible, puestos de atención en puertos y aeropuertos y número de cajeros o líneas de atención al cliente requeridas en un establecimiento. La teoría de colas se basa en procesos estocásticos.


* Métodos de simulación de transporte. Existen dos tipos principales de simulaciones en computador utilizadas en la ingeniería de transporte: macrosimulaciones y microsimulaciones.
Las macrosimulaciones utilizan ecuaciones que reflejan parámetros generales de la corriente vehicular, como velocidad, densidad y caudal. Muchas de las ideas detrás de estas ecuaciones están tomadas del análisis de flujo de líquidos o gases o de relaciones halladas empíricamente entre estas cantidades y sus derivadas. Las segundas simulan cada vehículo o persona individualmente y hacen uso de ecuaciones que describen el comportamiento de estos vehículos o personas cuando siguen a otro (ecuaciones de seguimiento vehicular) o cuando circulan sin impedimentos.


* Métodos de coeficientes. Utilizan ecuaciones de tipo teórico pero, en general, parten de mediciones que indican la capacidad de una red en condiciones ideales. Esta capacidad, normalmente, va disminuyendo a medida que la red o circunstancias se alejan de ese ideal.
Los métodos proporcionan coeficientes menores que la unidad, por los que se debe multiplicar la capacidad "ideal" de la red para encontrar la capacidad en las condiciones dadas.


* Modelización del transporte. El concepto de “modelo” debe ser entendido como una representación, necesariamente simplificada, de cualquier fenómeno, proceso, institución y, en general, de cualquier “sistema”. Es una herramienta de gran importancia para el planificador, pues permite simular escenarios de actuación y temporales diversos que ayudan a evaluar alternativas y realizar el diagnóstico de futuro.


* El esquema clásico de modelización es el de cuatro etapas:

  • Modelo de generación-atracción para evaluar viajes producidos y atraídos por cada zona de transporte en distintos escenarios.

  • Modelo de distribución, para estimar matrices origen-destino (O/D) futuras.

  • Modelo de reparto modal, para determinar la captación de cada modo entre las distintas relaciones O/D, para los motivos que se calibren.

  • Modelo de asignación que permite determinar los caminos o rutas escogidas para cada relación y la carga por tramos para líneas o redes viarias en los distintos períodos horarios analizados.

A veces, según los datos disponibles y el tipo de análisis que se desea se puede prescindir del modelo de generación, quedando en tres etapas y obteniéndose únicamente el modelo de distribución. En corredores de carreteras sin transporte público realmente competitivo, es frecuente suponer que no hay trasvase modal y sólo se use el de distribución (o un modelo de crecimientos) y el de asignación únicamente.