miércoles, 28 de abril de 2010

Caso 13:: Plane - ación..

La planeación es el establecimiento de un resultado deseado, así como la fijación del curso de acción para lograrlo, sobre la base de información, hechos y realidades. Es imaginar, es proyectar y es organizar.

Por como se actúa en la planeación, tenemos que:

· Se estructura activamente
· Es para desarrollos futuros
· Se determinan repercusiones en la organización
· Armoniza sus objetivos con supuestos del medio ambiente y con sus propias capacidades
· Los resultados son cuantificables.

En consecuencia es más probable asegurar el éxito.
Planeación estratégica:

· Comercialización
· Operaciones
· Tecnología
· Personal y Diseño Organizacional
· Finanzas
· Nuevos Negocios
· Tecnología de la Información
· Monitoreo e Inteligencia

La incertidumbre puede derivarse de una falta de información o incluso por que exista desacuerdo sobre lo que se sabe o lo que podría saberse. Puede tener varios tipos de origen, desde errores cuantificables en los datos hasta terminología definida de forma ambigua o previsiones inciertas del comportamiento humano. La incertidumbre puede, por lo tanto, ser representada por medidas cuantitativas.
TIPOLOGIA DE PLANEACION

Es el resultado del proceso administrativo y puede definirse como diseños y esquemas detallados de lo que habra de hacerse en el futuro y especificaciones necesarias para realizarlas.
Los planes puede ser:
+ inmediatos ( 6 meses)
+ Mediatos ( mas o menos de 1 año )

Encuentro al periodo establecido:
+ corto plazo (- 1 año )
+ mediano plazo ( 1 a 3 años )
+ largo plazo (+ de 3 años )

En cuanto a los planes de organización:

o Estratégicos: establece lineamientos generales de la planeacion. Sirve de base a los demas planes ( tacticos, operativos) diseño ( alta dirección ).
o Tacticos: planes mas especificos que se refieren a cada uno de los departamentos de la empresa. Se subordinan a los planes estratégicos- establece los directivos. Nivel medio- son a mediano y corto plazo.
o Operativa: se rige de acuerdo a los lineamientos de la planeacion táctica. Consiste en formulacion de actividades mas detalladas que deben ejecutar los ultimos niveles jerárquicos corto plazo.

ETAPAS DE LA PLANEACION
1 propositos
2 premisas
3 objetivo
4 estrategias
5 politicas
6 programas
7 presupuesto
8 procedimiento

PREMISAS

Todo aquel que participa en la elaboración de un plan puede tener certeza sobre la existencia de determinados eventos mas no si de otros que afecten su desarrollo es necesario para ello hacer uso de diversas suposiciones que permitan reducir la incertidumbre inherte al futuro.

Las premisas son suposiciones que deben considerar ante aquellas circunstancias o condiciones futuras que afectan el curso en que van a desarrollarse el plan.

Internas: cuando se origina dentro de la empresa y puede influir en el logro de los propósitos.

Externas: son factores o condiciones cuyo origen es ajeno o la empresa pero que pueden tener efecto decisivo en el desarrollo de sus actividades y que por lo mismo ademas tomarse en cuenta al planear.

Estrategias: las estrategias son cursos de accion general o alternativas que muestra la dirección y el empleo general de los recursos y esfuerzos para lograr los bjetivos en la condiciones mas ventajosas.

OBJETIVOS

Representan los resultados que las empresas desea obtener se establecen cuantitativamente y se determinan para realizarse transcurrido un tiempo especifico.

Características de los objetivos.

a) se establecen a un tiempo especifico.
b) Se determina cuantitativamente.

CLASIFICACION DE LOS OBJETIVOS

Objetivos estratégicos o generales: se establecen para toda la empresa y son a largo plazo.

Tacticos o deparmentales: se refiere al area o departamento de la empresa se subordina a
los estratégicos y son a corto o mediano plazo.

Se establecen en niveles o secciones especificos de la empresa son a corto plazo y se determinan en funcion a los tacticos y estratégicos estos pueden ser:

A) Seccionales: se refiere a un grupo.
B) Individuales: metas personales.

Lineamientos para establecer objetivos:

1- acentarlos por escrito
2- no confundir con los medios o estrategias para alcanzarlos.
3- Al determinarlos acordar las seis preguntas clave de la administración que? Como? Donde? Quien? Cuando? Porque?.
4- Deben ser perfectamente conocidos y entendidos por todos los miembros de la organización.
5- Deben ser estables.

ESTRATEGIAS

Curso de accion para llegar a un objetivo. Etapas que se deben seguir al establecer una estrategia:

1- determinación de los cursos de accion
2- evaluación
3- selección de alternativa
una empresa debe de considerar un numero minimo de areas clave en base a las cuales va a establecer estrategias.

Una area clave de resultados es una actividad basica dentro de una empresa que esta relacionada con el desarrollo total de la misma.

Las areas clave de resultados pueden variar de empresa a empresa pero las mas usuales son:

1- rentabilidad sin la inversión
2- participación de mercado
3- productividad
4- desarrollo de personal
5- capacidad de producción
6- innovación

IMPORTANCIA DE LAS ESTRATEGIAS

1- la falta de estrategias origina que no se logren los objetivos
2- son lineamientos generales que permiten guiar la accion de la empresa
3- sirven como base para lograr los objetivos y ejecutar la decisión
4- facilitan la toma de decisiones
5- desarrollan la creatividad en la solucion de problemas

Lineamientos para establecer estrategias

1- que sean consistentes y que sirvan para el logro de los objetivos.
2- Claras.
3- No confundirlas con tácticas.
4- Considerar las experiencias pasadas.
5- Analizar las consecuencias al aplicarlas
6- Auxiliar características de investigación y planeacion.

POLÍTICAS EN BASE A LAS ESTRATEGIAS

Son guias para orientar la accion son criterios lineamientos generales a observar en la toma de desiciones son problemas que se repiten una y otra vez dentro de una organización.

Las operaciones de ventas se realizaran unicamente de contado. REGLA.

Las comisiones de los vendedores se pagaran de acuerdo a su nivel de ventas. POLÍTICA

Clasificacion de políticas

1- estrategicas ogenerales: se formulan a nivel de alta ciencia y su funcion es establecer y emitir lineamientos que guien a la empresa como una undad integrada.
2- Tácticas o funcionales: son lineamientos especificos que se refieren a cada departamento.
3- Políticas operativas o especificas: se refiere principalmente a las desiciones que tienen que ejecutarse en cada una de las unidades de las que consta un departamento.
***** * ***** * ***** * *****
Modelo y Simulación de lineas de espera..
Un ejemplo de esto se da en la siguiente página: , donde el proceso de simulación comprende desde el almacén de materia prima hasta el almacén del producto terminado.
Los Sistemas de Planeación y Control de la Producción/Operaciones, están formados por un conjunto de niveles estructurados (jerárquicamente) de planificación que contemplan tanto los Planes Agregados, los Planes Maestros, la Gestión de Materiales, así como, los niveles de Ejecución o Gestión de Taller.

En los últimos años se ha estado produciendo un notable incremento de la importancia que tiene el Subsistema de Producción en el desarrollo de la actividad empresarial. Los Sistemas de Gestión de la Producción integran las diferentes funciones de planificación y mando de la producción; a partir de la utilización de técnicas, diagramas, gráficos y software, que facilitan los cálculos y decisiones en torno a la selección de las mejores variantes de producción.
En la actualidad existen diferentes alternativas de Sistemas de Gestión de la Producción (SPCP), acorde a las características propias del proceso productivo (variedad, volumen de producción, complejidad del producto, nivel técnico y tecnológico, etc.), cuyo objetivo es controlar el proceso de producción dentro del sistema empresarial.
Cuando se habla de planificación y control de la producción, se suele hacer referencia a métodos y técnicas que se pueden subdividir en aquellas dirigidas a planificar y controlar "operaciones de procesos "y "operaciones de proyecto." Dentro del primer grupo se pueden citar las Sistemáticas siguientes:
MRP/ MRP-II (Planeación de Requerimientos Materiales y de Recursos Productivos), surgido en los Estados Unidos en la empresa IBM.
JIT (Just in Time), origen japonés y desarrollado inicialmente por Toyota Motor Co.
OPT (Tecnología de Producción Optimizada), desarrollada inicialmente por Eliyahu M. Goldratt, que más tarde dio lugar al surgimiento de la Teoría de las Limitaciones(TOC) y a su aplicación en producción (sistema DBR: drum-buffer-rope)
LOP (Load Oriented Production), control de Producción Orientado a la Carga, sistema desarrollado en Europa Occidental .
Cuando la producción es intermitente y/o unitaria (operaciones de proyecto), donde el artículo final esta formado por varios subconjuntos y componentes (complejos en muchos casos) , la tendencia es utilizar un sistema basado en la teoría de redes; es estos casos se emplean los Sistemas de Planificación y Control de Proyectos que hacen uso de los caminos críticos: el PERT y el CPM, fundamentalmente y los sistemas que utilizan la denominada Línea de Balance (LOB; Line of Balance).
Otra técnica útil en la Planeación y Control de la Producción, es la Simulación del proceso productivo a partir de varios software (SIMAN; SIN FACTORY, etc.), permitiendo conocer los diferentes estados del proceso con sólo variar las variables fundamentales del sistema.
La Gestión Integrada de Materiales (GIM), es otra técnica organizativa que últimamente está recibiendo mucha atención, donde la misma esta dirigida a lograr una visión integrada del flujo de materiales con enfoque logístico.
La utilización de un sistema u otro depende de la Estrategia de Producción que siga la organización y de la estructura espacial del proceso productivo. Los criterios de los Sistemas de Gestión citados, son diferentes y se parte de unos datos de entrada (inputs) distintos. Por ejemplo, los algoritmos de gestión de materiales en general, y en particular MRP como nombre genérico de gestión de materiales e inventarios, son técnicas de control de inventario de fabricación que pretenden responder a las siguientes preguntas:
¿Qué componentes y materiales se necesitan? ¿En qué cantidad? ¿Cuándo tienen que estar disponibles?
La idea básica del JIT, es producir los artículos necesarios en las cantidades adecuadas y en los instantes de tiempo precisos; esto conduce a lotes de fabricación muy reducidos. Para reducir los tamaños de las series es necesario que los tiempos de puesta a punto de las máquinas sean lo más pequeño posible y la posibilidad de rechazo mínima.
La finalidad del OPT/TOC/DBR, es maximizar el flujo de salida del proceso productivo, el cual es considerado como una red por la que circulan los productos. Un principio fundamental de dicho enfoque, es que solamente son "críticas" las operaciones que representan limitaciones en el sistema y serán aquellas denominadas "cuellos de botella", y que son los recursos u operaciones que van a determinar el nivel de outputs y facturación del sistema productivo.
LOP, es un sistema desarrollado a partir de 1987 que se emplea en algunas empresas europeas (fundamentalmente alemanas) y que es útil en el control de la actividad de la producción en talleres caracterizados por grupos de celdas productivas o puestos de trabajos los cuales juntos pueden producir una variedad de productos diferentes (producción por orden) y se basa fundamentalmente en el control de producción orientado a la carga.
El PERT y el CPM, constituyen sistemas para la planeación, programación y control de proyectos, actividad que ha tenido y seguirá teniendo una importancia crítica, yendo en aumento el tamaño y la complejidad de los mismos y estando presentes en un amplio abanico de grandes organizaciones. El PERT/CPM como muchos autores lo tratan en sus estudios, no es una metodología pasajera, sino que su difusión ha sido enorme en todo el mundo y ha estado vinculada a grandes proyectos científicos. Parte de descomponer el proyecto en una serie de actividades, entendiéndose por actividad la ejecución de tareas que necesitan para su realización el consumo de varios recursos (mano de obra, tiempo, máquinas y materiales), considerando como característica fundamental su duración. Persigue conocer la duración mínima posible del proyecto considerando conjuntamente los costes y recursos asignados.
EL MRP I (Material Requirement Planning). Este nos muestra la Planificación de Requerimientos de Material indicando QUE, CUANTO material necesitamos y CUANDO lo necesitamos.
El MRP II (Manufacturing Resources Planning). Este nos muestra la Planificación de Recursos como necesidades financieras, de máquinas y de personal, indicándonos QUE y CUANDO las necesitamos.
La planificación estratégica permite tener en consideración aspectos importantes para el futuro de la unidad, a los que no se prestaría la atención suficiente si no se hiciera planificación estratégica.
Programas que permiten simular las lineas de produccion:
* Tecnomatix Process Simulate.
* SAP

miércoles, 21 de abril de 2010

Caso 12:: A que te gano!!

Teoría de Juegos..


La teoría de los juegos es una rama de la matemática con aplicaciones a la economía, sociología, biología y psicología, que analiza las interacciones entre individuos que toman decisiones en una marco de incentivos formalizados (llamados juegos). En un juego, varios agentes buscan maximizar su utilidad eligiendo determinados cursos de acción. La utilidad final obtenida por cada individuo depende de los cursos de acción escogidos por el resto de los individuos.

La teoría de juegos tiene muchas aplicaciones en las ciencias sociales. La mayoría de las situaciones estudiadas por la teoría de juegos implican conflictos de intereses, estrategias y trampas. De particular interés son las situaciones en las que se puede obtener un resultado mejor cuando los agentes cooperan entre sí, que cuando los agentes intentan maximizar sólo su utilidad.

La teoría de juegos fue ideada en primer lugar por John von Neumann. Luego, John Nash, A.W. Tucker y otros hicieron grandes contribuciones a la teoría de juegos.

Que son los juegos?

Se denomina juego a la situación interactiva especificada por el conjunto de participantes, los posibles cursos de acción que puede seguir cada participante, y el conjunto de utilidades.

La teoría clasifica los juegos en muchas categorías que determinan qué métodos particulares se pueden aplicar para resolverlos (y, de hecho, también cómo se define "resolución" en una categoría particular). Las categorías comunes incluyen:

* Juegos simétricos y asimétricos

Un juego simétrico es un juego en el que las recompensas por jugar una estrategia en particular dependen sólo de las estrategias que empleen los otros jugadores y no de quién las juegue. Si las identidades de los jugadores pueden cambiarse sin que cambien las recompensas de las estrategias, entonces el juego es simétrico. Muchos de los juegos 2×2 más estudiados son simétricos. Las representaciones estándar del juego de la gallina, el dilema del prisionero y la caza del ciervo son juegos simétricos.

Los juegos asimétricos más estudiados son los juegos donde no hay conjuntos de estrategias idénticas para ambos jugadores. Por ejemplo, el juego del ultimátum y el juego del dictador tienen diferentes estrategias para cada jugador; no obstante, puede haber juegos asimétricos con estrategias idénticas para cada jugador. Por ejemplo, el juego mostrado a la derecha es asimétrico a pesar de tener conjuntos de estrategias idénticos para ambos jugadores.

* Juegos de suma cero y de suma no cero

En los juegos de suma cero el beneficio total para todos los jugadores del juego, en cada combinación de estrategias, siempre suma cero (en otras palabras, un jugador se beneficia solamente a expensas de otros). El go, el ajedrez, el póker y el juego del oso son ejemplos de juegos de suma cero, porque se gana exactamente la cantidad que pierde el oponente. Como curiosidad, el fútbol dejó hace unos años de ser de suma cero, pues las victorias reportaban 2 puntos y el empate 1 (considérese que ambos equipos parten inicialmente con 1 punto), mientras que en la actualidad las victorias reportan 3 puntos y el empate 1.

La mayoría de los ejemplos reales en negocios y política, al igual que el dilema del prisionero, son juegos de suma no cero, porque algunos desenlaces tienen resultados netos mayores o menores que cero. Es decir, la ganancia de un jugador no necesariamente se corresponde con la pérdida de otro. Por ejemplo, un contrato de negocios involucra idealmente un desenlace de suma positiva, donde cada oponente termina en una posición mejor que la que tendría si no se hubiera dado la negociación.

Se puede analizar más fácilmente un juego de suma cero, y cualquier juego se puede transformar en un juego de suma cero añadiendo un jugador "ficticio" adicional ("el tablero" o "la banca"), cuyas pérdidas compensen las ganancias netas de los jugadores.

La matriz de pagos de un juego es una forma conveniente de representación. Por ejemplo, un juego de suma cero de dos jugadores con la matriz que se muestra a la derecha.

* Juegos cooperativos


Un juego con situacion cooperativa se caracteriza por un contrato que puede hacerse cumplir. La teoría de los juegos cooperativos da justificaciones de contratos plausibles. La plausibilidad de un contrato está muy relacionada con la estabilidad.

Dos jugadores negocian qué tanto quieren invertir en un contrato. La teoría de la negociación axiomática nos muestra cuánta inversión es conveniente para nosotros. Por ejemplo, la solución de Nash para la negociación demanda que la inversión sea justa y eficiente.

De cualquier forma, podríamos no estar interesados en la justicia y exigir más. De hecho, existe un juego no-cooperativo creado por Ariel Rubinstein consistente en alternar ofertas, que apoya la solución de Nash considerándola la mejor, mediante el llamado equilibrio de Nash.

* Simultáneos y secuenciales


Los juegos simultáneos son juegos en los que los jugadores mueven simultáneamente o en los que éstos desconocen los movimientos anteriores de otros jugadores. Los juegos secuenciales (o dinámicos) son juegos en los que los jugadores posteriores tienen algún conocimiento de las acciones previas. Este conocimiento no necesariamente tiene que ser perfecto; sólo debe consistir en algo de información. Por ejemplo, un jugador1 puede conocer que un jugador2 no realizó una acción determinada, pero no saber cuál de las otras acciones disponibles eligió.

La diferencia entre juegos simultáneos y secuenciales se recoge en las representaciones discutidas previamente. La forma normal se usa para representar juegos simultáneos, y la extensiva para representar juegos secuenciales.

* Juegos de información perfecta


Un juego de información imperfecta (las líneas punteadas representan la ignorancia de la parte del jugador 2).

Un subconjunto importante de los juegos secuenciales es el conjunto de los juegos de información perfecta. Un juego es de información perfecta si todos los jugadores conocen los movimientos que han efectuado previamente todos los otros jugadores; así que sólo los juegos secuenciales pueden ser juegos de información perfecta, pues en los juegos simultáneos no todos los jugadores (a menudo ninguno) conocen las acciones del resto. La mayoría de los juegos estudiados en la teoría de juegos son juegos de información imperfecta, aunque algunos juegos interesantes son de información perfecta, incluyendo el juego del ultimátum y el juego del ciempiés. También muchos juegos populares son de información perfecta, como el ajedrez.

La información perfecta se confunde a menudo con la información completa, que es un concepto similar. La información completa requiere que cada jugador conozca las estrategias y recompensas del resto pero no necesariamente las acciones.

En los juegos de información completa cada jugador tiene la misma "información relevante al juego" que los demás jugadores. El ajedrez y el dilema del prisionero ejemplifican juegos de información completa. Los juegos de información completa ocurren raramente en el mundo real, y los teóricos de los juegos, usualmente los ven sólo como aproximaciones al juego realmente jugado.

* Juegos de longitud infinita (Super - Juegos)

Por razones obvias, los juegos estudiados por los economistas y los juegos del mundo real finalizan generalmente tras un número finito de movimientos. Los juegos matemáticos puros no tienen estas restricciones y la teoría de conjuntos estudia juegos de infinitos movimientos, donde el ganador no se conoce hasta que todos los movimientos se conozcan. El interés en dicha situación no suele ser decidir cuál es la mejor manera de jugar a un juego, sino simplemente qué jugador tiene una estrategia ganadora (Se puede probar, usando el axioma de elección, que hay juegos —incluso de información perfecta, y donde las únicas recompensas son "perder" y "ganar"— para los que ningún jugador tiene una estrategia ganadora.) La existencia de tales estrategias tiene consecuencias importantes en la teoría descriptiva de conjuntos.

Estrategia


Cuando un jugador tiene en cuenta las reacciones de otros jugadores para realizar su elección, se dice que el jugador tiene una estrategia. Una estrategia es un plan de acciones completo que se lleva a cabo cuando se juega el juego. Se explicita antes de que comience el juego, y prescribe cada decisión que los agentes deben tomar durante el transcurso del juego, dada la información disponible para el agente. La estrategia puede incluir movimientos aleatorios.

Resultados de los juegos

El resultado de un juego es una cierta asignación de utilidades finales. Se denomina resultado de equilibrio si ningún jugador puede mejorar su utilidad unilateralmente dado que los otros jugadores se mantienen en sus estrategias. Un equilibrio estratégico es aquel que se obtiene cuando, dado que cada jugador se mantiene en su estrategia, ningún jugador puede mejorar su utilidad cambiando de estrategia. Alternativamente, un perfil de estrategias conforma un equilibrio si las estrategias conforman la mejor respuesta a las otras.

Forma normal versus forma extensiva de los juegos

En juegos de forma normal, los jugadores mueven simultáneamente. Si el conjunto de estrategias es discreto y finito, el juego puede ser representado por una matriz NxM (ver abajo). Un juego en forma extensiva especifica el orden completo de movimientos a través de la dirección del juego, generalmente en un árbol de juego.

Juegos NxM

Una forma de juegos de dos jugadores, en la cual un jugador tiene N acciones posibles y el otro tiene M acciones posibles. En un juego así, los pares de utilidades o pagos pueden ser representados en una matriz y el juego es fácilmente analizable. Los juegos NxM dan una idea de cómo puede verse la estructura de un juego mas complejo.

Matriz de resultados de un juego


La matriz de resultados de un juego representa el resultado del juego en una matriz. Supongamos que dos personas, A y B, están jugando un sencillo juego. El juego consiste en lo siguiente: la persona A tiene la posibilidad de elegir “arriba” o “abajo”, mientras que B puede elegir “izquierda” o “derecha”. Los resultados del juego se representan en la matriz de resultados:


Izquierda

Derecha

Arriba

(50 , 100)

(0 , 50)

Abajo

(100 , 50)

(50 , 0)

Estrategia dominante

Una estrategia dominante es aquella elección que realiza el jugador independientemente de lo que haga el otro. En el juego representado en la matriz de arriba, la estrategia dominante para A es elegir “abajo”, mientras que la estrategia dominante para B es elegir “izquierda”. Estas estrategias dominantes dan como resultado el equilibrio de estrategias dominantes del juego. Si cada jugador tiene una estrategia dominante se puede predecir el resultado del juego.

Equilibrio de Nash

El equilibrio de Nash fue formulado por John Nash, que es un matemático norteamericano, en 1951. Un par de estrategias es un equilibrio de Nash si la elección de A es óptima dada la de B y la de B es óptima, dada la de A. El equilibrio de Nash se diferencia del equilibrio de las estrategias dominantes en que, en el equilibrio de las estrategias dominantes, se exige que la estrategia de A sea óptima en el caso de todas las elecciones óptimas de B, y viceversa. El equilibrio de Nash es menos restrictivo que el equilibrio de estrategias óptimas.

Un juego puede tener más de un equilibrio de Nash. Existen juegos en los no existe un equilibrio de Nash.

Juegos de suma constante

Juegos en los que para cada combinación de estrategias, la suma de los pagos (o utilidades) a cada jugador es la misma. Todas las situaciones de intercambio que no permiten la creación o destrucción de recursos son juegos de suma constante.

Árbol de juegos

El árbol de juegos es una representación de un juego que describe la estructura temporal de un juego en forma extensiva. EL primer movimiento del juego se identifica con un nodo distintivo que se llama la raíz del juego. Una jugada consiste en una cadena conectada de ramas que comienza en la raíz del árbol y termina, si el juego es finito, en el nodo terminal. Los nodos representan los posibles movimientos en el juego. Las ramas que parten de los nodos representan las elecciones o acciones disponibles en cada movimiento. A cada nodo distinto del nodo terminal se le asigna el nombre de un jugador de modo que se sabe quién hace la elección en cada movimiento. Cada nodo terminal informa sobre las consecuencias para cada jugador si el juego termina en ese nodo.

Juego repetido

En un juego repetido un grupo fijo de jugadores juega un juego dado repetidamente, observando el resultado de todas las jugadas pasadas antes que comience la siguiente jugada. La posibilidad de observar las acciones y los resultados pasados antes de que comience la siguiente jugada permite que los jugadores penen o premien las acciones pasadas, de modo que surgen estrategias que no surgirían en los juegos simples no repetidos. Por ejemplo, repitiendo el juego del dilema del prisionero un número suficiente de veces da como resultado un equilibrio en el cual ambos prisioneros nunca confiesan.

Ahora centrándonos en simulación, el enfoque que se le puede dar a la teoría de juegos, son los video juegos de estrategia, en los
que el jugador pone en practica sus habilidades de planeamiento y pensamiento para lograr la victoria, empleando estrategias.

Pueden ser de:

a) Construcción de imperios: Age of Empires.
b) De artilleria: Worms, Gunbound, Scorched Earth, Tanarus y Gorilla.
c) En tiempo real: Icehouse, Total Annihilation de Cavedog (1997), la saga Warcraft de Blizzard Entertainment (1994), Starcraft (1998), y la saga Age of Empires de Ensemble Studios (1997).
d) Por turnos: Civilization, y las sagas Heroes of Might and Magic y Master of Orion.
e) Táctica en tiempo real: Warhammer: Dark Omen, World in Conflict y la saga Close Combat.
f) Táctica por turnos: Jagged Alliance y la saga X-COM, Final Fantasy Tactics y los juegos de Nippon Ichi.

Aplicaciones de la Teoría de Juegos..


La teoría de juegos tiene la característica de ser un área en que la sustancia subyacente es principalmente una categoría de matemáticas aplicadas, pero la mayoría de la investigación fundamental es desempeñada por especialistas en otras áreas. En algunas universidades se enseña y se investiga casi exclusivamente fuera del departamento de matemática. Esta teoría tiene aplicaciones en numerosas áreas, entre las cuales caben destacar las siguientes:

* Economía y negocios: Los economistas han usado la teoría de juegos para analizar un amplio abanico de problemas económicos, incluyendo subastas, duopolios, oligopolios, la formación de redes sociales, y sistemas de votaciones.
Las recompensas de los juegos normalmente representan la utilidad de los jugadores individuales. A menudo las recompensas representan dinero, que se presume corresponden a la utilidad de un individuo. Un documento de teoría de juegos en economía empieza presentando un juego que es una abstracción de una situación económica particular. Se eligen una o más soluciones, y el autor demuestra qué conjunto de estrategias corresponden al equilibrio en el juego presentado.

* Biología: A diferencia del uso de la teoría de juegos en la economía, las recompensas de los juegos en biología se interpretan frecuentemente como adaptación.
En biología, la teoría de juegos se emplea para entender muchos problemas diferentes. Se usó por primera vez para explicar la evolución (y estabilidad) de las proporciones de sexos 1:1 (mismo número de machos que de hembras).

* Informática y lógica: La teoría de juegos ha empezado a desempeñar un papel importante en la lógica y la informática. Muchas teorías lógicas se asientan en la semántica de juegos. Además, los investigadores de informática han usado juegos para modelar programas que interactúan entre sí.

* Ciencia política: La investigación en ciencia política también ha usado resultados de la teoría de juegos. Una explicación de la teoría de la paz democrática es que el debate público y abierto en la democracia envía información clara y fiable acerca de las intenciones de los gobiernos hacia otros estados. Por otra parte, es difícil conocer los intereses de los líderes no democráticos, qué privilegios otorgarán y qué promesas mantendrán. Según este razonamiento, habrá desconfianza y poca cooperación si al menos uno de los participantes de una disputa no es una democracia.

***** * ***** * *****
* ***** * ***** * ***** * ***** *

En general la Teoría de Juegos la podemos aplicar en cualquier ámbito en nuestras vidas, por ejemplo, nosotros como estudiantes la utilizamos casi a diario, por que al elegir un método de estudio (ya sea leer, escribir, en grupo, entre otras), si no nos funciona, elegimos otra y otra hasta que nos funcione una, es decir aplicamos estrategias de estudio.

miércoles, 14 de abril de 2010

Caso 11:: Simulación usada en agentes

Un modelo basado en agentes (MBA) es un tipo de modelo computacional que permite la simulación de acciones e interacciones de individuos autónomos dentro de un entorno, y permite determinar que efectos producen en el conjunto del sistema. Combina elementos de teoría de juegos, sistemas complejos, emergencia, sociología computacional, sistemas multi-agente, y programación evolutiva.

Los modelos simulan las operaciones simultáneas de entidades múltiples (agentes), en un intento de recrear y predecir las acciones de fenómenos complejos.

Un agente es un sistema informático, situado en un entorno, que es capaz de realizar acciones flexibles y autónomas para alcanzar sus objetivos.

Agente es todo aquello que puede considerarse que percibe su ambiente mediante sensores y que responde o actúa en tal ambiente por medio de efectores. [Agentes Inteligentes]

Un agente autónomo es un sistema situado que siente ese entorno y actúa sobre él, a través del tiempo, persiguiendo sus propios objetivos de forma que afecte lo que siente en el futuro. [Agentes Autónomos Inteligentes]

El Aprendizaje Automático o Aprendizaje de Máquinas es una rama de la Inteligencia Artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento. En muchas ocasiones el campo de actuación del Aprendizaje Automático se solapa con el de la Estadística, ya que las dos disciplinas se basan en el análisis de datos. Sin embargo, el Aprendizaje Automático se centra más en el estudio de la Complejidad Computacional de los problemas. Muchos problemas son de clase NP-hard, por lo que gran parte de la investigación realizada en Aprendizaje Automático está enfocada al diseño de soluciones factibles a esos problemas. El Aprendizaje Automático puede ser visto como un intento de automatizar algunas partes del Método Científico mediante métodos matemáticos.

La inteligencia artificial es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.

Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza."

A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.

Un autómata es un sistema secuencial, aunque en ocasiones la palabra es utilizada también para referirse a un robot. Puede definirse como un equipo electrónico programable en lenguaje no informático y diseñado para controlar, en tiempo real y en ambiente industrial, procesos secuenciales.

El autómata es la primera máquina con lenguaje, es decir, un calculador lógico cuyo juego de instrucciones se orienta hacia los sistemas de evolución secuencial.

El autómata programable es, pues en este sentido un percusor y constituye para los automatistas un esbozo de la máquina ideal.

El autómata programable satisface las exigencias tanto de procesos continuos como discontinuos. Regula presiones, temperaturas, niveles y caudales así como todas las funciones asociadas de temporización, cadencia, conteo y lógica. También incluye una tarjeta de comunicación adicional, el autómata se transforma en un poderoso satélite dentro de una red de control distribuida.

El autómata programable es un aparato electrónico programable por un usuario programador y destinado a gobernar, dentro de un entorno industrial, maquinas o procesos lógicos secuenciales.

Mecánica Estadística es la aplicación de la estadística, que incluye herramientas matemáticas para tratar con grandes poblaciones en el campo de la mecánica, lo que concierne al movimiento de las partículas u objetos sujetos a una fuerza. Suministra una base para relacionar las propiedades microscópicas de los átomos y moléculas individuales a las correspondientes macroscópicas de los materiales, las que pueden ser observadas en la vida diaria, explicando la termodinámica como un resultado natural de la estadística y la mecánica (clásica y cuántica). En particular, puede ser usada para calcular las propiedades termodinámicas de los materiales a partir de los datos espectroscópicos de las moléculas individuales.

La entropía describe lo irreversible de los sistemas termodinámicos, simbolizada como S, es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.

Para finalizar, cada uno de nosotros escojimos un programa en Repast, el que elegí yo trata de los errores que cometen los empleados en cierta oficina, primero lo corri para solo un trabajador y el resultado fue el siguiente:

Aplicado para un solo trabajador:



Despues lo corri para seis trabajadores, y el resultado fue el siguiente:

miércoles, 24 de marzo de 2010

Caso 10:: "Simulación de Estructuras"

El caso de esta semana giro alrededor de la resistencia en las estructuras (estímulos: A, B, C y D), vimos 4 vídeos que se enfocaron en dos ejemplos, la simulación de estructuras en los puentes usando "pontifex" y una simulación de una pieza en el programa "catia".

Pontifex es un juego de simulación donde se construyen puentes, por los cuales deben de pasar ya sean carros, un tren o un barco un determinado número de veces, el puente debe soportar su peso por si solo. Tenemos un presupuesto asignado y también podemos elegir entre diferentes materiales para su construcción.

Al estar experimentando con pontifex, me dí cuenta que lo mas importante a la hora de construir puentes son los apoyos principales, la resistencia del material, las tensiones de los mismos, donde se construirán (sobre ríos, montañas o la ciudad), la longitud del mismo, entre otras cosas.

Estos so algunos de los puentes que construí en el programa:

En la siguiente imagen se observa que el puente por si solo no genera ni puntos de tensión ni de presión, y por lo tanto se mantiene en pie.



Pero a la hora de que pase el tren este cae inevitablemente, a pesar de que tiene dos apoyos en el fondo del río. En la foto se observan los puntos de tensión (de color azul) que se estiran tanto que se rompen al final.



Otro ejemplo es el siguiente, pero al contrario del anterior, este puente se desplomo, no del todo, y de manera extraña el tren si paso las 4 veces, lo cual me dio mucha risa.. Las dos imágenes están abajo, donde se observan los puntos de tensión, en color azul, y los de presión, que van desde los amarillos, los anaranjados y los rojos.




El conocimiento intuitivo está definido como la aprehensión inmediata de las experiencias internas o externas en su experimentación o percepción. A esta aprehensión, los metafísicos la llaman espiritual, porque no es sensible, pero sabemos que existe, por lo que también se convierte en no negable. Como el ser humano, aprende por tres elementos de su estructura psíquica –la razón, el conocimiento, la voluntad- los juicios que se emiten basados en este tipo de conocimiento se vuelven entonces independientes y personales, aún cuando exista una conciencia cognoscente general en el ser humano. En otras palabras, hay conocimientos que adquirimos por naturaleza, pero que cada quién tiene en uno u otro grado.

El método de los elementos finitos

(MEF en castellano o FEM en inglés) es un método numérico general para la aproximación de soluciones de ecuaciones diferenciales parciales muy utilizado en diversos problemas de ingeniería y física. El MEF está pensado para ser usado en computadoras y permite resolver ecuaciones diferenciales asociadas a un problema físico sobre geometrías complicadas.

El MEF se usa en el diseño y mejora de productos y aplicaciones industriales, así como en la simulación de sistemas físicos y biológicos complejos. La variedad de problemas a los que puede aplicarse ha crecido enormemente, siendo el requisito básico que las ecuaciones constitutivas y ecuaciones de evolución temporal del problema a considerar sean conocidas de antemano.


Un amplio rango de funciones objetivo (variables con el sistema) están disponibles para la minimización ó la maximización:

  • Masa, volumen, temperatura
  • Energía tensional, esfuerzo tensional
  • Fuerza, desplazamiento, velocidad, aceleración
  • Sintética (definidas por el usuario)

Hay múltiples condiciones de carga que se pueden aplicar al sistema. Algunos ejemplos son:

  • Puntuales, presión, térmicas, gravedad, y cargas centrífugas estáticas
  • Cargas térmicas de soluciones del análisis de transmisión de calor
  • Desplazamientos forzados
  • Flujo de calor y convención
  • Puntuales, de presión, y cargas de gravedad dinámicas

Cada programa MEF puede venir con una biblioteca de elementos, o una que es construída con el tiempo. Algunos ejemplos de elementos son:

  • Elementos tipo barra
  • Elementos tipo viga
  • Placa/Cáscara/Elementos compuestos
  • Panel de sándwich
  • Elementos sólidos
  • Elementos tipo muelle
  • Elementos de masa
  • Elementos rígidos
  • Elementos amortiguadores viscosos

Muchos programas MEF también están equipados con la capacidad de usar múltiples materiales en la estructura, como:

  • Modelos elásticos isotrópicos / ortotrópicos / anisótropicos generales
  • Materiales homogéneos / heterogéneos
  • Modelos de plasticidad
  • Modelos viscosos

El programador puede insertar numerosos algoritmos o funciones que pueden hacer al sistema comportarse de manera lineal o no lineal. Los sistemas lineales son menos complejos y normalmente no tienen en cuenta deformaciones plásticas. Los sistemas no lineales toman en cuenta las deformaciones plásticas, y algunos incluso son capaces de verificar si se presentaría fractura en el material.

Algunos tipos de análisis ingenieriles comunes que usan el método de los elementos finitos son:

  • Análisis estructural consiste en modelos lineales y no lineales. Los modelos lineales usan parámetros simples y asumen que el material no es deformado plásticamente. Los modelos no lineales consisten en tensionar el material más allá de sus capacidades elásticas. La tensión en el material varía con de deformación.
  • Análisis vibracional es usado para probar el material contra vibraciones aleatorias, choques e impactos. Cada uno de estos incidentes puede actuar en la frecuencia natural del material y puede causar resonancia y el consecuente fallo.
  • Análisis de fatiga ayuda a los diseñadores a predecir la vida del material o de la estructura, enseñando el efecto de los ciclos de carga sobre el especimen. Este análisis puede mostrar las áreas donde es más posible que se presente una grieta. El fallo por fatiga puede también enseñar la tolerancia al fallo del material.

Los modelos de análisis de transferencia de calor por conductividad o por dinámicas térmicas de flujo del material o la estructura. El estado continuo de transferencia se refiere a las propiedades térmicas en el material que tiene una difusión lineal de calor.

martes, 16 de marzo de 2010

Caso 9:: Control y Simulacion del Caos..

El tema principal de esta sesión fue la Teoria del caos, que es un modelo teórico que intenta explicar el comportamiento de sistemas dinámicos que en principio parecen desarrollarse aleatoriamente con por ejemplo el comportamiento del tiempo atmosférico, proponiendo una nueva manera de estudiar y comprender la realidad.

Teoría del caos es la denominación popular de la rama de las matemáticas y la física que trata ciertos tipos de comportamientos impredecibles de los sistemas dinámicos. Los sistemas dinámicos se pueden clasificar básicamente en: Estables, Inestables y Caóticos .
Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.
Una de las mayores características de un sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen la atmósfera terrestre, el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.

Los Atractores son conjuntos al que un sistema evoluciona después de un tiempo suficientemente largo. Para que el conjunto sea un atractor, las trayectorias que le sean suficientemente próximas han de permanecer próximas incluso si son ligeramente perturbadas. Geométricamente, un atractor puede ser un punto, una curva, una variedad o incluso un conjunto complicado de estructura fractal conocido como atractor extraño.

Hay varios tipos de atractores, el punto fijo y el ciclo límite son atractores simples o clásicos. Cuando los conjuntos son complicados de describir, nos encontramos ante un atractor extraño.
+ Atractores clásicos

En los atractores clásicos, todas las trayectorias convergen en un único punto, es decir, todas las trayectorias terminan en un estado estacionario.

* Punto fijo: Un punto fijo o punto de equilibrio es el punto correspondiente al estado del sistema que permanece constante el tiempo. Ejemplos: el estado final de una piedra que cae, un péndulo o un vaso con agua.

* Ciclo límite: Un ciclo limite es una órbita periódica del sistema que está aislada. Ejemplos: el circuito de sintonía de una radio.

* Toro límite: Una trayectoria periódica de un sistema puede ser gobernada por más de una frecuencia. Si dos de estas frecuencias forman una fracción irracional (es decir, si son inconmensurables), la trayectoria no se cerrará y el ciclo límite se convertirá en un toro.

+ Atractor extraño: A diferencia de los atractores clásicos, los atractores extraños tienen estructura a todas las escalas. Un atractor es extraño si tiene dimensión de Hausdorff no entera (o "fractal") o si la dinámica en el atractor es caótica.

Las ecuaciones de Lorenz son empleadas principalmente en el estudio del clima



donde σ es el número de Prandtl (viscosidad/conductividad térmica), r es el número de Rayleigh (John Strutt) (diferencia de temperatura entre base y tope) y b es la razón entre la longitud y altura del sistema.

Lorenz observó dos cosas fundamentales que ocurrían en su ecuación:
Cualquier diferencia en las condiciones iniciales antes de los cálculos, incluso infinitesimal, cambiaba de forma dramática los resultados. Tan sólo se podía predecir el sistema por cortos períodos. Llevando eso a lameteorología, suponía lo que se llamó efecto mariposa, hipersensibilidad a las condiciones iniciales.
A pesar de lo anterior, la impredecibilidad del sistema, lejos de ser un comportamiento al azar, tenía una curiosa tendencia a evolucionar dentro de una zona muy concreta del espacio de fases, situando una especie de pseudocentro de gravedad de los comportamientos posibles.
Las ecuaciones de Lorenz fueron propuestas como un modelo muy simplificado de la convección en forma de anillos que parece ocurrir a veces en la atmósfera terrestre. Por ello, las tres magnitudes a las que Lorenz se refiere en su sistema son: razón de rotación del anillo, gradiente de temperatura y desviación de la temperatura respecto a su valor de equilibrio.

Lorenz descubrió que su sistema contenía una dinámica extremadamente errática. Las soluciones oscilaban irregularmente sin llegar a repetirse, aunque lo hacían en una región acotada del espacio de fases. Vio que las trayectorias rondaban siempre alrededor de lo que ahora se define como atractor extraño. El sistema de Lorenz es disipativo.

El efecto mariposa es es un concepto quehace referencia a la noción de sensibilidad a las condiciones iniciales dentro del marco de la teoría del caos. La idea es que, dadas unas condiciones iniciales de un determinado sistema caótico, la más mínima variación en ellas puede provocar que el sistema evolucione en formas completamente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande.
Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.
Su nombre proviene de las frases: "el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo" o "el aleteo de las alas de una mariposa pueden provocar un Tsunami al otro lado del mundo" así como también "El simple aleteo de una mariposa puede cambiar el mundo".
Al iterar la formula y=2x2-1, con dos series inicializadas en 0.224834 y 0.224835 respectivamente nos da la siguiente grafica:

Donde se ve que al variarle un poco a la variable inicial, obtenemos una gráfica totalmente diferente a la primera, por lo tanto es sistema caótico, independientemente de ser la misma ecuación a la que se le hacen las iteraciones.
La aplicaciones de la teoria del caos van desde el pronostico del clima, este, además de ser un sistema dinámico, es muy sensible a los cambios en las variables iniciales, es un sistema transitivo y también sus órbitas periódicas son densas, lo que hace del clima un sistema apropiado para trabajarlo con matemática caótica. La precisión de las predicciones meteorológicas es relativa, y los porcentajes anunciados tienen poco significado sin una descripción detallada de los criterios empleados para juzgar la exactitud de una predicción.

Al final del siglo XX se ha vuelto común atribuirles una precisión de entre 80 y 85% en plazos de un día. Los modelos numéricos estudiados en la teoría del caos han introducido considerables mejoras en la exactitud de las previsiones meteorológicas en comparación con las predicciones anteriores, realizadas por medio de métodos subjetivos, en especial para periodos superiores a un día. En estos días es posible demostrar la confiabilidad de las predicciones específicas para periodos de hasta cinco días gracias a la densidad entre las orbitas periódicas del sistema, y se han logrado algunos éxitos en la predicción de variaciones anormales de la temperatura y la pluviosidad para periodos de hasta 30 días.

Antes de la aparición de la Teoría del Caos, se pensaba que para que el clima llegara a predecirse con exactitud newtoniana no era más que una cuestión de introducir más y más variables en un ordenador lo suficientemente potente como para procesarlas. Sin embargo, de unas pocas variables de hace tan solo unas décadas se ha pasado a considerar cientos de miles de variables sin conseguir la predicibilidad esperada. El clima, como sistema caótico, ha de entenderse como un sistema impredecible dentro de un atractor que le confiere cierto orden a través de las estaciones. Sólo sabemos con seguridad que cada año habrá cuatro períodos con unas caracteristicas climáticas conocidas. No es esperable, conforme a la teoría del caos, que algún día consigamos averigüar con precisión matemática el tiempo que hará al día siguiente. El clima es sensible a pequeñas variaciones en las condiciones iniciales y la determinación de las condiciones iniciales con exactitud está abocado al fracaso a causa del Principio de incertidumbre de Heisenberg.

No es posible contradecir la confiabilidad de las previsiones para periodos de tiempo más largos debido a que no se han adoptado aún modelos de verificación; no obstante, los meteorólogos profesionales tienden a ponerla en duda.

Otra aplicacion es en la medicina, en el siguiente link (ver página) se explica como la teoria del caos y los fractales estan en todos lados, como se observan fractales en los pulmones, entre otras cosas.

martes, 9 de marzo de 2010

Caso 8:: "Terrormoto"

Un terremoto es el movimiento brusco de la Tierra, causado por la brusca liberación de energía acumulada durante un largo tiempo. La corteza de la Tierra está conformada por una docena de placas de aproximadamente 70 km de grosor, cada una con diferentes características físicas y químicas.

La corteza de la tierra está presionada por el manto, el cual ha quebrado su corteza en 15 grandes placas que están juntas. En los bordes donde se rozan las placas, es donde suceden los sismos y la actividad de los volcanes. El origen de los terremotos se encuentra en la liberación de energía que se produce cuando los materiales del interior de la Tierra se desplazan, buscando el equilibrio, desde situaciones inestables que son consecuencia de las actividades volcánicas y tectónica, que se producen principalmente en los bordes de la placa. Estas placas "tectónicas" se están acomodando en un proceso que lleva millones de años y han ido dando la forma que hoy conocemos a la superficie de nuestro planeta, originando los continentes y los relieves geográficos en un proceso que está lejos de completarse.

Habitualmente estos movimientos son lentos e imperceptibles, pero en algunos casos estas placas chocan entre sí como gigantescos témpanos de tierra sobre un océano de magma presente en las profundidades de la Tierra, impidiendo su desplazamiento. Entonces una placa comienza a desplazarse sobre o bajo la otra originando lentos cambios en la topografía. Pero si el desplazamiento es dificultado comienza a acumularse una energía de tensión que en algún momento se liberará y una de las placas se moverá bruscamente contra la otra rompiéndola y liberándose entonces una cantidad variable de energía que origina el Terremoto.

Las zonas en que las placas ejercen esta fuerza entre ellas se denominan fallas y son, desde luego,los puntos en que con más probabilidad se originen fenómenos sísmicos. Sólo el 10% de los terremotos ocurren alejados de los límites de estas placas.

La actividad subterránea originada por un volcán en proceso de erupción puede originar un fenómeno similar.

En general se asocia el término terremoto con los movimientos sísmicos de dimensión considerable, aunque rigurosamente su etimología significa "movimiento de la Tierra".

Existen otros muchos factores que pueden originarlos: en torno a procesos volcánicos, por hundimiento de cavidades cársticas o por movimientos de ladera, desprendimientos de rocas en las laderas de las montañas, hundimiento de cavernas o cuevas, variaciones bruscas en la presión atmosférica ocasionado ciclones e incluso la actividad humana. Algunos de estos mecanismos generan eventos de baja magnitud que generalmente caen en el rango de microsismos, temblores que sólo pueden ser detectados por sismógrafos.

En general, los terremotos son eventos naturales que son parte de una continua evolución de la tierra y ocurren en algunas franjas de la tierra bien definidas que son las placas tectónicas. Son producto del acomodamiento del planeta tierra, el cuál está formado de varias partes como vemos a continuación:

Hipocentro o Foco: Es el punto en la profundidad de la Tierra desde donde se libera la energía en un terremoto. Cuando ocurre en la corteza de ella (hasta 70 km de profundidad) se denomina superficial. Si ocurre entre los 70 y los 300 km se denomina intermedio y si es de mayor profundidad: profundo (recordemos que el centro dela Tierra se ubica a unos 6.370 km de profundidad).

Epicentro: Es el punto de la superficie de la Tierra directamente sobre el hipocentro, desde luego donde la intensidad del terremoto es mayor.

La Escala Richter representa la energía sísmica liberada en cada terremoto y se basa en el registo sismográfico. Es una escala que crece en forma potencial o semilogarítmica, de manera que cada punto de aumento puede sognificar un aumento de energía de 10 o más veces mayor. Por ejemplo: Una magnitud 4 no es el doble de 2, sino 100 veces mayor.

Magnitud --------- Efectos del terremoto

Menos de 3.5 ---- Generalmente no se siente, pero es registrado
3.5 - 5.4 ------------ A menudo se siente, pero sólo causa daños menores.
5.5 - 6.0 ------------ Ocasiona daños ligeros a edificios.
6.1 - 6.9 ------------ Puede ocasionar daños severos en áreas muy pobladas.
7.0 - 7.9 ------------ Terremoto mayor. Causa graves daños.
8 o mayor --------- Gran terremoto. Destrucción total a comunidades cercanas.

(NOTA: Esta escala es "abierta", de modo que no hay un límite máximo teórico)

La Intensidad o Escala de Mercalli se expresa en números romanos. Esta escala es proporcional, de modo qeu una intensidad IV es el doble de II. Es una escala subjetiva, para cuya medición se recurre a encuestas, referencias periodísticas, etc. Permite el estudio de los terremotos históricos, así como los daños de los mismos. Cada localización tendrá una Intensidad distinta para un determinado terremoto, mientras que la Magnitud era única para dicho sismo.

Dicha escala se mide de la siguiente forma:

I. Sacudida sentida por muy pocas personas en condiciones especialmente favorables.
II. Sacudida sentida sólo por pocas personas en reposo, especialmente en los pisos altos de los edificios. Los objetos suspendidos pueden oscilar.
III. Sacudida sentida claramente en los interiores, especialmente en los pisos altos de los edificios, muchas personas no lo asocian con un temblor. Los vehículos de motor estacionados pueden moverse ligeramente. Vibración como la originada por el paso de un vehículopesado. Duración estimable.
IV. Sacudida sentida durante el día por muchas personas en los interiores, por pocas en el exterior. Por la noche algunas despiertan. Vibración de vajillas, vidrios de ventanas y puertas; los muros crujen. Sensación como de un vehíuclo pesado chocando contra un edificio, los vehículos de motor estacionados se balancean claramente.
V. Sacudida sentida casi por todo el mundo; muchos despiertan. Algunas piezas de vajilla, vidrios de ventanas, etcétera, se rompen; pocos casos de agrietamiento de aplanados; caen objetos inestables . Se observan perturbaciones en los árboles, postes y otros objetos altos. Se detienen de relojes de péndulo.
VI. Sacudida sentida por todo mundo; muchas personas atemorizadas huyen hacia afuera. Algunos muebles pesados cambian de sitio; pocos ejemplos de caída de aplacados o daño en chimeneas. Daños ligeros.
VII. Advertido por todos. La gente huye al exterior. Daños sin importancia en edificios de buen diseño y construcción. Daños ligeros en estructuras ordinarias bien construidas; daños considerables en las débiles o mal proyectadas; rotura de algunas chimeneas. Estimado por las personas conduciendo vehículos en movimiento.
VIII. Daños ligeros en estructuras de diseño especialmente bueno; considerable en edificios ordinarios con derrumbe parcial; grande en estructuras débilmente construidas. Los muros salen de sus armaduras. Caída de chimeneas, pilas de productos en los almacenes de las fábricas, columnas, monumentos y muros. Los muebles pesados se vuelcan. Arena y lodo proyectados en pequeñas cantidades. Cambio en el nivel del aguade los pozos. Pérdida de control en la personas que guían vehículos motorizados.
IX. Daño considerable en las estructuras de diseño bueno; las armaduras de las estructuras bien planeadas se desploman; grandes daños en los edificios sólidos, con derrumbe parcial. Los edificios salen de sus cimientos. El terreno se agrieta notablemente. Las tuberías subterráneas se rompen.
X. Destrucción de algunas estructuras de madera bien construidas; la mayor parte de las estructuras de mampostería y armaduras se destruyen con todo y cimientos; agrietamiento considerable del terreno. Las vías del ferrocarril se tuercen. Considerables deslizamientos en las márgenes de los ríos y pendientes fuertes. Invasión del agua de los ríos sobre sus márgenes.
XI. Casi ninguna estructura de mampostería queda en pie. Puentes destruidos. Anchas grietas en el terreno. Las tuberías subterráneas quedan fuera de servicio. Hundimientos y derrumbes en terreno suave. Gran torsión de vías férreas.
XII. Destrucción total. Ondas visibles sobre el terreno. Perturbaciones de las cotas de nivel (ríos, lagos y mares). Objetos lanzados en el aire hacia arriba.

La Escala sismológica de magnitud de momento es una escala logarítmica usada para medir y comparar seísmos. Está basada en la medición de la energía total que se libera en un terremoto. Fue introducida en 1979 por Thomas C. Hanks y Hiroo Kanamori como la sucesora de la escala de Richter.

La Escala Medvedev-Sponheuer-Karnik, también conocida como escala MSK o MSK-64, es una escala de intensidad macrosísmica usada para evaluar la fuerza de los movimientos de tierra basándose en los efectos destructivos en las construcciones humanas y en el cambio de aspecto del terreno, así como en el grado de afectación entre la población. Tiene doce grados de intensidad, siendo el más bajo el número uno, y expresados en números romanos para evitar el uso de decimales.

Una buena forma de visualizar la energia liberada por un terremoto se muestra en la siguiente página: http://www.angelfire.com/nt/terremotosTnt/

Las ondas sísmicas son un tipo de onda elástica consistentes en la propagación de perturbaciones temporales del campo de esfuerzos que generan pequeños movimientos en un medio. Las ondas sísmicas pueden ser generadas por movimientos telúricos naturales, los más grandes de los cuales pueden causar daños en zonas donde hay asentamientos urbanos. Estas se presentan en tres tipos principales:
1) Ondas longitudinales, primarias o P: tipo de ondas de cuerpo que se propagan a una velocidad de entre 8 y 13 km/s y en el mismo sentido que la vibración de las partículas. Circulan por el interior de la Tierra, atravesando tanto líquidos como sólidos. Son las primeras que registran los aparatos de medida o sismógrafos, de ahí su nombre "P".

2)Ondas transversales, secundarias o S: son ondas de cuerpo más lentas que las anteriores (entre 4 y 8 km/s) y se propagan perpendicularmente en el sentido de vibración de las partículas. Atraviesan únicamente los sólidos y se registran en segundo lugar en los aparatos de medida.
3)Ondas superficiales: son las más lentas de todas (3,5 km/s) y son producto de la interacción entre las ondas P y S a lo largo de la superficie de la Tierra. Son las que producen más daños. Se propagan a partir del epicentro y son similares a las ondas que se forman sobre la superficie del mar. Este tipo de ondas son las que se registran en último lugar en los sismógrafos. En el siguiente link se explica más a detalle las onda sismicas, así como sus características: http://es.wikipedia.org/wiki/Onda_s%C3%ADsmica

La probabilidad de ocurrencia de terremotos de una determinada magnitud en una región concreta viene dada por una distribución de Poisson. Así la probabilidad de ocurrencia de k terremotos de magnitud M durante un período T en cierta región está dada por:

Donde: Tr (M) es el tiempo de retorno de un terremoto de intensidad M, que coincide con el tiempo medio entre dos terremotos de intensidad M.
Hoy en día se tiene la certeza de que si se inyectan en el subsuelo, ya sea como consecuencia de la eliminación de desechos en solución o en suspensión, o por la extracción de hidrocarburos, se provoca, con un brusco aumento de la presión intersticial, una intensificación de la actividad sísmica en las regiones ya sometidas a fuertes tensiones. Pronto se deberían controlar mejor estos sismos inducidos y, en consecuencia, preverlos, tal vez, pequeños sismos inducidos pudieran evitar el desencadenamiento de un terremoto de mayor magnitud.
En cuanto a las estadisticas, encontré esta página, donde se muestran los terremotos mas notables (a una magnitud mayor o igual a 7.0) a nivel mundial desde 1900 al 2005: http://alpoma.net/carto/?p=391
Las teorias de conspiración van desde que EU son los culpables de los grandes terremotos, hasta que el aire atrapado entre las capas de la Tierra los crean, entre otras. Los siguientes videos nos relatan la teoria de que EU tiene el poder de generar terremotos donde sea:
En cuanto a las aplicaciones de la simulación de terremotos, tenemos dos casos: cuando es preventiva, es decir, cuando se quiere pronosticar los efectos de un terremoto que se espera que ocurra; y la otra es la explicativa, en donde nos damos cuenta todo el panorama despues de que paso el evento, es decir, los daños causados, las perdidas, también nos podemos dar cuenta lo que hay que cambiar en las estructuras de los edificios, lo que se puede preventir, entre otras cosas.

miércoles, 3 de marzo de 2010

Caso 7:: "El Tráfico Nuestro De Todos Los Días.."

Hoy en día es raro ver a alguien en bicicleta o simplemente caminando por la calle, ahora para todo usamos el automovil, incluso si a donde nos dirigimos esta a dos o tres cuadras de nuestra casa, el carro se volvio nuesto unico medio de transporte en la ciudad, sin mencionar al transporte público (metro y autobuses).

El caso de esta semana gira alrededor del tráfico vehicular, el como nos afecta que cada vez haya mas carros y camiones en la calle. Y eso genera colas y mas colas en los cruceros, sin mencionar a los peatones (como en el video del estímulo A: http://www.youtube.com/watch?v=cj4LrSxjTIM, que es algun crucero en Shanghai), que arriesgan su vida al tratar de cruzar la calle.

En general una cola se forma cuando la demanda de un determinado servicio en mas alta que la capacidad del servidor. Entonces, enfocandonos al estímulo A, nuestra demanda serian los carros esperando la luz verde para pasar, así como los peatones intentando cruzar la calle, y nuestros servidores serian los semáforos.

Por lo tanto, los principales factores de este caso son:

  1. los semáforos,

  2. la línea de parada,

  3. los carros y

  4. los peatones,

y a su vez estos factores pueden tener mas de un factor que influye en ellos: como por ejemplo: 1) los semáforos tienen a su vez tres tipos de luces (verde, ámbar y roja), tienen también la flecha, y por lo tanto se debe de formar un carril únicamente para los que daran vuelta, el tiempo que dura cada luz; 2) La línea de parada, que es donde se forman inicialmete los carros, en caso de que el semáforo este en luz roja, tambien el conductor decide si quedarse en el carril donde viene o cambiarse a otro carril disponible. En cuanto a 3) los carros y 4) los peatones, puede influir el estado de ánimo de las personas.

Otro factor es la disciplina de la cola, por que generalmente los ultimos en llegar a la cola casi siempre pasan antes de algun carro que llego un poco antes, eso por que se tiende a invadir los carriles, lo que ocasiona en muchas veces accidentes, generando asi mas colas y cuellos de botella.

Es bueno simular el tráfico cuando se quiere mejorar la vialidad de alguna ciudad, ya sea cambiando los tiempo en los semáforos o agregando mas semáforos, agregando mas carriles (pero seria bueno que se agregaran mas y que no se hicieran mas chicos los existentes).

* Diseño de redes de transporte. Las redes se diseñan considerando tres aspectos: la geometría, la resistencia y la capacidad. En la práctica, el diseño de transporte centra sus miras en tomar los diseños geométricos y definir su ancho, número de carriles, vías o diámetro. Su producto es tomado por el especialista en pavimentos, rieles, puentes o ductos y convertido en espesores de calzada, balasto, vigas o paredes de tubería. El ingeniero de transporte es también responsable de definir el funcionamiento del sistema considerando el tiempo. No debe confundirse la complejidad del problema de transporte con el uso de tecnología avanzada. Tal vez el problema más complejo del transporte en el mundo no sea el de congestiones vehiculares en Singapur o el transporte de carga al espacio, sino el del traslado de peregrinos de La Meca a Medina, con restricciones enormes de tiempo y logística.

* Métodos para el diseño de redes de transporte. Los principales métodos para el diseño de redes incluyen el método de las cuatro etapas, el uso de la teoría de colas, la simulación y los métodos que podrían llamarse de coeficientes empíricos.


* Método de cuatro etapas. En este método se calcula separadamente la "generación de viajes", o número de personas o cantidad de carga que produce un área; la "distribución" de viajes, que permite estimar el número de viajes o cantidad de carga entre cada zona de origen y destino; la "partición modal", es decir, el cálculo del número de viajes o cantidad de carga que usarán los diferentes modos de transporte y su conversión en número de vehículos; y, finalmente, la "asignación", o la definición de qué segmentos de la red o rutas utilizarán los vehículos. Este proceso se realiza utilizando la densidad y la localización de población o de carga actual para verificar que los volúmenes previstos por el método estén de acuerdo con la realidad. Finalmente, se usan las estimaciones de población futura para recalcular el número de vehículos en cada arco de la red que se usará para el diseño. Se utiliza principalmente para la planeación de transporte y es exigido por ley en muchas zonas urbanas.


* Método de teoría de colas. Utiliza la estadística y ciertas asunciones sobre el proceso de servicio. Permite estimar, a partir de las tasas de llegada de los clientes (ya sean vehículos o personas) y de la velocidad de atención de cada canal de servicio, la longitud de cola y el tiempo promedio de atención. La tasa de llegada de los clientes debe analizarse para conocer, no solamente su intensidad en número de clientes por hora, sino su distribución en el tiempo. Se ha hallado, experimentalmente, que la distribución de Poisson y las distribuciones geométricas reflejan bien la llegada aleatoria de clientes y la llegada de clientes agrupados, respectivamente. Se utiliza principalmente para la estimación de número de casetas de peaje, surtidores en estaciones de combustible, puestos de atención en puertos y aeropuertos y número de cajeros o líneas de atención al cliente requeridas en un establecimiento. La teoría de colas se basa en procesos estocásticos.


* Métodos de simulación de transporte. Existen dos tipos principales de simulaciones en computador utilizadas en la ingeniería de transporte: macrosimulaciones y microsimulaciones.
Las macrosimulaciones utilizan ecuaciones que reflejan parámetros generales de la corriente vehicular, como velocidad, densidad y caudal. Muchas de las ideas detrás de estas ecuaciones están tomadas del análisis de flujo de líquidos o gases o de relaciones halladas empíricamente entre estas cantidades y sus derivadas. Las segundas simulan cada vehículo o persona individualmente y hacen uso de ecuaciones que describen el comportamiento de estos vehículos o personas cuando siguen a otro (ecuaciones de seguimiento vehicular) o cuando circulan sin impedimentos.


* Métodos de coeficientes. Utilizan ecuaciones de tipo teórico pero, en general, parten de mediciones que indican la capacidad de una red en condiciones ideales. Esta capacidad, normalmente, va disminuyendo a medida que la red o circunstancias se alejan de ese ideal.
Los métodos proporcionan coeficientes menores que la unidad, por los que se debe multiplicar la capacidad "ideal" de la red para encontrar la capacidad en las condiciones dadas.


* Modelización del transporte. El concepto de “modelo” debe ser entendido como una representación, necesariamente simplificada, de cualquier fenómeno, proceso, institución y, en general, de cualquier “sistema”. Es una herramienta de gran importancia para el planificador, pues permite simular escenarios de actuación y temporales diversos que ayudan a evaluar alternativas y realizar el diagnóstico de futuro.


* El esquema clásico de modelización es el de cuatro etapas:

  • Modelo de generación-atracción para evaluar viajes producidos y atraídos por cada zona de transporte en distintos escenarios.

  • Modelo de distribución, para estimar matrices origen-destino (O/D) futuras.

  • Modelo de reparto modal, para determinar la captación de cada modo entre las distintas relaciones O/D, para los motivos que se calibren.

  • Modelo de asignación que permite determinar los caminos o rutas escogidas para cada relación y la carga por tramos para líneas o redes viarias en los distintos períodos horarios analizados.

A veces, según los datos disponibles y el tipo de análisis que se desea se puede prescindir del modelo de generación, quedando en tres etapas y obteniéndose únicamente el modelo de distribución. En corredores de carreteras sin transporte público realmente competitivo, es frecuente suponer que no hay trasvase modal y sólo se use el de distribución (o un modelo de crecimientos) y el de asignación únicamente.