UNIDAD 1
- INTRODUCCIÓN A LA SIMULACIÓN
Actualmente, la simulación es una poderosa técnica para la resolución de problemas. Sus orígenes están en la teoría de muestreo estadístico y análisis de sistemas físicos probabilísticos complejos. El aspecto común de ambos es el uso de números y muestras aleatorias para aproximar soluciones.
Una de las más famosas aplicaciones de muestras aleatoria s, ocurre durante la segunda guerra mundial, cuando la simulación se utilizó para estudiar el flujo de neutrones dentro del desarrollo de la bomba atómica. Esta investigación era secreta y le dieron un nombre en código: Monte Carlo. Este nombre se mantiene, y durante mucho tiempo se usaba para hacer referencia a algunos esfuerzos en simulación. Pero el término métodos Monte Carlo, se refiere actualmente a una rama de las matemáticas experimentales que trata con experimentos de números aleatorios, mientras que el término simulación, o simulación de sistemas, cubre una técnica de análisis más práctico, y es lo que vamos a estudiar.
Vamos a ver técnicas que utilizan los computadores para imitar, o simular, el comportamiento de sistemas del mundo real. Para estudiar científicamente estos sistemas, a menudo se han de hacer una serie de suposiciones acerca de cómo trabaja éste. Estas suposiciones que usualmente toman la forma de relaciones matemáticas o lógicas, constituyen un modelo que va a ser usado para intentar comprender el comportamiento del sistema correspondiente.
Si las relaciones que componen el modelo son suficientemente simples, es posible usar métodos matemáticos (tales como álgebra, cálculo o teoría de la probabilidad) para obtener una información exacta de las cuestiones de interés; a esto se le llama solución analítica. Sin embargo, la mayoría de los sistemas del mundo real son demasiado complejos y normalmente los modelos realistas de los mismos, no pueden evaluarse analíticamente. Lo que se puede hacer es estudiar dichos modelos mediante simulación. En una simulación se utiliza el ordenador para experimentar con un modelo numéricamente, de forma que con los resultados obtenidos se haga una estimación de las características del sistema.
DEFINICIONES:
WEST CHURCHMAN
Desgraciadamente, no existe acuerdo respecto a una definición precisa de la palabra simulación, la propuesta por C. West Churchman es estrictamente formal:
" X simula a Y" sí y solo sí:
a. X e Y son sistemas formales.
b. Y se considera como sistema real
c. X se toma como una aproximación del sistema real
d. Las reglas de validez en x no están exentas de error.
LA DEFINICIÓN DE SHUBIK :
Simulación de un sistema (o un organismo) es la operación de un modelo (simulador), el cual es una representación del sistema. Este modelo puede sujetarse a manipulaciones que serían imposibles de realizar, demasiado costosas o imprácticas.
La operación de un modelo puede estudiarse y con ello, inferirse las propiedades concernientes al comportamiento del sistema o subsistema real.
Roger Schroeder planteaba:
La simulación es una técnica que puede utilizarse para resolver una amplia gama de modelos. Su aplicación es tan amplia que se ha dicho: "Cuando todo falle, utilice simulación".
La simulación es, esencialmente, una técnica que enseña a construir el modelo de una situación real aunada a la realización de experimentos con el modelo. Definición bastante amplia, que puede comprender situaciones aparentemente no relacionadas entre sí, como los simuladores de vuelo, juegos militares, juegos de gerencia, modelos físicos de ríos, modelos econométricos, etc., desde la perspectiva de la ingeniería, nos interesa una definición más restringida, solamente a experimentos con modelos lógicos o matemáticos, pero además no nos interesan aquellos experimentos con elementos de microeconomía, que ocurren bajo condiciones dadas de equilibrio estático y producen soluciones completamente determinísticas.
Por el contrario estamos interesados en experimentos que ocurren en períodos extensos de tiempo, bajo condiciones estocásticas o dinámicas y cuyas soluciones por métodos estrictamente analíticos, no son necesariamente del todo determinísticas.
Thomas Naylor
En consecuencia, bajo estas restricciones, la definición que plantea Thomas Naylor es bastante adecuada:
Simulación, es una técnica numérica para conducir experimentos en una computadora digital, las cuales requieren ciertos tipos de modelos lógicos y matemáticos, que describen el comportamiento de un negocio o un sistema económico (o algún componente de ellos) en períodos extensos de tiempo real.
ETAPAS DE UN ESTUDIO DE SIMULACIÓN
1. Definición del sistema
Consiste en estudiar el contexto del problema, identificar los objetivos del proyecto, especificar los índices de medición de la efectividad del sistema, especificar los objetivos específicos del modelamiento y definir el sistema que se va a modelar.
2. Formulación del modelo
Una vez definidos con exactitud los resultados que se esperan obtener del estudio, se define y construye el modelo con el cual se obtendrán los resultados deseados. En la formulación del modelo es necesario definir todas las variables que forman parte de él, sus relaciones lógicas y los diagramas de flujo que describan en forma completa el modelo. DAIMER
3. Colección de datos
Es importante que se definan con claridad y exactitud los datos que el modelo va a requerir para producir los resultados deseados.
Implementación del modelo en la computadora [editar]
Con el modelo definido, el siguiente paso es decidir si se utiliza algún lenguaje como el fortran, algol, lisp, etc., o se utiliza algún paquete como Promodel, Vensim, Stella y iThink, GPSS,simula, simscript, Rockwell Arena, [Flexsim], etc., para procesarlo en la computadora y obtener los resultados deseados.
4. Verificación
El proceso de verificación consiste en comprobar que el modelo simulado cumple con los requisitos de diseño para los que se elaboró.2 Se trata de evaluar que el modelo se comporta de acuerdo a su diseño del modelo
5. Validación Del Sistemar
A través de esta etapa es valorar las diferencias entre el funcionamiento del simulador y el sistema real que se está tratando de simular.3 Las formas más comunes de validar un modelo son:
1. La opinión de expertos sobre los resultados de la simulación.
2. La exactitud con que se predicen datos históricos.
3. La exactitud en la predicción del futuro.
4. La comprobación de falla del modelo de simulación al utilizar datos que hacen fallar al sistema real.
5. La aceptación y confianza en el modelo de la persona que hará uso de los resultados que arroje el experimento de simulación.
6. Experimentación
La experimentación con el modelo se realiza después que éste haya sido validado. La experimentación consiste en generar los datos deseados y en realizar un análisis de sensibilidad de los índices requeridos...
7. Interpretación
En esta etapa del estudio, se interpretan los resultados que arroja la simulación y con base a esto se toma una decisión. Es obvio que los resultados que se obtienen de un estudio de simulación ayuda a soportar decisiones del tipo semi-estructurado.
8. Documentación
Dos tipos de documentación son requeridos para hacer un mejor uso del modelo de simulación. La primera se refiere a la documentación del tipo técnico y la segunda se refiere al manual del usuario, con el cual se facilita la interacción y el uso del modelo desarrollado.
- CONTROL DE PROCESOS INDUSTRIALES
Un proceso de fabricación, también denominado proceso industrial, manufactura o producción, es el conjunto de operaciones necesarias para modificar las características de las materias primas. Dichas características pueden ser de naturaleza muy variada tales como la forma, la densidad, la resistencia, el tamaño o la estética. Se realizan en el ámbito de la industria.
En la inmensa mayoría de los casos, para la obtención de un determinado producto serán necesarias multitud de operaciones individuales de modo que, dependiendo de la escala de observación, puede denominarse proceso tanto al conjunto de operaciones desde la extracción de los recursos naturales necesarios hasta la venta del producto como a las realizadas en un puesto de trabajo con una determinada máquina-herramienta.
En el ámbito industrial se suelen considerar convencionalmente los procesos elementales que se indican, agrupados en dos grandes familias:
Tecnología mecánica: Moldeo (fundición, pulvimetalurgia, moldeo por inyección, moldeo por soplado, moldeo por compresión), Conformado o deformación plástica. (Laminación, forja, extrusión, estirado, conformado de chapa, encogimiento, calandrado), Procesos con arranque de material (Mecanizado y electro erosión y tratamiento térmico), Tratamientos superficiales
Tecnología química: (procesos físicos, procesos químicos, tratamientos superficiales)
El control automático ha desempeñado una función vital en el avance de la ingeniería y la ciencia. Además de su extrema importancia en los sistemas de vehículos espaciales, de guiado de misiles, robóticos y similares, el control automático se ha vuelto una parte importante e integral de los procesos modernos industriales y de manufactura, como los enunciados anteriormente. Por ejemplo, el control automático es esencial en el control numérico de las máquinas herramienta de las industrias de manufactura, en el diseño de sistemas de pilotos automáticos en la industria aeroespacial, y en el diseño de automóviles y camiones en la industria automotriz.
También es esencial en las operaciones industriales como en el control de presión, temperatura, humedad, viscosidad y flujo en las industrias de proceso.
Debido a que los avances en la teoría y la práctica del control automático aportan los medios para obtener un desempeño óptimo de los sistemas dinámicos, mejorar la productividad, aligerar la carga de muchas operaciones manuales repetitivas y rutinarias, así como de otras actividades, casi todos los ingenieros y científicos deben tener un buen conocimiento de este campo.
HISTORIA
El primer trabajo significativo en control automático fue el regulador de velocidad centrífugo de James Watt para el control de la velocidad de una máquina de vapor, en el siglo XVIII. Minorsky, Hazen y Nyquist, entre muchos otros, aportaron trabajos importantes en las etapas iniciales del desarrollo de la teoría de control. En 1922, Minorsky trabajó en los controladores automáticos para dirigir embarcaciones, y mostró que la estabilidad puede determinarse a partir de las ecuaciones diferenciales que describen el sistema.
En 1932, Nyquist diseñó un procedimiento relativamente simple para determinar la estabilidad de sistemas en lazo cerrado, con base en la respuesta en lazo abierto en estado estable cuando la entrada aplicada es una senoidal. En 1934, Razen, quien introdujo el término servomecanismos para los sistemas de control de posición, analizó el diseño de los servomecanismos con relevadores, capaces de seguir con precisión una entrada cambiante.
Durante la década de los cuarenta, los métodos de la respuesta en frecuencia hicieron posible que los ingenieros diseñaran sistemas de control lineales en lazo cerrado que cumplieran con los requerimientos de desempeño. A finales de los años cuarenta y principios de los cincuenta, se desarrolló por completo el método del lugar geométrico de las raíces propuesto por Evans.
Los métodos de respuesta en frecuencia y del lugar geométrico de las raíces, que forman el núcleo de la teoría de control clásica, conducen a sistemas estables que satisfacen un conjunto más o menos arbitrario de requerimientos de desempeño. En general, estos sistemas son aceptables pero no óptimos en forma significativa. Desde el final de la década de los cincuenta, el énfasis en los problemas de diseño de control se ha movido del diseño de uno de muchos sistemas que trabajen apropiadamente al diseño de un sistema óptimo de algún modo significativo.
Conforme las plantas modernas con muchas entradas y salidas se vuelven más y más complejas, la descripción de un sistema de control moderno requiere de una gran cantidad de ecuaciones. La teoría del control clásica, que trata de los sistemas con una entrada y una salida, pierde su solidez ante sistemas con entradas y salidas múltiples.
Desde alrededor de 1960, debido a que la disponibilidad de las computadoras digitales hizo posible el análisis en el dominio del tiempo de sistemas complejos, la teoría de control moderna, basada en el análisis en el dominio del tiempo y la síntesis a partir de variables de estados, se ha desarrollado para enfrentar la creciente complejidad de las plantas modernas y los requerimientos limitativos respecto de la precisión, el peso y el costo en aplicaciones militares, espaciales e industriales.
Durante los años comprendidos entre 1960 y 1980, se investigaron a fondo el control óptimo tanto de sistemas determinísticos como estocásticos, y el control adaptable, mediante el aprendizaje de sistemas complejos. De 1980 a la fecha, los descubrimientos en la teoría de control moderno se centraron en el control robusto, el control de Roa y temas asociados.
Ahora que las computadoras digitales se han vuelto más baratas y más compactas, se usan como parte integral de los sistemas de control. Las aplicaciones recientes de la teoría de control moderna incluyen sistemas ajenos a la ingeniería, como los biológicos, biomédicos, económicos y socioeconómicos.
Las figuras 4, 5 y 6 muestran tres ejemplos específicos sobre procesos industriales controlados automáticamente.

Figura 4. Tren de Laminación

Figura 5. Producción de Galletas

Figura 6.Alimentación de carbón pulverizado para combustión
Control clásico vs moderno
El control clásico está pensado para sistemas: Continuos – Lineales – Invariantes en el tiempo y el control moderno para sistemas Digitales - lineales o no lineales - generalmente usando técnicas de espacio de estado.
CONTROL CLÁSICO
El control clásico hace uso de los métodos de regulación tales como: sistemas mecánicos, hidráulicos, neumáticos o eléctricos y electrónicos.
La característica principal del control clásico es que todas las señales son continuas y que los sistemas son lineales. Si no son lineales, se realizan estrategias de linealización.
Los sistemas que conforman al control clásico son uní variables y lo mas importante son invariantes en el tiempo.
CONTROL MODERNO
El control moderno se diferencia del control clásico desde la llegada de los sistemas digitales.
El procesador es la principal herramienta del control moderno, dando la posibilidad de implementar controles de sistemas no lineales y multivariables.
El control moderno se forma a partir de varias ramas de estudio, siendo las más importantes, el control adaptativo, el control robusto y el control inteligente.
El control robusto busca independizar el control de posibles incertidumbres en el modelo de la planta.
El control inteligente se basa el las técnicas de inteligencia artificial, que tratan de emular las estrategias del pensamiento humano, usando el procesamiento digital. Algunas de ellas son la lógica difusa, las redes neuronales, los algoritmos genéticos.
El control adaptativo busca resintonizar de forma automática el sistema de control ante variaciones de las características físicas de la planta. Matemáticamente independizan el control de las variaciones del modelo.
En general el control digital se hace por medio de herramientas matemáticas como el espacio de estado. Las propiedades de herramientas como esta es que se hace irrelevante el número de entradas y salidas (Multivariable).
SISTEMAS CONTINUOS
Por una señal continua entenderemos una función continua de una o varias dimensiones. Ejemplos de distintos tipos de señales podemos encontrar en los muy diversos aparatos de medida asociados al estudio de la física, química, biología, medicina, etc. Así por ejemplo, los distintos tipos de electro gramas que son usados en medicina son señales unidimensionales, ya que se representan por una o varias curvas en función del tiempo. Sin embargo, los distintos tipos de radiografías son señales bidimensionales y los resultados de la tomografía axial computerizada y la resonancia nuclear magnética son señales tridimensionales.
Haciendo uso del lenguaje matemático podemos decir que toda señal es una función matemática que toma un valor en cada punto del espacio en el que esta definida. Los resultados matemáticos sobre la aproximación de funciones, nos permiten expresar que cualquier función continua y periódica definida sobre una región finita del espacio puede ser aproximada por una suma infinita de términos, en donde cada término tiene una contribución a la formación de la señal que es independiente y ortogonal a cualquier otro término del desarrollo.
Existen distintas posibilidades a la hora de construir este tipo de aproximaciones, pero por distintos motivos la más usada ha sido aquella en que los términos tienen una significación como señales ondulatorias puras. Es decir, cada término es la contribución de una determinada frecuencia/longitud de onda a la formación de la señal. Así pues toda señal puede ser analizada desde dos puntos de vista, como una función continua sobre un espacio de valores de medida o como una función definida sobre un espacio de frecuencias.
La figura 7 representa gráficamente una señal continua cuya principal característica es que existe siempre un valor de f(t) para cualquier instante t.
Figura 7
La figura 8 representa un diagrama de flujo básico que se seguirá en el curso para simular sistemas continuos en donde:
SC=Sistema continuo
MM=Modelo matemático
L=transformada de Laplace
TA=Términos algebraicos necesarios
L-1 = Trasformada inversa de Laplace

- CONTROL DISCRETO(DIGITAL)
SISTEMAS DISCRETOS
En este curso no se establecerán diferencia esntre sistemas digitales y sistemas discretos. Los sistema digitales trabajan con señales digitales cuya característica principal es que solo existen valores de f(k) para instantes de tiempos enteros(1,2,3,4,5…)
La figura 9 representa una señal discreta
La figura 10 representa un diagrama de flujo básico que se seguirá en el curso para simular sistemas continuos en donde:
SD=Sistema discreto
MM=Modelo matemático
Z=transformada zeta
TA=Términos algebraicos necesarios
Z-1 = Transformada inversa de zeta
Figura 7
- PAQUETES COMPUTACIONALES UTILIZADOS EN SIMULACIÓN Y EN CONTROL AUTOMÁTICO
La Simulación como proceso experimental: experimentos y ordenadores
La práctica de la simulación es una técnica que no realiza ningún intento especifico para aislar las relaciones entre variables particulares, antes bien adopta un punto de vista global desde el que se intenta observar como cambian conjuntamente todas las variables del modelo con el tiempo. En todo caso, las relaciones entre las variables deben obtenerse a partir de tales observaciones. Esta concepción caracteriza la simulación como una técnica experimental de resolución de problemas, lo que comporta la necesidad de repetir múltiples ejecuciones de la simulación para poder entender las relaciones implicadas por el sistema, en consecuencia el uso de la simulación en un estudio debe planificarse
como una serie de experimentos cuyo diseño debe seguir las normas del diseño de experimentos para que los resultados obtenidos puedan conducir a interpretaciones significativas de las relaciones de interés.
La simulación con computador es por lo tanto una técnica que realiza experimentos en un computador con un modelo de un sistema dado. El modelo es el vehículo utilizado para la experimentación en sustitución del sistema real. Los experimentos pueden llegar a tener un alto grado de sofisticación que requiera la utilización de técnicas estadísticas de diseño de experimentos. En la mayor parte de los casos los experimentos de simulación son la manera de obtener repuestas a preguntas del tipo "¿qué pasaría sí?", preguntas cuyo objetivo suele ser evaluar el impacto de una posible alternativa que sirva de soporte a un proceso de toma de decisiones sobre un sistema, proceso que puede representarse esquemáticamente mediante el diagrama de la Figura 8 [22].

Volvemos a encontrar aquí, en la utilización de la simulación, las características de lo que hemos denominado ingeniería de sistemas, es decir una visión globalizadora que utiliza un modelo para combinando elementos de análisis y diseño entender, por medio de experimentos, cómo un sistema existente funciona, o cómo puede funcionar un sistema planeado, y prever cómo las modificaciones del sistema pueden cambiar su comportamiento.
La simulación, y los experimentos de simulación, se convierten así en una herramienta de análisis de sistemas, para entender cómo opera un sistema existente, o cómo puede operar uno propuesto. La situación ideal, en la cual el investigador realizaría los experimentos sobre el sistema real es sustituida por una en la que el investigador construye un modelo del sistema y experimenta sobre él mediante la simulación, utilizando un ordenador, para investigar el comportamiento
del modelo e interpretar los resultados en términos del comportamiento del sistema objeto del estudio.
Al tratar algunos problemas del mundo real, el modelo resultante puede ser tan complejo o grande que no es posible o práctico desarrollar. De manera alternativa, aplicar una técnica matemática existente puede requerir supuestos adicionales que no son aplicables o realistas.
En tales casos, un enfoque alternativo sería usar una técnica de la ciencia informática: la simulación por computadora. Como el término indica, con esta técnica, se diseña y construye un modelo de computadora que imita el argumento real del problema. Entonces usa el modelo para aprender cómo se comporta el sistema, formulándose preguntas del tipo: "¿qué sucedería si...?”. Por ejemplo, podría construir un modelo de computadora para simular lo siguiente:
