[go: up one dir, main page]

0% encontró este documento útil (0 votos)
484 vistas27 páginas

Simulacion TEMA 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 27

INVESTIGACION DE:

TEMA 4:Diseño de la Calidad de la


Simulación

PROFESOR: Ing. Cisneros


Juan Manuel Covarrubias
Ing. Industrial
Fecha: 14/11/2017
Contenido
INTRODUCCION............................................................................................................................................. 3
4.1 Lista de estimadores a obtener de la simulación.................................................................................... 4
4.1.1 Instrumentos de medición ........................................................................................................... 4
4.1.2 Medios de registro de datos ...................................................................................................... 5
4.2. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. ................ 6
4.3 Muestras preliminares de los proyectos aprobados en 3.4.................................................................... 9
4.4 Características estadísticas del estimador líder ...................................................................................... 9
4.4.1 Establecimiento de la precisión ......................................................................................................... 11
4.4.2 Cálculo del número mínimo de observaciones necesarias ............................................................... 13
Método Estadístico ............................................................................................................................ 13
4.4.3 Intervalos de confianza ...................................................................................................................... 19
4.5. Muestras definitivas............................................................................................................................. 21
4.5.1. Estadísticas descriptivas................................................................................................................ 21
4.5.2. Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste de una distribución de
probabilidades continua hipotética (en hoja de cálculo o con paquete estadístico) ............................. 21
4.5.3. Muestras grandes: prueba de Karl- Pearson para ajuste de una distribución de probabilidades
hipotética, discreta o continua (en hoja de cálculo o con paquete estadístico) .................................... 22
4.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. ........................... 23
Sistemas, modelos y simulación ............................................................................................................. 23
Conclusión ................................................................................................................................................... 25
Bibliografía .................................................................................................................................................. 27
INTRODUCCION

Cuando alguien tiene la responsabilidad de conducir un sistema dado, como por ejemplo:
un banco, una ciudad, un sistema de transporte, etc., debe tomar continuamente
decisiones acerca de las acciones que ejecutará sobre el sistema. Estas decisiones
deben ser tales que la conducta resultante del sistema satisfaga de la mejor manera
posible los objetivos planteados. Para poder decidir correctamente es necesario saber
cómo responderá el sistema ante una determinada acción. Esto podría hacerse por
experimentación con el sistema mismo; pero factores de costos, seguridad y otros hacen
que esta opción generalmente no sea viable.
4.1 Lista de estimadores a obtener de la simulación

Definiremos algunas propriedades de los estimadores.

Parámetro. Verdadero valor de una caracterı́stica de interes, denominado por θ, que raramente
es conocido.
Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una m uestra.
Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por: vies(θ̂)
= E(θ ˆ θ) = E(θ̂) − θ

Cuadrado médio del error (ECM). Es dado por:

ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies

1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0


2) Las leyes de los grandes números explican por qué el promedio o media de una muestra
al azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.

4.1.1 Instrumentos de medición

El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las


actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir
de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath,
1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue
vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que
han sido usados más frecuentemente.
4.1.2 Medios de registro de datos

La elección del método depende de la estrategia de recopilación de datos, el tipo de variable, la


precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos entre
una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a escoger
métodos apropiados. Los principales métodos de recopilación de datos son:

 Registros: los registros y licencias son particularmente valiosos para los censos
completos, pero se limitan a variables que cambian lentamente, como el número de
embarcaciones pesqueras y sus características.
 Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método
poco costoso que resulta útil cuando los índices de alfabetización son altos y los
encuestados colaboran.
 Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el
encuestado. Más caros que los cuestionarios, pero mejores para preguntas más
complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos
colaboración.
 Observaciones directas: la realización de mediciones directas es el método más preciso
para todas las variables, como las capturas, pero a menudo resulta caro. Muchos
métodos, como los programas de observación, se limitan a la pesca industrial.
 Presentación de informes: la principal alternativa a la realización de mediciones directas
consiste en pedir a los pescadores y a terceros que presenten informes de sus
actividades. La preparación de informes presupone la alfabetización y requiere espíritu
de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones
directas.

Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:

a- El tipo de investigación que se esté haciendo.

b- El tipo de análisis de datos que vamos a utilizar posteriormente.

c- El problema que queramos estudiar.

d- Los objetivos que pretendamos alcanzar con la investigación.


Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede
utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc.

4.2. Identificación del estimador determinante (estimador líder) del


tamaño de la simulación.

Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le debe
dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin
embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones.

Determinación de condiciones iniciales La determinación de condiciones iniciales para las


variables es una decisión táctica importante en la simulación.

Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el
modelo llega a un estado estable.

Para manejar este problema, los analistas han seguido varios planteamientos como

1) Descartar los datos generados durante las primeras partes de la ejecución,


2) Seleccionar las condiciones iniciales que reducen la duración del periodo de
calentamiento o
3) Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear
cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de
salida esperado. Por lo tanto, en cierto sentido, el analista sesga los resultados. Por otro
lado, una de las únicas características de la simulación es que permite la crítica en el
diseño y análisis de la simulación; por lo que si el analista tiene cierta información que
alberga un problema, se debe incluir.

Determinación de duración de la ejecución La duración de la ejecución de simulación (duración


de la ejecución o tiempo de ejecución) depende del propósito de la simulación.
Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En el
ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado
corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la simulación
durante un periodo establecido como 1 mes, 1 año o una década y ver si las condiciones al final
del periodo son razonables. Un tercer planteamiento es establecer la duración de la ejecución de
modo que se obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis
estadística. Esta alternativa se considera en la siguiente sección.

Desde luego que las conclusiones que se pueden obtener de una simulación dependen del grado
en que el modelo refleja el sistema real, aunque también depende del diseño de la simulación en
un sentido estadístico.

De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis
donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles al
análisis formal a través de los métodos estadísticos inferencia-les. Los procedimientos
estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el
análisis de varianza, análisis de regresión y pruebas t.

En la mayoría de las situaciones, el análisis tiene más información disponible con la cual
comparar los resultados de simulación: datos operativos antiguos del sistema real, datos
operativos del desempeño de sistemas semejantes y la percepción del analista de la operación
del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes
probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por lo
tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real
después de haber implantado los resultados del estudio.

Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el tamaño


muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto mayor sea el número
de individuos.

Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un punto de


vista más riguroso diremos que un estimador es consistente si converge en probabilidad al
verdadero valor del parámetro que queremos estimar.

Ejemplo:
Consideremos el caso de la estimación de la media de una población Normal (μ) y
consideraremos dos estimadores:

 Estimador 1: La primera observación de la muestra (para cualquier tamaño muestral).

 Estimador 2: La media aritmética de las observaciones.

Para observar el comportamiento de ambos estimadores utilizaremos el siguiente programa que


genera automáticamente diez muestras de diferentes tamaños (n = 2; 10 ; 50; 500) procedentes
de una distribución Normal de parámetros (μ = 0; σ = 1). Se tratará, por tanto, de un estudio de
simulación (generamos muestras procedentes de una determinada distribución) para comparar
el comportamiento de ambos estimadores. Recuerda que el verdadero valor del parámetro a
estimar (μ) es cero y que corresponde a la línea central en negro:

1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños
muestrales (n = 2; 10; 50; 500).

2) Haced lo mismo con el estimador 2: media aritmética.

3) Obtened nuevas simulaciones y repetid el estudio anterior.

4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra?

Es evidente que el estimador correspondiente a la primera observación no mejora al aumentar el


tamaño de la muestra. Mientras que la media aritmética converge hacia el verdadero valor del
parámetro (μ = 0) al aumentar el tamaño de la muestra.

En resumen: la primera observación no es un estimador consistente de μ, mientras que la media


aritmética sí que lo es.
4.3 Muestras preliminares de los proyectos aprobados en 3.4

4.4 Características estadísticas del estimador líder

Hay una serie de características deseables en los estimadores para que éstos constituyan una
buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse
como criterios de calidad de los estimadores.

1. Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su


distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de los
valores Ê calculados en cada una de las muestras aleatorias posibles del mismo tamaño.
Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador carece de
sesgo cuando

E(Ê) = Ө

Por ejemplo, la media es un estimador in-sesgado de µ, puesto que se cumple, tal y como
vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que

E( )=µ

En el caso de la varianza, suelen manejarse habitualmente dos estimadores: o

bien, . Para cada uno de ellos, el valor esperado resulta ser:

El segundo de los estimadores posee la característica de ser un estimador in-sesgado de σ2,


razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el
parámetro varianza poblacional.

Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que
tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente
valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida aleatoria
mente.
Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima cada
vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si el tamaño n
se hace indefinidamente grande, los valores de Ê se concentran cada vez más en torno al valor
del parámetro, hasta que con un tamaño

2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es
consistente si cuando n tiende a infinito se cumple

E(Ê) = Ө; var(Ê) = 0

La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones
anteriores. Es decir.

También se comprueba que los dos estimadores de la varianza, presentados en el apartado


anterior, resultan ser estimadores consistentes de σ2.

3. Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para


un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador Ê2 si
se cumple

var(Ê1) < var(Ê2)

Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas muestras
a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente que la
mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que Sn2.

4. Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la


información de la muestra. Por ejemplo, al calcular el estimador del correspondiente
parámetro poblacional, utilizamos la fórmula:

para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con los
estimadores Sn-12 y Sn2 de la varianza. Todos ellos pueden ser considerados estimadores
suficientes de los respectivos parámetros.
4.4.1 Establecimiento de la precisión

Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una variable ficticia,
XH , de la siguiente forma:

De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1- de la
variable XNr . La función de densidad teórica -desconocida- de Xt asigna una probabilidad pH al
intervalo H. Esto significa que:

Producir T replicaciones del vector y, implica disponer de una muestra de T “observaciones" de


la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño T de la variable
Xy .Esta variable sigue una distribución binaria de parámetro pH , así que la suma de las T
observaciones de XH , ZH = XH^ +. ,.+ X y T , sigue una distribución binomial b(pH ,^. Es oportuno
aquí hacer una adaptación al presente contexto del concepto de estimación precisa de Finster{
1987) Definición 1. ,ZH /T es una estimación precisa de pN con nivel de imprecisión A y confianza
1-a (can 0< cx < 1), si

EI conjunta de precisión [-A, A] es el conjunto de errores de simulación aceptables. En lo que


sigue a continuación se intentará determinar cuál es el número de replicaciones mínimo para
obtener una estimación de pH can nivel de imprecisión fijo A y confianza 1-a. EI teorema de
Moivre (ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b(pH ,1), b(pH ,2),. ..,b(pH
, 7^, es asintóticamente normal N{T pH ,T p^ [1- pH ]) de manera que si T pH > 1 S se suele
tomar como válida la siguiente aproximación a la distribución de ZH :
entonces, para la frecuencia binomial, ZH IT, se tiene :

Si t^ es el cuantil aJ2 correspondiente a la cola derecha de la distribución N(0,1),


4.4.2 Cálculo del número mínimo de observaciones necesarias

El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la etapa


de cronometraje, dado que de este depende en gran medida el nivel de confianza del estudio de
tiempos. Este proceso tiene como objetivo determinar el valor del promedio representativo para
cada elemento.

Los métodos más utilizados para determinar el número de observaciones son:

 Método estadístico
 Método tradicional
 Método Estadístico

MÉTODO ESTADÍSTICO

El método estadístico requiere que se efectúen cierto número de observaciones preliminares (n'),
para luego poder aplicar la siguiente fórmula:

NIVEL DE CONFIANZA DEL 95,45% Y UN MÁRGEN DE ERROR DE ± 5%

Siendo:

n = Tamaño de la muestra que deseamos calcular (número de observaciones)


n' = Número de observaciones del estudio preliminar
Σ = Suma de los valores
x = Valor de las observaciones.
40 = Constante para un nivel de confianza de 94,45%
Ejemplo

Se realizan 5 observaciones preliminares, los valores de los respectivos tiempos transcurridos


en centésimas de minuto son: 8, 7, 8, 8, 7. Ahora pasaremos a calcular los cuadrados que nos
pide la fórmula:
8 64 8
7
7 49
8
8 64
8
8 64 7
7 49

Σx = 38 Σx² = 290
N' = 5

Sustituyendo estos valores en la fórmula anterior tendremos el valor de n:

Dado que el número de observaciones preliminares (5) es inferior al requerido (7), debe
aumentarse el tamaño de las observaciones preliminares, luego recalcular n. Puede ser que en
recálculo se determine que la cantidad de 7 observaciones sean suficientes.

Este método consiste en seguir el siguiente procedimiento sistemático:

1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5
lecturas sí los ciclos son > 2 minutos, esto debido a que hay más confiabilidad en
tiempos más grandes, que en tiempos muy pequeños donde la probabilidad de
error puede aumentar.

2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del tiempo
mayor el tiempo menor de la muestra:

R (Rango) = Xmax - Xmin

1) Calcular la media aritmética o promedio:

Siendo:

Σx = Sumatoria de los tiempos de muestra


n = Número de ciclos tomados

Hallar el cociente entre rango y la media:

2) Buscar ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor


correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número
de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de
precisión de ± 5%.
3) Bus car ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número
de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de
precisión de ± 5%.

Ejemplo

Tomando como base los tiempos contemplados en el ejemplo del método estadístico,
abordaremos el cálculo del número de observaciones según el método tradicional.

En primer lugar como el ciclo es inferior a los 2 minutos, se realizan 5 muestras adicionales (6,
8, 8, 7, 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. Las observaciones son las
siguientes:
8
7
8
8
7
6
8
8
7
8

Σx = 75

8
7
8
8
7

Se calcula el rango:

R (Rango) = 8 - 6 = 2

Ahora se calcula la media aritmética:

Ahora calculamos el cociente entre el rango y la media:

Ahora buscamos ese cociente en la tabla y buscamos su intersección con la columna de 10


observaciones:
Tenemos entonces que el número de observaciones a realizar para tener un nivel de
Confianza del 95% según el método tradicional es: 11

Al adicionar los 5 tiempos y utilizar el método estadístico tenemos un número de observaciones


igual a: 12.8 aproximadamente 13.

Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y que la
elección del método se deja a criterio del especialista.
4.4.3 Intervalos de confianza

Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la muestra, que


posiblemente incluya el valor de un parámetro de población desconocido. Debido a su naturaleza
aleatoria, es poco probable que dos muestras de una población en particular generen intervalos
de confianza idénticos. Sin embargo, si usted repitiera muchas veces su muestra, un determinado
porcentaje de los intervalos de confianza resultantes incluiría el parámetro de población
desconocido.

En este caso, la línea negra horizontal representa el valor fijo de la media desconocida de la
población, µ. Los intervalos de confianza azules verticales que se sobreponen a la línea
horizontal contienen el valor de la media de la población. El intervalo de confianza rojo que está
completamente por debajo de la línea horizontal no lo contiene. Un intervalo de confianza de
95% indica que 19 de 20 muestras (95%) de la misma población generarán intervalos de
confianza que contendrán el parámetro de población.

Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por
ejemplo, un fabricante desea saber si la longitud media de los lápices que produce es diferente
de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y determina que la
longitud media de la muestra es 52 milímetros y el intervalo de confianza de 95% es (50,54). Por
lo tanto, usted puede estar 95% seguro de que la longitud media de todos los lápices se
encuentra entre 50 y 54 milímetros.

El intervalo de confianza se determina calculando una estimación de punto y luego determinando


su margen de error.

Estimación de punto

Este valor individual estima un parámetro de población usando los datos de su muestra.
Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que sin importar
lo bien que esté diseñado su estudio, su estimación está sujeta a error de muestreo aleatorio. El
margen de error cuantifica este error e indica la precisión de su estimación.

Usted probablemente ya entiende el margen de error, porque está relacionado con los resultados
de las encuestas. Por ejemplo, una encuesta política podría indicar que el nivel de popularidad
de un candidato es de 55% con un margen de error de 5%. Esto significa que el nivel de
popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%.

Para un intervalo de confianza bilateral, el margen de error es la distancia desde el estadístico


estimado hasta el valor de cada intervalo de confianza. Cuando un intervalo de confianza es
simétrico, el margen de error es la mitad del ancho del intervalo de confianza. Por ejemplo, la
longitud media estimada de un árbol de levas es 600 mm y el intervalo de confianza oscila entre
599 y 601. El margen de error es 1.

Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro podrá estar
usted del valor de la estimación de punto.
4.5. Muestras definitivas
4.5.1. Estadísticas descriptivas
4.5.2. Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste de una distribución
de probabilidades continua hipotética (en hoja de cálculo o con paquete estadístico)

Desarrollada en la década de los treinta del siglo XX, esta prueba permite —al igual que
la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie de
datos. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente se
puede aplicar al análisis de variables continuas. El procedimiento general de la prueba
es:

1. Obtener al menos 30 datos de la variable aleatoria a analizar.


2. Calcular la media y la varianza de los datos.
3. Crear un histograma de m= vn intervalos, y obtener la frecuencia observada en
cada intervalo 0¡.
4. Calcular la probabilidad observada en cada intervalo PO¡ =0¡ / n , esto es, dividir
la frecuencia observada O. entre el número total de datos, n.
5. Acumular las probabilidades PO.para obtener la probabilidad observada hasta el
i-ésimo intervalo, POAr
6. Establecer de manera explícita la hipótesis nula, para esto se propone una
distribución de probabilidad que se ajuste a la forma del histograma.
7. Calcular la probabilidad esperada acumulada para cada intervalo, PEA¡, a partir
de la función de probabilidad propuesta.
8. Calcular el estadístico de prueba.

c = máx |PEA¡ - PÚA, \ i = 1,2,3,..., k,..., m

9. Definir el nivel de significancia de la prueba a, y determinar el valor crítico de la prueba,


Da n (consulte la tabla de valores críticos de la prueba de Kolmogorov- Smirnoven la
sección de apéndices).

10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de prueba es


menor que el valor crítico no se puede rechazar la hipótesis nula.
4.5.3. Muestras grandes: prueba de Karl- Pearson para ajuste de una distribución de
probabilidades hipotética, discreta o continua (en hoja de cálculo o con paquete
estadístico)
El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error
estándar de ajuste como criterio de selección en el análisis de frecuencias. Dicho
estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-
Von Mises y Anderson-Darling. Las distribuciones elegidas para el propósito de comparar
estos estadísticos fueron la gamma, Weibull, Gumbel, log-normal y log-logística. Los
resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de
más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error
estándar de ajuste. El empleo de las pruebas de Kolmogorov-Smirnov y Cramer-Von
Mises o pruebas Karl-Pearson es del todo recomendable en hidrología, ya que para
obtener un desempeño aceptable se necesitan muestras más grandes de las que
normalmente se tienen en esta disciplina.

El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad


de ocurrencia de dichos eventos. A menudo, el periodo de retorno del evento de diseño
de una obra hidráulica excede el periodo de las observaciones y deben hacerse
extrapolaciones a partir de los valores registrados. Una forma de extrapolar los datos
históricos consiste en emplear el método gráfico, que requiere de un analista
experimentado y presenta la desventaja de la subjetividad. Una técnica más objetiva es
encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos
y usar esta función para la extrapolación.

Algunas de las distribuciones de probabilidad usadas en hidrología son normal, log-


normal, gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000;
Aparicio-Mijares, 2005). Un problema importante en el análisis de frecuencias es la
selección de una distribución de probabilidad apropiada para los datos observados. Este
problema no es exclusivo de la hidrología, también se observa en otras áreas, como la
confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron un criterio
de selección de distribuciones basado en estadísticos invariantes bajo transformaciones
de escala.
4.6 Simulación de los comportamientos aleatorios de los proyectos y su
verificación.

Simular el funcionamiento de distintos tipos de instalaciones o procesos. A la instalación o


proceso que se pretende estudiar se le denomina sistema y para poderlo analizar se realiza una
serie de supuestos sobre su funcionamiento. Estos supuestos, que normalmente se expresan
mediante relaciones matemáticas o relaciones lógicas, constituyen un modelo del sistema. Este
modelo se utiliza para comprender y prever el comportamiento del sistema real.

Si las relaciones matemáticas o lógicas que comprende el modelo son sencillas, entonces será
posible utilizar un procedimiento analítico para obtener una solución o respuesta exacta sobre
las características de interés del sistema analizado. No obstante, si las relaciones son complejas,
puede ocurrir que no se pueda evaluar analíticamente el problema. En este caso, será necesario
acudir a la simulación del sistema, evaluando numéricamente el modelo y analizando los datos
obtenidos para estimar las características de dicho sistema.

Sistemas, modelos y simulación

Un sistema se puede definir como un conjunto de elementos unidos por relaciones de interacción
o interdependencia. En el ámbito de los sistemas productivos estos elementos normalmente
tienen un objetivo común.

Los elementos que forman parte del sistema vienen condicionados por el objetivo del estudio que
se pretende realizar, ya que un sistema definido para un estudio determinado puede ser una
parte de un sistema más amplio definido para otro estudio particular. Por ejemplo, si se quiere
determinar cuál es el número más adecuado de operarios y máquinas en la sección de
mecanizado de una empresa que tiene una determinada cartera de pedidos, estos elementos
serán los que formen parte del sistema a analizar, mientras que, si lo que se desea es estudiar
la capacidad productiva de la empresa, los elementos mencionados anteriormente sólo serán
una parte del sistema. A ellos habrá que añadir montaje, embalaje, almacenaje, etc.

Se pueden realizar las siguientes definiciones:


− Atributo: propiedad de un elemento del sistema.

− Actividad: todo proceso que provoque un cambio en el sistema.

El estado del sistema en un instante de tiempo determinado se puede definir como la descripción
de todos los elementos, atributos y actividades en dicho instante. Por ejemplo, el estado de una
oficina bancaria en un instante se podría definir mediante el número de cajeros en él, el número
de clientes, el instante de llegada de cada cliente y el tipo de operación que desea realizar cada
uno. Este conjunto constituiría las variables de estado del sistema.
Conclusión

El proceso de validación de un modelo de simulación siempre está sujeto al experimento


frente al que se vaya a realizar el estudio. Por lo que no se puede asegurar estrictamente
si el modelo es válido o no, habrá que señalar siempre el experimento frente al que es
válido o no. Sirve por lo tanto como una guía en el diseño de experimentos. Para realizar
la validación de cualquier modelo de simulación, no es necesario ser un experto del
sistema que el modelo represente, bastaría con tener ciertos conocimientos estadísticos
y estar apoyado por en el sistema.
Bibliografía
http://ocwus.us.es/metodos-de-investigacion-y-diagnostico-en-educacion/analisis-de-datos-en-
la-investigacion-educativa/Bloque_II/page_40.htm/

http://revistas.utp.edu.co/index.php/revistaciencia/article/view/3137

http://www.iol.etsii.upm.es/arch/simulacion.pdf

file:///C:/Users/El%20Kostra/Downloads/693-388-140_10.pdf

https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/estudio-de-
tiempos/c%C3%A1lculo-del-n%C3%BAmero-de-observaciones/

http://www.didacticaambiental.com/revista/numero10/6.-.pdf
http://support.minitab.com/es-mx/minitab/17/topic-library/basic-statistics-and-
graphs/introductory-concepts/confidence-interval/confidence-interval/

También podría gustarte