lunes, 10 de mayo de 2010

VARIABILIDAD DEL PROCESO

1.- DEFINICION: son cambios inevitables o imperceptibles que modifican el proceso que afectan al producto qu se produce o al servicio que se ofrece.

“El enemigo de todo proceso es la variación". Un administrador exitoso es aquel que logra controlarla. La teoría de la variabilidad es una de las cuatro que el Dr. Deming propuso a los japoneses dentro de su filosofía del Conocimiento Profundo, otra teoría que complementa la anterior es la "teoría de la causalidad", en donde plantea que todo efecto tiene una causa, todo defecto también. El control de la variación, solo puede darse en sus causas, principalmente en el control de su causa raíz.

La problemática encontrada es que se acepta que hay problemas con la variación, pero no hay interés en estudiar el porqué se produce y ni cómo medir esa variabilidad.

La desviación estándar es muy importante pues es una de las formas más sencillas de controlar la variabilidad, llámese presupuestos, ventas, productos, tiempos de atención y para todo el nuevo conjunto de indicadores que están de moda.

Por medio de la desviación estándar se pueden analizar encuestas a clientes y determinar que tan concluyentes son las respuestas, se puede inferir la probabilidad de que se alcancen las metas, que los productos estén fuera de especificación, que un empleado llegue tarde, que un estudiante no logre la nota mínima etc.

2.- IMPORTANCIA DE LA VARIABILIDAD: es de mucha importancia, quizá mas de la que nos podemos imaginar, pues la variabilidad afecta al producto. La variabilidad es requerida para modificar el proceso cuando se desea obtener resultados distintos ya sea para mejorar o corregir un proceso que requiera ajuste, simplemente es importante por que afecta a el producto.

El operario actúa dentro de lo que el proceso le permite.




Esto lleva a plantear uno de los mejores beneficios en el control de la variación: definir cuándo ésta es propia del proceso, algo normal, originada por causas normales o comunes y cuando obedece a causas anormales o externas. Si se entiende el concepto de variabilidad y se mide por medio de la desviación estándar se pueden establecer los límites normales de variación. (Usualmente más menos 3 desviaciones estándar), una vez fijados esos límites se puede entregar con toda tranquilidad el proceso a manos de los subalternos, para que ellos se auto controlen, tal y como recomienda la filosofía del "empowerment". Si los colaboradores no entienden cómo controlar la variabilidad de un proceso, no hay procedimiento o instrucción que lo salve, aunque estén certificados. De nada sirven los premios y los castigos si un proceso está variando dentro de sus causas normales. El premio o el castigo se convierten en una causa anormal, ajena al proceso, en donde luego que pasa su efecto, se regresa al estado anterior.

3.- PRINCIPIO DE VARIABILIDAD DEL PROCESO: en un proceso de producción, el principio de variabilidad es inevitable, a pesar de que en este proceso se lleve a cabo la misma operación, el mismo método de trabajo, la misma herramienta, la misma maquinaria e inclusive el mismo operador nunca existirán dos artículos iguales. Tal vez a simple vista sean iguales, incluso al sacar la mediciones de cada pieza, peo no son completamente iguales, aunque para el caso sean útiles ambas. Esto se debe a la variabilidad, es imprescindible la ocurrencia de que exista variabilidad, pero si puede ser controlada, tal vez no de forma perfecta pero si lo suficiente para cumplir con las expectativas requeridas. La estadística como la vida, nos ha demostrado que no hay dos cosas exactamente iguales, inclusive los dos ojos de una persona o bien dos cabellos de una misma cabeza.
Pero además nos ha demostrado la estadística que las variaciones de un producto o un proceso pueden medirse con lo cual podemos determinar el comportamiento del proceso o el lote de productos o los tiempos de atención en el servicio.
Las mediciones obtenidas de un proceso o un lote de productos varían según una figura bien definida, que en procesos normales tiene forma de campana, ya que generalmente de esas mediciones un buen numero de ellas tiende a agruparse alrededor de su valor promedio con lo cual la forma de la curva puede ser calculada. Esto es lo que se conoce como una distribución normal en donde la frecuencia de las mediciones va disminuyendo hacia los extremos conforme se va alejando del promedio. Adicionalmente existen otra serie de estadísticos que podrían utilizarse para el control de la variación, el promedio correctamente utilizado es importante, al igual la moda y la mediana, así como el rango, pero no hay que ser tan ambiciosos. Hoy día cuando la mayoría de las empresas se administran por promedios, se recuerda la anécdota del personaje aquél que se ahogó en un río con un promedio de metro y medio de profundidad.

4.- TIPOS DE VARIABILIDAD: es común que la producción de un producto cambie constantemente, pero existen dos tipos de variabilidad que se perciben en esta serie de cambios, la variabilidad identificable y la aleatoria.

* Identificable: esta originada por factores que son identificables; esta variabilidad no presenta un comportamiento estadístico y, por tanto, no son previsibles las salidas. La organización debe identificar las estas causas y eliminarlas como paso previo a poner el proceso bajo control; ejemplos de estas causas son roturas de herramientas, averías de maquinas, errores humanos, cambios err6neos de material, fallos en los sistemas de control, etc.

* Aleatoria: está originada por factores aleatorios (desgaste de piezas, mantenimiento, personas, equipos de medida, etc.); en este caso la variabilidad tiene un comportamiento estadístico y es predecible, y se puede ejercer un control estadístico sobre el mismo.

5.- CAUSAS DE VARIACION: las causas por las que en una operación se presenta la variabilidad son: Medio ambiente.- pues este puede tergiversar el tiempo y la calidad del producto o servicio. Cambio de operación.- este tipo de factores provocan variabilidad, pues en ocasiones el trabajador debe adaptarse a esta forma de trabajo o en ocasiones no le agrado o simplemente le parece incomodo. Esto retrasa la producción.

6.- TIPOS DE CAUSAS DE OPERACIÓN: estas son las causas comunes y las especiales.

Las causas comunes son: El punto crítico al controlar procesos es comprender si la variación es debida a causas comunes o especiales. Esto es crítico porque la estrategia para tratar las causas comunes es diferente que la usada para tratar causas especiales. El problema fundamental es que la mayoría de las veces se trata toda variación como si ésta fuera especial. Si hace esto, solo provocará una mayor cantidad de variación, defectos y errores.
Por causas comunes de variación se entienden aquellas fuentes de variación en un proceso que están bajo control estadístico. Esto significa que todas las mediciones se encuentran dentro de los límites de variación normal, los cuales se determinan sumando y restando tres desviaciones estándar al promedio de esas mediciones.
Las causas comunes de variación se comportan como un sistema constante de causas totalmente aleatorias. Aún cuando los valores individualmente medidos son todos diferentes, como grupo, ellos tienden a formar un patrón que puede describirse como una distribución.
Cuando en un sistema sólo existen causas comunes de variación, el proceso forma una distribución que es estable a través del tiempo y además predecible.
Conocer que un sistema solo está variando por causas comunes es normalmente simple a través de técnicas estadísticas. Sin embargo, identificar esas causas requiere un análisis más detallado por parte de quienes operan el sistema. La solución o eliminación de estas causas comunes normalmente requiere la intervención de la gerencia para tomar acciones sobre el sistema o proceso como un todo, ya que las variaciones comunes son propias o inherentes a cada proceso.

Las causas especiales son: Las causas especiales de variación frecuentemente son llamadas causas asignables. Se refiere a cualquier factor o factores que causan variación en relación con una operación específica o en un momento particular en el tiempo.
Solo si todas las causas especiales de variación son identificadas y corregidas, ellas continuarán afectando la salida del proceso de una manera impredecible. Si hay causas especiales de variación, la salida del proceso no es estable a través del tiempo y por supuesto tampoco es predecible.
Cuando en el proceso existen causas especiales de variación, la distribución del proceso toma cualquier forma y es por lo tanto impredecible.

En general se acepta que el 85% de la variación es originada por causas comunes y el 15% por causas especiales. Un antídoto para reducir la variación es la normalización o documentación del proceso como requiere ISO 9000.

7.- FACTORES COMUNES QUE AFECTAN LA VARIABILIDAD: son principalmente conocemos como las 5m´s:

-materia prima: si no se tiene un buen insumo de materia prima, por obvias razones la calidad del producto menguara. – materiales: los materiales o ingredientes extras también, al igual que con la materia prima deben de ser de primer nivel si es que se desea una producción de buena calidad. – métodos: los métodos de trabajo afectan incluso en la variabilidad que puede ocasionar la operación de elaboración de un producto. – medio ambiente: si el ambiente de trabajo no es el idóneo reduce la capacidad de producción de los obreros. –mano de obra: este factor es muy importante, pues si no se cumple con una mano de obra de calidad el producto, aunque tenga un excelente procedimiento de trabajo no será de buena calidad.

8.- RELACION ENTRE VARIABILIDAD Y CALIDAD: la calidad de un producto depende mucho de la variabilidad. Se establecen límites de variabilidad, esto para evitar deformas, defectos o diferencias entre un producto y otro. Por lo que podríamos concluir que “a menor variabilidad tendremos una mejor calidad en el producto o servicio ofrecido”.

9.- USOS Y APLICACIONES D LA VARIABILIDAD: los usos y aplicaciones que podemos darle a la variabilidad son meramente productivos, pues el hecho de que hagamos alguna especie de cambio para mejorar el proceso de la producción será posteriormente obtener resultados favorables en el producto o servicio. No basta con solo mejorar el proceso, pues eso no nos garantiza que el producto será mejor, sino que nos daremos cuenta de que los cambios realizados en el proceso son verdaderamente positivos cuando obtengamos resultados de la misma índole en el producto, resultados mejores en el producto.

10.- SISTEMA IDEAL DE CONTROL DE VARIABILIDAD: Un sistema ideal de control de variabilidad pretende conocer con una cierta exactitud cómo cada variable del proceso afecta cada característica de calidad de un determinado producto o servicio, además de que le permite, tener la posibilidad de manipular o ajustar esas variables y ser capaces de predecir con exactitud los cambios en las características de calidad con motivo de los ajustes realizados en las variables del proceso.

La variable de un proceso ocasionará cambios en la calidad del proceso, para esto es este sistema, para lograr lo más cercano a la perfección del producto mediante sistemas y métodos de trabajo que proporcionen adelantos productivos a la calidad.
Una vez que se sabe que el producto o servicio responde a las necesidades del cliente la preocupación básica es tener el proceso bajo control. En este punto, en realidad, lo que se busca es reducir la variabilidad que caracteriza al proceso en análisis. En ocasiones, es necesario usar los datos sobre la variabilidad del producto como una medida indirecta de la capacidad del proceso ya que en términos generales el producto habla del proceso.

con respecto a la variabilidad de los procesos, sus causas y sus consecuencias. Hay miles de personas que ingresan todos los días a algunas de estas páginas en busca de esta información, sin embargo, si se le pregunta a muchos de los operadores de equipos y procesos si saben que porcentaje de la variabilidad de su proceso corresponde a la variabilidad normal y qué porcentaje corresponde a la variabilidad originada por causas asignables, las respuestas más probables serían: ¿variabilidad?, ¿porcentaje de variabilidad?, ¿causas asignables?. Lo mismo ocurriría si se les preguntara por las especificaciones de su proceso.

Todas las empresas tienen como fin último obtener la mayor rentabilidad posible, para ello invierten y gastan en tecnología, equipos de última generación, asesorías, ingenierías de distintos tipos, campañas publicitarias, et., etc. Todo ello con el objeto de que el mercado de consumidores los prefiera con la compra de sus productos y servicios. Para obtener las preferencias de los consumidores invierten enormes sumas de recursos para que sus productos sean de buena calidad, atractivos a sus probables clientes, sin embargo, muchas de ellas no tienen bien claro que la calidad es inversamente proporcional a la variabilidad. Esta de hecho es sólo una frase, pero lo que está detrás de ella puede hacer la diferencia entre tener una gran participación en el mercado o tener una participación marginal que hace que las empresas que están en esta condición “vivan” al límite, entre su permanencia en el mercado o sencillamente su desaparición.

Hay empresas que no le dan la debida importancia a los procesos, tienen claro que si sus procesos andan bien sus ganancias también andan bien. Muchas empresas han obtenido valiosos certificados de calidad, tienen normas de calidad, auditorías de calidad, planes y programas de calidad, pero aun no tienen un enfoque correcto del manejo y control de sus procesos y sus operadores de procesos no tienen claro algunos de los conceptos necesarios para mantener sus procesos bajo control.

Sabemos que todos los procesos presentan variabilidad. Hay una variabilidad natural del proceso o variabilidad Random que no puede atribuirse a una causa única y que es el resultado de los efectos combinados de muchas de ellas. Estas causas hacen que al repetir el proceso en condiciones aparentemente análogas, se obtengan resultados distintos. Reducir esta variabilidad no pasa por los operadores de los procesos o la supervisión, es responsabilidad de la administración y para reducirla puede ser necesario cambiar tecnología, equipos o cambiar de proveedores.

Fuentes de variabilidad Random pueden ser:

La variación del material que alimenta el proceso.
El proceso de conversión del material
La medición del producto que sale
Precisión y exactitud de los métodos de análisis

Las otras causas de la variabilidad son las llamadas causas asignables o causas especiales de variación, no son al azar y cuando actúan producen ciertos efectos que pueden ser previsibles o definidos. Las causas asignables sólo intervienen en determinados momentos y la variabilidad que producen se mantiene hasta que dichas causas son eliminadas. La eliminación de las causas asignables sí depende de los operadores de los procesos y su misión consiste en eliminarlas y dejar sólo las causas naturales de variación.

Se dice que un proceso está en estado de control cuando su variabilidad es constante a lo largo del tiempo y por lo tanto es previsible. Cuando el proceso está fuera de control la variabilidad no es constante y sus valores futuros son imprevisibles.

Una de las causas asignables más comunes se produce cuando los operadores de los procesos no están capacitados para distinguir entre la variabilidad producida por causas naturales y la variabilidad debida a causas asignables y actúan sobre el proceso cuando en realidad no es necesario hacerlo.

Veamos el siguiente ejemplo:

Un operador de un equipo recibe a entrada de su turno un horno en condiciones normales de operación y con el proceso bajo control, con todas sus variables críticas dentro de sus respectivas especificaciones y con la media aritmética del proceso coincidiendo con el TARGET o media deseada:





Pasada media hora de iniciado el turno aparece en su sistema de medición en línea una medición (A) que se aproxima al límite de la especificación superior (US) y que corresponde a la variabilidad natural del proceso:





El operador del proceso se pone nervioso y sin darse cuenta que la medición A corresponde a la variabilidad natural del proceso se confunde y piensa que es variabilidad producida por alguna causa asignable, en consecuencia actúa (flecha roja) tratando de evitar que el proceso se salga de las especificaciones:





Al actuar sobre el proceso (cuando no debía) el operador lo que consigue es direccionar el proceso hacia la especificación inferior (LS) y ahora sí, con su accionar, efectivamente lo desplaza fuera de la especificación inferior (en rojo). Además la media del proceso ya no coincide con la media deseada (TA)





Ahora el proceso está fuera de la especificación inferior y aparecen nuevos nuevas mediciones (B) que así lo confirman





El operador al ver esto entra en pánico y decide actuar de nuevo sobre el proceso para volver a centrarlo dentro de las especificaciones y hacer que la media vuelva a coincidir con el TARGET:





Al tratar de volver rápidamente a la situación normal (proceso centrado y dentro de las especificaciones) lo que en realidad consigue es que el proceso vuelva a la situación anterior y nuevamente se salga de las especificaciones, esta vez, de la especificación superior:





El operador, con su actuar y derivado de no saber identificar la variabilidad natural de su proceso y confundirla con alguna causa asignable de origen desconocido, hace que durante su turno el proceso tenga un mal comportamiento. La variabilidad original con que recibió el proceso a la entrada de su turno, con el proceso centrado es:





Como consecuencia de su accionar obtiene una nueva variabilidad, más alta, que no es variabilidad del proceso, es una variabilidad introducida por él por no disponer de las competencias necesarias:





Se debe tener muy presente que cuando un trabajador no hace lo que se espera que haga es consecuencia de una o más de estas tres causas:

No sabe

No quiere

No puede

En cualquiera de estas causas o combinación de ellas la responsabilidad es de la supervisión y de la administración superior de la empresa.

Si el trabajador no sabe (no tiene las competencias necesarias) es responsabilidad de sus supervisores capacitarlo (hacerlo competente)

Si el trabajador no quiere hacer lo que se supone debe hacer, también es responsabilidad de sus supervisores, puesto que deben velar porque sus procesos y personal a cargo tengan al menos una productividad básica normal. Algo se tendrá que hacer con un trabajador que manifiesta este tipo de comportamiento.

Si el trabajador no puede, por supuesto que la responsabilidad sigue siendo de la supervisión. No se puede mantener a un trabajador en un cargo que no va a ser capaz de desempeñar eficazmente. No sólo es un daño que se infringe a la empresa, también es un daño para el propio trabajador que sabe que no es capaz de desempeñarse correctamente.

Veamos en el siguiente gráfico algunas de las consecuencias que pueden ocurrir en este caso:





Es importante recordar que el origen de cualquier análisis de datos, la aplicación del Control Estadístico de Procesos o cualquier otra herramienta de análisis, son los datos, ya sean estos provenientes de servicios de información en línea o de sistemas convencionales de muestreos automáticos o manuales.

En una futura publicación analizaremos la importancia de los datos, su representatividad, su error y los equipos de muestreo que los originan.

miércoles, 14 de abril de 2010

ESTADISTICA INFERENCIAL

Estadística inferencial

El adjetivo de la estadística inferencial es obtener la información acerca de una población partiendo de la información que contiene una muestra. El proceso que se sigue para seleccionar una muestra de denomino muestreo.

Las ventajas que nos brinda el muestreo son:
-Los operativos son menores
-Posibilita analizar un mayor número de variables
-Permite controlar las variables en estudio.

Tipos de muestreo

Probabilístico: cuando el muestreo es proceso para seleccionar una muestra es aleatoria. Es la muestra extraída de una población de tal manera que todo elemento de la población conocida puede ser incluido en la muestra.
A) muestreo aleatorio simple: aquel en que la probabilidad de que un elemento resulto seleccionado se mantiene constante a lo largo de todo el proceso.

Ejemplo:
La extracción de una bola de una urna con devoción de la bola extraída un mismo dato puede resultar muestreando más de una vez. Cada elección no depende de los anteriores.

b) muestro aleatorio sistemático: esta técnica consiste en extraer elementos de la población mediante una regla sistematizadora que previamente hemos creado (sencillamente k elementos). Así enumerada la población se elige (aleatoriamente) un primer elemento base, partiendo de esto se aplica la regla para conseguir el tamaño muestral adecuado.


c) muestreo aleatorio estratificado: consiste en considerar categorías típicas diferentes entre sí estrates que poseen una gran homogeneidad interna (poca varianza interna) y no obstante son heterogéneas entre sí (mucha varianza entre estratos).
La muestra se distribuye y se extrae entre los datos predeterminados según la naturaleza de la población.

Ejemplo: (sexo, lugar geográfico, etc.) dicha distribución recibe el nombre afijación.
-Afijación proporcional: la distribución se hace de acuerdo con el peso (tamaño) relativo de los estratos.
-afijación simple: a cada estrato le corresponde de igual número de elementos muestral.
-Afijación óptima: se tiene en cuenta la posible o previsible disposición de los resultados de modelos que se considera la proporción y la desviación típica.

La distribución de muestreo de x̄

Esta estadística tiene un papel muy importante en problemas de tomas de decisiones para medias poblacionales desconocidas.

Ejemplo:
Se tiene una maquina de llenado para vaciar 500 grs. de cereal en una caja de cartón. Supóngase que la cantidad de cereal que se coloca en cada caja es una variable aleatoria normalmente distribuida con media 500 grs. y desviación estándar es igual a 20 grs. para verificar que el peso promedio de cada caja se mantiene en 500 grs. Se toma una muestra aleatoria de 25 de estas en forma periódica y se pese el contenido de cada caja. El gerente de la planta ha decidido detener el proceso y encontrar la falla cada vez que el valor promedio de la muestra sea mayor de 510 grs. o menor de 490 grs. obtener la probabilidad de detener el proceso.
La probabilidad deseada es igual a 1 menos la probabilidad de que x̄ se encuentre entre 490 y 510 grs; de esa forma
P (detención del proceso) = 1-P (490(-490-500
< Z <
510-500)
4

4

=1P(2.5

=1-P


= 0.0124

La distribución de muestreo de s²

Otra estadística importante empleada para formular inferencias con respecto a las varianzas de la población es la varianza muestral denotada por s² dada que la dispersión es una consideración tan importante como la tendencia central, el significado de s² para formular inferencias de θ² es comparable con el que tiene x para formular inferencias con respecto a µ.
Ejemplo:
Considérese una medición física proporcionada por un instrumento de precisión, en donde el interés recae en la variabilidad de la lectura. Supóngase que, con base de la experiencia la medición es una variable aleatoria normalmente distribuida con media 10 y desviación estándar igual a 0.1 unidades. Si se toma una muestra aleatoria procedente del proceso de manufactura de los instrumentos de tamaño 25, ¿Cuál es la probabilidad de que el valor de la varianza muestral sea mayor de 0.014 unidades cuadradas?
La probabilidad de que s²>0.014, cuando el muestreo se lleva a cabo sobre N (10,0.1) con n=25 es igual a la de P (y>ns²/>θ²).
=P[y>(25)(0.014)/0.01]
=P (y>35)
=1-P (y≤35)
En donde y x²₂₅. De la tabla E del apéndice, el valor de P (y≤35) es, aproximadamente 0.9.

Teorema de límite central

Indica que, en condiciones muy generales, la distribución de la suma de variables aleatorios tiende a una distribución normal o también llamada campana de gauss, cuando la cantidad de variable es muy grande.

Teorema: sea x₁, x₂…xⁿ una muestra aleatorio de una distribución con media µ y varianza y desviación media. Entonces, si n es suficientemente grande, la variable aleatoria
x̄=

Garantiza una distribución normal cuando n es suficientemente grande.

Existen varias versiones del TLC, una de las más simple establece que es suficiente que las variables se sumen sean independientes, idénticamente distribuidas, con valor esperando y varianzas finitas.


La aproximación entre las dos distribuciones es en general mayor en el centro de los mismos que en sus extremos o colas motivo para el cual se prefiere el nombre de teorema del límite central.
Si se obtiene una muestra de una población normal, entonces la media muestra tiene una distribución normal sin importar el tamaño de la muestra.

Ejemplo:
Hay una placa que indica que su capacidad máxima es de 12 personas o 2004 libras. Dicha capacidad se excedería si 12 personas tienen pesos con una x̄ mayor que 2004/12 es igual a 167 libras. Puesto que los hombres suelen pesar más que las mujeres, el peor de los casos implicaría a 12 pasajeros hombres.los pesos de los hombres se distribuyen normalmente, con una media de 172 libras y una desviación estándar de 29 libras.
a) Calcule la probabilidad de que al seleccionar aleatoriamente a un hombre, sea mayor de 167 libras.
b) Calcule la probabilidad de que 12 hombres que se seleccionaron al azar tenga una x̄ mayor de 167 libras (de manera que su peso total sea mayor que la máxima capacidad del teleférico de 2004 libras).
Solución:
Antes de emplear la tabla convertimos el peso de 167 libras a su puntuación z correspondiente:

z=
x-µ

Θ
167-172
29
= -0.17
167 libras es igual a 0.4325
a) por tanto, 1-0.4325=0.5675 la probabilidad de que un hombre se seleccione aleatoriamente pese mas de 167 libras es de 0.5675.

θ
√n
29
√12
b) µx̄ = µ = 172 θ x̄ = =

=8.37158
INTERVALOS DE CONFIANZA

La estimación por intervalo consiste en determinar un par de valores a y b, tales que constituidos en intervalo(a, b); y para una probabilidad 1-α prefijado (nivel de confianza) se verifique en relación al parámetro θ a estimar se cumpla.

Podemos considerar el nivel de confianza (y-x) que hemos prefijado para la expresión anterior como la probabilidad que existe (antes de tomar la muestra) de que el intervalo a construir a partir de la muestra incluya el verdadero valor del parámetro a estimar. Refleja la “confianza” en la “construcción” del intervalo y que este tras concretas la muestra contendrá el valor a estimar. De ahí que en términos numéricos, dicho que el nivel haya de tomar un vaisraltto (0>90, 0, 95, 0,90).

Evidentemente el complementario del nivel de confianza; es decir de nivel de significancia supondrá las probabilidades de cometer el error de no dar por concluido el verdadero valor del parámetro de estimar y dado que se trata de un error posible a cometer, su cuantificación en términos de probabilidad sea muy pequeña (0, 10, 0, 05, 0,003) cuanto mayor sea el nivel de confianza prefijado la amplitud del intervalo de estimación será también mayor y por tanto la estimación será menos precisa.

INTERVALOS DE CONFIANZA PARA µ CUANDO SE MUESTRA UNA DISTRIBUCION NORMAL CON VARIANZA CONOCIDA.
Sea x1, x2…., xn una muestra aleatoria de una distribución normal con media desconocida µ, pero con una varianza θ2 conocida. El interés recae en la construcción de un intervalo de confianza de un (1-α) % sobre µ y en donde α es un numero pequeño, tal que 0<α<1.
Ejemplo:
Los datos que a continuación se dan son los pesos en promedio:506,508,499,503,504,510,497,512,514,505,509,496. Si el peso de cada caja es una variable aleatoria normal con una desviación estándar α=5grs., obtener los intervalos de confianza estimados del 90, 95 y 99%, para la media de llenado de este proceso.
Para un coeficiente de confianza del 90%, α=0.1. El valor z 0.95 se obtiene de la tabla D del apéndice y es igual a 1.645, ya que p (z>1.645)=0.05. Con base en los datos muéstrales, el valor de x̄ es de 503.75 grs. Entonces un intervalo de confianza del 90% para la media del proceso de llenado es
503.75±1.645
5
√16
O de 501.69 a 505.81.

INTERVALOS DE CONFIANZA PARA µ CUANDO SE MUESTREA UNA DISTRIBUCION NORMAL CON VARIANZA DESCONOCIDA.
Se considera el problema de encontrar un intervalo de confianza para µ , cuando se muestra una distribución normal y para la cual no se tiene conocimiento acerca del valor de la varianza.
INTERVALOS DE CONFIANZA PARA LA DIFERENCIA DE MEDIAS CUANDO SE MUESTREAN DOS DISTRIBUCIONES NORMALES INDEPENDIENTES.
Ejemplo:
Se piensa que los estudiantes de licenciatura de contaduría pueden esperar un mayor salario promedio al egresar de la licenciatura, que el que esperan los estudiantes de administración. Recientemente se obtuvieron muestras aleatorias de ambos grupos de un área geográfica relativamente homogénea, proporcionando los datos. Determinar un intervalo de confianza unilateral del 90% para la diferencia entre los salarios promedio para los estudiantes de contaduría y los de administración.
µn -µm al regresar de la licenciatura (suponga que las varianzas θ2A y θ2m son iguales).



A partir de los datos muéstrales dado, pueden calcularse de las siguientes cantidades:
NA=10 NM=10
X̄A=16250 X̄M=15400
S2A=1187222.22 S2M=1352307.69
S 2P=1284772.73
SP=1133.84



INTERVALO DE CONFIANZA PARA θ2 CUANDO SE MUESTREA UNA DISTANCIA NORMAL CON MEDIA DESCONOCIDA


Un proceso produce cierta clase de cojinetes de cola cuyo diámetro interno interno es de 3 cm, selecciona de forma aleatoria 12 de estos cojinetes y se miden sus diámetros internos, su resultado es 3.01, 3.05, 2.99, 2.99, 3.00, 3.02, 2.98, 2.99, 2.97, 2.97, 3.02, y 3.01. Suponiendo que el diámetro es una variable aleatoria normalmente distraída, determina un intervalo de confianza de 99% para la varianza θ2. Dada que la confianza deseada es del 99%, α= 0.01.
De la tabla E del apéndice, los valor cuantiles x20.00511 y x20.995.11 son 2.60 y 26.61, respectivamente. Para determinar el valor calculado de la varianza muestral es de s2=0.0005455. Un intervalo de confianza del 99% para θ2.



Intervalo de confianza para el parámetro de proporción P cuando se muestrea una distribución bionomíal.

El porcentaje de productos defectuosos de un proceso de manufactura es el barómetro más importante para medir l calidad del proceso para manufacturar un producto dado. Ya que un artículo puede estar defectuoso es una variable aleatoria bionomíal, si se supone una productividad constante e independiente.
Ejemplo:

Un fabricante asegura a una compañía que le compra un producto en formula regular, que el porcentaje de productos defectuosos no es mayor que el 5%, la compañía decide comprobar la afirmación del fabricante seleccionado, de su inventario, 200 unidades de este producto y probándola.
¿Deberá sospechar la compañía de la afirmación del fabricante si se descubren un total de 19 unidades defectuosas en la muestra? La sospecha estará apoyada si existe un intervalo de confiabilidad alta, para la cual la proporción P se encuentra completamente a la derecha del valor asegurado 0.05. Se selecciona una confiabilidad del 95% dado que la realización de la variable aleatoria x es x=19 y n=20, el estimado de P es 19/200=0.095.

El cual resulta ser (0.5436, 0.1356). Aparentemente existe una razón para sospechar de la afirmación del fabricante, ya que el intervalo de confianza se encuentra completamente a la derecha del valor asegurado.