La mariposa siempre recordara que fue gusano =)

Proceso de variabilidad

Escrito por zuliixchavarria 11-05-2010 en General. Comentarios (0)

v  Procesode variabilidad

v  Técnicaestadística para monitorear un proceso y verificar su estabilidad con cambiospequeños o imperceptibles que suceden en el proceso y afectan directamente alproducto.

v  Todala variación del objeto expuesto de los procesos de la fabricación y de lamedida.

v  Importanciade la variabilidad

v  Porqueafecta al producto directamente, y en segundo plano a la economia de laempresa.

v  Ejemplos

o  Por ejemplo, cuando tomamos datos de lamuestra sobre la salida de un proceso, tal como dimensiones, grueso del óxido,o resistencia crítico, observamos que todos los valores no son iguales. Esto dalugar a una colección de valores observados distribuidos sobre un cierto valorde la localización.

o  En una empresa se fabrican pantalones demezclilla, pero esos pantalones ninguno tiene los mismos defectos, unos salencon error de costura, otros con error de talla, etc.

o  Por ejemplo, aunque las personas intentenhacer un buen trabajo, si un proceso cuenta con maquinaria mal calibrada, losmateriales son deficientes y las personas no cuentan con el entrenamientodebido, será muy difícil reducir la variabilidad común, cambiar al personal noserá la solución.

v  Principiode la variabilidad del proceso

v  Enel estudio de la variabilidad, consciente en que, aunque los diámetros de lasdistintas piezas sean distintos, si se mantiene constante el sistema de causasque producen la variabilidad en las entradas, las frecuencias con que seobservan los distintos valores de los diámetros tienden a estabilizarse en unaforma de distribución predecible.

“Noexisten dos artículos que tengan las mismas medidas”

v  Ejemplos:

o  Enuna empresa se fabrican tornillos de ciertas medidas, pero la maquinaria estáfallando y no todas las piezas de la misma medida salen igual.

o  Enun restaurante se hace el mismo menú todos los días, pero no siempre sabe igualo es la misma presentación que el dia anterior ya que los empleados cambian deturno.

o  Enuna fabrica textil se desea tener el mismo color de pantalones, pero como lamateria prima no se obtiene de la misma fuente los colores varian.

v  Tiposde variabilidad

v  Variabilidad aleatoria.- Sedeben a una amplia variedad de causas que están presentes en forma permanente yson de difícil identificación. Cada una de estas causas es un componente muypequeño en la variabilidad total del proceso y la suma de su contribución esmedible. Son inherentes al proceso y poco controlables por los operadores delos procesos. Su eliminación o reducción requiere de una decisión gerencialpara la asignación de recursos para mejorar el sistema. (Remplazo de equipos,nuevas tecnologías, etc.)

v  Ejemplos

o  Por ejemplo, una pieza puede ser el resultadode una secuencia de operaciones de laminado realizadas en diferentes máquinas.El profesional dedicado a la calidad debería investigar si alguna de lasmáquinas está generando más variaciones que otra en una determinada dimensión.Sin embargo, examinar la variación de las piezas no es suficiente. Se necesitandiagramas de control para determinar si el proceso se ubica dentro del controlestadístico.

o  Pues son adaptaciones, variabilidad podemosver el caso del oso, una variedad de oso emigro al polo norte y por el ambientelos osos claros eran los que sobrevivían porque se camuflageaban con elambiente y cazaban mas animales, así que dé el color más claro paso a blanco,ya que fue una adaptación ósea se una variabilidad genética, ya que los genesque determinaban el color blanco fueron los que se fueron pasando a lasgeneraciones posteriores.

o  También está el caso de las polillas de Inglaterra,son las polillas blancas pardas y negras, en principio las blancas prevalecían,pero con la revolución industrial las negras sobrevivieron para acostumbrarseal ambiente que estaba lleno de hollín del carbón ya si se camuflageaban deaves depredadoras, aunando alas blancas, reduciendo su número, cambiando lafrecuencia genética de la población original.

 

v  Variabilidad Identificable.-se pueden individualizar y controlar hasta un mínimo valor económico. Se diceque un proceso está bajo control estadístico cuando su variabilidad essolamente el resultado de causas aleatorias.

o  Ejemplos

o  Por ejemplo, la variabilidad en la dimensióny resistencia de un ladrillo artesanal es mayor que en uno industrial.

o  Por ejemplo, la fabricación de comida de lacalle a comida de un restaurante varía tan solo en el precio, como también enla calidad de los insumos.

o  Por ejemplo en la industria textil hay muchadiferencia el lugar de elaboración como podríamos dar el ejemplo de México a unpaís de Centroamérica varia por la calidad del producto y el costo del recursohumano.

 

v  Causasde la variación.-  se dividen en dos

v  Causas comunes (aleatorias): Seentienden aquellas fuentes de variación en un proceso que están bajo controlestadístico. Esto significa que todas las mediciones se encuentran dentro delos límites de variación normal, Las causas comunes de variación se comportancomo un sistema constante de causas totalmente aleatorias. Conocer que unsistema solo está variando por causas comunes es normalmente simple a través detécnicas estadísticas.

v  Ejemplos:

o  Por ejemplo, conducimos un automóvil y elvolante vibra cuando viajamos. La vibración es una causa común de variación, elsistema funciona bajo ciertas variaciones que son comunes a su funcionamiento,variaciones tolerables.

 

o  Por ejemplo conducimos un automóvil ysufrimos una pinchadura de una llanta, el vehículo comienza a bajar en zig-zagy de repente todo se hace peligroso: el sistema se volvió inestable y está apunto de colapsar.

 

o  Uno ejemplos de causa comunes serian losmateriales recibidos inadecuados a los requisitos, condiciones de trabajoincomodas, y la mala supervisión.

 

v  Las causas especiales de variación(asignables o identificables): Frecuentemente sonllamadas causas asignables. Se refiere a cualquier factor o factores que causanvariación en relación con una operación específica o en un momento particularen el tiempo.

v  Solosi todas las causas especiales de variación son identificadas y corregidas,ellas continuarán afectando la salida del proceso de una manera impredecible.Si hay causas especiales de variación, la salida del proceso no es estable através del tiempo y por supuesto tampoco es predecible.

v  Ejemplos

o  Materia prima descompuesta

o  Rotura de alguna pieza interna de una máquina

o  Fuga de gas de algún ducto en el taller

o  Operario accidentado

 

v  Factorescomunes que afectan a la variabilidad.-   

o  Lasllamadas 5 ms

o   Conforme al presente método seprocede a analizar el problema y a definir las posibles causas, generalmenteeste proceso se realiza con el grupo de trabajo encargado de la resolución delproblema.

o  Para la aplicación de este método se sigue unorden para considerar las causas de los problemas, partiendo de la premisa queestas, están agrupadas según cinco criterios y por ello se denomina de las 5 M

v  • Mano de Obra.- Notoda la gente tiene la misma habilidad ni entrenamiento, descuidos u olvidos dela gente, (experiencia, Conocimientos, estado físico, emocional, etc.).

v  • Métodos.- Conformeva aumentando la demanda es necesario cambiar a métodos más efectivos y rápidos, (Inspector, equipo de medición).

v  • Materiales.- Notodos los materiales son idénticos, (la materia prima es el producto terminadode otros por tanto tiene variabilidad).

v  Medio Ambiente.- Elclima para ir a laborar, (Temperatura, luz, humedad, etc.).

v  • Máquinas.- Desajustesy desgastes de las maquinas, (antigüedad, Desgaste, Estado de la maquinaria,fluctuaciones eléctricas, etc.).

v  Ejemplos:

o  Medir las características claves de losinsumos.

o  Las condiciones de operación de los equipos ylas variables de salida de los diferentes subprocesos.

o  Que no toda la gente cumple responsabilidadde ir todos los días, esto retrasa la producción al no haber una mano de obrasegura.

 

 

v  Relaciónentre variabilidad y calidad.-

v  Laprimera tarea que debemos hacer es producir mercancía de calidad para que loscompradores compren y sigan comprando.

v  Lavariación en calidad de una unidad de producto a otra se debe generalmente a ungran número de causas, por lo que ningún producto o servicio es exactamenteigual a otro aunque sean realizados por la misma compañía, maquinaria y/opersonas.

v  Y el producto entre menos variabilidadtenga, más calidad hay.

v  Ejemplos

o  El diámetro de una pieza de metal o el tiempode ciclo de un proceso de servicio.

o  El porcentaje de productos con defectos o laproporción de clientes insatisfechos.

o  Por ejemplo en una refaccionaria se vendieron30 baterías de esas 30 se registro el 30% de insatisfacción los cuales dijeronque las diferentes causas que tuvieron con las baterías lo que quiere decir queno se tuvo el mismo problema en todas las baterías.

 

v  Usosy aplicaciones de la variabilidad

o  Operaciones del proceso.

o  Control de calidad.

o  Recurso humano.

o  Insumos (materia prima).

o  Proveedores.

o  Alta dirección de la empresa.

 

v  Sistemaideal de control de variabilidad

v  Unsistema ideal de control de un proceso pretende conocer con una ciertaexactitud cómo cada variable del proceso afecta cada característica de calidadde un determinado producto o servicio, además de que le permite, tener laposibilidad de manipular o ajustar esas variables y ser capaces de predecir conexactitud los cambios en las características de calidad con motivo de losajustes realizados en las variables del proceso.

v  Unavez que se sabe que el producto o servicio responde a las necesidades delcliente la preocupación básica es tener el proceso bajo control. En este punto,en realidad, lo que se busca es reducir la variabilidad que caracteriza alproceso en análisis. En ocasiones, es necesario usar los datos sobre lavariabilidad del producto como una medida indirecta de la capacidad del procesoya que en términos generales el producto habla del proceso.

v  Ejemplo:

o  Hay equipos que traen incorporado un sistemapara CEP con displays de las gráficas de control, y existen interfaces pararecolectar datos que utilizan un paradigma de “rojo” para parar y “verde” para seguir, demanera tal de alertar a los operadores sobre situaciones de “bajo control“ o “fuera de control”.









Inferencia Estadistica

Escrito por zuliixchavarria 15-04-2010 en General. Comentarios (0)
Definiciones

Espacio de lamuestra: (Ω) es el conjunto de los posibles valores de un experimento

Evento: (A) es elconjunto de valores tomados por el experimento dentro del espacio de lamuestra. El evento complementario es Ac ≡ Ω − A

Variablealeatoria: x(Ai)es una función definida en el espacio de N posibles eventosAi.

Función dedistribución o probabilidad acumulada: F, es la probabilidad de que cuandose mide un valor de la variable aleatoria x, éste sea menor o igual a x’.F es una función mono tónicamente creciente.

              Si−∞≤x≤∞ es Ω, entonces F(−∞)=0,F(∞)=1.

 

Probabilidaddiscreta: Pr,  de una variable discreta r, es la frecuencia conque ocurre r.

 

Densidadde probabilidad, o función de frecuencia, o función diferencial deprobabilidad: P(x),  de una variable continua x,es P(x)=dF/dx, de maneraque la probabilidad de que x tome un valor entre x’ y x’+dx’sea P(x’)dx’

 

Axiomasde probabilidad (Kolmogorov):

    0 ≤ P(A) ≤ 1  

     P(Ω) = 1, P(Ø)= 0 

     si  AB ≡ A ∩ B =Ø             P(A U B) = P(A) + P(B)

Ejemplo:cálculo de la probabilidad de que en una tirada de una moneda, salga o águila osol.                   

AS =Ø     ,       P(AUS)= P(A) + P(S)= ½+ ½ = 1

 

Independencia:    

              si P(A|B)= P(A)              P(AB)=P(A)P(B)

Ejemplo:cálculo de la probabilidad de que en dos tiradas de una moneda, salgan dos águilas

                                                  P(AA)= ½  × ½ = ¼

Probabilidadcondicional:    

                                            P(A|B)= P(AB) / P(B)

Ejemplo:cálculo de la probabilidad de que en dos tiradas de una moneda, dada una primeraáguila, salga otraáguila                   P(A|A)= P(AA)/P(A) =¼ / ½ = ½

 

La inferencia estadistica, es el proceso por el cual se deducen (infieren)propiedades o características de una población a partir de una muestrasignificativa. Uno de los aspectos principales de la inferencia es laestimación de parámetros estadísticos. Por ejemplo, para averiguar la media, µ,de las estaturas de todos los soldados de un reemplazo, se extrae una muestra yse obtiene su media, 0. La media de la muestra (media muestral), 0, es unestimador de la media poblacional, µ. Si el proceso de muestreo está bienrealizado (es decir, la muestra tiene el tamaño adecuado y ha sido seleccionadaaleatoriamente), entonces el valor de µ, desconocido, puede ser inferido apartir de 0.

Lainferencia siempre se realiza en términos aproximados y declarando un ciertonivel de confianza. Por ejemplo, si en una muestra de n = 500 soldados seobtiene una estatura media 0 = 172 cm, se puede llegar a una conclusión delsiguiente tipo: la estatura media, µ, de todos los soldados del reemplazo estácomprendida entre 171 cm y 173 cm, y esta afirmación se realiza con un nivel deconfianza de un 90%. (Esto quiere decir que se acertará en el 90% de losestudios realizados en las mismas condiciones que éste y en el 10% restante secometerá error.)

Si se quiere mejorar el nivel de confianza, se deberá aumentar el tamaño de lamuestra, o bien disminuir la precisión de la estimación dando un tramo másamplio que el formado por el de extremos 171, 173. Recíprocamente, si se quiereaumentar la precisión en la estimación disminuyendo el tamaño del intervalo,entonces hay que aumentar el tamaño de la muestra o bien consentir un nivel deconfianza menor.

Finalmente, si se quiere mejorar tanto la precisión como el ,hay que tomar una muestra suficientemente grande.

Ejemplo:

Hacemos una encuesta entre los clientesde una tienda para preguntarles su opinión sobre cambios generales quepretendemos hacer en diversas áreas de la tienda. Después de realizados loscambios, queremos hacer una segunda encuesta para saber cómo se modificó laopinión sobre los cambios una vez hechos. Nos interesa la DIFERENCIA.

 

*Revisamos varias de nuestras ventaspara ver los problemas que se presenten en la facturación de las mismas. Estolo realizamos antes de imponer algunas mejoras en el procedimiento defacturación. Tenemos la intención de realizar la misma investigación después dehechos los cambios para medir la DIFERENCIA.

 

*Queremos establecer estándares parael desempeño de los trabajadores a fin de poder ver como es el desempeñoactual. De lo que encontremos se van a derivar varias acciones:

  -se va a otorgar un estímulo para los trabajadores,

  -se va a establecer una tabla comparativa de desempeño entre lasdiferentes unidades de la empresa y en base a ella se va a otorgar un estímuloa los gerentes,

  -se va a comparar el desempeño contra el desempeño en los últimos tresperíodos anteriores.

 

Para establecer los estándares se vana seleccionar varios operarios de cada uno de los dos turnos

y se va a medir su rendimiento durantetres días específicos de una semana. Estamos interesados en conocer un VALOR general.

En los tres ejemplos anteriores setienen muestras obtenidas, quizá al azar, y se trata de conocer valores de lapoblación en base a los de la muestra.

*La decisión de si a los clientes lesgustaron los cambios la vamos a tomar sobre los valores en la muestra.

*La mejora en las facturas la vamos aconstatar en base a las que observamos.

*El estándar de desempeño lo vamos afijar en base a los trabajadores estudiados.

Pero en los tres casos vamos a extenderel valor de la muestra o las muestras a la población. Este proceso se llamainferencia.

 

Errores en lainferencia y qué hace la estadística con ellos

En todo caso el proceso deinferencia está sujeto a errores. No existe magia alguna que haga que elvalor de la muestra coincida con el de la población y si afirmásemos locontrario seríamos unos charlatanes.

 

La diferencia entre los valores de lamuestra y los de la población crea incertidumbre acerca de los valores muéstrales.Se necesita una manera de establecer las limitaciones del proceso deinferencia.

 

Los procedimientos estadísticos noeliminan los errores en la inferencia. Lo que hacen es que los valores de loserrores sean cuantificables mediante afirmaciones d probabilidad. Se dice quelos procedimientos estadísticos son medibles porque es posible medir (entérminos de probabilidad) la magnitud del error que cometen.

 

En el ejemplo de los clientes delestablecimiento, si obtuvimos una muestra estadística, podemos decir no sólocuál es el porcentaje de clientes indiferente a los cambios (por ejemplo 20%,valor en la muestra) sino, además, cuál es la probabilidad de que el porcentajereal sea menor que alguna cantidad (por ejemplo la probabilidad de que seamenor que 25%) o mayor que alguna otra cantidad (por ejemplo mayor que 10%) oque se encuentre entre dos valores (entre 18% y 23%, por ejemplo).

 

Afirmaciones como las anteriores sebasan en el hecho de que por haber seleccionado al azar, hay un mecanismoobjetivo de generación de la incertidumbre y mediante deducciones matemáticases posible encontrar las probabilidades mencionadas. Si la selección se hubiesehecho ``a juicio'', dependería del buen juicio y no de las matemáticas eltamaño del error en la inferencia. La medición de la incertidumbre sería muycomplicada y nada confiable.

 

En la mayoría de las veces que hacemosinferencia, las probabilidades las calculamos con el modelo normal. En algunoscasos este modelo normal es el modelo exacto para la inferencia, pero muyfrecuentemente es sólo un modelo aproximado.

 

Estimación y Pruebade Hipótesis

En la estadística hay dos formasprincipales de inferir: La estimación parte desde suponer un modelo estadísticopara la distribución de la característica que nos interesa en la población.Esta característica es, generalmente, numérica y distinguimos a las variablesen continuas y discretas.

Si nos interesa el rendimiento oeficiencia de los trabajadores, como en el tercer ejemplo, tendremos el tiempode realización de una tarea específica (variable continua).

 

En el segundo ejemplo nos interesaráel número y tipo de errores cometidos en la factura (variable discreta).

En el primero nos interesa la opiniónque mediremos como favorable o desfavorable (variable discreta = número depersonas a favor o en contra).

Si tiene Ud. inclinaciones máspoéticas, recuerde a la reina de las hadas y su problema de enamorarse delprimero que vea al despertar; ahí tenemos el mismo tipo de situación: el amadoserá guapo o no guapo, y el parámetro desconocido es la ``densidad'' de guaposalrededor de la reina dormida.

 

I – Estimación

Para estimar partimos de un modeloprobabilístico de cómo se distribuye la característica en la población o decómo se realizó el muestreo. Este modelo incluye cantidades que desconocemos yque llamamos parámetros

Por ejemplo, en la encuesta para saberla opinión de los clientes, el número de clientes a favor es un parámetro, y laprobabilidad de que obtengamos al azar a una persona que está a favor es laproporción de personas a favor en la población (que desconocemos).

 

Esto se parece al lío de la reina delas hadas.

Para los tiempos de realización de latarea, en el tercer ejemplo, podemos suponer una distribución normal con unamedia y una desviación estándar desconocidas; nuestro interés se centraría enel valor del promedio de la población.

De la muestra estimamos los valores delos parámetros en la población y esto lo hacemos: *mediante un valor fijo yentonces decimos que tenemos un estimador puntual o, *mediante unintervalo de posibles valores y le llamamos estimación por intervalo o intervalode confianza.

Los métodos de estimación puntual puedentener varias características estadísticas entre las que sobresalen:

1. Insesgamiento: Que el valor delparámetro coincida con el valor promedio del estimador. Esta propiedad latienen la mayoría de los estimadores usados en la práctica.

2. Consistencia: Que el valor de lamuestra se acerque al valor del parámetro al aumentar el tamaño

de la muestra.

3. Suficiencia: Que el estimadoruse toda la información que la muestra contiene respecto al parámetro de interés.

4. Eficiencia: Que el estimadortenga menor variabilid

Muestreo

Escrito por zuliixchavarria 15-04-2010 en General. Comentarios (0)
  Ya sabemos queuna población es el conjunto de individuos sobre los que hacemos ciertoestudio, y que una muestra es un subconjunto de la población. Es evidente quelos resultados de una determinada encuesta tendrán un mayor grado de fiabilidadsi dicha encuesta se realiza sobre la población completa.

Sinembargo, en la mayoría de las ocasiones esto no es posible, debido a múltiplesrazones:

* Imposibilidad material (Hacer unaencuesta a los casi 41 millones de españoles es imposible, hacer un estudiosobre la fecha de caducidad de un producto. Si lo hacemos con todos losproductos qué vendemos luego?)

* Imposibilidad temporal (Hacer unestudio sobre la duración de una bombilla. ¿Cuánto debemos esperar para saberlo?)

Portanto, es habitual que tengamos que manejarnos con muestras, de modo que esimportante saber elegir bien una muestra de la población, una muestra querepresente bien a dicha población.

 

Hay muchas maneras de elegir una muestra de unapoblación.

Antes depasar a analizar dichas formas de extracción de muestras, lo que si hemos dedejar claro es que todas las muestras han de cumplir varias condicionesindispensables.

 

Esevidente que para que el estudio a realizar sea fiable, hay que cuidar mucho laelección de la muestra, para que represente en la medida de lo posible a lapoblación de la que se extrae. Si la muestra está mal elegida, diremos que no esrepresentativa.

 

En estecaso, se pueden producir errores imprevistos e incontrolados. Dichos errores sedenominan sesgos y diremos que la muestraestá sesgada.

Una delas condiciones para que una muestra sea representativa es que el muestreo (o sistema para elegir una muestra de unapoblación) que se haga sea aleatorio, es decir, todas las personas de la población tengan las mismas posibilidadesde ser elegidas, mientras que si la elección de la muestra es subjetiva, esprobable que resulte sesgada.

 

Lasdistintas maneras de elegir una muestra de una población se denominanmuestreos. Básicamente hay dos tipos de muestreos:

1. Muestreo no probabilístico: El investigador no elige la muestra al azar,sino mediante determinados criterios subjetivos.

2. Muestreoprobabilístico: Cuando lamuestra se elige al azar. En este caso podemos distinguir varios tipos:

a) Muestreo aleatorio simple: Aquel en el que cada individuo de la poblacióntiene las mismas posibilidades de salir en la muestra.

b) Muestreo sistemático: En el que se elige un individuo al azar y a partir de él, a intervalosconstantes, se eligen los demás hasta completar la muestra.

c) Muestreo estratificado: En este muestreo se divide la población enclases o estratos y se escoge, aleatoriamente, un número de individuos de cadaestrato proporcional al número de componentes de cada estrato.

d) Muestreo por conglomerados: Si no disponemos de la relación de los elementos de la población, o delos posibles estratos, no podemos aplicar los muestreos anteriores.

 

Aquí entra el llamado muestreo por conglomerados, donde en lugar de elegirindividuos directamente, se eligen unidades más amplias donde se clasifican loselementos de la población, llamados conglomerados. En cada etapa del muestreoen lugar de seleccionar elementos al azar seleccionamos conglomerados.

Losconglomerados deben ser tan heterogéneos como la población a estudiar, para quela represente bien. Luego se elegirán algunos de los conglomerados al azar, ydentro de ´estos, analizar todos sus elementos o tomar una muestra aleatoriasimple.

 

No debemos confundir estrato y conglomerado. Un estrato es homogéneo (sus elementos tienen las mismascaracterísticas), mientras que un conglomerado es heterogéneo (debe representarbien a la población).

Veamosla diferencia de estos muestreos mediante un ejemplo:

Imaginemosque hemos de recoger una muestra de 20 alumnos de entre los de un instituto de600.

Ejemplo:

-Muestreo aleatorio simple: Elegiríamosun alumno al azar (probabilidad de elegirlo 1600. Lo devolvemos a la poblacióny se elige otro (probabilidad de elegirlo 1600), y así hasta 20. Notemos que sino devolviésemos al alumno, entonces, la probabilidad de escoger al 2º alumnosería 1599, y ya no todos tendrían la misma probabilidad de ser elegidos. Elproblema es que entonces permitimos que se puedan repetir individuos.

 

-Muestreo sistemático: Como hemos deelegir 20 alumnos de 600, es decir, 1 de cada 30, se procede así: Se ordenanlos alumnos y se numeran, se elige uno al azar, por ejemplo el alumno 27, yluego los demás se eligen a partir de este a intervalos de 30 alumnos.Escogeríamos por tanto a los alumnos:

27,57,87,117,147,177,207,237,267,297,327,357,387,417,447,477,507,537,567,597y el alumno 627 ya es otra vez el 27.

 

-Muestreoestratificado: Si queremos que la muestra sea representativa,lo mejor será conocer cuántos alumnos de cada curso hay, es decir, si hay 200alumnos de 3º ESO, 150 de 4º ESO, 150 de 1° de º Bachillerato y 100 de 2° de ºBachillerato, procederíamos: Como de 600 en total hemos de elegir a 20, de 200de 3º de ESO hemos de elegir x:

20/600=x/200−→ x =4000/600 = 6_6 7 alumnos de 3°º

 

(Utilizandola regla de tres)

De igualmanera podemos calcular los alumnos correspondientes a los demás cursos:

20/600 =y/150−→ y = 3000/600 = 5 alumnos de 4°º

20/600 =z/150−→ z = 3000/600 = 5 alumnos de 1°º

20/600 =t/100 −→ t = 2000/600

= 3_3 alumnos de 2º

De modoque en nuestra muestra de 20, 7 alumnos son de 3º, 5 de 4º, 5 de 1º y 3 de 2º.Para la elección de cada alumno dentro de cada curso, utilizamos el muestreoaleatorio simple.

-Muestreo por conglomerados: Para ver este muestreo, hemos de cambiar el ejemplo.

Supongamosque queremos extraer una muestra aleatoria de los estudiantes universitariosdel país.

Necesitaríamosuna lista con todos ellos para poder realizar algún muestreo del tipo de los 3anteriores, lo cual es muy difícil de conseguir. Sin embargo, los estudiantes estánclasificados por Universidades,

Facultadesy Clases.

Podemosseleccionar en una primera etapa, algunas Universidades, después algunasfacultades al azar, dentro de las facultades algunas clases y dentro de lasclases, algunos estudiantes por muestreo aleatorio simple. Los conglomerados encada etapa serían las diferentes Universidades, las diferentes facultades y losdiferentes clases.

Comovemos los conglomerados son unidades amplias y heterogéneas.

 

Distribución muestralde medias

Sitenemos una población de parámetros desconocidos μ y σ, y tomamos una muestra, podemos calcular la media muestral,x1, que tendría cierta relación con μ.

Podríamostomar otra muestra, de igual tamaño, y calcular de nuevo su media muestral x2, que también estará relacionada con μ.

Asísucesivamente, considerando varias muestras y haciendo las medias muéstralesrespectivas, tenemos una serie de medias, relacionadas de alguna manera con μ ¿cómo?.

De lasiguiente forma:

Propiedad: Si la población sigue una distribución normal N(μ,σ), donde μ y σ son desconocidos, si elegimos todas las muestras de cierto tamaño (n) ,de forma que sean representativas, entonces:

a) Lamedia de las medias muéstrales de todas las muestras posibles, es igual a lamedia poblacional, es decir:

x = (x1 + x2 +. . . + xk)/k = μ

b) La desviacióntípica de las medias muéstrales posibles es:

sx = σ/n

donde σ es la desviación típica poblacional y n es el tamaño de las muestras.

Conclusión: Las medias de las muestras de tamaño n extraídas de una población de parámetrosμ y σ, siguen una distribución:

X −→ N(μ,σ/n)

siempreque dichas muestras tengan un tamaño n 30.

 

Distribución muestralde proporciones

Nos planteamosahora determinar qué proporción de una población posee un cierto atributo, por ejemplosi es fumador o no fumador, si tiene ordenador o no, si tiene alergia o no, etc...El estudio de este tipo de proporciones es equiparable al de una distribuciónbinomial (donde sólo hay dos posibilidades).

Si la proporción´éxito es p y la de fracaso q, y se toma una muestra de la población de tamañon, al igual que en el caso anterior, para cada muestra tendremos una proporciónmuestral que denotaremos por ˆp y una desviacióntípica muestral que denotaremos por sˆp.

Entonces,utilizando razonamientos similares a los del apartado anterior, se verifica queˆp = p, y sˆp =/p q/ n por tanto:

Conclusión: Las proporciones muéstrales de tamaño n 30, extraídas de una población en la que la probabilidadde éxito es p, se ajustan a una normal

N(p;√p q/n)

Ejemplo: Una fábrica de pasteles fabrica, en su producciónhabitual, un 3% de pasteles defectuosos.

Uncliente recibe un pedido de 500 pasteles de la fábrica.

a)Probabilidad de que encuentre más del 4% de pasteles defectuosos.

b)Probabilidad de que encuentre menos de un 1% de pasteles defectuosos.

a) Eneste caso éxito= “pastel defectuoso”, y la proporción poblacional de éxito esde p =3/100 tanto, q=97/100. La muestra que recibe el cliente es de tamañon=500.

Portanto, las proporciones muéstrales siguen una distribución:

ˆp −→ N(3/100;√(3/100 97/100)/500) = N(0_03; 0_076) puesto que las muestras tienen tamaño mayor que 30.

Laprobabilidad pedida es que la proporción de pasteles defectuosos en la muestrasea mayor del 4%, es decir:

pp0_04) = p(Z 0.04 0.03/0.0076)= p(Z1.32) = 0.0934

b) Eneste caso es pp0.01) = p(Z 0.01 0.03/0.0076)= p(Z ≤ −2_63) = 0.0043

Intervalos De Confianza

Escrito por zuliixchavarria 15-04-2010 en General. Comentarios (0)

Estimación puntual y por intervalo

 

Las medias o desviacionesestándar calculadas de una muestra se denominan ESTADÍSTICOS, podrían serconsideradas como un punto estimado de la media y desviación estándar real depoblación o de los PARAMETROS.

 

¿Qué pasa si no deseamos unaestimación puntual como media basada en una muestra, qué otra cosa podríamosobtener como margen, algún tipo de error?

                                        

“Un Intervalo de Confianza”

 

ESTIMADORPUNTUAL: Utiliza un número único o valor para localizar una estimación delparámetro.

 

ESTIMADOR PORINTERVALO DE CONFIANZA: Denota un rango dentro del cual se puede encontrarel parámetro y el nivel de confianza que el intervalo contiene al parámetro.

 

LIMITES DECONFIANZA: Son los límites del intervalo de confianza inferior (LIC) y superior(LSC), se determinan sumando y restando a la media de la muestra un cierto número Z (dependiendo del nivel o coeficiente deconfianza) de errores estándar de la media .


 

 

 

 

INTERPRETACIÓNDEL INTERVALO DE CONFIANZA: Tener un 95% de confianza en que la mediapoblacional real y desconocida se encuentra entre los valores LIC y LSC.

 

NIVELDE SIGNIFICANCIA = 1- INTERVALO DE CONFIANZA = ERROR TIPO 1 = ALFA

 

¿Cómo obtenemos un intervalo deconfianza?

            Estimación puntual + error deestimación

 

¿De dónde viene el error deestimación?

Desv.estándar X multiplicador de nivel de confianza deseado Za/2

 

Ejemplo 1

Si lamedia de la muestra es 100 y la desviación estándar es 10, el intervalo deconfianza al 95% donde se encuentra la media para una distribución normal es:

            100 + (10) X 1.96 =>(80.4, 119.6)                       1.96 =Z0.025

 

El 95%de Nivel de Confianza significa que sólo tenemos un 5% de oportunidad deobtener un punto fuera de ese intervalo.

 

Estoes el  5% total, o 2.5% mayor o menor. Sivamos a la tabla Z  veremos que  para un área de 0.025, corresponde a una Z de1.960. 

                        C. I.                        Multiplicador Za/2

                        99                                  2.576          

                        95                                  1.960

                        90                                  1.645

                        85                                  1.439

                        80                                  1.282

 

Paratamaños de muestra  >30, o s conocida usar la distribuciónNormal

Paramuestras de menor tamaño, o s desconocida usar ladistribución  t

 

Elancho del intervalo de confianza decrece con la raiz cuadrada del tamaño de lamuestra.

 

Ejemplo 2

Dadaslas siguientes resistencias a la tensión: 28.7, 27.9, 29.2 y 26.5 psi

 

Estimarla media puntual

Xmedia = 28.08  con S = 1.02

 

Estimarel intervalo de confianza para un nivel de confianza del 95% (t = 3.182 conn-1=3 grados de libertad)

            Xmedia±3.182*S/√n = 28.08±3.182*1.02/2=(26.46, 29.70)

 

FORMULAS PARAESTIMAR LOS INTERVALOS DE CONFIANZA:

 

Descripción

Intervalo de confianza

Estimación de con sigma conocida, muestra grande n>30

Estimación de  con sigma desconocida, muestra grande n>30, se toma la desv. Est. de la muestra S

Estimación de  con muestras pequeñas, n < 30 y sigma desconocida

Estimación de la

Estimación de la proporción                            

 

Tamaño de muestra

Para estimar n en base a un error máximo

Para estimar n en base a un error máximo

Si se especifica un intervalo total de error, el error máximo es la mitad del intervalo

Utilizar que es peor caso

 

 

Comportamientode los intervalos de confianza.

El modelo deintervalo de confianza obtenido para la media muestral proporciona característicasque se comparten con otros tipos de intervalos para otros parámetros:

Se escoge unnivel de confianza 1-α que determinará el error de estimación. Se desea siempretener un nivel de confianza alto y un error de estimación pequeño. El nivel deconfianza nos proporciona seguridad en que nuestro método arroja respuestascorrectas. Un error de estimación pequeño nos dice que el valor del parámetroestimado se parece mucho al obtenido.

En el caso dela media poblacional, el error de estimación es n/z σ α / 2 por lohacemos más pequeño el error si: El punto crítico se hace menor, lo que llevaconsigo más peso de las colas y menos del intervalo central y por tanto unnivel de confianza menor.

Si ladesviación poblacional es menor. Es más fácil estimar μ si la desviación espequeña.

Si se aumentael tamaño muestral. Para obtener un error mitad se necesita cuadriplicar eltamaño muestral.

 

Intervalo deconfianza para la media muestral con desviación conocida.

Para determinarun intervalo de confianza de la media muestral recordaremos que el estadístico:X−μ/ σ√n  tiene una distribuciónnormal estándar.

Por lo tantodebemos localizar un intervalo centrado en 0, que tenga una probabilidad 1-α.Por tanto dejará dos ‘colas’ de probabilidad α/2, de modo que lo quebuscamos es simplemente un valor crítico z α/2.

Y por lo tanto:Un intervalo de confianza de nivel 1 - αpara la media poblacional μ conocida la desviación poblacional σ es:

(x± z α /2 ) σ/√n

Debido a que los niveles de confianza estándares son 90%, 95% y 99%conviene recordar:

Nivel de confianza                Área de la cola                  Valor z α/2

90%                                        0,05                                    1,645

95%                                       0,025                                  1,960

99%                                        0,005                                  2,576

 

 

 

Teorema de Limite Central

Escrito por zuliixchavarria 15-04-2010 en General. Comentarios (0)

El Teorema Central de Límite no es unúnico teorema, sino que consiste en un conjunto de resultados acerca delcomportamiento de la distribución de la suma (o promedio) de variablesaleatorias.

Con Teorema Central del Límite nos referiremosa todo teorema en el que se arma, bajo ciertas hipótesis, que la distribuciónde la suma de un número muy grande de variables aleatorias se aproxima a unadistribución normal.

 

El término “Central”, debido a Polyá(1920), significa fundamental, o de importancia central, este describe el rolque cumple este teorema en la teoría de probabilidades. Su importancia radicaen que este conjunto de teoremas desvelan las razones por las cuales, en muchoscampos de aplicación, se encuentran en todo momento distribuciones normales, ocasi normales.

Un ejemplo típico de este hecho es elcaso de los errores de medida. Con respecto a este tema, Laplace propuso unahipótesis que parece ser plausible.

 

Considera el error total como una sumade numerosos errores elementales muy pequeños debidos a causas independientes.

 

Es casi indudable que varias causasindependientes o casi independientes contribuyen al error total. Así porejemplo, en las observaciones astronómicas, pequeñas variaciones detemperatura, corrientes irregulares de aire, vibraciones de edificios y hastael estado de los órganos de los sentidos de un observador, pueden considerarsecomo algunas pocas de dichas causas numerosas.

 

El Teorema Central del Límite es obrade muchos grandes matemáticos.

Dentro de la historia del TeoremaCentral del Límite Laplace ocupa un lugar fundamental: a pesar de que nuncaenunció formalmente este resultado, ni lo demostró rigurosamente, a él ledebemos este importante descubrimiento.                                                        

 

El Teorema Central del Límite dice que si tenemos un gruponumeroso de variables independientes y todas ellas siguen el mismo modelo dedistribución (cualquiera que éste sea), la suma de ellas se distribuye segúnuna distribución normal.

Ejemplo: la variable"tirar una moneda al aire" sigue la distribución de Bernouilli. Silanzamos la moneda al aire 50 veces, la suma de estas 50 variables (cada unaindependiente entre si) se distribuye según una distribución normal.

Este teorema se aplica tanto a suma de variables discretas como devariables continuas.

Los parámetros de la distribución normal son:

Median * m (media de la variable individual multiplicada porel número de variables independientes)

Varianzan * s2 (varianza de la variable individualmultiplicada por el número de variables individuales.

Ejemplo:

Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1y si sale cruz el valor 0. Cada lanzamiento es una variable independiente quese distribuye según el modelo de Bernouilli, con media 0,5 y varianza 0,25.Calcular la probabilidad de que en estos 100 lanzamientos salgan más de 60caras.

La variable suma de estas 100 variables independientes se distribuye,por tanto, según una distribución normal.

Media = 100 * 0,5 = 50

Varianza = 100 * 0,25 = 25

Para ver la probabilidad de que salgan más de 60 caras calculamos lavariable normal tipificada equivalente:

(*) 5 es la raiz cuadrada de 25, o sea la desviación típica de estadistribución

Por lo tanto:

P (X > 60) = P (Y > 2,0) = 1- P(Y < 2,0) = 1 - 0,9772 = 0,0228

Es decir, la probabilidad de que al tirar 100 veces la moneda salgan másde 60 caras es tan sólo del 2,28%.

Ejemplo 2

La renta media de los habitantes de un país se distribuye uniformementeentre 4,0 millones ptas. y 10,0 millones ptas. Calcular la probabilidad de queal seleccionar al azar a 100 personas la suma de sus rentas supere los 725millones ptas.

Cada renta personal es una variable independiente que se ditribuye segúnuna función uniforme. Por ello, a la suma de las rentas de 100 personas se lepuede aplicar el Teorema Central del Límite.

La media y varianza de cada variable individual es:

m = (4 + 10 ) / 2 = 7

s2 = (10 - 4)^2 / 12 =3

Por tanto, la suma de las 100 variables se distribuye según una normalcuya media y varianza son:

Media: n * m = 100 * 7 = 700

Varianza : n * s2 = 100 * 3 = 300

Para calcular la probabilidad de que la suma de las rentas sea superiora 725 millones ptas, comenzamos por calcular el valor equivalente de lavariable normal tipificada:

Luego:

P (X > 725) = P (Y > 1,44) = 1 -P (Y < 1,44) = 1 - 0,9251 = 0,0749

Es decir, la probabilidad de que la suma de las rentas de 100 personasseleccionadas al azar supere los 725 millones de pesetas es tan sólo del 7,49%.

Ejemplo

En una asignatura del colegio la probabilidad de que te saquen a lapizarra en cada clase es del 10%. A lo largo del año tienes 100 clases de esaasignatura. ¿Cuál es la probabilidad de tener que salir a la pizarra más de 15veces?

Se vuelve a aplicar el Teorema Central del Límite.

Salir a la pizarra es una variable independiente que sigue el modelo dedistribución de Bernouilli:

"Salir a la pizarra", le damos el valor 1 y tiene unaprobabilidad del 0,10

"No salir a la pizarra", le damos el valor 0 y tiene unaprobabilidad del 0,9

La media y la varianza de cada variable independientes es:

m = 0,10

s2 = 0,10 * 0,90 = 0,09

Por tanto, la suma de las 100 variables se distribuye según una normalcuya media y varianza son:

Media : n * m = 100 * 0,10 = 10

Varianza : n * s2 = 100 * 0,09 = 9

Para calcular la probabilidad de salir a la pizarra más de 15 veces,calculamos el valor equivalente de la variable normal tipificada:

Luego:

P (X > 15) = P (Y > 1,67) = 1 - P(Y < 1,67) = 1 - 0,9525 = 0,0475

Es decir, la probabilidad de tener que salir más de 15 veces a lapizarra a lo largo del curso es tan sólo del 4,75%.