Tema 7 - Diseño de experimentos en ingeniería

Diseño de experimentos y Control de la calidad


📖
En un proceso, hay varios factores que pueden afectar a la calidad del producto final y muchos de estos factores se pueden controlar (temperatura, presión, velocidad, etc.)
ℹ️
Denominamos variables de control a estos factores que podemos controlar en un proceso
ℹ️
Todo proceso de experimentación en ingeniería se compone de cuatro etapas
  1. Conjeturar una hipótesis sobre el proceso de producción
  1. Experimentar para obtener la información sobre la conjetura
  1. Analizar estadísticamente la información del experimento para ver si es significativa
  1. Sacar conclusiones sobre si la conjetura inicial es cierta o hay que adaptarla a los resultados obtenidos y quizás realizar un nuevo experimentos

Introducción a los experimentos factoriales


🧪
Experimentos factoriales C=22C = 2^2
Los experimentos factoriales 222^2 son experimentos de 2 factores con 2 niveles por lo que cada muestra realizará 4 experimentos, representando cada posible combinación de factores y niveles. Estos niveles se etiquetan como alto (+) y bajo (-)
 
Todo experimento factorial define una variable de respuesta
🎯
El objetivo es analizar
  • Si la variable respuesta es afectada por los factores
  • Si existe interacción (dependencia) entre los factores
 
Tras realizar el experimentos, las diferentes combinaciones entre factores y niveles se suelen representar en una tabla donde cada una de estas combinaciones se representa con la siguiente simbología:
  • (1)Ambos factores están en el nivel bajo
  • a → El factor A está en el nivel alto y el factor B está en el nivel bajo
  • b → El factor A está en el nivel bajo y el factor B está en el nivel alto
  • abAmbos factores están en el nivel alto
 
El experimento se suele repetir nn veces (se toman nn muestras) donde cada muestra toma datos de las 4 combinaciones
 
Estimar el efecto promedio de un factor
Para estimar el efecto de un factor, deberemos hacer la media de medias de aquellas combinaciones donde el factor de estudio está a nivel alto (yA+)(\overline y_{A_+}), y luego otra media de medias de aquellas combinaciones donde el factor de estudio está a nivel bajo (yA)(\overline y_{A_-})
Finalmente, si hacemos la diferencia entre estos dos resultados nos da el incremento de la media cuando pasamos de un nivel bajo a un nivel alto del factor seleccionado
A=yA+yAA = \overline y_{A_+} - \overline y_{A_-}
Aunque también podríamos usar las fórmulas.
⚠️
Estas fórmulas se puden usar con las medias o las sumas totales de cada caso ((1) , a , b , ab).
💡 Podemos saber si hay que usar las medias o la sumas totales en la fórmula si miramos la fracción de delante
  • Usar la media 12\frac{1}{2}
  • Usar la suma total12n\frac{1}{2n}
A=12n[a+abb(1)]B=12n[b+aba(1)]A = \frac{1}{2n}[a+ab - b -(1)]\\ B = \frac{1}{2n}[b+ab - a -(1)]\\
 
Estimar la interacción promedio entre dos factores
En este caso la fórmula sería la media de los casos donde todos los factores están al mismo nivel, menos la media de los casos donde cada uno es´ta a un nivel distinto
O podemos hacer uso de alguna de estas fórmulas
Usando la suma total (opción 1)
AB=12n[ab+(1)ab]AB = \frac{1}{2n}[ab + (1) - a - b]
Siendo
  • nn → El número total de combinaciones: 4
  • Los valores (1) , a , b , ab hacen referencia a la columna suma total
Usando la media (opción 2)
AB=12[ab+(1)ab] AB = \frac{1}{2}[\overline {ab} + \overline{(1)} - \overline a - \overline b]
Cualquiera de estas fórmulas nos dará como resultado la interacción promedio
💡
La formula de la interacción tiene una característica de conmutabilidad
AB=BAAB = BA
📝
Ejemplos 50 y 51 - Introducción a los experimentos factoriales 2^2
🧪
Experimentos factoriales C=rkC = r^k
Los experimentos 2k2^k son como los de 222^2, es más, esos son un caso particular de los de 2k2^k. Si además tenemos más de dos factores, entonces tendremos un experimento de C=rkC = r^k

Experimentos factoriales y regresión


🧪
Modelo de regresión (no lineal)
Un modelo de regresión es básicamente una función formada por la suma de productos entre un factor β\beta y una variable xx, más un error ϵ\epsilon
 
Cualquier experimento factorial 222^2 puede resolverse con un modelo de regresión tal que
Y=β0+β1x1+β2x2+β3x1x2+ϵY = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 + \epsilon
Siendo
  • xix_i → El efecto promedio de un factor dividido por 22
  • β0\beta_0 → La media de medias
  • βi\beta_i → La interpretación de un factor {1,1}\{-1, 1\}
  • ϵ\epsilon → Una variable para tener en cuenta el error
 
Los valores de β\beta representar una interpretación concreta de la tabla (da valores a cada βi>0\beta_{i>0}). Estos valores representan en nivel del factor correspondiente donde el valor 11 representa un nivel alto y el valor 1-1 representa un nivel bajo
📝
Ejemplo 52 - Modelo de regresión

Inferencia sobre el modelo de regresión


🎓
Distribución tt de Student
La distribución XTkX \sim T_k se lee como: La variable XX tiene una distribución tt de Stundent con kk grados de libertad
notion image
En la imagen anterior tenemos representada una función de densidad de probabilidad de una variable aleatoria tt de Student con kk grados de libertad
💡
Esta distribución es parecida a la normal, pero considera más probables la aparición de valores atípicos. Esta es normalmente más usada con muestras pequeñas
 
Media y varianza
μ=E(X)σ2=V(X)=kk2\mu = E(X)\\ \sigma^2 = V(X) = \frac{k}{k-2}
 
Aunque existe una función de densidad de probabilidad, existe una tabla para evitar tener que estar haciendo cálculos y saberse las fórmulas
notion image
💡
Relevancia de los coeficientes β\beta
Dado un modelo de regresión no lineal
Y=β0+β1x1+β2x2+β3x1x2+ϵY = \beta_0 + \beta_1x_1 + \beta_2x_2 + \beta_3x_1x_2 + \epsilon
Podemos simplificar el modelo si no todos los coeficientes β\beta son relevantes (distintos de cero)
 
Se plantean dos hipótesis para cada factor
H0:βi=0 El factor i es irrelevanteH1:βi0 El factor i es relevante   H_0: \beta_i = 0 \text{ El factor } i \text{ es irrelevante}\\ H_1: \beta_i \neq 0 \text{ El factor } i \text{ es relevante \ \ }
0️⃣
Seguiremos los siguientes pasos para cada factor, siendo βi\beta_i cada uno de los factores β\beta del modelo e i{0,1,2,3}i\in\{0,1,2,3\}
Para resolver este contraste de hipótesis seguiremos los siguientes pasos
1️⃣ Calculamos σˆ2\^\sigma^2 (estimación de la varianza)
σˆ2=1Cc=1Cσˆc2\^\sigma^2 = \frac{1}{C}\sum^C_{c=1}\^\sigma^2_c
Siendo
  • CC → Número total de combinaciones entre los factores y los niveles
2️⃣ Calculamos el error estandar (desviación típica)
se(βi)=12σˆ2nse(\beta_i) = \frac{1}{2}\sqrt{\frac{\^\sigma^2}{n}}
Siendo
  • nn → Número de repeticiones del experimento
3️⃣ Caculamos el estadístico t0t_0
t0=βˆise(βi)t_0 = \frac{\^\beta_i}{se(\beta_i)}
4️⃣ Calculamos el P-Valor
P-Valor=2 P(T0>t0)\text{P-Valor} = 2\ · P(T_0 > |t_0|)
notion image
Siendo
  • T0T_0 una variable aleatoria tt de Student con C×(n1)C\times(n-1)
  • 💡 El P-Valor es la probabilidad de equivocarnos si aceptamos la hipótesis H1H_1
5️⃣ Comprobación de hipótesis
  • Si el P-Valor es menor o igual que el nivel de significación (a)(a) entonces es relevante (aceptamos la hipótesis H1H_1)
  • Si el P-Valor es mayor que el nivel de significación (a)(a) entonces es no relevante (rechazamos la hipótesis H1H_1)
💡
El nivel de significación (a)(a) es el máximo valor que estamos dispuestos a aceptar respecto de la probabilidad de equivocarnos al aceptar la hipótesis H1H_1
📝
Ejemplo 54 - Distribución tt de Student respecto de el ejemplo 52

Contraste de hipótesis tras una prueba ANOVA


ℹ️
La prueba ANOVA es una técnica estadística para analizar las medias de varios grupos.
 
El contraste de hipótesis de estas pruebas consistirá en comprobar si un factor es significativos a través del análisis del P-Valor de un factor comprobando si es menor o igual que el nivel de significancia (α)(\alpha) para solicitado.
  • Si el P-Valor es menor o igual que α\alpha (se asume que este es 0.050.05)
    • Rechazamos la hipótesis nula y concluimos que el factor es significativo
  • Si el P-Valor es mayor que α\alpha
    • No rechazamos la hipótesis nula y concluimos que el factor es marginalmente significativo
💡
A no ser que se indique lo contrario, se suele usar los siguientes valores a la hora de concluir si un factor es significativo:
  • P-Valor0.05\text{P-Valor} \leq 0.05 → Valor límite para considerar un factor como significativo
  • P-Valor>0.1\text{P-Valor} > 0.1 → Valor límite para considerar un valor como marginalmente significativo
Ejemplo
Observando los siguientes resultados
notion image
Debemos mirar la columna Pr(>F) donde están los P-Valor de cada combinación de factor y nivel
Estos valores debemos compararlos con los niveles de significación que aparecen
  • Lenguaje tendría un nivel de significación de '*'
  • Velocidad tendría un nivel de significación de '.'
  • Lenguaje:Velocidad tendría un nivel de significación de ' '