• Ricardo Anselmo de Castro

DESAFIOS NA IMPLEMENTAÇÃO DO SPC EM POPULAÇÕES NÃO NORMAIS

Atualizado: 23 de abr.


Por vezes, o Black Belt vê-se confrontado nos seus projetos, com a necessidade de trabalhar com dados que não seguem uma distribuição normal. O propósito deste artigo é mostrar alternativas de como, nesses casos, o obstáculo à utilização das cartas de controlo pode ser ultrapassado.


Palavras-chave: SPC, melhoria contínua


Fig. 1. Valores em minutos, para 300 observações individuais.


Enquadramento

No decorrer da fase de Measure de um projeto de Six Sigma, pretende-se caraterizar o processo, tal como ele é, para que possamos ter uma base de comparação aquando da implementação das melhorias, na fase de Improve.


Esta aferição inicial é importante, pois sem a existência de um standard não é possível entender se se melhorou e, igualmente importante, saber o quanto se melhorou.

Na base dessa caraterização costumam-se usar dois tipos de gráficos. O primeiro funciona como uma fotografia ao processo – por exemplo, recorrendo-se a um histograma – e o segundo mostra a sua evolução, ao longo do tempo. Conhecer a evolução dos dados no tempo é particularmente importante para entendermos se estamos ou não perante um processo estável, ou seja, se é estatisticamente previsível para um futuro próximo. Para tal, recorre-se a um gráfico de linhas ou, melhor ainda, a uma carta de controlo.


Convém relembrar que ao contrário de um gráfico de linhas, as cartas de controlo conseguem diferenciar as variações que ocorrem no processo, sejam devidas a causas comuns, sejam devidas a causas especiais. De facto, se quisermos imprimir uma maior velocidade na melhoria contínua é fundamental conseguirmos fazer esta distinção, porque a forma de endereçar cada um destes tipos de variação (comum versus especial) não é igual e, quanto mais as confundirmos, maior a probabilidade de estarmos a prejudicar o processo, quando o que se quer é precisamente o oposto.


Acontece que para a utilização das cartas de controlo «tradicionais» inventadas por W. Shewhart, certos pressupostos têm de estar garantidos, para que as variações observadas possam ser corretamente interpretadas. Dito de outra forma, queremos aumentar a probabilidade de corretamente designar o tipo de variação a que se assiste, em cada amostra: se for uma causa especial queremos identificá-la como tal. Se for uma causa comum queremos identificá-la como tal.

Figura 2. Aspeto genérico de uma carta de controlo, sem variações devido a causas especiais – todos os pontos medidos estão dentro dos limites de controlo do processo, a vermelho.


No que diz respeito aos pressupostos, falamos de três:

  1. normalidade dos dados

  2. homocedasticidade (subgrupos racionais)

  3. independência dos dados.


Como gerir então a melhoria e o projeto, no caso de os dados sob análise não respeitarem os pressupostos mencionados?


Havendo métodos não abordados neste artigo que lidam com a violação ao terceiro pressuposto, coloquemos a atenção na gestão dos dados, aquando da violação do primeiro (e segundo) pressupostos. O praticante em Six Sigma poderá assim, e em boa parte dos casos, a continuar a usar as cartas de controlo, a favor de uma maior qualidade do projeto.



Estudo de caso

Tipicamente, quando a variável de interesse são durações, os dados não seguem uma forma gaussiana. A primeira razão tem que ver com o número de sequências alternativas de como o trabalho é feito para se ter uma duração reduzida. Este número é muito menor, quando comparado com o número de sequências possíveis que contribuem para se ir no sentido inverso, sendo assim predominante as derrapagens no tempo e nos prazos (digamos que é um reflexo das probabilidades e da segunda lei da Termodinâmica).


Outra razão tem que ver com os limites físicos. Se a média da duração de uma conversa é de 15 minutos, é perfeitamente possível que por vezes se chegue a durações de 60 minutos, mas nunca ninguém viu uma conversa durar 30 minutos negativos. Não é por isso de admirar que devido a estes dois fatores vejamos uma elevada assimetria dos dados, à direita (revisitar a figura 1).


Estudemos, pois, os tempos de preparação (ou setup), seja em ambiente industrial ou nos serviços (por exemplo, preparar uma cama nos cuidados intensivos para receber um novo doente é uma preparação). Estes tempos tornam-se especialmente importantes porque enquanto não forem minimizados haverá uma forte resistência e válidos motivos para não se querer reduzir o lote de produção, pois cada tempo de preparação em recursos de capacidade restrita prejudica fortemente a capacidade produtiva de todo o sistema.


Vamos admitir que existe um registo do histórico recente quanto à duração de cada preparação e que podemos confiar nos dados registados. Ao final de 300 observações, a equipa desenhou o histograma da figura 1. De seguida, o Black Belt investigou se os dados seguiam uma distribuição normal para com isso poder tomar a decisão se poderia usar ou não uma carta de controlo.


Figura 3. Evidência que os dados originais não seguem uma distribuição normal (p-value < 0,005).


De forma inequívoca, os pontos a vermelho não seguem a linha a azul o que, para além do valor-p ser inferior a qualquer nível de significância razoável, é mais uma evidência de que os dados não seguem uma distribuição normal. O passo seguinte (e último) para a caraterização do processo poderia ser, na ausência da normalidade, a descrição dos dados ao longo do tempo, a partir de um gráfico de linhas. Podendo nós inferir a partir dele algum tipo de estabilidade ou ausência de tendências, sabemos também que uma carta de controlo é uma ferramenta que dá à equipa mais informação sobre o funcionamento do processo. Vale por isso investigar formas para contornar este obstáculo e com isso fazermos um controlo estatístico do processo (SPC).



Alternativa 1. Teorema do Limite Central (TLC)

A primeira alternativa que o Black Belt se lembrou foi usar o teorema do limite central. Sabemos que quando desenhamos o valor médio das observações que constituem cada subgrupo, estamos a potenciar o aparecimento de uma distribuição normal, quanto maior for a dimensão desses subgrupos (n), sob uma relação inversa com a raiz quadrada de n. O Black Belt reparou que por já haver um desvio considerável dos dados originais à normalidade foi necessário desenhar subgrupos de dimensão 10 para o aparecimento de uma distribuição normal. Nestas condições, a normalidade para a carta das médias foi avaliada com um p-value de 0,169 e para a das amplitudes com um p-value de 0,093. Logo, as 300 observações resultaram em 30 pontos (300/10), em cada uma das cartas seguintes.


Figura 4. Carta das médias e das amplitudes, para subgrupos de 10 observações.


Para não haver dúvidas, o primeiro ponto na carta das médias, não é mais do que a média das primeiras 10 observações individuais, o segundo ponto é a média das observações 11.ª à 21.ª, etc. Analogamente, o primeiro ponto na carta das amplitudes é a diferença máxima observada, em módulo, entre as primeiras 10 observações, o segundo ponto das observações 11.ª à 21.ª, etc.


Se é verdade que as cartas conseguiram detetar uma causa especial na amostra número oito, precisamos entender, primeiro, se estamos em presença de subgrupos racionais. Um subgrupo racional é visto como um conjunto de observações que são muito idênticas (homogéneas) entre si. Pretende-se que assim seja, para potenciarmos a possibilidade de se detetar variações inter-amostrais devido a causas especiais e minimizarmos a possibilidade de detetarmos variações intra-amostrais, mesmo na presença dessa causa especial (pois a haver, esta deverá afetar, por igual, todas as observações do mesmo subgrupo).


O Black Belt precisa por isso ser prudente, antes de seguir pela via do TLC, e ter em consideração dois aspetos. Em primeiro lugar, vemos que a ordem de grandeza das amplitudes (cerca de 75 minutos) é superior à ordem de grandeza das médias (cerca de 52 minutos). O coeficiente de variação é de 144%, um claro sinal de que as amplitudes estarão com valores demasiado elevados, para as médias registadas. Empiricamente, não é incomum a média das amplitudes ser 10 ou 100 vezes inferior à média das médias. Em segundo lugar, e considerando que é feita uma mudança por dia, se os subgrupos têm dimensão 10, então estamos a falar de 10 dias úteis por subgrupo.


A pergunta lógica seguinte é: será que a preparação que foi feita na segunda-feira dia 4, tem alguma coisa que ver com a de sexta-feira do dia 15?


À primeira vista, não será legítimo considerar que estaremos em presença de subgrupos racionais porque quase sempre conseguimos obtê-los ao se bloquear todas as variáveis do processo a partir de janelas temporais reduzidas (recolha em simultâneo de todos os elementos constituintes de cada subgrupo). Não foi este o caso. Assim, ainda que o TLC tenha contribuído para a normalidade dos dados, pouco pode este teorema fazer para garantir a presença dos subgrupos racionais. Com base nestas evidências, o Black Belt descartou esta alternativa e decidiu avaliar outras.



Alternativa 2. Transformar os dados originais.

Uma das transformações de dados mais populares é a de Box-Cox. Nela, os dados originais são levantados a uma contante (por norma entre -5 e 5). Para o caso particular do valor da constante ser zero, calcula-se antes o logaritmo natural dos valores originais (que foi o caso). Vemos que pela figura 5, a forma dos dados transformados assemelha-se a um sino e que o p-value respetivo deu bem acima de 0,10.


Figura 5. Histograma para os dados transformados por Box-Cox (dados normais).


O Black Belt usou assim a carta de controlo para dados individuais transformados, constatando uma variação devido a uma causa especial na observação 144 (figura 6). Nem sempre uma causa especial é algo mau. Neste caso, aconteceu algo de extraordinário, mas para melhor. Para se saber a duração desta preparação em concreto, basta inverter o valor transformado, de volta ao valor original fazendo e^2,5, resultando em 12,6 minutos.


Figura 6. Carta de controlo com uma causa especial na amostra (observação) 144.


A estatística diz que se deve dar importância a este acontecimento, mas não explica o porquê. Essa responsabilidade faz parte da equipa de projeto. Repare-se ainda que esta causa especial nada tem que ver com a anteriormente detetada, a partir da alternativa 1. Os resultados apurados parecem ser legítimos e fidedignos. Vamos, contudo, explorar uma terceira e última hipótese.



Alternativa 3. Calcular os limites de controlo para os dados originais

Usar as cartas de controlo, como as conhecemos implica respeitar o pressuposto da normalidade. Mas nada impede usarmos cartas de controlo para dados não-normais, desde que consigamos à mesma distinguir corretamente as variações devido a causas comuns das variações devido a causas especiais. Sabemos que os limites de controlo de processo nas cartas de Shewhart são calculados de modo a que em 99,73% das vezes (numa distribuição normal perfeita) os pontos registados ficam dentro desses limites (que por definição são as variações devidas a causas comuns). Sobram 0,27% para as variações devidas a causas especiais. Esta área é equitativamente distribuída por cada um dos lados da distribuição, isto é, 0,135%.


Se conseguirmos, para os dados em questão – e principalmente se forem abundantes – estimar os percentis 0,135% e 99,865% poderemos estabelecer a carta de controlo para os dados originais. Como referido, os valores equivalentes a percentis abaixo de 0,135% e acima de 99,865% serão vistos como provenientes de variações devidas a causas especiais.


Para isso, precisamos primeiro descobrir a que tipo de distribuição os dados originais se ajustam. Recorrendo ao Minitab, vemos que esse ajuste ocorre de forma bastante satisfatória mediante uma distribuição lognormal (figura 7).


Figura 7. Evidências de que os dados originais se ajustam bem a uma lognormal (p-value = 0,916).


Modelados os dados, podemos agora estimar os valores correspondentes aos percentis já referidos acima (0,135% e 99,865%). Recorrendo a um estudo de capabilidade para a lognormal e por tentativa erro, até que os valores sejam próximo aos indicados, chegamos a 13 e 182 minutos para os limites inferior e superior de controlo, respetivamente (números arredondados).

Figura 8. Identificação por tentativa-erro do valor equivalente a ter-se 0,14% de defeitos à direita da distribuição.


Mas atenção, esta ferramenta usada para o cálculo destes percentis, embora chamada capabilidade no Minitab, neste caso em concreto, nada tem que ver com os limites de especificação. Estes limites não têm qualquer relação matemática com os limites de controlo do processo. Foi apenas uma forma engenhosa que o autor encontrou para encontrar os valores correspondentes aos percentis referidos. Na figura 8, apresentou-se apenas o gráfico para o cálculo do limite superior de controlo (o outro gráfico para o limite inferior é análogo).


Estamos finalmente em condições para desenhar a carta de controlo respetiva. Repare-se que, sem surpresa, a média não está equidistante dos limites de controlo e que a causa especial (positiva) ocorre exatamente na mesma observação apurada pela alternativa 2.


Figura 9. Identificação de uma variação devido a uma causa especial, na carta de controlo de valores individuais, nos tempos de preparação.



Conclusão

O artigo mostrou três alternativas para quando os dados não seguem (fortemente) uma distribuição normal. De forma legítima, o Black Belt deve querer sempre estudar a estabilidade do processo, no que diz respeito à presença ou ausência de variações devido a causas especiais. Para tal, é preciso desenhar as cartas de controlo. Viu-se que as alternativas 2 e 3 foram consistentes entre si, tanto nos resultados alcançados, como nas conclusões que daí se retiraram. Quanto à primeira alternativa onde se aplicou o teorema do limite central verificou-se, para este exemplo, que o caminho traçado não foi satisfatório. Isto não quer dizer, de imediato, que em outros casos de aplicação não o possamos usar. Basta para isso que se respeite e se consiga trabalhar com subgrupos racionais.



REFERÊNCIAS

[1] Castro, Ricardo A. (2012) Lean Six Sigma – para qualquer negócio, 3.ª edição, IST Press.


[2] Montgomery, D. (2009) Introduction to Statistical Quality Control. John Wiley & Sons, Inc, 6th Edition.



2 visualizações0 comentário

Posts recentes

Ver tudo