top of page
  • Foto do escritorRicardo Anselmo de Castro

NÃO EXISTE DESVIO DE 1.5 EM SIX SIGMA

Atualizado: 29 de dez. de 2022


O artigo procura esclarecer o que significa o desvio Z=1.5, a sua origem e de que modo deve ser aplicado. O artigo pressupõe que o leitor tem conhecimentos de Six Sigma ao nível de green belt ou mais.


Palavras-chave: nível sigma, CTQ, design de tolerâncias, erro amostral




Enquadramento

Ao contrário do que se possa pensar, o desvio de 1.5 refere-se a um conceito inerente à Design for Six Sigma (DFSS) e que tem muito pouco que ver com «produções em série rotineiras». Mas, por alguma razão, talvez os praticantes da Six Sigma tenham vindo a olhar menos para os pressupostos que levaram à criação do desvio de 1.5, a ponto de aos dias de hoje ser fácil testemunhar a utilização indevida desta constante, sempre que se tenta estimar o nível sigma de longo prazo, seja em processos produtivos industriais ou serviços. Prova disso são as populares tabelas Z desviadas em 1.5, nos livros e sites de Six Sigma.


O objetivo do artigo é por isso mostrar o verdadeiro significado deste desvio e demover certos comportamentos, se quisermos ser sérios quanto à melhoria contínua e ao respeito pelos clientes.



A gestão da incerteza em ambiente de design

Não é novidade que para se lidar com a incerteza é normal recorrer a buffers, seja de tempo ou recursos. Dito de outra forma, colocamos coeficientes de segurança para nos protegermos. No papel, sabemos que a espessura de uma chapa metálica – uma CTQ do produto – para cumprir a sua função pode ser dimensionada em 10 milímetros, mas…pelo sim pelo não…é melhor desenhá-la com 15 milímetros, simplesmente porque não só há fatores que não conseguimos controlar, como há outros tantos que nem sabemos que influenciam o desempenho daquilo que queremos proteger em primeiro lugar. Daí que toda esta «paranoia» seja vista como um comportamento típico, racional e compreensível.


Historicamente, a engenharia de produto colocava (e ainda coloca) margens na ordem dos 25% da tolerância. Vejamos a figura seguinte, para entendermos melhor o significado desta percentagem.

Fig. 1 Valores para a espessura de uma chapa metálica. 15mm para a nominal e 14.60mm para o limite inferior de especificação.


Na verdade, o que a margem nos indica é que esperamos que o processo produtivo de chapas metálicas apenas use 75% da tolerância (descurámos a especificação superior, por questões de simplificação, mas sem perda de generalidade). A ser assim teremos uma segurança da segurança. Por outras palavras, estamos verdadeiramente interessados em evitar ter espessuras abaixo de 14.60mm, sob pena de produzirmos produto não conforme, gerarmos insatisfação no cliente e prejudicarmos o negócio. Completemos um pouco mais a figura anterior.

Fig. 2. Assume-se que a espessura segue uma distribuição normal e que esta é totalmente descrita pelo valor nominal ± 3s.


Vemos alguns pressupostos como por exemplo, o de que a CTQ em análise segue uma distribuição normal. Outro pressuposto é o de que, se num plano teórico a espessura varia de zero a mais infinito, em termos práticos é razoável assumir que a amplitude das espessuras que viermos a observar no processo produtivo não será em caso algum superior a 3 sigma, a contar do valor nominal. Chegamos ainda à conclusão de que o desvio-padrão deste processo deverá ser inferior a 0.10mm, se quisermos respeitar a margem pré-definida.


Garantir o desvio-padrão no valor referido é um objetivo importante, ao nível do design desta CTQ, quanto ao seu desempenho de curto prazo. Entenda-se curto prazo como sendo a janela temporal onde só estão presentes erros aleatórios instantâneos (variações intra-amostrais em SPC). Mediante esta estabilidade será muito pouco provável testemunharmos chapas com espessuras de valor inferior a 14.60mm.


Quão pouco provável é pouco provável? Para responder a isso, recordemos que o nível sigma é uma medida de qualidade. Quanto maior o seu valor, menor a probabilidade de se produzirem defeitos. O nível sigma de curto prazo (Z.ST) mede a distância do valor nominal à especificação – distância essa medida em desvios-padrão. Tanto pela figura anterior como pela fórmula seguinte chega-se à conclusão que:


O Z de curto prazo (short term) reflete, pois, a capabilidade ou a reprodutibilidade instantânea, e serve para estabelecer as expetativas mais otimistas (mas legítimas), a respeito de uma CTQ. Dito de outro modo, toda a variabilidade a que se assiste no curto prazo deve-se apenas e só, no tempo, ao erro amostral (erro puro). Estamos agora em condições de converter o nível sigma de curto prazo em defeitos por cada um milhão de oportunidades, ou DPMO. No exemplo, a oportunidade é uma só e corresponde à própria CTQ espessura. Contas feitas, a probabilidade de se produzir abaixo da especificação inferior, segundo as condições descritas na figura 2 é de 0,000032, ou 32 DPMO.


Mas é aqui que começam os problemas. O leitor deve sentir uma falsa segurança quanto a este valor, pois sabemos que o mundo não é estático e que dificilmente e ao longo do tempo manteremos um nível sigma de 4. O desvio-padrão de curto prazo (e a capabilidade instantânea) podem degradar-se devido a efeitos transientes ou permanentes. Na presença destes efeitos, falamos antes de desvio-padrão de longo prazo. Por sua vez, o facto de este estar «inflacionado» irá consumir em parte ou na totalidade a margem de segurança pré-estabelecida, originando assim mais defeitos do que o desejável. Intuitivamente sabemos que este argumento é racionalmente atrativo e que de algum modo será prudente considerar outras fontes de variação, ainda no decorrer do desenvolvimento do produto. Mas, como fazê-lo, se o processo produtivo pode nem sequer ainda existir? Junte-se a isto algumas evidências realçadas por Mikel Harry, o padrinho da Six Sigma: Harry constatou, ainda na década de 80, que se por um lado muitos processos, produtos e serviços de várias áreas e indústrias eram desenhados para funcionar a 4 sigma, por outro e na prática, o número de defeitos situava-se na ordem dos 5000 ou 7000 DPMO ou seja, bem acima dos 32 DPMO. Como explicar este fenómeno?



Ir ao âmago da questão

Para se entender melhor o propósito do que será descrito valerá a pena fazer-se um enquadramento histórico, quanto ao que se vivia na Motorola em meados da década de 80. Anos antes, em 1979, a empresa via-se a perder quota de mercado, em vários mercados. Durante uma reunião da gestão de topo o presidente Bob Galvin lança a questão: «mas o que se passa com a nossa empresa?».


Todas as respostas ecoavam em algo comum. A culpa era sempre de alguém do exterior – a economia, os japoneses. Foi então que se ouviu uma voz ao fundo da sala: «eu digo-vos o que está errado…a nossa qualidade é uma porcaria». Art Sundry, o gestor de vendas da área de negócios mais lucrativa da Motorola, implodia arrojadamente, a reunião. Galvin acabou por testemunhar com os seus próprios olhos e no terreno que, de facto, algo teria de mudar ao nível da qualidade se quisessem continuar de portas abertas. A história continua, mas estava dado o mote para que algum tipo de paradigma, desde a engenharia até ao pós-venda, mudasse. Na verdade, a pesquisa desenvolvida nos anos que se seguiram por Harry e Bill Smith – o inventor do conceito Six Sigma, em 1984 – acabou por dar razão às «acusações» de Sundry. Vejamos então porquê.


Imagine-se que um cliente decide comprar uma máquina protótipo produzida por um fabricante, apenas e só se todas as CTQ apresentarem uma capabilidade de longo prazo de 32 DPMO (Z=4). No mundo dos negócios, sabemos bem uma coisa: a confiança não é algo que impere entre fornecedores e clientes, especialmente se recuarmos 35 anos. É por isso de esperar que o cliente queira ver com os seus próprios olhos e ao vivo, aquilo que foi definido e contratualizado. É importante não esquecer que nos encontramos num ambiente de design.

Ora, um fabricante que pretende manter uma boa reputação irá trabalhar no sentido de reduzir fortemente a probabilidade de, na hora H, ficar mal visto perante o cliente.


Mas o que poderá ser então entendido como um evento de baixa probabilidade? Sabemos que uma probabilidade baixa é (historicamente) o equivalente a termos um ponto fora dos limites de controlo de um processo, ou seja, apenas 2.7 pontos em 1000 registados, ou 0.0027.


Em posse desta informação começa a ser evidente que as CTQ da máquina terão de ser desenhadas de modo a que, mesmo perante um «azar», a probabilidade de não se satisfazer as exigências do cliente (Z=4) seja inferior a 0.0027.

Neste contexto, a palavra «azar» é interpretada como uma estimativa enviesada e pessimista do desvio-padrão e/ou da média de curto prazo, em ambiente de teste (devido apenas ao erro amostral).

Harry e Smith procuraram dimensionar uma segurança adicional que fizesse frente a essa potencial estimativa «falhada» do desvio-padrão e/ou da média de curto prazo. O valor dessa segurança adicional é a resposta à seguinte pergunta: se recolhermos algumas amostras em subgrupos de 4, num processo centrado com a nominal e só estiverem presentes variações instantâneas, qual a diferença que iremos observar entre a média de todas as observações das amostras e o valor nominal, de modo a que a probabilidade de se obter essa diferença seja inferior a 0.0027?


A resposta é, aproximadamente, um desvio à nominal de Z=1.5 (Z.shift). Segundo (Harry, M. 2003) este desvio é um acerto estacionário na média de uma distribuição teórica e que reflete a potencial influência negativa do erro amostral, na estimativa do valor verdadeiro do desvio-padrão de curto prazo, nessa mesma distribuição teórica.


Para que não haja dúvidas, imagine-se que uma das CTQ da máquina se refere à espessura das chapas produzidas. Para um processo centrado, se medirmos a espessura a vários subgrupos de 4 chapas (de um mesmo lote) quando só erros amostrais estão presentes, temos que a probabilidade do valor médio amostral global ser inferior a X é de apenas 0.0027. X é o valor da média amostral e neste caso, igual à nominal menos 1,5 vezes o desvio-padrão de curto prazo.

Para deixarmos as emoções fazerem o seu papel, o leitor precisa de se colocar no lugar do fabricante. A máquina está a produzir chapas, o cliente está no meio da ação, enquanto se retiram amostras para se estudar a capabilidade da CTQ. Mesmo que num plano teórico a média da população não se altere e esteja alinhada com o valor nominal, ninguém estará à espera de obter duas amostras exatamente iguais, com a mesma média e desvio-padrão, pois existe sempre um erro amostral. Mas, se é a partir dessas amostras que se vai inferir se as exigências do cliente estão a ser respeitadas, então o fabricante não tem outra hipótese senão desenhar as CTQ da máquina, com uma segurança adicional de 1.5 (sem esquecer os pressupostos já referidos). Se o fizer, o cliente aprovará o desempenho, para cada CTQ, em 99.73% das vezes. Nada mau.


Em suma, se o cliente quer um Z de longo prazo de 4 por CTQ, o fabricante precisa desenhar cada CTQ, de modo a ter um Z instantâneo de 5.5 porque Z.ST = Z.LT + Z.Shift. Esta «almofada» torna-se fundamental se não quisermos correr riscos de fragilizar a relação, gerar desconfiança e deixar o cliente insatisfeito. Munidos desta informação podemos agora calcular, segundo a fórmula em (1’), o desvio-padrão de curto prazo:


Se conseguirmos desenhar a CTQ em questão nestes moldes, mesmo havendo um desvio composto de 1.5 – seja mais devido a um desvio à média ou a uma inflação do desvio-padrão – continuaremos a cumprir com os requisitos do cliente, para efeitos de aprovação (teste) final. Vejamos primeiro os resultados em termos gráficos, supondo que o desvio de 1.5 se dá totalmente sobre a média.

Fig. 3. Curva teórica com o desvio de 1.5, mas que ainda garante um Z de 4.


Fig. 4. Simulações com as médias amostrais para subgrupos de 4, com desvio equivalente à nominal de 0.109, resultando num Z.LT=3,96.


E agora analiticamente:


Conseguimos cumprir com as exigências do cliente porque colocámos uma margem superior aos 25% iniciais. Para este exemplo concreto, a margem necessária é equivalente a 45% da tolerância ou 0.182mm, tal como se vê na próxima figura.

Fig. 5. Valor da margem, em percentagem da tolerância, para um Z de curto prazo de 5.5.


Fig. 6. Simulações com as médias amostrais para subgrupos de 4, sem desvio, resultando num Z.ST=5,47.


Podemos agora varrer as opções mais comuns ao nível do Z e das margens, e tabelar os valores respetivos. Se um cliente exigir um determinado valor de Z de longo prazo, para cada uma das CTQ em análise sabemos agora, enquanto engenharia e ao nível de desenvolvimento de produto, o valor do Z de curto prazo que precisaremos ter, se quisermos garantir os seus requisitos em 99.73% das vezes. Por exemplo, se o cliente quiser uma CTQ com Z=4.5 precisaremos subir na tabela em 1.5 ou seja para um Z=6.0. Um nível sigma de curto prazo de 6.0 equivale sempre a uma margem de 50%, relativamente à tolerância. Por outras palavras, a CTQ será desenhada de modo a não consumir mais do que 50% da tolerância.

Fig. 7. Tabela que permite identificar o desempenho que uma CTQ deve ter, mediante o desvio de 1.5. Por exemplo, temos o dado de entrada exigido pelo cliente a vermelho e os dados de saída, usados pela engenharia e desenvolvimento de produto, a azul.



Por fim, o fator corretivo refere-se ao rácio do desvio-padrão entre o longo e o curto prazo. Por exemplo, se Z.LT = 4.5 e tal corresponder a um desvio-padrão de 0.20, então o desvio- -padrão de curto prazo equivalente a Z.ST = 6.0 é de 0.15 (= 0.20 / 1.33).


Numa perspetiva de design, inserir um desvio «artificial» de 1.5 sigma ao valor nominal de cada CTQ permite aos engenheiros antever cenários, muito antes do produto ser libertado para a produção em série.


E agora sim. Se nos lembrarmos que a Six Sigma e a Design for Six Sigma acontecem em momentos muito distintos na vida de um produto ou serviço, com ferramentas e metodologias distintas, talvez esteja na altura de se levantar nova e inquietante questão. Por que razão existe em qualquer livro de Six Sigma (não confundir com DFSS) uma tabela do nível sigma com o desfasamento de 1.5, se este só deve ser utilizado em ambiente de design? Do meu ponto de vista, esta é a receita perfeita para a confusão e a utilização de uma constante que, em ambiente de produção em série não deve ser de todo usada.


Segundo (Harry, M. 2003), muitos praticantes de six sigma são erradamente informados que o desvio de 1.5 sigma é uma correção empírica e que deve ser aplicada a processos já existentes, para efeitos de estimar a capabilidade dos mesmos. Por outras palavras, existirá uma crença não justificada de que todos os processos sofrerão um desvio de 1.5.


Como complemento à sua resposta, talvez a confusão resida na definição operacional de longo prazo. O desvio-padrão de longo prazo em ambiente de design tem pouco que ver com o desvio-padrão das operações repetitivas, ainda que a fórmula e as letras constituintes sejam as mesmas.



Pontas soltas

Uma outra questão recorrente e ligada ao desvio de 1.5 é: de onde vem esta «obsessão» pelo número 6 (sigma)? Os estudos comparativos realizados pela Motorola com as empresas japonesas na década de 80 davam conta que a concorrência não era 10 vezes, mas 1800 vezes melhor, quanto ao número de defeitos produzidos. Ou seja, enquanto a Motorola operava a 6210 DPMO, algumas empresas japonesas já se encontravam na vizinhança dos 3.4 DPMO.


Tendo em consideração o discutido, sabemos agora que em linguagem de design, uma qualidade de seis sigma de curto prazo equivale a ter-se não mais do que 3.4 DPMO no longo prazo (Z.LT=4.5). A empresa precisava fechar este hiato com a concorrência mais forte, se quisesse sobreviver nos próximos 5 anos. Para isso precisou reduzir nesse período, ano após ano, cerca de 78% dos defeitos nos seus produtos – algo que muitos não acreditavam ser possível, mas que deu força à visão seis sigma.


Aos olhos de Bill Smith, a génese dessa visão assentava no incremento da margem para 50%. Por sua vez, esta nova margem leva a uma redução da proporção de falhas nos produtos. Consequentemente, os custos internos de retrabalho e sucata diminuem, a necessidade de testar internamente os produtos diminui e, não menos importante, os custos de garantia também saem beneficiados. Tudo isto contribui para uma redução dos tempos de espera e para uma maior capacidade de resposta às flutuações do mercado. Finalmente, e constatando o óbvio, a satisfação do cliente aumenta.



Conclusão

O exemplo apresentado é industrial, mas não há perda de generalidade para os serviços. Basta pensar, por exemplo, no tempo decorrido num processo bancário para a obtenção de um empréstimo para reconhecermos que o tempo, neste caso, será visto como uma CTQ, que por sua vez pode ser desenhada e especificada.

Na Motorola e nas empresas que se seguiram, o mote para que algum tipo de paradigma, desde a engenharia até ao pós-venda mudasse traduziu-se em desenhar margens maiores para que se pudesse ir ao encontro dos requisitos do cliente, mais vezes. 25% deixou de ser suficiente e passou-se a falar em 50%, o que corresponde a uma qualidade Z.ST=6.0.


Quanto ao desvio de 1.5 a única pergunta que o leitor terá de fazer é: estou em ambiente de design? Se a resposta for não, esqueça esta constante. Daí o título do artigo em tom provocativo. Não se deve usar a constante em Six Sigma, mas deve-se usá-la em Design for Six Sigma, sob os pressupostos referidos.


Para saber mais a respeito de como calcular o nível sigma de longo prazo em operações repetitivas consultar o artigo: Cálculo na dimensão de uma amostra - Parte 2.



REFERÊNCIAS

[1] Castro, Ricardo A. (2012) Lean Six Sigma – para qualquer negócio, 3.ª edição, IST Press.


[2] Harry, M. (2003) Resolving the mysteries of six sigma. NY Times and Business Week.


[3] (Abril 2020) https://www.mikejharry.com

218 visualizações0 comentário

Posts recentes

Ver tudo
bottom of page