O artigo mostra três cenários distintos nas operações e o impacto que cada um tem no fluxo das mesmas. O artigo mostra ainda que, na vida real, equilibrar as capacidades nas operações – na tentativa de se chegar a eficiências elevadas – é a receita para haver elevadas disrupções ao fluxo, com consequências nefastas tanto no inventário como no próprio throughput da empresa.
Palavras-chave: variabilidade, operações, eficiência, produtividade
O ADN das operações
Se o objetivo primário das operações é gerar fluxo, o que estará a impedir de gerarmos ainda mais? Há vários fatores que contribuem para tal, mas temo que sem primeiro entendermos o seu ADN, toda a tarefa de gerar mais fluxo será muitíssimo mais difícil. Fará por isso sentido olharmos primeiro para os constituintes das operações, se quisermos ter a pretensão de melhorar consideravelmente.
Chamemos operações a qualquer conjunto de duas ou mais etapas com um fim em vista, e realizadas por dois ou mais recursos (sejam máquinas ou pessoas). Em qualquer operação começamos por usar material ou informação e acabamos por transformá-los em algo. Há por isso uma noção de sentido, para onde as coisas caminham e, consequentemente, existirá um fluxo. O ADN das operações é composto por apenas dois pontos:
1 – Interdependência dos recursos.
Se o recurso B está a jusante do recurso A e precisa do trabalho realizado por este, para fazer o seu, então diz-se que B está dependente de A. Por outro lado, se formos sensíveis à melhoria contínua, A precisará de B: B relatará a A que algo de errado se passa, sempre que B receber de A algum tipo de defeito. Pela figura chega-se rapidamente à conclusão de que o fluxo desta linha é igual ao output de cada uma das estações.
Fig. 1. Duas estações interdependentes, sem variabilidade, com um output final sempre igual a 5 unidades/hora.
2 – Variabilidade
Imagine agora que os recursos A e B são totalmente independentes entre si. Quer um quer outro apresentam, contudo, alguma variabilidade, ainda que em média consigam produzir 5 unidades por hora. Falamos em média porque o output de cada estação não é determinístico. Ninguém sabe, na próxima hora, qual será o número de unidades produzidas. Estamos à espera de que sejam 5, mas ninguém ficará surpreendido se forem 4 ou 7 unidades. Como Goldratt dizia, estamos perante flutuações estatísticas que podem estar mais ou menos ativas.
Fig. 2. Duas estações independentes entre si, mas com uma certa variabilidade. Cada estação tem um output médio de 5 unidades/hora.
O que dita a magnitude dessas flutuações é o irmão mais velho «Murphy». «Murphy» é qualquer evento não previsto ou não controlado que degrada o fluxo daquilo que a empresa vende. E, como a probabilidade de a torrada do lado com manteiga cair na carpete é proporcional ao seu valor precisamos tomar algumas precauções, no caso de querermos olhar para a realidade como ela é, em vez de como gostaríamos que fosse. Isto porque se todos entendem e reconhecem a validade de cada um destes dois pontos do ADN das operações, de forma isolada, muito poucos entenderão verdadeiramente a interação dos seus efeitos. Ou seja, temos muito mais dificuldade para descrever o que acontece, quando juntamos os pontos 1 e 2, em um só processo. Contudo, é sobre isso que estamos interessados em estudar, pois a realidade revela-se a partir dessa mesma interação. A prova de que o seu efeito é contra-intuitivo (e por isso longe de ser entendido) está na resposta mais comum à seguinte pergunta:
Qual o output médio esperado ao final de uma hora, numa operação constituída por duas estações interdependentes, se cada uma tiver uma capacidade média de 5 unidades por hora?
Fig. 3. Duas estações interdependentes, com variabilidade e a mesma capacidade média. Só muito raramente o output será superior a 5 unidades por hora.
Antes de respondermos a esta inquietante questão precisamos reconhecer as implicações resultantes desta interação interdependência × variabilidade, para uma linha com capacidades equilibradas. Por exemplo, quanto mais a jusante se estiver no processo, mais «fustigada» uma estação será. Isto porque ela sentirá toda a variabilidade e dependência dos passos anteriores. Em consequência, o seu desempenho real (ou o seu output) será sempre igual ou inferior ao desempenho real de qualquer estação que esteja a montante (à sua esquerda). Isto dará a falsa impressão que as últimas estações são sempre as principais responsáveis por tudo andar atrasado. Por outro lado, o output da linha será sempre igual ou inferior à estação que apresentou a pior capacidade global teórica.
Por estes factos não serem evidentes, quase todos respondem erradamente que o output médio esperado é de 5 unidades. Mais à frente iremos quantificar essas probabilidades, mas para já é mais importante ressalvar o seguinte: procurar equilibrar capacidades, num mundo dinâmico e com «Murphys» é uma luta inglória e fútil. Não só torna o processo totalmente imprevisível (pois dificilmente saberemos o que vai acontecer de uma próxima vez), como não garante um serviço de qualidade ao cliente, devido à própria falta de fiabilidade do processo.
As empresas que procuram esta utopia acabam por se ver obrigadas a recorrer a horas extra, a mascarar defeitos, a investir tanto em equipamentos dispendiosos para compensar um processo mal desenhado, como em muito mais inventário para cobrir os efeitos nefastos desta interação pouco reconhecida. Infelizmente, o prémio para todo este esforço é quase sempre reduzido e todos sofrem com isso, desde o colaborador que «não prestou atenção ao trabalho», passando pelo cliente que recebeu a encomenda muito mais tarde do que o previsto, até ao acionista, que leva menos dividendos para casa.
O foco do artigo não é tanto ir à causa raiz deste pensamento erróneo: uma empresa com capacidades equilibradas é uma empresa rentável.
O foco do artigo é demonstrar, por simulações, a invalidade deste argumento. Ainda assim, sabemos que este racional vem da contabilidade dos custos, ao defender que não deve haver recursos parados (pois tal corresponde a um enorme desperdício e lá se vão as eficiências).
Fig. 4. A prova dos 9 de que a contabilidade dos custos no século XXI continua de boa saúde.
Para confirmar que este pensamento distorcido continua bem vivo nas empresas resolvi publicar, no Linkedin, a ideia contrária para entender o nível de ressonância ou o nível de protestos (ver figura 4). Em 8 horas, obtive 11 reações para pouco mais de 450 visualizações. A maioria das reações veio de antigos alunos do programa de LSSBB do Técnico+ e de alguns clientes – o que não é surpreendente – mas torna esta publicação ainda menos bem sucedida.
Só em ambientes muito específicos, com uma elevada estabilidade será possível implementar uma linha aproximadamente equilibrada. A alternativa é «esperar» por 40 anos de melhoria contínua, tal como a Toyota mostrou ser possível. Felizmente, há alternativas mais fáceis e mais rápidas que deixo para uma segunda parte. Usemos então e para já, uma série de simulações para entendermos mais e mais a mecânica das operações. Talvez por simulações seja possível converter o leitor às conclusões do artigo.
Linha de operações
Imagine uma linha de operações composta por quatro estações, com um fluxo das coisas da esquerda para a direita (ver figura seguinte). Esta linha é totalmente válida seja para a indústria ou para os serviços. Para simular o «Murphy» e a capacidade instalada de uma estação, numa determinada hora, usaremos um dado pontuado de 1 a 6. O número de pintas refere-se ao número de unidades processadas por uma certa estação, numa determinada hora. Assume-se ainda que a procura por este produto ou serviço é constante e igual a 3,5 unidades por hora. Repare-se que, em média, a capacidade de cada estação é precisamente igual à procura colocada porque (1+6)/2=3,5 unidades. A linha está ainda (e em média) totalmente equilibrada. A pergunta que agora se coloca é: se deixarmos passar 10 horas, quantas «bolas» de produto final iremos ver após a estação 4? Em teoria 3,5 unidades/hora × 10 horas, ou seja, 35 unidades processadas. Será mesmo assim? E, já agora, qual o nível de inventário que iremos obter ao final das 10 voltas?
Fig. 5. Funcionamento de uma linha de operações
Vejamos. A figura 5 mostra já o que aconteceu ao final de uma hora. Tendo saído primeiro um 2, a estação 1 conseguiu apenas processar duas unidades. Por hipótese, imagine que alguém faltou ao trabalho. Depois a estação 2 lançou o dado e saiu um três. Mas, como só havia duas unidades para processar, apenas duas «bolas» avançaram para a estação seguinte. A estação 3 processou assim as duas unidades. Chegamos finalmente à estação 4. Ainda que houvesse duas unidades para processar, só uma foi transformada em produto final, pelo facto de ter saído um 1. A outra unidade ficou em espera para ser processada na hora seguinte.
Cenário A
Para este cenário, basta dar continuidade ao raciocínio anterior. Ao final de 10 voltas conseguiu-se vender 28 «bolas» e ficámos com um inventário de 12. Repare-se que estaríamos à espera de obter um valor muito próximo – ou com um pouco de sorte – até superior a 35 «bolas». Repetindo a mesma experiência 1000 vezes (para entender se isto foi mesmo azar), obteve-se os resultados da figura 6.
Fig. 6. Sob o cenário A, a probabilidade de se obter um valor superior a 35 unidades, ao final de 10 horas é de apenas 9 em 1000.
Agora imagine-se na vida real, onde o «Murphy» é muito mais ativo e onde não são apenas 4 estações, mas muitas mais. Na prática, quando lutamos por equilibrar as capacidades de uma linha para funcionar a X unidades por hora, sabemos agora de antemão que jamais iremos obter um output com esse valor de X. Iremos sempre obter um valor menor e às vezes um valor muito menor. Para aumentarmos a intuição do relatado, vejamos o vídeo seguinte:
Cenário C
Sob este cenário, alguém terá ouvido Deming. O que se fez foi reduzir drasticamente a variabilidade em todas as estações. Embora a capacidade em termos médios não tenha sofrido alterações (3,5 unidades), agora cada estação tem uma capacidade de 3 ou de 4 (removeram-se as pintas 1, 2, 5 e 6 do dado). No fundo, foi isto o que a Toyota conseguiu fazer (conseguiu?): remover uma grande parte dos «Murphys» de todas as estações. Qual a probabilidade de se conseguir atingir este patamar em 1 ano? E em 5 anos? E em 20 anos? Mas pelo menos Deming estava certo: a variabilidade tem um efeito nefasto no negócio e ao reduzi-la é possível aumentar o fluxo e a satisfação do cliente.
Fig. 7. Tendências centrais e dispersão das vendas, para cada tipo de cenário.
Cenário D
Se o cenário C serviu para homenagear Deming, o cenário D serve para homenagear Ohno. De facto, ainda que a variabilidade seja igual à do cenário A, o que se fez de diferente foi limitar a quantidade de inventário entre estações, para com isso se eliminar a sobreprodução. Sempre que à frente de uma estação, o número de «bolas» é superior a 6, então a estação anterior para de produzir, até que o número volte a baixar. Foi esta a forma de replicar um sistema Kanban, à luz da simulação do cenário D. Evitar a sobreprodução tem um forte impacto no fluxo, mas tratando-se de uma simulação que é monoproduto, sem uma interação humana e sem a entropia que o excesso de material ou informação criam nas operações, não é possível ver tal impacto. Estando cientes deste facto e sob a perspetiva das simulações efetuadas, vê-se, na figura 7, que o cenário B é o mais eficaz e o que apresenta uma maior fiabilidade nos resultados. Os cenários A e D apresentam resultados estatisticamente significativos (pela elevada dimensão da amostra), mas não serão operacionalmente significativos. Consideram-se por isso iguais.
Comparemos agora pela figura 8, o nível de inventário entre os três cenários. Observa-se que o A apresenta um resultado pior. Novamente, as simulações em C e D apresentam resultados estatisticamente significativos entre si, mas não serão operacionalmente significativos. Consideram-se, por isso, iguais. Não esquecer, contudo, que as causas que levaram à redução do inventário, entre os cenários C e D são distintas. Em C procedeu-se à redução da variabilidade de todas as estações. Em D limitou-se explicitamente a quantidade de inventário que poderia estar entre estações. Sob a mesma figura e para as simulações C e D reforça-se a ideia de que desperdício e variabilidade são duas faces da mesma moeda, porque foi possível reduzir o inventário a partir da redução da variabilidade.
Fig. 8. Comparação das tendências centrais e dispersão do inventário, para os 3 cenários.
Finalmente, façamos um composto dos resultados apurados até agora, numa métrica de cariz global. Falo na rotação de inventário e que é dada pelo Throughput a dividir pelo Inventário. Procedendo aos cálculos para cada cenário e usando as 1000 simulações (repetições) em cada uma, vemos que o cenário C continua a ser o mais atrativo (mesmo parecendo ter uma dispersão maior) – ver figura 9. Isto acontecerá porque os valores do inventário são já próximos de zero e estamos a fazer uma divisão. Em segundo lugar temos o cenário D e, por fim, o A.
Fig. 9. Comparação do retorno /rotação de inventário, para cada cenário.
Conclusão
O artigo procurou, a partir de 3 cenários distintos, mostrar a importância que a interdependência das estações e a variabilidade têm no modo como o fluxo das operações não deve ser planeado e montado. Podemos fazer um paralelismo do cenário A com a contabilidade dos custos e com a forte ênfase que esta dá às eficiências. Vimos, pelas simulações efetuadas que esta é, de longe, a pior estratégia a adotar, se quisermos privilegiar um bom serviço ao cliente e se quisermos fazer dinheiro. O cenário C é o espelho das palavras sábias de Deming e que tanto a TQM como agora a Six Sigma pretendem demonstrar: a variabilidade tem um impacto bastante negativo no negócio. O revés da medalha é que para remover quase todos os «Murphys» numa linha equilibrada não acontece da noite para o dia. O horizonte temporal é medido em anos, senão décadas. Finalmente, o cenário D procurou (ainda que de forma incompleta) dar ênfase às palavras de Ohno e à necessidade de ter de se reduzir mais e mais os níveis de inventário. Tal protege o throughput de longo prazo e a própria produtividade.
A pergunta que agora se coloca é pois: se na maioria das vezes não é possível atingir-se uma linha equilibrada sem quase variabilidade, e muito menos num par de anos, será possível desenhar as operações de uma outra forma mais robusta e rápida? Foi então que Goldratt propôs os 5 passos de foco, como sendo o próprio processo de melhoria contínua a adotar nas empresas.
A parte II do artigo lida com isso, a partir de um novo conjunto de cenários e simulações.
REFERÊNCIAS
[1] Goldratt, E. (2014). The goal. North River press; 4th edition.
[2] Castro, Ricardo (2019). O ADN das operações - parte I
[3] Castro, Ricardo (2019). O ADN das operações - parte II
Comentários