• Ricardo Anselmo de Castro

O CÓDIGO DAS OPERAÇÕES

Atualizado: 23 de abr.


O resultado esperado de um conjunto de operações dependentes entre si, quando existe variabilidade é tudo menos intuitivo ou linear. O artigo procura estender as fronteiras do entendimento, de como as operações realmente funcionam, e que mecanismos estão ao nosso alcance para as melhorar e gerar mais fluxo.


Palavras-chave: variabilidade, operações, throughput, produtividade




Identificar um gigante

O artigo começa, forçosamente, por evidenciar o trabalho desenvolvido por Eli Goldratt, o criador da Teoria das Restrições (TOC), no que diz respeito à sua descrição de como funcionam as operações. Este funcionamento está, segundo a TOC, totalmente dependente dos seguintes fatores: a dependência de recursos e as flutuações estatísticas.



Identificar a enorme área não endereçada pelo gigante

A ideia subjacente à TOC é a de que, para melhorar um sistema e obter-se mais throughput devemos sempre seguir os cinco passos de foco. Sob este aspeto, a palavra restrição ganha uma importância acrescida. Basta para isso recordar os primeiros três passos da melhoria contínua, à luz desta teoria:

  1. Identificar as restrições do sistema.

  2. Decidir como explorar as restrições do sistema.

  3. Subordinar tudo o resto à decisão anterior.


Nas operações, seja em ambiente industrial ou nos serviços estaremos tentados a dizer que, provavelmente, um certo recurso físico será o elo mais fraco (restrição) do sistema. O foco da melhoria contínua passará por pôr em prática um conjunto de decisões que ganhará forma, apenas no decorrer do terceiro passo. Essas decisões são tomadas no passo anterior, e sempre em relação às restrições, como por exemplo: «abolir a hora do almoço, só trabalhar peças boas, reduzir os tempos de preparação nesse recurso, etc.». Estaremos assim a explorar o que já se tem, e a eliminar os desperdícios nessa área ou estação. No caso das ações serem bem sucedidas, o throughput irá certamente aumentar.


Mas as coisas começam a ser menos evidentes, a partir do momento em que prestamos atenção, a cada palavra empregue, no segundo passo: «decidir como explorar a restrição». Isto levanta de imediato uma questão, que é: será possível tomar decisões que não se relacionam diretamente com a restrição e, ainda assim, retirarmos mais throughput? Será possível aumentá-lo, não atuando na própria restrição, mas apenas nos recursos de não-restrição? Alguns dos sinais dados por Goldratt parecem indicar uma resposta negativa. Um exemplo claro deste sinal está na sua analogia da corrente verbalizada no decorrer da série Goldratt Satellite Program, de 1999. No segundo vídeo é dito que:


«Se esta é a corrente e aqui está o elo mais fraco, e eu sou responsável por este elo (por um outro que não o elo mais fraco), tendo-o tornado três vezes mais forte, em quanto é que melhorei toda a corrente? Zero! Qual é o impacto? Este esforço foi feito à custa do tempo da gestão, com dinheiro. E se não teve impacto no todo, significa que teve um impacto negativo. O oposto ao pretendido!»


Reiterando a questão, agora segundo a analogia: será possível aumentar a força da corrente como um todo, melhorando um elo que não seja o mais fraco?

Aos ombros de um gigante

Sabe-se que Goldratt lutou toda a sua vida contra os ótimo locais, porque de uma coisa temos a certeza: quando se melhora o desempenho de uma restrição, melhora-se o desempenho de todo o sistema. Estamos seguros de que se identificarmos corretamente as restrições e as explorarmos, que iremos melhorar todo o sistema. Não há por isso o risco do tempo e esforço serem em vão. Nestes casos, o retorno dar-se-á. Estou em crer que, devido a isso, no vídeo enunciado, o objetivo primário era passar uma mensagem forte e efetiva, mas não necessariamente uma mensagem totalmente exata ou precisa. Isto é, atuando favoravelmente numa restrição o sistema melhora. Sempre.


Mas será possível aumentar o throughput, atuando numa não-restrição?



A diferença conceptual?

Será a analogia da corrente um espelho fiel da realidade? O cerne da questão está nas flutuações estatísticas sentidas nos vários recursos, embora essas flutuações não sejam consideradas na analogia da corrente. Por exemplo, a mesma analogia não explica como é possível às empresas que não seguem um pensamento TOC – e a inerente «paranoia» por identificar e decidir como explorar as restrições – conseguirem, ainda assim, apresentar bons resultados e melhorias (também há outras tantas que se afundam mais e mais).


Como será então possível às empresas continuarem a melhorar, mesmo não estando sensibilizadas para o conceito tão importante que é o de gerir as restrições? Seria difícil atribuir tais resultados apenas à sorte ou à intuição. Por outras palavras, estas empresas não estão preocupadas em identificar, primeiro, as restrições no seu sistema e melhorarem a partir daí. Ainda assim, as melhorias acontecem. O pensamento prevalecente destas organizações que não seguem um pensamento TOC é o de que qualquer melhoria local leva a uma melhoria global. Veremos mais à frente, que sob certas condições, esta premissa é válida. De facto, se estivermos verdadeiramente interessados na melhoria contínua, será fundamental entender, muito bem, quando é que podemos dizer que uma melhoria local leva a uma melhoria global (mas também de quando é que não leva). Pisamos em terra firme ao afirmar que melhorando o desempenho de uma restrição está-se a melhorar o desempenho de todo o sistema, mas será que estamos confinados a esta «região», ou haverá uma base maior para se poder melhorar globalmente?


Relembrando a pergunta inicial: será possível explorar todo o sistema atuando numa não-restrição? Ou se preferirmos: será possível aumentar o throughput do sistema, mesmo não atuando diretamente na própria restrição? De forma honesta, a resposta depende da definição que damos à palavra «restrição». Vejamos.



Identificar o falso pressuposto

Como se lê em (Goldratt, 1990), enquanto as flutuações estatísticas não permitirem que os elos sejam idênticos entre si, existe apenas um elo mais fraco (ou uma restrição) numa corrente. Goldratt estava por isso ciente da não linearidade das operações devido à sua variabilidade, mas de certa forma, acabou por não desenvolver, ou pelo menos não expor, algumas das ramificações deste tema. Talvez a frase anterior possa ser descrita por um pressuposto mais abrangente: o recurso que, mesmo instantaneamente e face a todos os outros, apresente a menor capacidade (face à procura nele colocada), se incrementada, contribuirá para o aumento do throughput de todo o sistema.


Usemos então e uma vez mais o jogo dos dados para, através de simulações, entendermos a um outro nível:

  1. O pressuposto anterior

  2. As variáveis que influenciam o throughput e o inventário


Os cenários e as simulações

Alguns cenários foram já descritos no artigo «As malditas eficiências – Parte I» e «As malditas eficiências – Parte II». Recuperemos apenas a figura original.


Fig. 1. Simulação de uma corrente de operações. A variabilidade é simulada pelo valor do dado, entre 1 e 6. Existe um equilíbrio de capacidades (cada estação tem uma capacidade média de 3.5 bolas por hora).


Procuremos então lançar e responder a certas questões, através de simulações, recorrendo a 1000 repetições, em cada uma. Tal ajudará a obter um maior entendimento dos efeitos da interação muito pouco intuitiva, a interação:


# operações interdependentes × variabilidade


P1. Se quisermos melhorar e aumentar o throughput de todo o processo (haja procura) e considerando que todas as estações têm as suas capacidades equilibradas entre si, será indiferente, por onde começar a melhoria?


Para responder a esta recorrente questão, comecemos por atribuir o dobro da capacidade à estação 1, mantendo a variabilidade, ou seja, a capacidade da estação situar-se-á entre 7±2.5, isto é, entre 4.5 e 9.5 (E1). Depois, e mantendo esta nova capacidade na estação 1, façamos exatamente o mesmo, mas agora para a estação 2 (E1+E2). Repetimos o processo para a estação 3 (E1+E2+E3) e, finalmente, para a estação 4 (E1+E2+E3+E4). Repare-se que no final do descrito, todas as estações estarão novamente equilibradas em capacidade, entre si, mas agora com valores entre 4.5 e 9.5.

Fig. 2. Resultados no inventário na linha, quando se começa a aumentar a capacidade das estações, de montante para jusante. Na baseline as quatro estações têm uma capacidade vermelha, entre 1 e 6. No final da melhoria, todas as estações têm uma capacidade azul, entre 4.5 e 9.5.


Façamos de seguida exatamente as mesmas melhorias, mas desta vez de jusante para montante, ou seja, as melhorias começam na estação E4 e terminam na E1.

Fig. 3. Resultados no inventário na linha, quando se começa a aumentar a capacidade das estações, de jusante para montante. Na baseline as quatro estações têm uma capacidade vermelha, entre 1 e 6. No final da melhoria, todas as estações têm uma capacidade azul, entre 4.5 e 9.5.


Observa-se que não será indiferente a ordem pela qual se inicia um movimento de melhoria contínua, se não estiver em vigor um sistema que previna a sobreprodução. Na sua ausência, começar pelas estações mais a montante levaria a um resultado catastrófico em termos operacionais, na qualidade do serviço e ao nível financeiro, tal como se observa na figura 2. Vê-se também que em qualquer um dos casos, quanto menos «elos mais fracos» existirem, menor o inventário em sistema. Outra observação pertinente é o facto de se obter exatamente o mesmo nível de inventário, depois de todas as estações terem duplicado a sua capacidade. Isto mostra que tanto a variabilidade de cada estação como a disparidade entre capacidades médias influenciam a quantidade de inventário em sistema. Já quando se inicia um movimento de melhoria contínua a partir das estações mais a jusante, não será preocupante não ter um sistema que evite a sobreprodução, porque o desnivelamento das capacidades médias de cada estação evita qualquer excesso de inventário.


Fig. 4. Resultados no throughput da linha, quando se começa a aumentar a capacidade das estações, de montante para jusante. Na baseline as quatro estações têm uma capacidade vermelha, entre 1 e 6. No final da melhoria, todas as estações têm uma capacidade azul, entre 4.5 e 9.5.


Fig. 5. Resultados no throughput da linha, quando se começa a aumentar a capacidade das estações, de jusante para montante. Na baseline as quatro estações têm uma capacidade vermelha, entre 1 e 6. No final da melhoria, todas as estações têm uma capacidade azul, entre 4.5 e 9.5


Quanto ao throughput, e olhando para as figuras 4 e 5, observa-se que os resultados são um espelho quase perfeito (as diferenças devem-se ao acaso do simulador). Por outras palavras, sob uma perspetiva «mecanicista», sem intervenção humana e desconsiderando o impacto que, na vida real, o nível de inventário acumulado tem no throughput, é indiferente começar uma iniciativa de melhoria, seja por montante ou jusante do processo. Mas os resultados destas duas figuras fazem saltar, de imediato, uma nova pergunta:



P2. Por que razão o throughput da linha aumentou, sempre que se duplicou a capacidade de um recurso de não-restrição (por exemplo, quando na figura 4, se passa do cenário E1 para o E1+E2?


Para respondermos a esta inquietante questão, é importante não esquecer que, quando nos encontramos na baseline, todas as estações têm exatamente a mesma capacidade teórica de 1 a 6 – região vermelha da figura 6. Quando, na figura 4, se decidiu aumentar para o dobro a capacidade da estação E1 (estação candidata à melhoria na figura 6) estávamos, com isso, a tornar todas as outras estações mais independentes e a reduzir a probabilidade de se ter uma restrição que andasse a saltar de um lado para outro.


Fig. 6. Na baseline, todas as estações apresentam a mesma capacidade, de 1 a 6.


Vejamos melhor o porquê de isso acontecer com a ajuda da figura 7. Quando iniciámos a melhoria de montante para jusante, a estação E1 foi a primeira a sofrer uma duplicação da sua capacidade teórica, entre 4.5 e 9.5 – região azul. No fundo, o que fizemos foi reduzir a sobreposição de capacidades entre estações. Reduzir a sobreposição é o mesmo que dizer que a estação E1 tem agora mais capacidade protetora para as estações restantes, e será cada vez menos provável que esta se transforme, momentaneamente, na restrição do sistema. Ainda assim, tal continua a ser possível, sempre que para uma determinada hora, E1 apresente uma capacidade de 5 e as outras apresentem uma capacidade de 6.

Fig. 7. Capacidade possível de cada estação, para uma determinada hora. A vermelho as estações que não sofreram qualquer melhoria e a azul aquelas que viram a sua capacidade a ser duplicada.


Sempre que tal acontece, a restrição do sistema muda momentaneamente de lugar e a linha, como um todo, perde throughput: por hipótese, pode ser que a estação E2 pudesse processar 6 unidades, mas a E1 só disponibilizou 5. Ou, que a estação E1 poderia processar 6 unidades, mas só conseguiu processar 5. A perda de throughput está por isso associada às dependências que ainda se fazem sentir, entre os elos da corrente. Tal deixará de acontecer, apenas e só, quando a sobreposição de capacidades for zero (ou gerarmos um banco de inventário infinito entre estações).


Na situação de E1 ter, por hipótese, uma capacidade equivalente entre 10 e 15 bolas/hora, sabemos de antemão que nunca será por causa de E1 que a linha perderá throughput, porque é como se a dependência entre E1 e as estações restantes deixasse de existir. Sempre que eliminamos uma sobreposição de capacidades com a estação de menor capacidade estamos a eliminar uma dependência do sistema. No exemplo apresentado, e em termos de throughput, é como se passasse a existir só três estações. Por outras palavras, estamos a «retirar um grau de liberdade» ao sistema, deixando a estação de menor capacidade comportar-se de forma mais natural e com uma capacidade mais próxima àquela que teria, se trabalhasse de forma isolada. A sua capacidade real será, por isso, igual à sua capacidade teórica, quando deixar de haver qualquer sobreposição com as outras estações.


Repare-se que é exatamente isso o que se vê na figura 4, quando colocamos as estações E1, E2 e E3 com uma capacidade azul. Sabendo que a sobreposição ainda existe, mas já sendo mínima, observamos que o throughput da linha é praticamente igual à capacidade do elo mais fraco – a estação E4 – como se esta estivesse a trabalhar de forma independente. Dizendo a mesma coisa com números: se a estação E4 trabalhasse de forma independente iríamos obter um valor médio de 35 unidades ao final de 10 horas (10 voltas na simulação) porque 3.5 × 10 = 35, o mesmo valor que se obteve para o throughput da linha quando E1, E2 e E3 apresentam uma capacidade azul!


É por esta razão que pouco importa a ordem pela qual se melhoram as estações. Pode-se assim dizer que, mesmo quando se atua numa não-restrição, o desempenho de todo o sistema irá melhorar, enquanto houver sobreposição de capacidades com a estação de menor capacidade. Quando a sobreposição for igual a zero, a única forma de nessa altura se aumentar o throughput da linha é atuando na capacidade do elo mais fraco – a verdadeira restrição. Chegamos assim a uma nova e inevitável pergunta.



P3. Em que situações compensa atuar nos recursos de não-restrição?


Se por um lado a resposta parcial já foi dada com a pergunta anterior, por outro deveremos querer entender este fenómeno, a um nível muito mais profundo. Consideremos três situações distintas, onde o objetivo de qualquer uma delas é conseguir aumentar o throughput da linha, tanto quanto possível. Para cada situação existe sempre duas opções A e B.


Fig. 8. Situação 1. As estações a negrito são as que veem a sua capacidade a ser aumentada, em uma unidade, face à baseline.


A pergunta é: qual das opções, A ou B, em cada uma das situações é mais favorável para o aumento do throughput? Pelo que já vimos anteriormente, sabemos de antemão que qualquer uma das opções seguintes fará aumentar o throughput da linha, pois existe uma sobreposição teórica das capacidades, entre estações. Mas, havendo sempre uma limitação de recursos, e estando uma empresa a competir com a concorrência pelo mesmo mercado, fará todo o sentido entendermos se estamos ou não a tomar a melhor das decisões possíveis.


Fig. 9. Diferenças de desempenho do sistema, segundo a opção A ou B, para a situação 1.


Observa-se que quanto menor a sobreposição das estações de não-restrição com o elo mais fraco (situação da baseline), menos sentido faz atuar nas mesmas. Sob este enquadramento, o pensamento verbalizado por Goldratt faz todo o sentido: «em quanto é que melhorei toda a corrente? Zero! Qual é o impacto? Este esforço foi feito à custa do tempo da gestão, com dinheiro, com tempo. E se não teve impacto no todo, significa que teve um impacto negativo. O oposto ao pretendido!». Nesta situação, é mandatório identificar corretamente a restrição e não atuar nas não-restrições, se quisermos melhorar no global.


Vamos à segunda situação. Desta vez, os recursos de não-restrição apresentam, desde a baseline, uma sobreposição muito maior com o elo mais fraco.


Fig. 10. Situação 2. As estações a negrito são as que veem a sua capacidade a ser aumentada, em uma unidade, face à baseline.


Fig. 11. Diferenças de desempenho do sistema, segundo a opção A ou B, para a situação 2.


Pela figura anterior, observa-se que é uma boa decisão atuar e melhorar todas as três estações de não-restrição, no caso dessas ações serem mais simples e fáceis, por comparação com uma melhoria da mesma magnitude no elo mais fraco. Por outras palavras, quando as capacidades entre estações estão relativamente equilibradas, e há a possibilidade de se melhorar em diferentes locais, a importância de se identificar (corretamente) a restrição é menor (pelo menos no curto prazo). Nesta situação, a soma dos ótimos locais geram um ótimo global maior do que se só atuasse na restrição (isto sem considerar o turbilhão de atividades, gerado por muitas melhorias locais, bem como a respetiva entropia e stresse que poderá causar – mas olhando para o sistema de um ponto de vista meramente mecânico é o que se obtém). Ao estarmos a desequilibrar as capacidades, entre as estações que melhoraram e aquela que não melhorou, estamos a equilibrar o fluxo. Consequentemente, a qualidade e a fiabilidade do serviço prestado aumentam.


Vejamos, finalmente, a última situação. Desta vez não é possível melhorar todas as estações de não-restrição, mas apenas uma. Onde fará mais sentido atuar? Observa-se que o elo mais fraco é sempre o que mais condiciona a velocidade a que a empresa gera throughput.


Fig. 12. Situação 3. As estações a negrito são as que veem a sua capacidade a ser aumentada, em uma unidade.


Fig. 13. Diferenças de desempenho do sistema, segundo a opção A ou B, para a situação 3.


Se quisermos, quando só existe a possibilidade (ou recursos) para se melhorar em um só local, ou quando se conhece a restrição, a ação que deve ser tomada e que contribuirá para um maior throughput é aquela que incide no elo mais fraco. Naturalmente que, para isso se torna fundamental saber identificar e explorar corretamente a restrição.



P4. Por que razão o throughput mais do que duplicou, quando se duplicou a capacidade do (único) elo mais fraco que restava (figuras 4 ou 5)?


Para responder a esta observação que pode ter escapado ao leitor menos atento, precisamos antes entender o que pode ser visto como o throughput teórico (TT) da linha. Se todas as estações estiverem equilibradas entre si, o resultado que se espera (ingenuamente) obter é o dado pela expressão (1). Ou seja, é o valor da capacidade média individual de cada estação (igual entre todas) multiplicado pelo número de horas trabalhadas (número de voltas - V - na simulação). Para o caso de uma capacidade média de 3.5 bolas/hora e, trabalhando-se 10 horas, o valor médio esperado para o TT é de 35 bolas.


Mas, mais do que o valor teórico estamos importados em conhecer o valor real, o TR que pode ser descrito como sendo igual ao TT menos um desvio delta - expressão (2).


Finalmente, a fórmula empírica do delta, construída a partir das várias simulações realizadas, para o domínio estudado é dada pela expressão (3). O fator "A" corresponde à amplitude individual de cada uma das 4 estações (por exemplo, num dado pontuado de 1 a 6, a amplitude vale 5 porque 6–1=5. Para o caso de A=5 e V=10 obtemos, pela expressão (3), um delta médio de 10 bolas. Substituindo em (2) vemos que o TR esperado é, pois, de 25 bolas.


Estudando todas as combinações possíveis entre V e A, para o domínio descrito na figura 14, obtemos os deltas respetivos. Repare-se que o delta não depende da capacidade média de cada estação! Repare-se também por que razão temos tão pouca intuição, quando procuramos visualizar os efeitos da interação número de Voltas × Amplitude. As curvas da figura mostram como o comportamento é pouco linear, tornando todo este fenómeno mais difícil de ser entendido.

Fig. 14. Região de valores referente ao delta para 4 estações com iguais variabilidades e capacidades médias.


Mas podemos agora responder à pergunta colocada, se estabelecermos uma relação entre o delta e o throughput teórico (TT). Isto é, se dividirmos a equação (3) pela (1), observamos que para uma determinada condição de número de voltas e amplitude, acabamos com uma constante no numerador. A ser assim, vê-se que a razão apresentada em (4) é inversamente proporcional à capacidade média das estações. Por outras palavras, quanto maior a capacidade média, menor a diferença entre o TT e o TR, sob a relação:

Não é por isso de admirar que na figura 4 e 5, quando todas estações voltam a ter a mesma capacidade média (depois de se ter duplicado o seu valor, passando de 3.5 para 7), que se veja um salto no throughput real, superior a essa duplicação individual (se o salto fosse linear passaríamos de 25 para 50 bolas, e não para 60 bolas, como é o caso). Dito de outra forma, o aumento da capacidade média atenua as diferenças entre o throughput teórico - TT - e o throughput real - TR. O próprio delta (que não é mais do que a diferença entre TT e TR) tende para zero com o aumento das capacidades médias. Esta ideia está expressa na figura seguinte:

Fig. 15. Relação entre throughput teórico e real, com o aumento da capacidade média das 4 estações (curva referente a um A = 5 e um V = 10).



Corolários e a ligação ao design axiomático

Talvez estejamos em condições de formular os seguintes corolários:


#1: Todos os recursos que momentaneamente se tornam no elo mais fraco, se melhorados, contribuirão para o aumento do throughput do sistema, como um todo.


#2: Enquanto os recursos de não-restrição não permitirem que o elo mais fraco tenha um desempenho igual ao que teria, se operasse de forma isolada (devido à sobreposição de capacidades), qualquer aumento de capacidade nesses recursos de não-restrição contribuirá para o aumento do throughput do sistema, como um todo.


#3: O aumento substancial na capacidade de um qualquer recurso que esteja a prejudicar o desempenho do elo mais fraco «habitual» contribui, na prática, para a redução do número de eventos dependentes. Em consequência, a fiabilidade e o throughput do serviço aumentam.

#4: Em condições idênticas, de 1 para 1, a velocidade de melhoria é sempre maior, quando se atua na restrição (e haverá um momento em que só atuando na restrição é que será possível melhorar ainda mais o sistema).



Todos os corolários apontam na mesma direção e estão totalmente alinhados com os dois axiomas do design axiomático. Sabe-se que um design de desempenho superior (por exemplo, o modo como se planeia desenhar uma linha de operações) é aquele que apresenta requisitos funcionais independentes (primeiro axioma). Basta pensar nas torneiras «mais recentes» de uma cozinha, que conseguem controlar, de forma independente, o caudal e a temperatura da água, por oposição àquelas mais antigas que para se aumentar a temperatura era preciso aumentar o caudal. Como acabámos de ver, quanto mais independente o elo mais fraco se tornar das restantes estações, melhor o desempenho das operações.


Mas também o segundo axioma se verifica. Este diz que, estando garantido o primeiro axioma, o design será tanto melhor, quanto menor a informação necessária para este funcionar, porque causará menos erros e entropia. Entre dois sistemas com funcionalidades de desempenho idêntico, é mais fácil gerir aquele que tem menos linhas de código ou instruções. Esta quantidade de informação pode ser mensurada pela própria variabilidade do sistema e pela sobreposição de capacidades entre os recursos de não-restrição e o elo mais fraco. Quanto maior a variabilidade e a sobreposição apresentada entre as estações referidas, maior a complexidade e a entropia. O caso extremo acontece quando se procura equilibrar as capacidades de todas as estações de uma linha! Infelizmente, esse caso extremo reflete o pensamento e a prática prevalecente, pensamento esse defendido por muitos livros de gestão das operações e pela própria contabilidade dos custos.


Mas olhemos para mais alguns números, a partir da figura seguinte, para solidificar os conceitos abordados. Por exemplo, observa-se que à medida que a sobreposição teórica (e real) da estação 4 começa a diminuir, face às demais, menor a probabilidade da capacidade da mesma ser inferior às restantes (para uma determinada hora).

Fig. 16. Evolução do throughput, com a redução da sobreposição teórica (e real dada pela probabilidade), da estação 4.


E se desenharmos a relação entre a sobreposição teórica e a variação do throughput obtido, (colunas respetivas da figura anterior), vemos que, à luz do domínio estudado, continuar a diminuir a sobreposição num recurso de não-restrição, quando esta é já inferior a 50% trará um retorno cada vez mais marginal (ler o gráfico da direita para a esquerda). Ou seja, nessa altura o esforço será cada vez menos compensado e fará sentido colocar antes o foco, em outros recursos que apresentem maiores sobreposições.

Fig. 17. É razoável assumir que as operações deverão começar a colocar o foco noutros recursos, quando qualquer um apresentar uma sobreposição, com o elo mais fraco, inferior a 50%.


Em síntese, procuremos descrever o valor do throughput e inventário, tanto em termos da sua tendência central, como em termos da sua variabilidade esperada, segundo as seguintes variáveis explicativas:


CR Capacidade média elo mais fraco

CNR Capacidade média dos elos de não-restrição, mas com sobreposição com CR

A Variabilidade

V Tempo (número de voltas)

N número de estações


O objetivo é tão somente mostrar se as variáveis apresentam uma relação que é diretamente ou inversamente proporcional com o throughput e o inventário. Salta de imediato à vista que um pensamento de Lean Six Sigma faz todo o sentido, quando se constata que processos mais simples e com menos variabilidade promovem um throughput maior e mais estável.


Fig. 18. Relação entre as variáveis críticas das operações e o throughput.




Fig. 19. Relação entre as variáveis críticas das operações e o inventário. A variação média do inventário com as capacidades dos recursos está dependente da existência de um mecanismo que evite a sobreprodução.



Conclusão

Retomemos a pergunta inicial: será possível aumentar o throughput do sistema, mesmo tomando decisões que não passam diretamente pela própria restrição? Como foi dito, a resposta depende da definição que damos à palavra «restrição». Se estivermos a tirar fotografias a cada segundo ao processo, a restrição será aquele recurso que nesse instante não permite ter-se mais throughput. Sob esta definição, qualquer aumento de capacidade nos recursos de não-restrição não tem qualquer impacto no desempenho do sistema. Mas, por norma, não definimos a restrição, desse modo. Ou seja, se um recurso – seja E2 – for o elo mais fraco em 90 por cento do tempo, será legítimo dizer que E2 é a restrição do sistema. Se, de quando em vez E3, que é um recurso com mais capacidade se transforma (em 10 por cento do seu tempo) no elo mais fraco do sistema, será então legítimo dizer que se conseguirmos reduzir (de vez) esses 10 por cento para 0 por cento, estaremos certamente, através de uma não-restrição a aumentar o desempenho de todo o sistema.


De uma forma ou de outra, o artigo mostra que é possível atuar localmente, em mais do que um lugar e aumentar o throughput, mesmo sem se identificar corretamente a restrição, mas apenas se houver uma sobreposição de capacidades com o elo mais fraco. Resta saber se nessas condições, a velocidade a que a empresa melhora é pelo menos igual à da concorrência. Ainda assim, ao nível do throughput, mesmo não se seguindo os 5 passos de foco da TOC (mas havendo procura) será mais positivo melhorar localmente, do que ficar parado, enquanto existir essa sobreposição de capacidades. Para esta melhoria ser efetiva é obrigatório ter-se um mecanismo que evite a sobreprodução, pois sabemos o impacto negativo que o excesso de inventário tem no próprio throughput. A partir do momento em que essa sobreposição desaparece, então só atuando no elo mais fraco (a verdadeira restrição) para conseguirmos aumentar o ganho do sistema. Contudo, estou em crer que para uma empresa que aqui chegue deverá ser, para si, bastante evidente onde se situa a restrição, quanto mais se aumentar a capacidade de todos os outros recursos.


Em suma, a Teoria das Restrições continua, num «plano mecanicista», a fornecer a melhor receita para se melhorar no menor tempo possível, e quem o fizer destacar-se-á da concorrência, mas o artigo mostra também que, segundo uma definição mais consensual de restrição, a receita da TOC não é a única forma disponível para se melhorar o sistema como um todo e, talvez ainda mais importante, que é possível fazê-lo através dos recursos de não-restrição, mediante as condições já referidas [1].


Mesmo para as empresas não-TOC é altamente provável que elas estejam a desequilibrar as capacidades entre as estações de não-restrição e o elo mais fraco, o que só ajuda a aumentar o fluxo e o nível de serviço (pese embora a intenção prevalecente dessas empresas seja o objetivo oposto de equilibrar as capacidades)! Mas, não seguindo um método rigoroso como é o caso dos cinco passos de foco da TOC é provável que de quando em vez regridam na qualidade do próprio serviço prestado, perdendo assim terreno para quem tiver esse cuidado extra.

[1] O autor está ciente que outros mecanismos desenvolvidos pela TOC, como é o caso de um buffer de tempo são formas de explorar a restrição, sem se atuar na própria restrição.



REFERÊNCIAS

[1] Goldratt, E. (2014). The goal. North River press; 4th edition.


[2] Goldratt, E. (1990). The haystack syndrome – sifting information out of the data ocean. North River press; 1st edition.


[3] El-Haik, B. (2005). Axiomatic Quality. Integrating Axiomatic Design with Six Sigma, Reliability and Quality Engineering. Wiley; 1st edition.

4 visualizações0 comentário

Posts recentes

Ver tudo