quinta-feira, 3 de setembro de 2015

Qualidade em serviços - História, conceitos e reflexões (9/9)




Texto: Luiz Gonzaga Godoi Trigo, 2015


Cronograma resumido das principais contribuições à evolução da qualidade no mundo (Estados Unidos, Japão e Europa), até 2000:

1918 – Inspeção industrial (EUA).

1920 – Apontamentos de W. Shewhart (EUA).

1930 – Inicia-se o controle estatístico na Bell Telephone Co., influenciado por Shewhart (EUA).

1945 – Constituição da SIC - Sociedade de Engenheiros da Qualidade (EUA) e início dos processos de inspeção (Japão).

1946 – A SIC passa a ser ASQC – Associação Americana Para o Controle de Qualidade (EUA). Constituição da JUSE – União Japonesa de Cientistas e Engenheiros.

1950 – A JUSE convida Deming para aplicar seu primeiro seminário sobre controle de qualidade no Japão.

1951 – Juran escreve, nos EUA, a primeira edição do Manual de Controle de Qualidade, institui os conceitos de economia da qualidade e qualidade no desenho (ou projeto). No Japão começam os procedimentos do Prêmio Deming.

1954 – Juran dirige seminários pra executivos no Japão, sobre planejamento e estabelecimento de objetivos e metas para a melhoria da qualidade.

1956 – Feigenbaum propõe o Controle Total de Qualidade (TQM) e, juntamente com Juran, fala da Engenharia do Controle de Qualidade, nos EUA. No Japão, acontece a integração do Sistema de Qualidade de Feigenbaum, quase simultaneamente aos EUA.

1960 – No Japão, encarregados de empresas são treinados nas técnicas de qualidade.

1961 – Origina-se o conceito de zero defeito na Cia. Martín, desenvolvido por Philip B. Crosby. Os dirigentes promovem o desejo constante e consciente de fazer o trabalho bem feito na primeira vez (EUA). Fundada na Espanha a Asociación Española para la Calidad (AEC).

1962 – Todos os operários japoneses são treinados nas técnicas de qualidade. Empresas, governos e universidades promovem a qualidade. Começam os círculos de qualidade. (Japão).

1970 - A JUSE, os sistemas de prêmio Deming e o governo estimulam a inovação e desenvolvimento da qualidade nacional japonesa. Como resultado nasce o movimento de Controle Total da Qualidade (TQC) e o Controle da Qualidade em toda a Empresa.

1974 – Os primeiros círculos de qualidade são implantados na Lockeed (EUA).

1975 – O TQC se estende aos desenhos e projetos japoneses. O QFD (Posicionamento na Função de Qualidade) expande-se pelo Japão.

1978 – Os círculos de qualidade são implantados na Rolls Royce britânica.

1980 - A alta direção das empresas norte-americanas começa a se interessar pela qualidade como tema estratégico: 3M, Westinghouse, HP etc. A indústria norte-americana, confrontada com o desenvolvimento da indústria japonesa, lança o slogan: Se o Japão pode, também podemos.

1980 – No Japão são implantados o sistema de produção on time e o istema Taguchi de desenhos de experimentos. No final da década os métodos Taguchi e QFD são incorporados às empresas.

1987 – Surge, nos EUA, a primeira versão das normas sobre sistemas de qualidade ISSO-9000. É instituído o Malcolm Bridge Quality Award, prêmio norte-americano de qualidade.

1988 – Assinada a carta da Fundação Européia para Gestão da Qualidade (EFQM).

1989 – Começa, em 19 de outubro, o Movimento Europeu para a Gestão da Qualidade.

1990 – Masao Kogure introduz, no Japão, o Controle da Qualidade Total para a Gestão Estratégica (AMTQC).

1992 – O prêmio Europeu para a Qualidade da EFQM é concedido pela primeira vez.

1994 – Primeira revisão das normas sobre sistemas de qualidade ISO-9000, nos EUA.

1995 – Na Europa o tratamento de qualidade estende-se aos setores de serviços, centros de saúde e educação superior. Surge na Espanha o Plan Nacional de Evaluación de la Calidad de las Universidades (PNECU)

1997 – Modelo de EFQM para PYME (pequenas e médias empresas) da União Européia.

1999 – Revisão do modelo EFQM europeu para modelo EFQM de Excelência.

2000 – Tendência, na América do Norte e Europa, rumo a um sistema integrado de gestão que agrupe qualidade, meio ambiente e prevenção de riscos no trabalho. A integração deve levar em conta os modelos TQM (norte-americano) e EFQM (europeu). Na América do Norte é feita a segunda revisão das normas sobre sistema de qualidade ISO 9000.

Fonte: Velasco, C. A. B. e GARCÍA, C. Q. 2003, p. 130 e 131.

 
A partir do século 21 cada vez mais novas tecnologias de informação e comunicação envolvem e incrementam os processos de qualidade.

X - O esgotamento do fordismo e o surgimento das sociedades de serviços (conceitos básicos para reflexão)

O fordismo, uma das primeiras grandes aplicações industriais do taylorismo, se estabeleceu ao longo de quase meio século por meio de uma série de decisões tomadas em vários níveis (individuais, corporativos, institucionais ou estatais). Foram escolhas políticas e respostas às crises do capitalismo, especialmente à Grande Depressão dos anos 1930. Após o final da segunda guerra mundial, em 1945, o fordismo chegou à maturidade como regime de acumulação plenamente acabado, formando a base de um longo período de expansão econômica industrial desde 1945 até o início da década de 1970. Durante esse período os padrões de vida se elevaram nos países capitalistas desenvolvidos, as tendências de crises foram contidas, a democracia de massa foi garantida e as ameaças de guerras entre os países capitalistas tornaram-se remotas, apesar da ameaça da Guerra Fria entre os países capitalistas e socialistas (1947-1991). Foi durante essa época que floresceu o American Way of Life, tão reproduzido nas artes disseminadas pela mídia, como nos desenhos de Norman Rockwell, nas telas do artista Andy Warhol, pela indústria cinematográfica de Hollywood ou pela publicidade tornada global, levando os símbolos do capitalismo norte-americano à Europa Ocidental, ao Japão e ao sudeste asiático, à Oceania e à América Latina.

Quais as marcas clássicas do capitalismo norte-americano industrial que você se lembra?










O fordismo aliou-se ao keynesianismo (doutrina econômica de Keynes) e juntamente, com o capitalismo, expandiu-se pelo mundo todo. O fordismo desenvolveu-se lentamente fora dos Estados Unidos antes de 1939. Após a década de 1940, foi implantado com mais intensidade na Europa e no Japão, como resultado do esforço de guerra e da vitória norte-americana. A sua expansão após a Segunda Guerra consolidou-se pelas políticas de ocupação dos EUA, pelo Plano Marshall (plano de ajuda aos países europeus devastados pela guerra) e pelos investimentos diretos norte-americanos que se seguiram. O fato é que os Estados Unidos foi o líder ocidental a sair vitorioso e fortalecido da segunda Guerra. Seu grande opositor, a ex-União Soviética (1917-1991), tinha problemas a resolver em sua área de influência direta na Europa Oriental e Ásia Central e na exportação da revolução para a África e América Latina, sem contar que a planificação socialista comprometeu o desenvolvimento pleno da tecnologia e ciência em todos os níveis da sociedade soviética. Aos médio e longo prazo o abismo tecnológico entre ambos os países cresceu imensamente, com plena vantagem para os EUA e o ocidente. O modelo de industrialização capitalista fordista parecia ser a fórmula perfeita de desenvolvimento permanente.
  
Caso: O National Museum of American History (Museu Nacional da História Americana), um dos imensos museus da Smithsonian Institution de Washington D.C. (EUA), mostra com farta documentação fotográfica, esquemática, maquetes, filmes e peças da época, a estruturação dos grande sistemas organizacionais americanos. O museu mostra como as grandes burocracias privadas e públicas, as redes de telégrafo, de energia elétrica e de estradas de ferro do início do século se organizaram. Outro museu Smithsonian imperdível é o Arts and Industries Building, com partes da exposição comemorativa do centenário da independência norte-americana de 1876, inclusive a produção industrial. O site da Smithsonian Institution é www.si.edu e do Museu Nacional de História Americana é www.americanhistory.si.edu



Mas o fordismo não solucionou todos os problemas. Havia uma diferença entre o que ele representava e o que realmente oferecia às pessoas. Havia os excluídos do sistema que se perpetuavam nos países em desenvolvimento e até mesmo nos países mais desenvolvidos. Gente que não conseguia as benesses propagadas pela televisão, pelo rádio e pelo cinema. As críticas e práticas da chamada contracultura da década de 1960 eram paralelas aos movimentos das minorias excluídas e às críticas da racionalidade burocrática impessoal e fria. As várias correntes de oposição começaram a se fundir no mesmo momento em que o fordismo, como sistema econômico, parecia mais fortalecido. Além da oposição iniciada nos países centrais do capitalismo, havia as críticas na periferia do sistema. Países pobres, onde as promessas de desenvolvimento, satisfação das necessidades e integração aos países ricos nunca se cumpriam e na prática esse modelo provocava destruição das culturas locais e opressão, em troca de poucos benefícios destinados apenas às corruptas elites locais que colaboravam com as multinacionais e com os métodos de gestão importados. Os progressos garantidos a todos não eram harmoniosamente distribuídos e criavam laços problemáticos de dependência.

Começaram então a surgir movimentos de libertação nacional, de caráter nacionalista ou socialista, e a hegemonia dos Estados Unidos foi contestada por vários grupos, desde o Movimento dos Países Não-Alinhados (seja ao capitalismo ou ao socialismo) até alguns setores da Organização das Nações Unidas, especialmente ligados à cultura (Unesco), alimentação (FAO e trabalho (OIT). Evidentemente os países do socialismo real (ex-União Soviética, leste europeu, China, Coréia do Norte) eram as grandes forças de contraposição ao capitalismo ocidental liderado pelos EUA.

Os problemas não eram apenas políticos. A face política e cultural desses conflitos tinha origem em raízes econômicas. Políticas de substituição de importações na América Latina geraram pólos industriais, a Europa ocidental e o Japão desenvolviam suas indústrias e todos passaram a competir com os norte-americanos em ambientes totalmente novos. “De modo mais geral, o período de 1965 a 1973 tornou cada vez mais evidente a incapacidade do fordismo e do keynesianismo de conter as contradições inerentes ao capitalismo. Na superfície, essas dificuldades podem ser mais bem apreendidas por uma palavra: rigidez. Havia problemas com a rigidez dos investimentos de capital fixo de larga escala e de longo prazo em sistemas de produção em massa que impediam muita flexibilidade de planejamento e presumiam crescimento estável em mercados de consumos invariantes” (Harvey 1993, pág. 135).

Essa rigidez é uma característica do capitalismo industrial que será duramente criticada por diversos analistas. Rigidez refere-se à disciplina rígida, hierarquizada, quase militar que prevalecia nas indústrias e em alguns antigos setores de serviços como bancos, hotéis, escolas, transportes ferroviários e marítimos. A conquista de qualidade em serviços nas sociedades pós-industriais teve que combater duramente essas antigas práticas gerenciais e administrativas para possibilitar o avanço nos parâmetros de qualidade .

Para complicar o quadro internacional, em 1973 a Organização dos Países Exportadores de Petróleo (OPEP) aumentou os preços do óleo e embargou a exportação do produto durante a guerra árabe-israelense. Com um número considderável de países islâmicos na Opep, o embargo e o aumento dos preços do petróleo foi uma retaliação pelo apoio que vários países ocidentais (liderados pelos EUA) deram a Israel. O aumento causou a elevação do custo dos insumos de energia e vários problemas financeiros no mercado internacional, principalmente uma instabilidade econômica preocupante. Em 1975, a cidade de Nova Iorque, dona de um dos maiores orçamentos políticos do mundo, atingia a falência técnica, exemplificando a gravidade dos problemas mundiais.

A recessão de 1973, aprofundada pelo choque do petróleo, catalisou uma série de movimentos que comprometeram o fordismo. Ao mesmo tempo surgiam os avanços tecnológicos nas áreas de eletrônica, telecomunicações e informática que dariam o golpe final nos antigos processos industriais e administrativos existentes.

As décadas de 1970 e 1980 foram períodos turbulentos de reacomodação social e política, econômica e cultural. Novas formações econômicas começaram a surgir, fruto das incertezas e dos conflitos mal resolvidos em um mundo que se transformava profundamente.

Essas mudanças fortaleceram o setor terciário, de comércio e serviços. As novas tecnologias propiciaram esse desenvolvimento e, concomitantemente, racionalizavam e criavam novas linhas de produção automatizadas no setor industrial.

Foi a época do aparecimento dos robôs nas indústrias, da disseminação de computadores cada vez menores, mais rápidos e baratos, da explosão dos chips e de novas linguagens de comunicação.

Em termos mais técnicos, o eixo principal das mudanças ocorridas nas últimas décadas do século XX foi a superação do fordismo em virtude do surgimento da chamada acumulação flexível:

A acumulação flexível é marcada por um confronto direto com a rigidez do fordismo. Ela se apóia na flexibilidade dos processos de trabalho, dos mercados de trabalho, dos produtos e padrões de consumo. Caracteriza-se pelo surgimento de setores de produção inteiramente novos, por novas maneiras de fornecimento de serviços financeiros, novos mercados e, sobretudo, taxas altamente intensificadas de inovação comercial, tecnológica e organizacional. A acumulação flexível envolve rápidas mudanças dos padrões de desenvolvimento desigual, tanto entre setores como entre regiões geográficas, criando, por exemplo, não só um vasto movimento no emprego no chamado ‘setor de serviços’, mas também conjuntos industriais completamente novos em regiões até então subdesenvolvidas. Ela também envolve um novo movimento de compressão do espaço-tempo no mundo capitalista – os horizontes temporais da tomada de decisões pública e privada se estreitaram, ao passo que a comunicação via satélite e a queda dos custos de transporte possibilitaram cada vez mais a difusão imediata dessas decisões num espaço cada vez mais amplo.” (Harvey 1993, pág. 140).

Horizontes mais amplos, tecnologias mais sofisticadas, comunicações mais rápidas e baratas, novas possibilidades de acesso.  Essas são as sementes da globalização que transformou completamente o mundo entre o final do século XX e o início do século XXI.


Essas sociedades pós-industriais possuem, portanto, um eixo caracterizado por termos como informação e conhecimento, palavras encontradas na maioria dos analistas e pesquisadores sobre as novas sociedades. Os serviços são então marcados por essas qualidades. Para não deixar dúvida sobre o que se está analisando sob o setor de informação para serviços, Charles Handy faz uma lista:

Educação                              
Artes criativas e arquitetura  
Pesquisa
Trabalhos em escritórios        
Música                                              
Design
Serviço público                     
Processamento de dados       
Mídia
Comunicações                                   
Software                               
Vendas
Filmes                                    
Contabilidade                       
Igrejas
Direito                                   
Fotografia                             
Imóveis
Psicologia e Psiquiatria         
Telecomunicações e Correio 
Publicidade
Trabalho social                      
Editoração                             
Finanças
Ciência                                  
Administração                                  
Gerenciamento
Sindicatos                             
Museus e TV                         
Setor gráfico
Governo (legislativo e executivo)

Fonte: Handy, C. 1990, p. 15-16

Essas divisões e agrupamentos variam de acordo com os autores que analisam o mundo atual e a globalização.

As sociedades agrárias trabalhavam com commodities, produtos armazenáveis que significavam riquezas palpáveis, mais ou menos perecíveis (cereais, frutas, tecidos, minerais, gado, óleo mineral e vegetal etc.). As sociedades de economia industrial trabalhavam com bens, produtos manufaturados e duráveis, com valor agregado às matérias primas e insumos, permeados pelo trabalho humano, a preciosa mais-valia de Karl Marx. As sociedades se serviços trabalham com os próprios serviços e as sociedades da experiência trabalham com sensações, na visão de Gilmore e Pine. Em um patamar mais exigente, essas sensações devem ser um espetáculo para o cliente, mas um espetáculo com certa autenticidade.

Ao longo dessa vertente as antigas economias, ou sociedades, não desaparecem. Incorporam-se aos novos patamares. Continuamos a precisar de suprimentos e bens, mas a tecnologia e os processos gerenciais desenvolvidos ao longo dos séculos já nos garantem essa riqueza material em escala suficiente. O que existe é uma má distribuição dessas riquezas pelo mundo, aliada a uma concentração brutal de riquezas e renda nas mãos de minorias estabelecidas nos países desenvolvidos e, em menor escala, nos países em desenvolvimento. Continuamos a necessitar de qualidade, seja no mundo agrário, industrial ou de serviços. E essa hipotética sociedade da experiência igualmente fundamenta-se em commodities, nos bens e serviços, pois as sensações não vêem do nada, não são puramente subjetivas ou imateriais. A qualidade continua a permear essas novas formações sociais. Do futuro e do passado. Prover ou providenciar uma matéria-prima, um bem, um serviço ou uma experiência com altos níveis de excelência depende de qualidade.


No futuro, a bordo das naves ou estações espaciais, seja em órbita da Terra ou atravessando o sistema solar rumo a “novos mundos, novas vidas”, ainda haverá commodities, bens, serviços e experiências a bordo. Assim como padrões de qualidade, pois as naves pioneiras não terão assistência técnica de reparo ou manutenção logo depois do cinturão de asteroides, entre as primeiras luas de Júpiter. Pelo menos no início das viagens espaciais de longo alcance. Portanto, o desafio de se conseguir – e manter – elevados padrões de qualidade é um projeto de longo alcance para a humanidade. Um desafio do presente e do futuro, para os próximos séculos.

Mas o desafio é fazer isso aqui e agora, em pleno século 21. Cada vez melhor e com mais economia, racionalidade e excelência. 


Texto: Luiz Gonzaga Godoi Trigo, 2015

 

quarta-feira, 2 de setembro de 2015

Qualidade em serviços - História, conceitos e reflexões (8/9)

Texto: Luiz Gonzaga Godoi Trigo, 2015



IX - Além da qualidade total

Ao final da década de 1990, o sistema de Total Quality Management (TQM) já era visto por muitos líderes empresariais do Estados Unidos como uma etapa, ou uma “moda”, pronta a ser substituída por outros métodos mais eficazes. Isso não significou necessariamente um abandono do método criado por Deming, Juran e pelos japoneses pioneiros da qualidade. Muitas empresas e organizações ao redor do mundo continuam a usar a TQM com sucesso. O que houve foi uma expansão de novos métodos e necessidades envolvendo a qualidade, inclusive no setor de serviços.


A qualidade deixava de ser algo eminentemente técnico e ligado aos engenheiros e executivos da indústria, para se tornar um campo mais acessível à sociedade em geral, inclusive aos consumidores. Houve um período de maturidade no que se refere aos processos de gestão e controle de qualidade, não apenas nos Estados Unidos e Japão, mas também na Europa, outros países da Ásia/Pacífico e na América latina.

A American Society for Quality aponta esses avanços relevantes na história da qualidade:

# No ano 2000, as séries ISO 9000 de padrões para mensuração de qualidade foram revisadas para dar maior ênfase à satisfação dos clientes. Como essa satisfação envolve um razoável teor de subjetividade, é evidente que o pensamento puramente técnico (dos estatísticos, economistas e engenheiros) começa a ser complementado pelo conhecimento gerado por psicólogos, antropólogos, especialistas em marketing, historiadores e sociólogos.

# Tem início, em 1995, a inserção de resultados de negócios nos critérios das medidas de sucesso do Malcon Baldridge National Quality Award, um dos maiores prêmios de qualidade dos Estados Unidos.

# Six Sigma significa uma taxa de erro de 3,4 peças por um milhão ou 99,9997% de perfeição. O termo é usado em um contexto maior do que contar defeitos. Implica, atualmente, em toda uma cultura de estratégias, ferramentas, e metodologia estatística para incrementar a linha de frentes das empresas. É um rigoroso processo analítico para antever e resolver problemas. Essencialmente baseia-se em três pontos: é possível administrar o que pode ser mensurado; pode-se mensurar o que pode ser definido; e pode-se definir o que pode ser entendido. Ou seja, a gestão depende de se mensurar, definir e entender um processo e sua problemática.


A Motorola foi uma das pioneiras a utilizar o método, em 1987. Quando a Motorola recebeu o prêmio Baldridge, em 1988, ela compartilhou suas práticas de qualidade com outras empresas. Outras empresas foram a Texas Instruments (1988), IBM (1990), Asean Brown Boweri (1993), Allied Signal/Kodal (1994), GE (1995). Recentemente Microsoft, American Express, Ford, DuPont, Dow Chemical e Starwood Hotels (grupo que engloba as redes hoteleiras Sheraton, Four Points, W, aloft, Luxury Collection, Le Meridien, Element, Westin e St. Régis), começaram a utilizar o método em sua gestão de qualidade.

Exercício: consulte o site www.starwoodhotels.com e veja como suas nove redes hoteleiras se apresentam para o cliente. O site está em várias línguas e possui ótimo design e ilustrações.

# Quality Function Deployment QFD (Posicionamento da Função da Qualidade) é um método desenvolvido na década de 1960 por Yoki Akao e Shigeru Mizuno, como um processo para focar as necessidades e desejos do consumidor no projeto ou reestruturação de um produto ou serviço. O método QFD visa traduzir as necessidades do cliente para as especificações dos engenheiros par que sejam viabilizados da melhor forma possível. Seus objetivos são:

  1. Entender as exigências dos clientes;
  2. Unir o pensamento da qualidade dos sistemas com a psicologia e com o conhecimento/epistemologia;
  3. Maximizar os pontos positivos da qualidade que agreguem valor;
  4. Desenvolver um sistema de qualidade integral que satisfaça os clientes;
  5. Estratégia para se manter a frentye dos outros no jogo competitivo.

Exercício: consulte o site www.qfdi.org e veja como a QFD se estrutura. Site em inglês.

# Versões específicas da série ISO 9000 foram desenvolvidas para indústrias específicas como automobilística (QS-9000), aeroespacial (AS9000) e telecomunicações (TL 9000 e ISO/TS 16949)m e para gerenciamento ambiental (ISO 14000).

# Um grande salto qualitativo foi a transposição dos padrões de qualidade do setor industrial para áreas como serviços, saúde, educação e gestão pública e governamental.

Em 1988, o parque japonês de diversões SpaResortHawaiians, um complexo de lazer de 82 acres no município de Fukushima, ao norte de Tóquio, foi o primeiro não-produtor a conquistar o Prêmio Deming. O SpaResort sistematizou a aplicação de maquiagem dos dançarinos de hula, especificou o nível de mililitros de quantidade de molho de soja a ser servida com o peixe cru e alterou o cardápio e as porções dos restaurantes do parque com base numa análise rigorosa das sobras.

Fonte: Green, C. 1995, pág. 25.


# O Malcolm Baldridge National Quality Award adicionou educação, área de saúde e organizações não-lucrativas às suas categorias originais (manufatura, pequenos negócios e serviços).

Essa evolução dos padrões de qualidade para os setores de serviços, educação e saúde, meio ambiente e organizações não-governamentais representa claramente o novo desenho estrutural e conjuntural das sociedades pós-industriais. Há uma superação das sociedades industriais rumo a novos modelos de gestão, controle e planejamento, fruto dos desenvolvimentos tecnológicos, sociais e culturais ocorridos a partir da segunda metade do século XX. O antigo modelo industrial e centralizado caracterizado pelo fordismo foi sendo paulatinamente desativado e substituído por outros modelos de gestão, tanto no setor industrial como no setor de serviços em geral.


Lista dos principais prêmios mundiais de qualidade

Akao Prize
Criado em 1996

American Society for Trainning & Development (ASTD) Awards
A associação foi criada em 1944

American Society for Testing & Materials (ASTM) Awards
A associação foi criada em 1898

APICS Recognition Awards

Baldrige Awards
Prêmio criado em 1987 e outorgado pela primeira vez em 1988.

Deming Prize
Prêmio criado em 1951

European Quality Award
Criado em 1989

Shingo Prize

Fonte: adaptado de www.thequalityportal.com
 


Ganhar um prêmio desses garante o sucesso? Nem sempre. Por exemplo, a Wallace Co., de Houston (EUA), distribuidora de canos, válvulas e acessórios para a indústria do petróleo venceu um prêmio Baldrige em 1990 e três anos depois foi à concordata e posteriormente vendida. Alguns especialistas afirmaram que o Baldrige não enfatiza todos os fatores críticos da concorrência, como a produtividade, argumento que não é aceito pelos seus organizadores. Na verdade o que ocorre atualmente é uma acirrada disputa entre norte-americanos, europeus e asiáticos pelo mercado e pela pesquisa aplicada em novos produtos, processos e idéias. Não há um único país ou instituição isolada que detenha a hegemonia absoluta da verdade sobre a qualidade.

Há uma diversidade muito grande de metodologias, conceitos e processos para se incrementar a qualidade. Podem ser usados individualmente ou de forma combinada, desde que a gestão da empresa saiba conheça claramente seus objetivos e evite praticar modismos propostos pela mídia, por consultores oportunistas ou por interesses equivocados. É importante notar que cada um desses métodos depende de bom senso, conhecimento profundo não apenas do método em si mas também do contexto no qual vai ser empregado e, principalmente, que se reconheça que esses métodos não são dogmas religiosos ou verdades absolutas. Em ciência trabalha-se com falseabilidade e permanente construção do conhecimento, o que implica em flexibilidade intelectual para não só mudar o que for necessário, mas conservar o que é importante para a empresa, seja em sua cultura geral ou em componentes específicos de gestão.



A seguir estão outros métodos relevantes de qualidade utilizados no mundo atual (estrutura seqüencial dos tópicos baseada no site http://thequalityportal.com com informações complementadas conforme as fontes indicadas):

Analytical Hierarchy Process (AHP)

O Processo Analítico Hierárquico foi desenvolvido por Thomas L. Saaty, um brilhante matemático nascido no Iraque, em 1926, e naturalizado norte-americano. Seu método foi desenvolvido na década de 1970 e ele já deu consultoria para empresas como RCA, Kodak, Monsanto, BMW, Nestlé e Boeing. No Brasil, sua metodologia já foi usada pelo governo do Estado de São Paulo (gestão Mário Covas), pelos Bancos do Brasil e Bradesco e pela Embraer, em análise de projetos de informática. Ele desenvolveu ainda um software para tomadas de decisões complexas, fruto de aplicações baseadas em seu método. Sua metodologia atribui preferências às alternativas existentes em um determinado problema, analisando seus benefícios, custos, oportunidades e riscos inerentes à decisão. Essas preferências são depois combinadas com o auxílio de um computador para escolher a solução que melhor atenda aos critérios pré-estabelecidos. O processo é essencialmente simples, mas envolve cálculos complexos, daí o uso do software. Saaty doutorou-se pela Universidade de Yale e em 1954, em plena Guerra fria, começou a trabalhar para o Pentágono. Depois foi para a Agência de Desarmamento e Controle de Armas, também em Washington, onde trabalhou de 1963 a 1969. Ele montou um time de matemáticos e economistas notáveis (John von Neumann, Oscar Morgenstern, John C. Harsanyi e Reinhard Selten) para avaliar tecnicamente as medidas de desarmamento entre o ocidente e a então União Soviética. A partir dessas experiências, onde decisões estratégicas tinham que ser tomadas ele desenvolveu seu método. Seu método permite comparar coisas diferentes (medidas pela escala das preferências) e lidar com escolhas complexas (duas a duas, criando uma matriz e deixando o computador fazer os cálculos). A objetividade seria conseguida com o acordo das subjetividades inerentes ao problema proposto. Isso significa que as escolhas possibilitadas pelo método têm um amplo espectro favorável de acerto, mas evidentemente, não é infalível. Implica também que as pessoas envolvidas conheçam profundamente o problema, suas opções e tenham condições de escolher entre essas opções.

Exemplo de AHP na escolha de um líder

Balanced Scorecard (BSC)

O BSC é um sistema de avaliação de desempenho empresarial, método criado por Robert S Kaplan (1940) e David P. Norton. É baseado na premissa de que se você não é capaz de mensurar algo, então não é capaz de administrá-lo. O método permite a uma organização obter uma perspectiva mais ampla em suas decisões estratégicas considerando os impactos sobre suas finanças, processos internos, clientes e aprendizado dos empregados. Ele foi desenhado para mensurar o grau de sucesso na implementação dos negócios estratégicos. Nos Estados Unidos a Mobil Oil, Chase Manhattan, a seguradora CIGNA e a Xérox usaram seu método. O método foi publicado na Harvard Business Review, em 1992, com o título The balanced scoregard: Measures that drive performance. Seus principais livros em português são: Mapas estratégicos; Estratégia em ação; e Organização orientada para a estratégia.


Benchmarking


A Xerox foi pioneira em Benchmarking e o define como um processo contínuo de mensurar produtos, serviços e práticas comparando-os com os melhores e maiores líderes do mercado. É um processo de identificar, entender e adaptar as práticas dessas empresas do mundo todo para aprimorar seu próprio desempenho. Em resumo: identificar e adaptar os métodos dos outros em benefício de sua própria organização. Porém não é um processo simples de espionagem, cópia ou adaptação grotesca de características alheias; um evento isolado e único na organização; uma investigação que pretende obter “receitas” fáceis e imediatas. Implica em análises comparativas qualitativas, é um processo contínuo, uma aprendizagem em conjunto e um trabalho intensivo que requer muito conhecimento e disciplina. Suas etapas podem ser resumidas em:

  1. Identificar os marcos de referência
  2. Identificar empresas comparativas
  3. Definir método e coletar dados
  4. Determinar a lacuna do desempenho (falhas)
  5. Projetar níveis de desempenho futuro
  6. Comunicar descoberta dos marcos de referência e obter aceitação
  7. Estabelecer metas funcionais
  8. Desenvolver plano de ação
  9. Implementar ações específicas e monitorar o progresso
  10. Recalibrar marcos de referência

Fonte: CAMP, Robert C. O caminho da qualidade. São Paulo: Pioneira, 1993.


A indústria tem utilizado intensamente o método. No Brasil há um site específico que pode ser consultado:  www.portalbmk.org.br

A Indústria da Comissão Européia (DG III, 1996), conceitua Benchamarking como:
Processo contínuo e sistemático que permite a comparação das performances das organizações e respectivas funções ou processos face ao que é considerado ´o melhor nível´, visando não apenas a equiparação dos níveis de performance, mas também a sua ultrapassagem.”



Block Diagram

O diagrama em quadros ou blocos é uma ferramenta simples que utiliza representações pictoriais de um sistema ou sub-sistema (diagrama, mapa, desenho, organograma, planta etc.). Esses quadros são representados com suas respectivas ligações e interações para dar uma ideia de como funciona o sistema exposto. É um instrumento auxiliar de outros métodos de controle de qualidade. É utilizado para:

Estabelecer os limites ou fronteiras do sistema;
Identificar as entradas e saídas (inputs e outputs) do sistema;
Identificar as relações entre o sistema e seus componentes;
Expor suas redundâncias;
Estabelecer pontos críticos;
Ajudar a construir fluxos, diagramas e FMEA (Failure Mode and Effect Analysis), ou Análise do Tipo e Efeito de Falha.



CE Mark

É conhecido também por “Passaporte para a Europa”. É uma conformidade obrigatória para vários produtos fabricados ou distribuídos na denominada Área Econômica Européia (European Economic Área – EEA). O termo inicial era CE Mark mas foi substituído, em 1993, por CE Marking. Foi fruto de exigências provocadas pelas crescentes regulamentações, padronizações e acordos entre os diversos países que hoje formam a União Européia, o maior bloco econômico e comercial do planeta.


CE Marking é obrigatório em alguns produtos na Europa, por exigências de saúde ou segurança. Sua certificação compreende basicamente dois documentos: Declaração de Conformidade e Declaração de Incorporação. Não é uma marca de qualidade e nem indica necessariamente conformidade com um determinado padrão técnico. É mais uma indicação de conformidade com os requerimentos legais das Diretrizes Européias.

Em resumo, CE Marking é uma declaração oferecida pela indústria de que seu produto possui todas as características exigidas pelas Diretrizes Européias a ele concernentes. CE Marking facilita o acesso de diferentes produtos ao mercado europeu sem que eles precisem passar por adaptações ou verificações.

O conjunto de regulamentações pode ser consultado no site:

http://ec.europa.eu/growth/index_en.htm 


Exercício:

Para consultar as políticas da Comissão Européia em português acesse http://ec.europa.eu . No índice clique na linha da língua portuguesa, uma das 23 línguas disponíveis para consulta.




Cost of Quality (COQ)

O termo refere-se ao custo associado à baixa qualidade de serviço ou produto. É o que Philip Crosby denomina “preço da não-conformidade” e Joseph Juran “custo da qualidade”.  Existe um retorno altamente positivo quando as empresas e instituições investem em qualidade. Por outro lado, os prejuízos decorrentes da baixa qualidade podem variar entre 15% e 40% (re-trabalho, acompanhamento das reclamações, perdas financeiras, redução dos níveis de serviço). Muitas empresas não avaliam os custos de qualidade porque não tem estatísticas organizadas e confiáveis. Encontrar e corrigir os erros em um processo de produção ou fornecimento de serviços envolve tempo, gastos e recursos de conhecimento. Pesquisas mostram que eliminar uma falha quando o cliente já usa o produto ou serviço é cinco vezes mais difícil e custoso que eliminar a falha durante o processo de fabricação ou planejamento do serviço. Gestão efetiva de qualidade diminui os custos da produção porque quanto antes os erros são identificados e corrigidos, menos prejuízos serão gerados e os custos desnecessários eliminados.



A expressão “custo de qualidade” é amplamente utilizada, mesmo banalizada, e originando mal-entendidos. Para deixar bem claro, o custo de qualidade não é o preço por criar um serviço ou produto de qualidade. É o preço por NÃO desenvolver esses parâmetros. O re-trabalho é um exemplo eloqüente desses prejuízos. É fazer as coisas de novo, desnecessariamente, porque não foram bem realizadas na primeira vez: refazer um item manufaturado, testar novamente um produto, consertar uma ferramenta, corrigir um extrato bancário, substituir funcionários mal selecionados, esterilizar novamente instrumentos para uma cirurgia, cuidar de infecção provocada por falta de assepsia adequada em uma clínica ou hospital, localizar bagagens perdidas por falha na identificação no aeroporto...

O processo resume-se a cinco fases básicas:

  1. Sistematize as informações básicas sobre as falhas do sistema;
  2. Quantifique esses dados adquiridos;
  3. Mapeie os dados e distribua-os de acordo com os quatro elementos da produção: custo das falhas externas, custo das falhas internas, custo da inspeção e custo da prevenção.
  4. Disponibilize recursos para combater os pontos fracos detectados;
  5. Efetue esse estudo regularmente e avalie seu desempenho sistematicamente.

Há outros termos similares que são utilizados como sinônimos ou complementos:

CNQ – Custo da Não-Qualidade
ROQ – Retorno em Qualidade
Perdas
Não agregar valor (non-value added)
Mensuração de perdas ou desperdício (waste measurement)
Muda – Termo japonês para desperdício, o que não agrega valor, é improdutivo. Ver o verbete (Sete desperdícios, ou seven wastes).


O Sistema Toyota de Produção identifica usa três palavras na língua japonesa para identificar desperdício:

Muda – desperdício, não agrega valor, improdutivo

Mura – irregular, não-uniforme, inconsistência na matéria física ou na condição espiritual humana.

Muri – sobrecarga, excesso, além dos limites adequados.



Design of Experiments (DOE)

O Planejamento de Experimentos é uma técnica estatística utilizada para definir quais as condições, tipos e quantidade de dados que devem ser coletados durante um determinado experimento buscando atingir dois objetivos principais: maior precisão estatística possível na resposta e menor custo. É uma técnica muito importante para a indústria pois permite resultados mais confiáveis economizando tempo e dinheiro. Sua aplicação no desenvolvimento de novos produtos ou na melhoria de produtos existentes é importante, pois uma maior qualidade nos resultados dos testes pode gerar um projeto superior em vários termos.


É um método bastante técnico e específico baseado em estatística. Em geral requer uma quantidade exaustiva de cálculos tornando necessário o uso de recursos de informática para facilitar a realização das análises e manutenção e gerenciamento de dados.

As etapas para o Planejamento de Experimentos na indústria são:

Caracterização do problema
Escolha dos fatores de influência e níveis
Seleção das variáveis de resposta
Determinação de um modelo de planejamento de experimento
Condução do experimento
Análise dos dados
Conclusões e recomendações

Fonte: COLEMAN, D.E. e MONREGOMERY, D.C. (1993). A systematic approach to planning for a designed industrial experiment. Technometrics, v. 35, n° 01.


Dica

Para conhecer os detalhes técnicos de vários conceitos, técnicas/métodos ou ferramentas/sistemas ligados à gestão de qualidade consulte o site do Núcleo de Manufatura Avançada (www.numa.org.br) e clique em “Atualize seus conhecimentos”. O NUMA é formado por pesquisadores da USP-São Carlos, UFSCar, UNICAMP, UNIMEP e Universidade de Aachen.


Evolucionary Operation (EVOP)

É um método Introduzido em 1950, por George E. P. Box (1919), um estatístico britânico com vários trabalhos realizados nos Estados Unidos.


EVOP foi desenvolvido para proporcionar pequenas mudanças de cada vez em uma planta industrial sem que a produção precise ficar paralisada. Não é uma operação de rotina. É uma ferramenta onde a rotina de investigação contínua torna-se o modo básico de operação da planta e substitui a operação padrão normal.

É mais um dos métodos altamente técnicos e especializados utilizando estatística.


Morphological Analysis

O método Análise Morfológica foi desenvolvido por Fritz Zwicky (1898-1974), do Cal-tech (California Institute of Technology), ao longo da década de 1940. Zwicky era um astrônomo de origem suíça, nascido na Bulgária, estudou na Suíça e migrou para os Estados unidos em 1925. Ele era um pensador muito original e profundamente envolvido com questões astronômicas como matéria escura, supernovas e estrelas de nêutrons. O método foi desenvolvido para investigar e estruturar as diversas relações inseridas em problemas complexos multi-dimensionais e não quantificáveis. O método ganhou seu primeiro suporte informatizado em 1995, desenvolvido por Tom Ritchey, da Agência Sueca de Pesquisas em Defesa, em Estocolmo. Entre outras aplicações serve para estudos astronômicos e desenvolvimento de jatos e motores de propulsão.



Pareto Analysis

É um gráfico de barra utilizado para organizar as informações de modo a estabelecer prioridades para a melhoria de um processo. A teoria denominada “80 X 20” foi desenvolvida, em 1906, pelo político, sociólogo e economista italiano Vilfrido Pareto (1848-1923). Ele observou que o poder e a riqueza estavam desigualmente distribuídos pela população na proporção de um quinto, ou 80 para 20. Ou seja, um quinto da população possui 80% das riquezas e vice-versa. Joseph M. Juran adaptou observações econômicas de Pareto às aplicações corporativas. A carta de Pareto (o gráfico de barra) é uma ferramenta que permite visualizar o princípio de Pareto que sugere que um pequeno grupo de problemas afeta um sistema com maior intensidade que os problemas maiores ou principais. A carta de Pareto permite discernir quais os problemas devem ser analisados e eliminados ou resolvidos em primeiro lugar e quais merecem maior atenção por afetarem o sistema com mais intensidade e freqüência. As cartas de Pareto são utilizadas também como instrumento comparativo entre o antes e o depois da implantação das medidas de controle de qualidade.

Poka Yoke

Termo criado no Japão durante a década de 1960, por Shigeo Shingo, um dos famosos engenheiros industriais da Toyota. Shingo também recebe o crédito por ter desenvolvido o Controle de Qualidade Zero, reunindo as técnicas de Poka Yoke para corrigir possíveis defeitos as fontes de inspeção para prevenir defeitos, o que geraria “defeito zero”. No Brasil é conhecido como “mecanismo a prova de bobeira”. O termo original de seu método era Baka Yoke, que significa “a prova de erros”, ou “a prova de idiotas”. Em 1963, um trabalhador da Arakawa Body Company recusou-se a usar o instrumental Baka Yoke devido à conotação ofensiva e desonrosa que uma interpretação do termo possui, provocando a alteração para Poka Yoke, que significa também “a prova de erros”, mas sem outras conotações. Esse exemplo ilustra como a cultura é importante na aplicação de métodos e conceitos sobre produção, qualidade e gestão.


As medidas de segurança aplicadas a diversos produtos para evitar desgaste, acidentes ou mau uso, são algumas de suas aplicações. Por exemplo, a impossibilidade de retirar a chave de contato de um carro automático, a não ser que a câmbio esteja na posição park, impede que o condutor deixe o carro em condições inseguras de estacionamento, sem que as rodas estejam bloqueadas contra movimento. Outro exemplo são alguns dispositivos de informática que possuem um plug com determinado formato e tamanho que o impeça de ser inserido em local errado ou em posição incorreta. O método tem a ver com o desenho defensivo, ou projetos desenhados para evitar erros durante a implantação ou por parte dos usuários. Carros, aviões, navios, eletrodomésticos, software, armas, munições e material esportivo possuem vários desses dispositivos de segurança. Também está relacionado à Lei de Murphy (veja adiante).


Process Analysis

A Análise de Processos está interligada ao sistema denominado Ferramentas para Resolução de Problemas. É mais um método que envolve operações estatísticas e cálculos para se encontrar os problemas inerentes a um determinado processo industrial ou de prestação de serviços (logística, transporte, controle etc.). É dividido em seis etapas principais:

Defina o problema

Colete dados para descrever os sintomas do problema

Determine as possíveis causas do problema

Selecione a causa primária ou principal

Desenvolva estratégias para solução do problema

Teste a avalie as soluções

Cada uma dessas etapas envolve outros métodos relacionados para auxiliar a definir e resolver determinado problema.


Pugh Analysis

Os mapas de Análise de Pugh são similares ao método de listar os prós e contras de determinada proposta ou tentativa de solução. São utilizados para avaliar as múltiplas opções, comparando-as entre si, com base em uma solução ideal ou básica. Foi desenvolvido por Stuart Pugh, da Universidade de Glascow, na Escócia.

O método permite desenvolver uma matriz, inclusive em planilha excel, considerando não apenas aspectos positivos e negativos de uma questão ou problema, mas também analisando as necessidades do consumidor (ou de outras partes envolvidas no processo) ao lado dos conceitos da empresa e alternativas possíveis para se atingir os objetivos pretendidos.


Quality Function Deployment (QFD)

O Posicionamento da Função da Qualidade é uma metodologia criada em 1966, por Yogi Akao, do departamento de qualidade da Mitsubishi Heavy Industries, no Japão. Na época foi estruturado para o desenvolvimento de navios petroleiros. Em 1978, o primeiro livro de Akao foi lançado no Kapão com o título Quality Function Deployment: Integrating Costumers Requirements into Product Design. A originalidade do método desenvolvido por Akao e seus colaboradores (Mizuno e Furukawa) foi a criação de matrizes que, partindo de variáveis provenientes de pesquisa com os clientes, permitem a fabricação de um produto com elevadas características de qualidade também de acordo com os desejos ou necessidades do cliente. Era algo inovador pois, na época de Ford, não se pensava em atender necessidades mas sim a uma demanda simples e direta. O cliente precisava adaptar-se ao produto.

Em suma, o método pretende traduzir as necessidades do cliente para as especificações que os engenheiros utilizarão para atender essas necessidades. Sua importância é incorporar a voz do cliente aos projetos, ainda em suas fases iniciais.

O QFD, em várias de suas aplicações, originou o gráfico denominado Casa da Qualidade, denominação dada ao desenho que reúne as matrizes acopladas em um modelo único que lembra uma casa e permite que a Gestão da Qualidade (TQM - Total Quality Management) e os métodos de Deming (ciclo PDCA: Plan, Do, Check, Act - Planeje, Faça, Averigue, Aja) sejam empregados de forma articulada.


Foi utilizado pela Chrysler, no projeto do carro Neon, em 1994 e para usos militares, como o projeto do jato norte-americano F-15. Pode operar em conjunto com outras metodologias como o método TRIZ, acrônimo russo para Teoriya Resheniya Izobretatelskir Zadatch, ou Teoria da Resolução de Problemas Criativos, desenvolvido por G.S. Altshuller (1926-1998), um brilhante pensador russo de origem judaica que viveu na ex-União Soviética.


QS 9000

Estabelece uma série de padrões para a indústria automotiva nos Estados Unidos. Antigamente as três grandes (Ford, General Motors e Chrysler) desenvolveram noemas para seus fornecedores como, por exemplo:

Chrysler Supplier Quality Assurance Manual

Ford´s Q101 Quality System Standards

General Motors NAO Target for Excellence

A diversidade de normas gerava esforços desnecessários para os fornecedores, fruto de uma burocracia desnecessária e mescla de padrões que poderiam ser simplificados. Em 1988, durante a conferência da Divisão Automotiva da American Society for Quality Control (ASQC), foi criada uma equipe de trabalho para discutir a duplicação de esforços e documentação para satisfazer as exigências de suas três maiores indústrias. Na época os Estados Unidos preocupavam-se com o crescimento das montadoras japonesas pelo mundo todo, inclusive disputando ferozmente o mercado norte-americano. Tudo o que pudesse eliminar procedimentos redundantes e aprimorar a qualidade, conforto e segurança dos carros norte-americanos seria um avanço.

Esse padrão reuniu as especificações da ISO9001 mais as exigências específicas das montadoras de automóveis. Sua finalidade é padronizar, incrementar melhorias constantes, prevenir defeitos, reduzir variações em sistemas, reduzir desperdício e satisfazer o cliente.

Outra série de normas automotivas similares é a TS 16949:2002, preparada pela International Automotive Task Force (IATF) e pela Japan Automobile Manufacturers Association (JAMA). A IATF inclui as montadoras BMW, DaimlerChrysler, Fiat, Ford, general Motors (inclusive Opel Vauxhall), PSA Peugeot-Citroen, Renault SA, Volkawagen e suas respectivas associações AIAG (Estados Unidos), ANFIA (Itália), FIEV (França), SMMT (Reino Unido) e VDA (Alemanha).


P-Diagram

O Diagrama de Parâmetro (P-Diagram) coleta as informações (inputs) geradas por um sistema ou cliente e relaciona esses dados com aqueles desejados pelo projeto. É essencialmente um diagrama esquemático que compreende a intenção original do projeto, os fatores de controle (materiais usados, projeto, processos), os “ruídos” ou desvios (fatores não controlados pelos projetistas, como ambiente, uso, desgaste), os erros e, finalmente, a resposta variável.

O Diagrama pretende eliminar falhas, ruídos e fatores previstos ou não, desde o projeto até o consumidor final de modo a que as variações na resposta final de um produto ou serviço sejam as mais previsíveis e controladas quando comparadas com seu projeto (o sinal ou input inicial).


Seven Wastes (Sete desperdícios)

Identificados pelo Engenheiro-Chefe da Toyota, Taiichi Ohno (1912-1990), como parte do Sistema de Produção da Toyota. Os sete desperdícios originais são: defeitos, super-produção, transporte, atrasos nos diversos processos da produção, inventário desorganizado, movimentação para facilitar os processos, sobre-produção (utilizar desnecessariamente matérias-primas ou outros insumos que não agreguem valor ou sejam incompatíveis com o produto ou serviço. 

Há outros desperdícios possíveis apontados por outros autores: falta de habilidades específicas para os funcionários, segurança, falhas de informação, material, quebras por falta de manutenção.



Team Performance Assessment Techniques

As Técnicas de Avaliação de Desempenho de Equipe pretendem avaliar os pontos fracos e fortes de uma equipe, começando pelos seus membros individualmente. Identificar, avaliar e tratar esses pontos é fundamental para se estipular metas, orçamentos, objetivos, prazos e desempenho para cada membro e para a equipe em geral. É uma metodologia que deve ser acompanhada de perto pelo setor de Recursos Humanos. Seus passos principais são:

  1. Comece por perguntar algumas questões básicas a cada membro da equipe. As questões devem incluir experiências pessoais e profissionais anteriores, objetivos anteriormente propostos, objetivos alcançados (ou não), objetivos relacionados com seu atual campo de trabalho.
  2. Fale com os membros frequentemente. Programe encontros durante a execução dos projetos. Esses encontros devem ter na agenda pontos como custos e cronograma, desafios gerenciais, riscos, qualidade, preocupações da equipe e relacionamento com os clientes.
  3. Avalie o desempenho da equipe. Providencie críticas construtivas ou meritórias quando necessário. Encoraje e apóie a equipe em todos os momentos do projeto. Torne público os méritos e faça as reprimendas em particular.
  4. Programe as reuniões. Elas devem coincidir com os pontos-chave ou datas-limite do projeto. Toda reunião deve ter uma pauta clara e que seja cumprida em tempo razoável. Reuniões muito longas são improdutivas, podendo ser até nefastas.
  5. Avalie o desempenho individual. Entenda plenamente seu papel no projeto, explique cuidadosamente sua posição ou pontos de análise, ouça os outros. Seja objetivo e flexível quando possível.

Esse é um método envolve mais gestão de recursos humanos, psicologia empresarial e questões de sociologia do trabalho do que apenas modelos estatísticos e equações para mensurar quantitativamente o desempenho. É uma avaliação mais qualitativa, que envolve certas subjetividades do avaliador e dos avaliados e, portanto, os envolvidos precisam ter consciência de seus limites, possibilidades, antipatias e simpatias pessoais. As pessoas tem suas suscetibilidades, irritabilidades, frescuras e posturas que precisam ser conhecidas e consideradas dentro de certos limites. Estabelecer esses limites é um trabalho de gestão.


Total Quality Management (TQM)

A expressão Gestão de Qualidade Total remete aos anos 1980 e foi muito utilizada pela Marinha norte-americana. Uma de suas origens é o livro de Armand Feigenbaum, intitulado Total Quality Control (Controle de Qualidade Total), publicado em 1961 (com base em apontamentos feitos ainda na década de 1950) . É um método bastante utilizado no Japão. TQM pretende possibilitar uma contínua melhoria na qualidade dos bens e serviços através do aprimoramento, também constante, dos diversos níveis e funções de uma organização. O total refere-se à extensão desses cuidados aos fornecedores, distribuidores e outros parceiros na empresa ou nos projetos. É um método que tem sido usado na indústria, governo, serviços, educação saúde etc. A Toyota japonesa foi uma das pioneiras no uso de TQM.

No Japão TQM envolve quatro etapas assim denominadas:

Kaizen – Seu foco é no processo de melhoria contínua, para tornar os processos visíveis, mensuráveis e passíveis de reprodução.

Atarimae Hinshitsu – É a idéia de que “as coisas funcionarão de acordo com seu objetivo”, por exemplo, a caneta é feita para escrever ou o detergente é feito para tirar gordura.

Kansei – Examinar como  o cliente utiliza o produto ou serviço para aprimorá-lo de acordo com suas necessidades.

Miryokuteki Hinshitsu – É a idéia de que as coisas devem ter uma qualidade estética, um amplo campo para o design.

Ao contrário do fordismo, onde a responsabilidade pela qualidade restringia-se aos engenheiros e gerentes, no TQM essa responsabilidade é distribuída pelos diversos níveis da planta ou da empresa.

O conceito de qualidade total pode ser ampliado de acordo com a visão dos profissionais e empresas nele interessados. Por exemplo, o conceito das três qualidades:

Qualidade do retorno para satisfazer as necessidades dos acionistas ou investidores;

Qualidade dos produtos e serviços para satisfazer as necessidades específicas dos
usuários;

Qualidade de vida, no trabalho e fora dele, para atender as necessidades das pessoas na organização.

Esse método possui uma imensa popularidade junto às diversas empresas e instituições. Tornou-se, muitas vezes, modismo ou tendência capaz de propiciar milagres na organização. TQM exige comprometimento de toda a equipe, da base até o topo. É preciso ter uma visão correta e precisa dos objetivos a ser alcançados, das melhorias exigidas, dos problemas enfrentados, evitar os tecnicismos e burocracias que emperram os processos de melhoria, as gerências viciadas ou obsoletas e as ingerências irracionais que são feitas em algumas empresas. Exige paciência, perseverança e conhecimento.


Value Analysis

Análise de Valor é um esforço sistemático para incrementar custos e desempenho de produtos ou serviços, sejam eles comprados ou produzidos. Analisa criticamente os materiais, processos, sistemas de informação e fluxo dos materiais envolvidos. Durante a Segunda Guerra Mundial, a General Eletric, preocupada em conseguir fornecedores e suprimentos para manter sua produção de guerra, contratou o engenheiro Lawrence D. Miles (1904-1985) para seu departamento de compras. Seu trabalho era encontrar materiais adequados ou componentes substitutos para garantir o suprimento dos equipamentos críticos dos esforços de guerra. Ao analisar a disponibilidade das diferentes matérias-primas e insumos existentes e compará-los com as especificações dos produtos necessários, ele percebeu que poderia adaptar essa oferta aos produtos, desde que os projetos fossem igualmente adaptados e aproveitando para melhorar suas características, custos e desempenho. A Marinha norte-americana adotou seu método em 1945, com o nome de Value Engineering.


Em 1961, Miles publicou o livro Techniques of Value Analysis and Engineering, onde lança as bases de sua metodologia e conceitos. Tornou-se um dos referenciais na gestão de qualidade industrial, nos Estados Unidos e em vários países do mundo.

Se bem aplicado seu método pode:

Reduzir o uso de material e os custos
Reduzir custos de distribuição
Reduzir custos de produção e etapas que não agregam valor
Aumentar as margens de lucro
Melhorar a satisfação do cliente
Melhorar a moral dos funcionários


E, finalmente, a Lei de Murphy


É quando tudo acima dá errado. É o lado irônico e cético das corporações e profissionais perante todos os conceitos, métodos e ferramentas de melhorias e tentativas de se chegar à quase-perfeição, ou ao “defeito-zero”.

Na cultura corporativa norte-americana há a Lei de Murphy, amplamente conhecida em todo o mundo, inclusive no Brasil. Essa lei diz, em resumo, que “tudo o que pode dar errado, dará”. Diz a lenda que a lei nasceu em 1949, na Base aérea Edwards, nos EUA, quando o capitão Edward A. Murphy disse a respeito de um técnico que “se houvesse uma maneira de se fazer algo errado ele a encontraria”.  O Poke Yoke é um método pretende, justamente, evitar essas situações. Mas, segundo Murphy, isso é realmente difícil, senão impossível.

Há inúmeras variações da lei de Murphy:

Se algo puder dar errado, dará.

Se há possibilidade de várias coisas falharem, aquela que originará maiores estragos e problemas é a que fatalmente acontecerá.

Se nada pode der errado, algo dará.

Se você perceber que há quatro possibilidades e erro e cercar essas quatro variáveis de todos os cuidados possíveis, uma quinta variável surgirá e fará o erro.

Deixe. As coisas tendem a ir de mal a pior.

Sorria. Amanhã será pior.

Pesquisa em escala suficiente tende a apoiar qualquer teoria.

A pesquisa embasa uma determinada teoria dependendo da quantidade de investimentos destinados a essa pesquisa.

Nada é tão fácil como parece.

Tudo demora mais do que você imagina.

A fila do lado anda mais rápido que a sua.

O pão sempre cai com a face da manteiga virada para baixo.

Toda solução origina novos problemas.

A legibilidade de uma cópia é inversamente proporcional à sua importância.

Lei das Unidades de Medida: Se estiver escrito “Tamanho único” é porque não serve em ninguém, muito menos em você.

Lei da Gravidade: Se você consegue manter a cabeça enquanto à sua volta todos estão perdendo, provavelmente você não entende a gravidade da situação.

Lei do Esparadrapo: Há dois tipos de esparadrapo: o que não gruda e o que não sai.

Uma variável dessa lei é a Lei de Finagle, ou Lei da Dinâmica Negativa. Ela diz que “tudo o que puder dar errado dará no pior momento”. Adaptada da segunda lei da termodinâmica da física, sobre a entropia do universo, ela diz que “a perversidade do universo tende ao infinito”. Foi popularizada nos Estados Unidos entre 1940/1960, pelo editor John W. Campbell Jr.


Como Murphy morreu? Em um escuro anoitecer de inverno (nos EUA), o carro de Murphy ficou sem combustível em uma estrada. Ele saiu e começou a pedir carona, tendo o cuidado de usar roupa branca e caminhar de frente para o tráfego. Foi atropelado por um turista britânico que dirigia pelo lado errado da rodovia.

Grandes desastres mostram que essa lei pode ser implacável:

A NASA perdeu duas espaçonaves (Space Shuttle), a Challenger, durante a decolagem, em 1986, e a Columbia, na reentrada da atmosfera, em 2003;



Em 1997, a Mercedes Benz alemã marcou uma demonstração do carro Classe A para um público de jornalistas em sua pista de provas, sem considerar o aviso de alguns engenheiros que o sistema de suspensão não estava adequado. O carro capotou durante a denominada “curva do alce”, uma simples manobra para se desviar de animais inesperados na pista. O problema de suspensão foi resolvido, mas o vexame internacional perante a imprensa especializada já estava feito. Cabeças rolaram na linha de montagem do Classe A-160.


Exemplo extremo

TAM a TAM – Teoria Aplicada de Murphy à TAM. Note como o pior aconteceu com a empresa ao longo dos últimos anos. A empresa aérea brasileira teve dois grandes acidentes com o maior grau possível de danos físicos, materiais e comprometimento na imagem da empresa.

Seu primeiro grande acidente foi em 31 de julho de 1996, quando um Fokker-100 caiu sobre algumas casas ao lado do aeroporto de Congonhas (São Paulo), vinte segundos após a decolagem, matando todos os passageiros e algumas pessoas no solo (99 mortos, no total). O avião era o único da empresa pintado com as cores de um prêmio internacional recentemente conquistado e tinha a frase Number One na fuselagem. . A queda, pela manhã e em plena cidade de São Paulo, atraiu em minutos helicópteros da imprensa que transmitiram a tragédia ao vivo para o mundo.

O segundo grande acidente, também em Congonhas, foi em 17 de julho de 2007, em plena crise aérea da aviação civil brasileira, quando um Airbus-320 não conseguiu parar durante a aterrisagem e saiu da pista atingindo um prédio da própria TAM. Explodiu e matou 199 pessoas. De novo, por ser em área central, minutos após a CNN transmitia a tragédia para todo o mundo.

A TAM teve pelo menos sete incidentes ou pequenos acidentes com os aviões Fokker-100, um modelo fabricado pela Fokker holandesa, uma empresa que já faliu. A empresa lentamente substituiu esses aviões por novos jatos.

ATENÇÃO: Vários dos modelos acima comentados são para quantificar ou controlar a qualidade e baseados em análises quantitativas, ou seja, estatísticas. Muitos desses usos são direcionados à indústria em geral, à informática, telecomunicações ou controles financeiros e de desempenho com valores previamente estabelecidos. Mesmo os modelos menos estatísticos pressupõe conhecimento aprofundado da área em que se está trabalhando, dos métodos, conceitos e parâmetros utilizados. Muitos modelos não são auto-explicativos e exigem profissionais especializados para serem implementados.