terça-feira, 12 de maio de 2020

Aplicação de Big Data como uma ferramenta de melhoria contínua na manufatura

imagem: revistacobertura.com.br

Um dos desafios mais importantes na manufatura é a melhoria contínua dos processos, que requer novas idéias sobre o comportamento / controle de qualidade dos mesmos, a fim de entender o potencial de otimização / melhoria que devem ser aproveitadas.

Uma abordagem, dentre muitas, que abre caminho para uma nova geração de ferramentas de gerenciamento da qualidade se baseia em análises Big Data, o qual ampliará o controle estatístico tradicional do processo e capacitará, por exemplo, o Lean Six Sigma através do processamento de uma grande quantidade de dados.

Devido à mudança dinâmica do ambiente de negócios e ao aumento permanente da concorrência, um dos desafios mais importantes na fabricação atualmente é a melhoria contínua do processo, definida como uma atividade contínua que visa melhorá-lo, asim como, seus produtos e serviços, através de mudanças sustentáveis, ​​durante um período de tempo.

A maioria das estratégias de melhoria contínua incorpora o princípio Lean Six Sigma, que é uma combinação de técnicas e ferramentas das metodologias Six Sigma e do Lean Enterprise. A metodologia Six Sigma baseia-se no conceito de que uma "variação de processo" pode ser reduzida usando-se ferramentas estatísticas. O objetivo do Lean é identificar e eliminar etapas não essenciais e sem valor agregado em um processo de negócios para otimizar a produção, melhorar a qualidade e, por conseguinte, ganhar a fidelidade do cliente.

Os profissionais do Lean Six Sigma vêm aprimorando os processos há anos através da análise estatística dos dados do processo, a fim de identificar os parâmetros críticos e as variáveis ​​que têm maior impacto no desempenho de um fluxo de valor e controlar suas variações. No entanto, a principal restrição é a complexidade dos cálculos estatísticos que devem ser aplicados nos (grandes) conjuntos de dados. Um exemplo bem conhecido é a análise estatística multivariada. As técnicas padrão de gráficos de controle de qualidade (por exemplo, gráficos Shewhart, gráficos X-bar e R, etc.) são aplicáveis ​​apenas a variáveis ​​únicas e não podem ser aplicadas a processos de produção modernos com centenas de variáveis ​​importantes que precisam ser monitoradas.
De fato, a diversidade de tecnologias de medição de processo, desde sensores de processo convencionais até imagens, vídeos, e tecnologias de medição indireta combinaram a variedade, o volume e a complexidade dos dados do processo disponíveis as quais devem ser tratadas para gerarem informações gerenciais e de controle, para tomada de decisões de cunho preventivo, no tempo certo e, por consequência, de menor custo.

Tradicionalmente, os dados são compactados e arquivados para manutenção de registros e recuperados apenas para uso em análises de emergência na ocorrência de um fato, em vez de serem utilizados de maneira sistemática no processo de tomada de decisão.

Então, é oportuno pensar-se numa nova abordagem de Big Data para aprimoramento contínuo do processo que explora as vantagens acima mencionadas para permitir melhor entendimento da natureza (dinâmica) de um processo e impulsionar inovações nos mesmos.

Realizando análises de Big Data nos dados do processo, pode-se modelar o que é comum / normal por um período selecionado e verificar as variações desse modelo em tempo real (conforme o Six Sigma). Além disso, esses modelos orientados a dados, podem suportar a análise de causa raiz que deve fornecer informações sobre o que pode ser eliminado como desperdício no processo (conforme o Lean exige).

Apresar de tudo, mesmo com uma grande variedade e volume de dados já mencionados, as análises devem assegurar que:
a) sejam robustas - lidando eficientemente com as diferenças e
b) escaláveis ​​- realizadas de maneira extremamente paralela.

Alguns desafios para análise de grandes volumes de dados para melhoria do processo


Em poucas palavras, a melhoria de um processo é a compreensão da natureza deste - ou seja, qual é o seu comportamento normal / usual?
No entanto, o ritmo das mudanças está aumentando continuamente e introduz novos desafios computacionais para a melhoria contínua do processo.

Existem duas questões principais que desafiam a abordagem tradicional do Lean Six Sigma para a melhoria contínua: i) a quantidade de parâmetros que podem ser medidos em um processo e o tamanho correspondente dos dados a serem analisados ​​estão explodindo e ii) as variações do processo não podem ser verificadas em relação às regras predefinidas (especializadas) - a dinâmica do contexto do processo exige a alteração das regras a serem aplicadas.

 Portanto, a detecção de variações não é mais a questão de otimizar as fórmulas estatísticas, mas o desafio de definir o que é "normal / usual" no ambiente de negócios em mudança dinâmica. É aqui que o Big Data entra em jogo:
- por ser inerentemente orientado a dados, o processamento de dados de manufatura por Big Bata é capaz de gerar modelos válidos de comportamento do processo.
- Por ser muito escalável, o processamento de Big Data é capaz de trabalhar em espaços de interesse de alta dimensão com baixa latência,
- Usando aprendizado não supervisionado, o processamento de Big Data pode melhorar / adaptar continuamente os desempenhos da tarefa subjacente.

Em sua empresa, já se pensa estrategicamente na implementação e uso de análises de dados não supervisionada, ou seja, o agrupamento de Big Data  para detecção das variações dos processos de fabricação, como uma ferramenta de melhoria contínua dos mesmos? Se esse tópico ainda não faz parte de sua estratégia, sugiro que passe a considerá-la, tão logo quanto possível.

Quando sua empresa iniciar um processo para desenvolvimento de Biga Data dentro de sua estratégia de produção, não se esqueça de levar em conta três requisitos básicos que devem ser atendidos para a detecção de anomalias:
- Precisão: como definir o que é semelhante (métricas) - o que é usual,
- Interpretação: como entender por que algo não é semelhante - por que é incomum,
- Escalabilidade: como garantir que, em se usando o máximo possível de dados, os resultados do processamento sejam calculados o mais rápido possível.
 




Nenhum comentário:

Postar um comentário