← Blog

Cartes de contrôle SPC : détecter la dérive avant le client

Xbar-R, EWMA, CUSUM, règles Western Electric, capabilité Cp/Cpk. Le guide complet du Statistical Process Control pour l'ingenieur qualité, avec exemples de lignes de production réelles.

Le SPC en une phrase

Le SPC est un système d’alerte précoce. Il détecte qu’un processus commence à dériver AVANT que les pièces sortent des tolérances.

La différence avec le contrôle final est fondamentale. Le contrôle final, c’est un opérateur ou une machine qui trie les pièces en bout de ligne : conforme, non conforme. Il intervient quand le mal est fait. Les pièces sont déjà produites, la matière est consommee, le temps machine est perdu. Le contrôle final est un filet de securite, pas un outil d’amelioration.

Le SPC renverse la logique : au lieu de vérifiér le produit, on surveille le processus. On preleve des échantillons à intervalles reguliers, on les mesure, on trace les résultats sur une carte de contrôle. Si la carte montre un comportement anormal, on intervient sur le processus avant que les pièces ne dérivent hors tolérances.

La différence economique est massive : corriger un réglage coûte quelques minutes. Trier, retoucher ou rebuter un lot coûte des heures, parfois des jours.

Un chiffre pour fixer les idees. Sur une ligne d’usinage typique produisant 500 pièces par poste, une dérive non détectee pendant 2 heures peut générer 200 pièces non conformes. Avec un SPC correctement implante, la même dérive est détectee en 20 minutes. Le nombre de pièces non conformes tombe à 30. Le ratio est de 1 à 7.

Variation cause commune vs cause spéciale

C’est le concept fondamental du SPC. Toute la méthode repose sur cette distinction.

Cause commune. C’est le bruit naturel du processus. Il est toujours present, aléatoire, irreductible à court terme. La variation de durete d’un lot de matière première à l’autre. Les micro-vibrations de la broche. La dilatation thermique au fil de la journee. Ces causes sont nombreuses, chacune contribue faiblement, et leur effet cumule produit une variation globale qui suit approximativement une loi normale.

Cause spéciale. C’est un événement identifiable et corrigible. Un outil use. Un changement de lot matière avec des proprietes différentes. Un opérateur nouveau qui n’applique pas le même réglage. Une fuite dans le circuit de refroidissement. Les causes spéciales sont rares, ponctuelles, et leur effet est souvent brutal : un saut de moyenne, une augmentation soudaine de la dispersion, une tendance monotone.

Le but du SPC est de separer les deux. Et la règle d’or est double :

La règle d'or du SPC

Ne PAS reagir aux causes communes (c'est du sur-reglage). TOUJOURS reagir aux causes spéciales (c'est un signal réel). L'operateur qui retouche son réglage à chaque pièce mesuree augmente la variabilité au lieu de la reduire.

Analogie utile : c’est comme un medecin qui surveille la tension arterielle. La tension fluctue naturellement de plus ou moins 5 mmHg au cours de la journee. Personne ne prescrit un traitement pour ca. Mais si elle monte de 20 mmHg en une heure, c’est un signal. Le medecin intervient. Le SPC fait exactement la même chose pour un processus industriel.

Carte Xbar-R — la carte de base

La carte Xbar-R est la carte de contrôle la plus repandue en production. Elle surveille simultanément la position (moyenne) et la dispersion (etendue) du processus.

Principe. À intervalles reguliers (toutes les heures, toutes les 50 pièces, à chaque changement de lot), on preleve un sous-groupe de n pièces — typiquement n = 3 à 5. On mesure la caracteristique d’interet sur chaque pièce. On calcule la moyenne du sous-groupe (Xbar) et l’etendue du sous-groupe (R = max - min). On trace ces deux valeurs sur deux graphiques superposes : la carte Xbar en haut, la carte R en bas.

Limites de contrôle. Elles se calculent à partir des donnees du processus, PAS à partir des tolérances client. C’est la confusion la plus frequente.

Pour la carte Xbar :

UCLXˉ=Xˉˉ+A2RˉUCL_{\bar{X}} = \bar{\bar{X}} + A_2 \cdot \bar{R}

LCLXˉ=XˉˉA2RˉLCL_{\bar{X}} = \bar{\bar{X}} - A_2 \cdot \bar{R}

ou Xˉˉ\bar{\bar{X}} est la moyenne des moyennes de sous-groupes, Rˉ\bar{R} est la moyenne des éténdues, et A2A_2 est une constante qui dépend de la taille du sous-groupe.

Pour la carte R :

UCLR=D4RˉUCL_R = D_4 \cdot \bar{R}

LCLR=D3RˉLCL_R = D_3 \cdot \bar{R}

Constantes pour les tailles de sous-groupe courantes :

nnA2A_2D3D_3D4D_4
21.88003.267
31.02302.574
40.72902.282
50.57702.114
60.48302.004

Pour n=2n = 2 à 5, D3=0D_3 = 0, ce qui signifie que la carte R n’a pas de limite inférieure. C’est normal : avec des sous-groupes petits, une éténdue de zero est physiquement possible sans que le processus soit hors contrôle.

ATTENTION. Limites de contrôle et limites de tolérance sont deux choses complètement différentes. Les limites de contrôle viennent du processus — elles decrivent ce que le processus sait faire. Les tolérances viennent du client ou du bureau d’etudes — elles decrivent ce que le produit doit respecter.

Un processus peut etre sous contrôle (pas de cause spéciale) et pourtant non capable (les limites de contrôle debordent des tolérances). Inversement, un processus peut etre hors contrôle (cause spéciale presente) tout en restant dans les tolérances — pour l’instant. Confondre les deux, c’est garantir des erreurs de pilotage.

Exemple complet

Ligne d’usinage de bagues de roulement. Diametre nominal : 25.000 mm. Tolérance : plus ou moins 0.050 mm (USL = 25.050, LSL = 24.950). Sous-groupes de n = 5 pièces, preleves toutes les heures.

Voici les 8 premiers sous-groupes de la journee :

Sous-groupex1x2x3x4x5XbarR
125.01224.99825.00525.01025.00125.0050.014
224.99525.00825.00324.99925.01125.0030.016
325.01025.01525.00225.00725.00925.0090.013
424.99725.00125.00625.00324.99825.0010.009
525.00825.01225.01825.01425.01125.0130.010
625.00324.99625.00125.00725.00425.0020.011
725.01525.01925.02225.01725.02025.0190.007
825.02025.02525.01825.02325.02125.0210.007

Supposons qu’apres 25 sous-groupes, on obtient Xˉˉ=25.008\bar{\bar{X}} = 25.008 et Rˉ=0.012\bar{R} = 0.012.

Calcul des limites (n=5n = 5, A2=0.577A_2 = 0.577, D4=2.114D_4 = 2.114, D3=0D_3 = 0) :

UCLXˉ=25.008+0.577×0.012=25.008+0.007=25.015UCL_{\bar{X}} = 25.008 + 0.577 \times 0.012 = 25.008 + 0.007 = 25.015

LCLXˉ=25.0080.007=25.001LCL_{\bar{X}} = 25.008 - 0.007 = 25.001

UCLR=2.114×0.012=0.025UCL_R = 2.114 \times 0.012 = 0.025

LCLR=0LCL_R = 0

Interpretation. Les sous-groupes 7 et 8 dépassent UCLXˉUCL_{\bar{X}} (25.015). C’est un signal de cause spéciale. La moyenne du processus à monte. Avant de continuer à produire, il faut identifiér la cause : usure de l’outil ? Dérive thermique de la broche ? Changement de lot matière ? On arrete, on cherche, on corrige. C’est le SPC qui fait son travail.

Remarque : toutes les valeurs individuelles restent dans les tolérances (24.950 à 25.050). Le contrôle final ne verrait rien. Le SPC à détecte la dérive 200 pièces avant que la première pièce non conforme ne sorte.

Carte Xbar-S — quand les sous-groupes sont grands

La carte Xbar-R utilise l’etendue R comme mesure de dispersion. L’etendue est simple à calculer (max - min), mais elle perd en efficacite quand le sous-groupe grandit. Au-dela de n = 10, elle n’utilise que 2 valeurs sur n pour estimer la variabilité. C’est un gaspillage d’information.

La carte Xbar-S remplacé l’etendue par l’ecart-type S du sous-groupe. L’ecart-type utilise toutes les valeurs, pas seulement les extremes. Il est donc plus efficace statistiquement pour les grands sous-groupes.

Les formules sont analogues :

UCLXˉ=Xˉˉ+A3SˉUCL_{\bar{X}} = \bar{\bar{X}} + A_3 \cdot \bar{S}

LCLXˉ=XˉˉA3SˉLCL_{\bar{X}} = \bar{\bar{X}} - A_3 \cdot \bar{S}

UCLS=B4SˉUCL_S = B_4 \cdot \bar{S}

LCLS=B3SˉLCL_S = B_3 \cdot \bar{S}

ou A3A_3, B3B_3 et B4B_4 sont des constantes tabulees (differentes de A2A_2, D3D_3, D4D_4).

En pratique, les sous-groupes de taille supérieure à 10 sont rares en production mecanique. On les rencontre surtout dans les processus continus (chimie, pharmacie, agroalimentaire) ou en contrôle automatise avec mesure à 100%. La carte Xbar-R reste le standard pour l’immense majorite des applications industrielles.

Carte EWMÀ — détecter les petites dérives

La carte Xbar à une faiblesse connue : elle est peu sensible aux petites dérives. Un décalage de la moyenne de 0.5σ0.5\sigma ou 1σ1\sigma peut passer inapercu pendant de nombreux sous-groupes. La carte ne déclenchera une alarme que lorsque le décalage aura suffisamment augmente pour qu’un point franchisse la limite à 3σ3\sigma. Pour les processus à haute précision — pharmacie, aeronautique, electronique — c’est trop tard.

La carte EWMÀ (Exponentially Weighted Moving Average) resout ce problème en introduisant de la memoire. Au lieu de tracer chaque sous-groupe independamment, elle calcule une moyenne mobile ponderee qui donne plus de poids aux observations recentes tout en gardant une trace des observations passees.

Formule :

Zt=λXt+(1λ)Zt1Z_t = \lambda \cdot X_t + (1 - \lambda) \cdot Z_{t-1}

ou ZtZ_t est la valeur EWMA au temps tt, XtX_t est la moyenne du sous-groupe tt, et λ\lambda est un paramètre de lissage compris entre 0 et 1. Z0Z_0 est initialise à la moyenne globale du processus.

λ\lambda contrôle la memoire de la carte. Un λ\lambda petit (0.05 à 0.10) donne beaucoup de poids à l’historique — la carte réagit lentement mais détecte les très petites dérives. Un λ\lambda grand (0.20 à 0.40) donne plus de poids aux observations recentes — la carte réagit vite mais ressemble de plus en plus à une carte Xbar classique. Le choix standard est λ=0.20\lambda = 0.20 pour un bon compromis.

Les limites de contrôle de l’EWMÀ sont des fonctions du temps (elles s’elargissent au debut puis se stabilisent) :

UCLt=μ0+Lσλ2λ[1(1λ)2t]UCL_t = \mu_0 + L \cdot \sigma \sqrt{\frac{\lambda}{2 - \lambda} \left[1 - (1 - \lambda)^{2t}\right]}

LCLt=μ0Lσλ2λ[1(1λ)2t]LCL_t = \mu_0 - L \cdot \sigma \sqrt{\frac{\lambda}{2 - \lambda} \left[1 - (1 - \lambda)^{2t}\right]}

ou LL est un facteur multiplicatif (typiquement L=2.7L = 2.7 à 3.0).

Quand l’utiliser. L’EWMA est plus sensible que la carte Xbar pour les décalages de 0.5σ0.5\sigma à 1.5σ1.5\sigma. Pour les gros décalages (>2σ> 2\sigma), la carte Xbar fait aussi bien, voire mieux. L’EWMÀ est donc l’outil de choix quand la précision est critique et que les dérives attendues sont faibles.

Exemple

Processus de dosage d’un additif dans une formulation chimique. Cible : 5.000%. Écart-type historique : σ=0.030%\sigma = 0.030\%. Un fournisseur livre un nouveau lot de matière première, legerement différent. La concentration réelle dérive de +0.020%+0.020\% (soit +0.67σ+0.67\sigma).

Avec une carte Xbar classique, ce décalage de 0.67σ0.67\sigma n’est détecte en moyenne qu’au bout de 50 sous-groupes (ARL = 50). En production, ça represente plusieurs jours.

Avec une carte EWMA (λ=0.20\lambda = 0.20, L=2.7L = 2.7), le même décalage est détecte en moyenne au bout de 8 sous-groupes (ARL = 8). La dérive est signalee en quelques heures. L’operateur ajuste le dosage. Le lot est conforme.

Carte CUSUM — l’accumulateur de dérives

La carte CUSUM (CUmulative SUM) pousse la logique de détection encore plus loin que l’EWMA. Au lieu de lisser les observations, elle cumule les écarts à la cible. Si le processus est centré, les écarts positifs et negatifs se compensent et la somme cumulee oscille autour de zero. Si le processus dérive, les écarts s’accumulent dans une direction et la somme cumulee augmente régulièrement.

En pratique, on utilise deux statistiques cumulees :

C+=max(0, Xt(μ0+K)+Ct1+)C^+ = \max(0,\ X_t - (\mu_0 + K) + C^+_{t-1})

pour détecter les dérives vers le haut.

C=max(0, (μ0K)Xt+Ct1)C^- = \max(0,\ (\mu_0 - K) - X_t + C^-_{t-1})

pour détecter les dérives vers le bas.

KK est un paramètre de référence (typiquement K=0.5σK = 0.5\sigma, soit la moitie du décalage qu’on veut détecter) et HH est le seuil de decision (typiquement H=4H = 4 à 5σ5\sigma). L’alarme se déclenche quand C+C^+ ou CC^- dépasse HH.

La CUSUM est la carte la plus sensible aux petites dérives persistantes. Elle détecte un décalage de 0.5σ0.5\sigma en moyenne 2 fois plus vite que l’EWMA. Son inconvenient : elle est moins intuitive à lire. Un opérateur habitue aux cartes Xbar à besoin d’une formation spécifique pour interpreter correctement une CUSUM.

Quand l’utiliser. Processus très stables ou la moindre dérive à des consequences importantes. Fabrication de composants critiques (aeronautique, nucleaire, medical). Processus chimiques ou les ajustements sont coûteux et ou il vaut mieux détecter tot.

Les 8 règles Western Electric

Une carte de contrôle ne se limite pas à la règle du point hors limites. Les ingénieurs de Western Electric ont formalise 8 règles pour détecter les comportements anormaux, même quand aucun point ne dépasse les limites à 3σ3\sigma. Chaque règle correspond à un schema qui à une probabilite très faible de se produire par hasard si le processus est stable.

Pour ces règles, on divise la carte en zones :

  • Zone A : entre 2σ2\sigma et 3σ3\sigma (de chaque cote)
  • Zone B : entre 1σ1\sigma et 2σ2\sigma
  • Zone C : entre la moyenne et 1σ1\sigma

Regle 1 — Un point au-dela de 3σ3\sigma. La plus connue. Un point au-dessus de UCL ou en dessous de LCL. Probabilite sous H0H_0 : 0.27%. Signification : événement rare, probablement une cause spéciale ponctuelle. Action : chercher la cause immediatement.

Regle 2 — 9 points consecutifs du même cote de la moyenne. Probabilite sous H0H_0 : (0.5)9=0.2%(0.5)^9 = 0.2\%. Signification : le processus s’est decale. La moyenne à bouge. C’est souvent une usure progressive, un changement de matière, ou un ajustement incorrect. Action : vérifiér le centrage du processus.

Regle 3 — 6 points consecutifs en augmentation ou diminution monotone. Signification : tendance. Usure d’outil, dérive thermique, degradation progressive d’un composant. Action : identifiér le paramètre qui se degrade et planifier l’intervention.

Regle 4 — 14 points alternant haut/bas. Signification : oscillation systematique. Souvent un sur-reglage (l’operateur compense chaque écart). Peut aussi indiquer deux flux melanges (deux cavites de moule, deux machines). Action : vérifiér s’il y à sur-reglage ou stratification des donnees.

Regle 5 — 2 points sur 3 en zone A (au-dela de 2σ2\sigma, même cote). Signification : la variabilité à augmente ou la moyenne s’est decalee. Le processus produit trop de valeurs extremes. Action : vérifiér la dispersion et le centrage.

Regle 6 — 4 points sur 5 en zone B ou au-dela (au-dela de 1σ1\sigma, même cote). Signification : décalage modere de la moyenne. Moins brutal que la règle 1, mais persistant. Action : vérifiér le centrage, rechercher un changement recent dans les conditions de production.

Regle 7 — 15 points consecutifs en zone C (dans la bande ±1σ\pm 1\sigma). Contre-intuitif : trop peu de variation est aussi suspect. Signification : stratification. Les donnees viennent probablement de deux populations ou plus dont les moyennes se compensent. Ou bien les limites de contrôle ont été calculees sur des donnees trop variables et ne sont plus representatives. Action : vérifiér l’homogeneite des sources de donnees et recalculer les limites si nécessaire.

Regle 8 — 8 points consecutifs au-dela de 1σ1\sigma (des deux cotes). Signification : melange de deux populations. Typiquement, deux machines, deux opérateurs, ou deux lots matière qui produisent des résultats centrés differemment. Pris ensemble, les sous-groupes alternent entre les deux centrés, ce qui cree une bimodalite masquee. Action : stratifier les donnees par source et tracer des cartes separees.

En production, on n’applique pas forcement les 8 règles simultanément. Les règles 1, 2 et 3 sont quasi universelles. Les règles 5 et 6 ajoutent de la sensibilité. Les règles 4, 7 et 8 sont plus spécialisees. Le risque d’appliquer toutes les règles en même temps est de multiplier les fausses alarmes, ce qui finit par dissuader les opérateurs de reagir.

Capabilité CpC_p et CpkC_{pk}

Les cartes de contrôle repondent à la question “le processus est-il stable ?”. La capabilité repond à la question “le processus est-il capable de satisfaire le client ?”. Ce sont deux questions distinctes, et un processus peut etre stable sans etre capable — ou capable sans etre stable (temporairement).

CpC_p — la capabilité potentielle.

Cp=USLLSL6σC_p = \frac{USL - LSL}{6\sigma}

CpC_p compare la largeur de la tolérance à la largeur naturelle du processus (6σ6\sigma). Si Cp=1C_p = 1, la tolérance fait exactement 6σ6\sigma de large : le processus occupe toute la tolérance, sans marge. Si Cp=2C_p = 2, la tolérance fait 12σ12\sigma : le processus n’en occupe que la moitie.

CpC_p ne tient pas compte du centrage. Un processus avec Cp=2C_p = 2 mais decentre de 3σ3\sigma produira quand même des pièces hors tolérance. C’est pour ça que CpC_p seul ne suffit jamais.

CpkC_{pk} — la capabilité réelle.

Cpk=min(USLμ3σ, μLSL3σ)C_{pk} = \min\left(\frac{USL - \mu}{3\sigma},\ \frac{\mu - LSL}{3\sigma}\right)

CpkC_{pk} prend le pire des deux cotes. Si le processus est parfaitement centré, Cpk=CpC_{pk} = C_p. S’il est decentre, Cpk<CpC_{pk} < C_p. Plus l’ecart entre CpC_p et CpkC_{pk} est grand, plus le processus est decentre.

Interpretation :

CpkC_{pk}Taux hors toléranceInterpretation
< 1.00> 2 700 ppmNon capable. Des pièces sortent des tolérances en routine.
1.002 700 ppm (0.27%)Juste capable. Aucune marge.
1.3363 ppmStandard industriel courant. Objectif IATF 16949.
1.670.6 ppmExcellent. Exigence aeronautique et pharmaceutique.
2.003.4 ppb”Six Sigma” (avec prise en compte d’une dérive de 1.5σ1.5\sigma).

Un CpkC_{pk} de 1.33 est l’objectif le plus repandu dans l’industrie automobile et mecanique. Il correspond à une zone de garde de 4σ4\sigma de chaque cote après centrage. En aeronautique, on exige souvent 1.67. Les CpkC_{pk} de 2.00 et au-dela relevent de processus très maîtrises (usinage CNC de précision, fabrication de semi-conducteurs).

Attention : hypothèse de normalite

$C_p$ et $C_{pk}$ supposent que la distribution suit une loi normale. Un $C_{pk}$ de 1.50 calcule sur des donnees non normales peut correspondre à un taux de non-conformite réel 10 fois supérieur à ce que la formule predit. Vérifiér la normalite (Shapiro-Wilk, Anderson-Darling) est obligatoire avant de publier un $C_{pk}$.

PpP_p et PpkP_{pk} : la performance réelle.

Les formules sont identiques à CpC_p et CpkC_{pk}, mais avec une différence critique : σ\sigma est estime differemment.

  • CpC_p/CpkC_{pk} utilisent σwithin\sigma_{within} (l’ecart-type intra-groupe, estime à partir de Rˉ\bar{R} ou Sˉ\bar{S}). C’est la variabilité à court terme, au sein de chaque sous-groupe.
  • PpP_p/PpkP_{pk} utilisent σoverall\sigma_{overall} (l’ecart-type global calcule sur toutes les donnees individuelles). C’est la variabilité totale, incluant les décalages entre sous-groupes.

La comparaison des deux est instructive. Si CpC_p est nettement supérieur à PpP_p, le processus est instable : la variabilité entre sous-groupes (causes spéciales) est significative par rapport à la variabilité au sein des sous-groupes. Le processus à le potentiel (CpC_p élevé) mais ne le realise pas en pratique (PpP_p plus faible).

La priorite est alors de stabiliser le processus avant de chercher à reduire la variabilité intraseque.

Combien de donnees ? Minimum 30 mesures pour un CpkC_{pk} preliminaire. 50 à 100 pour un CpkC_{pk} fiable. Plus de 100 pour un CpkC_{pk} de validation. Avec moins de 30, l’intervalle de confiance sur CpkC_{pk} est si large que la valeur n’a aucun pouvoir discriminant.

Mise en place terrain : les 6 étapes

1. Choisir la caracteristique critique

Toutes les cotes, tous les paramètres ne meritent pas une carte de contrôle. Le SPC est un investissement en temps (prelevement, mesure, saisie, analyse, reaction). Cibler les caracteristiques qui ont le plus d’impact : celles qui sont liees à la fonctionnalite du produit (cotes d’assemblage, specifications client), celles qui generent le plus de non-qualite (historique rebuts et retouches), ou celles qui sont les plus difficiles à maîtriser (processus sensible, faible capabilité).

Une ligne de production typique à 50 à 200 cotes specifiees. Mettre un SPC sur les 200 est impossible et inutile. Les 3 à 5 caracteristiques les plus critiques suffisent pour couvrir 80% du risque qualité.

2. Definir le plan de prelevement

Taille du sous-groupe : n = 5 est le standard. Assez grand pour estimer correctement la moyenne, assez petit pour que le prelevement ne ralentisse pas la production.

Fréquence : fonction du risque et du rythme de production. Toutes les heures sur un processus cadence. À chaque changement de serie sur un processus en petites series. Toutes les 100 pièces sur un processus rapide. La règle pragmatique : la fréquence doit permettre de détecter une dérive avant qu’elle ne produise plus de pièces non conformes que ce que l’on peut tolerer economiquement.

3. Collecter 25 à 30 sous-groupes sous contrôle

C’est la phase d’initialisation. On preleve 25 à 30 sous-groupes pendant une periode ou le processus est connu pour etre stable : pas de changement de matière, pas de réglage en cours, pas d’incident. Ces donnees serviront à calculer les limites de contrôle initiales.

Si des causes spéciales sont presentes dans les donnees d’initialisation, il faut les identifiér, les corriger, et les exclure du calcul. Calculer des limites sur des donnees incluant des causes spéciales, c’est elargir artificiellement les limites et rendre la carte aveugle aux futures dérives.

4. Calculer les limites de contrôle

Appliquer les formules (Xbar-R ou Xbar-S selon la taille des sous-groupes). Tracer les limites sur la carte. Vérifiér que les donnees d’initialisation ne violent aucune des règles Western Electric. Si c’est le cas, investiguer et recalculer.

5. Former les opérateurs aux règles

Un opérateur non forme ne regardera pas la carte, ou ne saura pas quoi faire quand elle alarme. La formation doit etre courte, concrete et visuelle : quoi regarder (les 3 premières règles Western Electric au minimum), quoi faire quand la carte alarme (arreter, signaler, chercher la cause), quoi NE PAS faire (ne pas sur-regler, ne pas ignorer).

Afficher la carte au poste, pres de la machine, à hauteur des yeux. Une carte rangee dans un classeur ne sert à rien.

6. Reagir et documenter

Le SPC sans reaction est un exercice de style. Quand la carte alarme, il faut investiguer la cause, corriger le processus et documenter ce qui s’est passe. Le journal des causes spéciales est l’outil d’amelioration continue le plus precieux d’un atelier SPC. Après 6 mois, ce journal revele les causes recurrentes — et donc les actions correctives permanentes à mener.


Les 3 erreurs classiques

Erreur 1 : calculer les limites sur des donnees incluant des causes spéciales. Les limites sont trop larges. La carte ne détecte plus rien. L’equipe conclut que “le SPC ne marche pas chez nous” alors que ce sont les limites qui sont fausses.

Erreur 2 : ne jamais recalculer les limites. Un processus evolue. Après un changement d’outil, une modification de gamme, un investissement machine, les limites calculees il y à 2 ans ne sont plus representatives. Recalculer les limites au minimum après chaque changement majeur du processus.

Erreur 3 : creer des cartes que personne ne regarde. Le pire scenario. La carte est tracee (souvent automatiquement par le logiciel de mesure), mais personne ne la consulte, personne ne réagit. Le SPC devient un cout sans retour. Si l’organisation n’est pas prete à reagir aux alarmes, elle n’est pas prete pour le SPC.


SPC vs Machine Learning pour la surveillance process

Le SPC à été invente dans les annees 1920. Le Machine Learning à explose dans les annees 2010. La question se pose naturellement : le ML va-t-il remplacér le SPC ?

Non. Et la raison est structurelle.

Le SPC fonctionne extremement bien dans son domaine : surveiller 1 à 3 variables sur un processus stable, avec une base théorique solide, des règles de decision claires, et une interpretabilite totale. Un opérateur comprend une carte Xbar. Il ne comprend pas un autoencoder.

Le ML devient pertinent dans des situations spécifiques que le SPC ne peut pas couvrir :

Plus de 10 variables en interaction. Un processus d’injection plastique avec température, pression, temps de cycle, humidité, lot matière, températures de 6 zones de chauffe. Mettre une carte Xbar sur chaque variable manque les interactions. Un modèle de détection d’anomalie multivariée (Isolation Forest, autoencoder) voit les combinaisons anormales que les cartes individuelles ratent.

Relations non linéaires. Quand la qualité dépend d’un produit croise entre température et vitesse — pas de la température seule ni de la vitesse seule — le SPC univarie est aveugle. Le ML capture ces interactions sans qu’on ait à les spécifier à l’avance.

Prédiction avant défaut. Le SPC détecte une dérive quand elle se manifeste dans les mesures. Le ML peut prédire un défaut avant qu’il n’apparaisse, à partir de patterns dans les paramètres process. C’est la différence entre le thermomètre (SPC) et le modèle météo (ML) : le premier constate, le second anticipe.

L’approche la plus robuste est hybride. Le SPC assure le monitoring de routine sur les quelques variables critiques : simple, robuste, compris par tous. Le ML ajoute une couche de détection multivariée pour les situations complexes. Les deux alarmes remontent vers le même tableau de bord. L’operateur réagit à l’alarme, quelle que soit sa source.

Le SPC ne sera jamais remplacé par le ML. Il sera complété. L’un surveille les variables une par une avec la rigueur de la statistique fréquentiste. L’autre surveille les combinaisons avec la puissance de l’apprentissage. Ensemble, ils couvrent un spectre de risque qu’aucun des deux ne couvre seul.


Vidéos associées

Carte de contrôle SPC — détecter une dérive avant la non-conformité.

Pour aller plus loin

Cet article vous a été utile ?

BCUB3 est une petite structure. Si vous pensez à un collègue ou un partenaire qui pourrait en tirer quelque chose, la meilleure manière de nous aider est de partager le lien. Et si vous avez un cas concret à discuter, parlons-en directement.

Prendre un RDV de cadrage