Le SPC en une phrase
Le SPC est un système d’alerte précoce. Il détecte qu’un processus commence à dériver AVANT que les pièces sortent des tolérances.
La différence avec le contrôle final est fondamentale. Le contrôle final, c’est un opérateur ou une machine qui trie les pièces en bout de ligne : conforme, non conforme. Il intervient quand le mal est fait. Les pièces sont déjà produites, la matière est consommee, le temps machine est perdu. Le contrôle final est un filet de securite, pas un outil d’amelioration.
Le SPC renverse la logique : au lieu de vérifiér le produit, on surveille le processus. On preleve des échantillons à intervalles reguliers, on les mesure, on trace les résultats sur une carte de contrôle. Si la carte montre un comportement anormal, on intervient sur le processus avant que les pièces ne dérivent hors tolérances.
La différence economique est massive : corriger un réglage coûte quelques minutes. Trier, retoucher ou rebuter un lot coûte des heures, parfois des jours.
Un chiffre pour fixer les idees. Sur une ligne d’usinage typique produisant 500 pièces par poste, une dérive non détectee pendant 2 heures peut générer 200 pièces non conformes. Avec un SPC correctement implante, la même dérive est détectee en 20 minutes. Le nombre de pièces non conformes tombe à 30. Le ratio est de 1 à 7.
Variation cause commune vs cause spéciale
C’est le concept fondamental du SPC. Toute la méthode repose sur cette distinction.
Cause commune. C’est le bruit naturel du processus. Il est toujours present, aléatoire, irreductible à court terme. La variation de durete d’un lot de matière première à l’autre. Les micro-vibrations de la broche. La dilatation thermique au fil de la journee. Ces causes sont nombreuses, chacune contribue faiblement, et leur effet cumule produit une variation globale qui suit approximativement une loi normale.
Cause spéciale. C’est un événement identifiable et corrigible. Un outil use. Un changement de lot matière avec des proprietes différentes. Un opérateur nouveau qui n’applique pas le même réglage. Une fuite dans le circuit de refroidissement. Les causes spéciales sont rares, ponctuelles, et leur effet est souvent brutal : un saut de moyenne, une augmentation soudaine de la dispersion, une tendance monotone.
Le but du SPC est de separer les deux. Et la règle d’or est double :
La règle d'or du SPC
Ne PAS reagir aux causes communes (c'est du sur-reglage). TOUJOURS reagir aux causes spéciales (c'est un signal réel). L'operateur qui retouche son réglage à chaque pièce mesuree augmente la variabilité au lieu de la reduire.
Analogie utile : c’est comme un medecin qui surveille la tension arterielle. La tension fluctue naturellement de plus ou moins 5 mmHg au cours de la journee. Personne ne prescrit un traitement pour ca. Mais si elle monte de 20 mmHg en une heure, c’est un signal. Le medecin intervient. Le SPC fait exactement la même chose pour un processus industriel.
Carte Xbar-R — la carte de base
La carte Xbar-R est la carte de contrôle la plus repandue en production. Elle surveille simultanément la position (moyenne) et la dispersion (etendue) du processus.
Principe. À intervalles reguliers (toutes les heures, toutes les 50 pièces, à chaque changement de lot), on preleve un sous-groupe de n pièces — typiquement n = 3 à 5. On mesure la caracteristique d’interet sur chaque pièce. On calcule la moyenne du sous-groupe (Xbar) et l’etendue du sous-groupe (R = max - min). On trace ces deux valeurs sur deux graphiques superposes : la carte Xbar en haut, la carte R en bas.
Limites de contrôle. Elles se calculent à partir des donnees du processus, PAS à partir des tolérances client. C’est la confusion la plus frequente.
Pour la carte Xbar :
ou est la moyenne des moyennes de sous-groupes, est la moyenne des éténdues, et est une constante qui dépend de la taille du sous-groupe.
Pour la carte R :
Constantes pour les tailles de sous-groupe courantes :
| 2 | 1.880 | 0 | 3.267 |
| 3 | 1.023 | 0 | 2.574 |
| 4 | 0.729 | 0 | 2.282 |
| 5 | 0.577 | 0 | 2.114 |
| 6 | 0.483 | 0 | 2.004 |
Pour à 5, , ce qui signifie que la carte R n’a pas de limite inférieure. C’est normal : avec des sous-groupes petits, une éténdue de zero est physiquement possible sans que le processus soit hors contrôle.
ATTENTION. Limites de contrôle et limites de tolérance sont deux choses complètement différentes. Les limites de contrôle viennent du processus — elles decrivent ce que le processus sait faire. Les tolérances viennent du client ou du bureau d’etudes — elles decrivent ce que le produit doit respecter.
Un processus peut etre sous contrôle (pas de cause spéciale) et pourtant non capable (les limites de contrôle debordent des tolérances). Inversement, un processus peut etre hors contrôle (cause spéciale presente) tout en restant dans les tolérances — pour l’instant. Confondre les deux, c’est garantir des erreurs de pilotage.
Exemple complet
Ligne d’usinage de bagues de roulement. Diametre nominal : 25.000 mm. Tolérance : plus ou moins 0.050 mm (USL = 25.050, LSL = 24.950). Sous-groupes de n = 5 pièces, preleves toutes les heures.
Voici les 8 premiers sous-groupes de la journee :
| Sous-groupe | x1 | x2 | x3 | x4 | x5 | Xbar | R |
|---|---|---|---|---|---|---|---|
| 1 | 25.012 | 24.998 | 25.005 | 25.010 | 25.001 | 25.005 | 0.014 |
| 2 | 24.995 | 25.008 | 25.003 | 24.999 | 25.011 | 25.003 | 0.016 |
| 3 | 25.010 | 25.015 | 25.002 | 25.007 | 25.009 | 25.009 | 0.013 |
| 4 | 24.997 | 25.001 | 25.006 | 25.003 | 24.998 | 25.001 | 0.009 |
| 5 | 25.008 | 25.012 | 25.018 | 25.014 | 25.011 | 25.013 | 0.010 |
| 6 | 25.003 | 24.996 | 25.001 | 25.007 | 25.004 | 25.002 | 0.011 |
| 7 | 25.015 | 25.019 | 25.022 | 25.017 | 25.020 | 25.019 | 0.007 |
| 8 | 25.020 | 25.025 | 25.018 | 25.023 | 25.021 | 25.021 | 0.007 |
Supposons qu’apres 25 sous-groupes, on obtient et .
Calcul des limites (, , , ) :
Interpretation. Les sous-groupes 7 et 8 dépassent (25.015). C’est un signal de cause spéciale. La moyenne du processus à monte. Avant de continuer à produire, il faut identifiér la cause : usure de l’outil ? Dérive thermique de la broche ? Changement de lot matière ? On arrete, on cherche, on corrige. C’est le SPC qui fait son travail.
Remarque : toutes les valeurs individuelles restent dans les tolérances (24.950 à 25.050). Le contrôle final ne verrait rien. Le SPC à détecte la dérive 200 pièces avant que la première pièce non conforme ne sorte.
Carte Xbar-S — quand les sous-groupes sont grands
La carte Xbar-R utilise l’etendue R comme mesure de dispersion. L’etendue est simple à calculer (max - min), mais elle perd en efficacite quand le sous-groupe grandit. Au-dela de n = 10, elle n’utilise que 2 valeurs sur n pour estimer la variabilité. C’est un gaspillage d’information.
La carte Xbar-S remplacé l’etendue par l’ecart-type S du sous-groupe. L’ecart-type utilise toutes les valeurs, pas seulement les extremes. Il est donc plus efficace statistiquement pour les grands sous-groupes.
Les formules sont analogues :
ou , et sont des constantes tabulees (differentes de , , ).
En pratique, les sous-groupes de taille supérieure à 10 sont rares en production mecanique. On les rencontre surtout dans les processus continus (chimie, pharmacie, agroalimentaire) ou en contrôle automatise avec mesure à 100%. La carte Xbar-R reste le standard pour l’immense majorite des applications industrielles.
Carte EWMÀ — détecter les petites dérives
La carte Xbar à une faiblesse connue : elle est peu sensible aux petites dérives. Un décalage de la moyenne de ou peut passer inapercu pendant de nombreux sous-groupes. La carte ne déclenchera une alarme que lorsque le décalage aura suffisamment augmente pour qu’un point franchisse la limite à . Pour les processus à haute précision — pharmacie, aeronautique, electronique — c’est trop tard.
La carte EWMÀ (Exponentially Weighted Moving Average) resout ce problème en introduisant de la memoire. Au lieu de tracer chaque sous-groupe independamment, elle calcule une moyenne mobile ponderee qui donne plus de poids aux observations recentes tout en gardant une trace des observations passees.
Formule :
ou est la valeur EWMA au temps , est la moyenne du sous-groupe , et est un paramètre de lissage compris entre 0 et 1. est initialise à la moyenne globale du processus.
contrôle la memoire de la carte. Un petit (0.05 à 0.10) donne beaucoup de poids à l’historique — la carte réagit lentement mais détecte les très petites dérives. Un grand (0.20 à 0.40) donne plus de poids aux observations recentes — la carte réagit vite mais ressemble de plus en plus à une carte Xbar classique. Le choix standard est pour un bon compromis.
Les limites de contrôle de l’EWMÀ sont des fonctions du temps (elles s’elargissent au debut puis se stabilisent) :
ou est un facteur multiplicatif (typiquement à 3.0).
Quand l’utiliser. L’EWMA est plus sensible que la carte Xbar pour les décalages de à . Pour les gros décalages (), la carte Xbar fait aussi bien, voire mieux. L’EWMÀ est donc l’outil de choix quand la précision est critique et que les dérives attendues sont faibles.
Exemple
Processus de dosage d’un additif dans une formulation chimique. Cible : 5.000%. Écart-type historique : . Un fournisseur livre un nouveau lot de matière première, legerement différent. La concentration réelle dérive de (soit ).
Avec une carte Xbar classique, ce décalage de n’est détecte en moyenne qu’au bout de 50 sous-groupes (ARL = 50). En production, ça represente plusieurs jours.
Avec une carte EWMA (, ), le même décalage est détecte en moyenne au bout de 8 sous-groupes (ARL = 8). La dérive est signalee en quelques heures. L’operateur ajuste le dosage. Le lot est conforme.
Carte CUSUM — l’accumulateur de dérives
La carte CUSUM (CUmulative SUM) pousse la logique de détection encore plus loin que l’EWMA. Au lieu de lisser les observations, elle cumule les écarts à la cible. Si le processus est centré, les écarts positifs et negatifs se compensent et la somme cumulee oscille autour de zero. Si le processus dérive, les écarts s’accumulent dans une direction et la somme cumulee augmente régulièrement.
En pratique, on utilise deux statistiques cumulees :
pour détecter les dérives vers le haut.
pour détecter les dérives vers le bas.
est un paramètre de référence (typiquement , soit la moitie du décalage qu’on veut détecter) et est le seuil de decision (typiquement à ). L’alarme se déclenche quand ou dépasse .
La CUSUM est la carte la plus sensible aux petites dérives persistantes. Elle détecte un décalage de en moyenne 2 fois plus vite que l’EWMA. Son inconvenient : elle est moins intuitive à lire. Un opérateur habitue aux cartes Xbar à besoin d’une formation spécifique pour interpreter correctement une CUSUM.
Quand l’utiliser. Processus très stables ou la moindre dérive à des consequences importantes. Fabrication de composants critiques (aeronautique, nucleaire, medical). Processus chimiques ou les ajustements sont coûteux et ou il vaut mieux détecter tot.
Les 8 règles Western Electric
Une carte de contrôle ne se limite pas à la règle du point hors limites. Les ingénieurs de Western Electric ont formalise 8 règles pour détecter les comportements anormaux, même quand aucun point ne dépasse les limites à . Chaque règle correspond à un schema qui à une probabilite très faible de se produire par hasard si le processus est stable.
Pour ces règles, on divise la carte en zones :
- Zone A : entre et (de chaque cote)
- Zone B : entre et
- Zone C : entre la moyenne et
Regle 1 — Un point au-dela de . La plus connue. Un point au-dessus de UCL ou en dessous de LCL. Probabilite sous : 0.27%. Signification : événement rare, probablement une cause spéciale ponctuelle. Action : chercher la cause immediatement.
Regle 2 — 9 points consecutifs du même cote de la moyenne. Probabilite sous : . Signification : le processus s’est decale. La moyenne à bouge. C’est souvent une usure progressive, un changement de matière, ou un ajustement incorrect. Action : vérifiér le centrage du processus.
Regle 3 — 6 points consecutifs en augmentation ou diminution monotone. Signification : tendance. Usure d’outil, dérive thermique, degradation progressive d’un composant. Action : identifiér le paramètre qui se degrade et planifier l’intervention.
Regle 4 — 14 points alternant haut/bas. Signification : oscillation systematique. Souvent un sur-reglage (l’operateur compense chaque écart). Peut aussi indiquer deux flux melanges (deux cavites de moule, deux machines). Action : vérifiér s’il y à sur-reglage ou stratification des donnees.
Regle 5 — 2 points sur 3 en zone A (au-dela de , même cote). Signification : la variabilité à augmente ou la moyenne s’est decalee. Le processus produit trop de valeurs extremes. Action : vérifiér la dispersion et le centrage.
Regle 6 — 4 points sur 5 en zone B ou au-dela (au-dela de , même cote). Signification : décalage modere de la moyenne. Moins brutal que la règle 1, mais persistant. Action : vérifiér le centrage, rechercher un changement recent dans les conditions de production.
Regle 7 — 15 points consecutifs en zone C (dans la bande ). Contre-intuitif : trop peu de variation est aussi suspect. Signification : stratification. Les donnees viennent probablement de deux populations ou plus dont les moyennes se compensent. Ou bien les limites de contrôle ont été calculees sur des donnees trop variables et ne sont plus representatives. Action : vérifiér l’homogeneite des sources de donnees et recalculer les limites si nécessaire.
Regle 8 — 8 points consecutifs au-dela de (des deux cotes). Signification : melange de deux populations. Typiquement, deux machines, deux opérateurs, ou deux lots matière qui produisent des résultats centrés differemment. Pris ensemble, les sous-groupes alternent entre les deux centrés, ce qui cree une bimodalite masquee. Action : stratifier les donnees par source et tracer des cartes separees.
En production, on n’applique pas forcement les 8 règles simultanément. Les règles 1, 2 et 3 sont quasi universelles. Les règles 5 et 6 ajoutent de la sensibilité. Les règles 4, 7 et 8 sont plus spécialisees. Le risque d’appliquer toutes les règles en même temps est de multiplier les fausses alarmes, ce qui finit par dissuader les opérateurs de reagir.
Capabilité et
Les cartes de contrôle repondent à la question “le processus est-il stable ?”. La capabilité repond à la question “le processus est-il capable de satisfaire le client ?”. Ce sont deux questions distinctes, et un processus peut etre stable sans etre capable — ou capable sans etre stable (temporairement).
— la capabilité potentielle.
compare la largeur de la tolérance à la largeur naturelle du processus (). Si , la tolérance fait exactement de large : le processus occupe toute la tolérance, sans marge. Si , la tolérance fait : le processus n’en occupe que la moitie.
ne tient pas compte du centrage. Un processus avec mais decentre de produira quand même des pièces hors tolérance. C’est pour ça que seul ne suffit jamais.
— la capabilité réelle.
prend le pire des deux cotes. Si le processus est parfaitement centré, . S’il est decentre, . Plus l’ecart entre et est grand, plus le processus est decentre.
Interpretation :
| Taux hors tolérance | Interpretation | |
|---|---|---|
| < 1.00 | > 2 700 ppm | Non capable. Des pièces sortent des tolérances en routine. |
| 1.00 | 2 700 ppm (0.27%) | Juste capable. Aucune marge. |
| 1.33 | 63 ppm | Standard industriel courant. Objectif IATF 16949. |
| 1.67 | 0.6 ppm | Excellent. Exigence aeronautique et pharmaceutique. |
| 2.00 | 3.4 ppb | ”Six Sigma” (avec prise en compte d’une dérive de ). |
Un de 1.33 est l’objectif le plus repandu dans l’industrie automobile et mecanique. Il correspond à une zone de garde de de chaque cote après centrage. En aeronautique, on exige souvent 1.67. Les de 2.00 et au-dela relevent de processus très maîtrises (usinage CNC de précision, fabrication de semi-conducteurs).
Attention : hypothèse de normalite
$C_p$ et $C_{pk}$ supposent que la distribution suit une loi normale. Un $C_{pk}$ de 1.50 calcule sur des donnees non normales peut correspondre à un taux de non-conformite réel 10 fois supérieur à ce que la formule predit. Vérifiér la normalite (Shapiro-Wilk, Anderson-Darling) est obligatoire avant de publier un $C_{pk}$.
et : la performance réelle.
Les formules sont identiques à et , mais avec une différence critique : est estime differemment.
- / utilisent (l’ecart-type intra-groupe, estime à partir de ou ). C’est la variabilité à court terme, au sein de chaque sous-groupe.
- / utilisent (l’ecart-type global calcule sur toutes les donnees individuelles). C’est la variabilité totale, incluant les décalages entre sous-groupes.
La comparaison des deux est instructive. Si est nettement supérieur à , le processus est instable : la variabilité entre sous-groupes (causes spéciales) est significative par rapport à la variabilité au sein des sous-groupes. Le processus à le potentiel ( élevé) mais ne le realise pas en pratique ( plus faible).
La priorite est alors de stabiliser le processus avant de chercher à reduire la variabilité intraseque.
Combien de donnees ? Minimum 30 mesures pour un preliminaire. 50 à 100 pour un fiable. Plus de 100 pour un de validation. Avec moins de 30, l’intervalle de confiance sur est si large que la valeur n’a aucun pouvoir discriminant.
Mise en place terrain : les 6 étapes
1. Choisir la caracteristique critique
Toutes les cotes, tous les paramètres ne meritent pas une carte de contrôle. Le SPC est un investissement en temps (prelevement, mesure, saisie, analyse, reaction). Cibler les caracteristiques qui ont le plus d’impact : celles qui sont liees à la fonctionnalite du produit (cotes d’assemblage, specifications client), celles qui generent le plus de non-qualite (historique rebuts et retouches), ou celles qui sont les plus difficiles à maîtriser (processus sensible, faible capabilité).
Une ligne de production typique à 50 à 200 cotes specifiees. Mettre un SPC sur les 200 est impossible et inutile. Les 3 à 5 caracteristiques les plus critiques suffisent pour couvrir 80% du risque qualité.
2. Definir le plan de prelevement
Taille du sous-groupe : n = 5 est le standard. Assez grand pour estimer correctement la moyenne, assez petit pour que le prelevement ne ralentisse pas la production.
Fréquence : fonction du risque et du rythme de production. Toutes les heures sur un processus cadence. À chaque changement de serie sur un processus en petites series. Toutes les 100 pièces sur un processus rapide. La règle pragmatique : la fréquence doit permettre de détecter une dérive avant qu’elle ne produise plus de pièces non conformes que ce que l’on peut tolerer economiquement.
3. Collecter 25 à 30 sous-groupes sous contrôle
C’est la phase d’initialisation. On preleve 25 à 30 sous-groupes pendant une periode ou le processus est connu pour etre stable : pas de changement de matière, pas de réglage en cours, pas d’incident. Ces donnees serviront à calculer les limites de contrôle initiales.
Si des causes spéciales sont presentes dans les donnees d’initialisation, il faut les identifiér, les corriger, et les exclure du calcul. Calculer des limites sur des donnees incluant des causes spéciales, c’est elargir artificiellement les limites et rendre la carte aveugle aux futures dérives.
4. Calculer les limites de contrôle
Appliquer les formules (Xbar-R ou Xbar-S selon la taille des sous-groupes). Tracer les limites sur la carte. Vérifiér que les donnees d’initialisation ne violent aucune des règles Western Electric. Si c’est le cas, investiguer et recalculer.
5. Former les opérateurs aux règles
Un opérateur non forme ne regardera pas la carte, ou ne saura pas quoi faire quand elle alarme. La formation doit etre courte, concrete et visuelle : quoi regarder (les 3 premières règles Western Electric au minimum), quoi faire quand la carte alarme (arreter, signaler, chercher la cause), quoi NE PAS faire (ne pas sur-regler, ne pas ignorer).
Afficher la carte au poste, pres de la machine, à hauteur des yeux. Une carte rangee dans un classeur ne sert à rien.
6. Reagir et documenter
Le SPC sans reaction est un exercice de style. Quand la carte alarme, il faut investiguer la cause, corriger le processus et documenter ce qui s’est passe. Le journal des causes spéciales est l’outil d’amelioration continue le plus precieux d’un atelier SPC. Après 6 mois, ce journal revele les causes recurrentes — et donc les actions correctives permanentes à mener.
Les 3 erreurs classiques
Erreur 1 : calculer les limites sur des donnees incluant des causes spéciales. Les limites sont trop larges. La carte ne détecte plus rien. L’equipe conclut que “le SPC ne marche pas chez nous” alors que ce sont les limites qui sont fausses.
Erreur 2 : ne jamais recalculer les limites. Un processus evolue. Après un changement d’outil, une modification de gamme, un investissement machine, les limites calculees il y à 2 ans ne sont plus representatives. Recalculer les limites au minimum après chaque changement majeur du processus.
Erreur 3 : creer des cartes que personne ne regarde. Le pire scenario. La carte est tracee (souvent automatiquement par le logiciel de mesure), mais personne ne la consulte, personne ne réagit. Le SPC devient un cout sans retour. Si l’organisation n’est pas prete à reagir aux alarmes, elle n’est pas prete pour le SPC.
SPC vs Machine Learning pour la surveillance process
Le SPC à été invente dans les annees 1920. Le Machine Learning à explose dans les annees 2010. La question se pose naturellement : le ML va-t-il remplacér le SPC ?
Non. Et la raison est structurelle.
Le SPC fonctionne extremement bien dans son domaine : surveiller 1 à 3 variables sur un processus stable, avec une base théorique solide, des règles de decision claires, et une interpretabilite totale. Un opérateur comprend une carte Xbar. Il ne comprend pas un autoencoder.
Le ML devient pertinent dans des situations spécifiques que le SPC ne peut pas couvrir :
Plus de 10 variables en interaction. Un processus d’injection plastique avec température, pression, temps de cycle, humidité, lot matière, températures de 6 zones de chauffe. Mettre une carte Xbar sur chaque variable manque les interactions. Un modèle de détection d’anomalie multivariée (Isolation Forest, autoencoder) voit les combinaisons anormales que les cartes individuelles ratent.
Relations non linéaires. Quand la qualité dépend d’un produit croise entre température et vitesse — pas de la température seule ni de la vitesse seule — le SPC univarie est aveugle. Le ML capture ces interactions sans qu’on ait à les spécifier à l’avance.
Prédiction avant défaut. Le SPC détecte une dérive quand elle se manifeste dans les mesures. Le ML peut prédire un défaut avant qu’il n’apparaisse, à partir de patterns dans les paramètres process. C’est la différence entre le thermomètre (SPC) et le modèle météo (ML) : le premier constate, le second anticipe.
L’approche la plus robuste est hybride. Le SPC assure le monitoring de routine sur les quelques variables critiques : simple, robuste, compris par tous. Le ML ajoute une couche de détection multivariée pour les situations complexes. Les deux alarmes remontent vers le même tableau de bord. L’operateur réagit à l’alarme, quelle que soit sa source.
Le SPC ne sera jamais remplacé par le ML. Il sera complété. L’un surveille les variables une par une avec la rigueur de la statistique fréquentiste. L’autre surveille les combinaisons avec la puissance de l’apprentissage. Ensemble, ils couvrent un spectre de risque qu’aucun des deux ne couvre seul.
Vidéos associées
Carte de contrôle SPC — détecter une dérive avant la non-conformité.
Pour aller plus loin
- Tests statistiques : le guide de choix — les tests derrière les alarmes SPC
- Normalité, linéarité, hypothèses — la normalité est critique pour /
- Plans d’expérience (DOE) — trouver le réglage optimal, puis le maintenir par SPC
- Machine Learning ou statistiques classiques — compléter le SPC avec du ML multivariable