Né en 1924, mort en 2012, Genichi Taguchi se destinait à une carrière d'ingénieur textile, dans l'entreprise de kimonos familiale, mais la seconde guerre mondiale en a décidé autrement. Il a été incorporé dans le service des observations astronomiques de la Marine Impériale, où il a goûté aux statistiques.
Après la guerre, il entre au Ministère de la Santé et travaille à la modélisation de plans d'expérience. Dans le même temps, il intervient aussi à l'Institut de Mathématiques Statistiques.
Il travaillera ensuite dans l'industrie, dans le domaine du contrôle statistique de la qualité.
Son nom reste associé aux plans d'expérience. On parle en effet beaucoup de "Plans Taguchi" ou "Plans de Taguchi", le plus souvent sans trop savoir de quoi il s'agit, alors que sa contribution la plus remarquable réside dans les graphes associés aux plans incomplets, qui optimisent les changements de réglages et permettent une mise en œuvre économe en temps.
La Fonction de Perte est une autre de ses contributions majeures. À l'origine, deux visions de la non-qualité :
d'un côté, les tenants d'une vision contractuelle de la qualité : si le produit n'est pas exactement sur le centre de la spécification, mais qu'il est à l'intérieur de la plage de tolérances, alors le client ne peut prétendre à aucune indemnisation, puisque le préjudice ne peut pas exister. En revanche, dès lors que la plage de tolérance est dépassée, alors la non-conformité est avérée, et elle a un cout, fixe. Sur un graphique, la courbe qui représente cette perte d'argent pour l'entreprise a une allure en "poteaux de buts".
de l'autre côté, Taguchi postule que le client achète le centre de la spécification, et qu'il "subit" les tolérances. Bien entendu, elles font partie du contrat, mais le process doit être réglé chaque fois que le décalage atteint une fraction de la tolérance. Lorsqu'on approche de la valeur seuil (la tolérance inférieure ou la tolérance supérieure), le cout est déjà très élevé. Pour lui, la perte financière est une parabole, ayant pour équation :
perte = k . (valeur - cible)2
Les deux visions sont représentées sur le graphique ci-dessous, exemple d'une pièce dont la cote doit être de 40 ± 0,2 mm, avec un cout de 50 € en cas de non-conformité.
L'équation ci-dessus va nous permettre de faire des calculs... À commencer par la valeur de k. k est la valeur qui va déterminer la pente de la courbe. On connaît une valeur critique : le cout de la non-conformité en limite de tolérance. Dans le graphique ci-dessus, c'est 50 € pour un décalage (valeur - cible) de 0,2 mm. On a donc :
50 = k . (0,2)2
k = 50 / 0,04
k = 1 250 €/mm2
Imaginons à présent qu'il soit possible de faire un réglage au moment de la production, pour corriger le décalage, et recentrer la fabrication sur la cible. Il est alors intéressant de déterminer à partir de quel décalage il devient rentable de faire ce réglage. La réponse va dépendre du cout du réglage en question. Imaginons que ce réglage coute (ou entraîne une perte de) 20 € (temps d'arrêt improductif de la ligne par exemple). On a alors (en notant décalage = valeur-cible) :
20 = k . (décalage)2, avec k = 1 250 €/mm2
décalage2 = 20 / 1 250
décalage2 = 0,016 mm2
décalage = 0,126 mm
Ainsi, si le cout du réglage est de 20 €, il devient intéressant de le faire dès que le décalage atteint 12 centièmes de millimètres. Pour d'autres couts, la limite sera différente, comme le montre la courbe ci-dessous :
En allant plus loin encore, on peut même dire que si le cout du règlage dépasse 50 €, alors il va devenir très difficile de conserver de la compétitivité si le procédé de fabrication est instable. C'est ici que va entrer en jeu l'approche 6 sigma...
Tout d'abord, ce concept jette un éclairage intéressant (je n'ose pas dire "nouveau", vu son âge) sur la relation client-fournisseur, en renvoyant la discussion sur le terrain du besoin du client. Le centre de la spécification, rien que le centre, et pas les tolérances ! Si vous souhaitez faire de l'amélioration continue, voilà un chantier à ouvrir !
Ensuite, c'est une tentative très intéressante pour outiller le manager qui cherche à objectiver ses décisions – ce qui va garantir l'optimisation du fonctionnement de son processus. On n'est pas dans le suivi de la moyenne et de la dispersion de l'outil de production que la MSP a popularisé. L'amélioration continue est, encore une fois, à destination du client et pas tournée vers le nombril du responsable de production.
Même si ce n'est pas tout à fait explicite, la Fonction de Perte fait référence à l'optimum global du système. La perte n'est donc pas strictement pour le fournisseur ou pour le client, elle se répartit entre les deux. La vision "poteaux de but" qui ne comprend que le "tout ou rien" répartit les couts de manière manichéenne, donc forcément imparfaite.
Enfin, elle nous rappelle ce que disait W. Edwards DEMING; il faut limiter la variabilité des processus. Avec la Fonction de Perte, on comprend l'importance de concevoir un produit et/ou un procédé robuste, c'est à dire que l'on puisse fabriquer ou utiliser quelles que soient les conditions. L'optimisation du processus doit être faite pour le produit, pas pour la cadence !
La Fonction de Perte de Taguchi ne fait pas l'unanimité, les critiques ne sont pas rares...
Le modèle choisi (une parabole, le choix de l'élévation au carré) est empirique, et je ne suis pas certain qu'il existe de nombreuses preuves de sa validité.
D'ailleurs, cette équation n'est pas absolument solide, puisque pour que les dimensions soient homogènes, il faut exprimer k en € / (unité)2. Pour notre exemple, k s'exprime en € / mm2, ce qui ne correspond pas à grand-chose en matière d'aide à la décision de réglage d'une cote en mm ! Si l'on utilise la notation € / mm / mm, c'est un peu moins obscur, puisque l'on a une dérivée mathématique. Chaque millimètre, on perd x € par millimètre de plus (un peu comme ce que l'accélération (en m/s2) est à la vitesse (en m/s)).
La courbe ci-dessus, qui reprend les limites d'action en fonction de la perte associée au réglage, contient en elle une limite : celle du cout de la non-conformité. Si le réglage coute plus de 50 € (dans notre exemple), alors le producteur aura (malheureusement) intérêt à ne pas régler, et laisser la non-conformité se produire. C'est bien entendu antinomique à la notion d'amélioration continue.
Un certain nombre de qualiticiens, enfin, s'accommodent fort bien de la vision contractuelle de la qualité - quand ils ne se retranchent pas derrière la sulfureuse notion de "sur-qualité" pour ne rien faire...
Enfin, lorsque la tolérance n'est pas symétrique, il faut calculer deux facteurs k - l'un pour la borne inférieure, l'autre pour la borne supérieure, et les décisions d'action seront elles aussi différentes en haut et en bas de la plage de tolérances.
Quoi qu'il en soit, cela reste un outil d'amélioration continue trè efficient.