Le concept de méthodes statistiques de la qualité. Le concept de méthodes statistiques, les fonctionnalités de l'application

La norme ISO stipule que l'application correcte des méthodes statistiques est essentielle pour prendre des mesures de contrôle dans l'analyse du marché, pour la conception des produits, pour prédire la durabilité et la durée de vie, pour étudier les contrôles des processus, pour déterminer les niveaux de qualité dans les plans d'échantillonnage, pour évaluer les performances des processus amélioration de la qualité, évaluation de la sécurité et analyse des risques.

En utilisant des méthodes statistiques, il est possible de détecter les problèmes de qualité en temps opportun (détecter les violations de processus avant que les produits défectueux ne soient libérés). Dans une large mesure, les méthodes statistiques permettent d'établir les causes de la violation.

Le besoin de méthodes statistiques se pose, tout d'abord, en relation avec la nécessité de minimiser la variabilité (variabilité) des processus.

Par variabilité, on entend l'écart de divers faits par rapport aux valeurs données. Une variabilité non détectée à temps peut constituer un danger mortel, tant pour la production que pour les produits et l'entreprise dans son ensemble.

Approche systémiqueà la procédure de prise de décision fondée sur la théorie de la variabilité s'appelle la pensée statistique. Conformément à la formulation de la société américaine, la qualité de la pensée statistique repose sur trois principes fondamentaux :

1) tout travail est effectué dans un système de processus interdépendants ;

2) dans tous les processus il y a des variations ;

3) comprendre et réduire les variations est la clé du succès.

Deming a déclaré: "Si je devais transmettre mon message à la direction en quelques mots, je dirais que l'essentiel est de réduire les variations."

Les raisons de la variation de tout processus peuvent être divisées en deux groupes.

Le premier groupe - ce sont des causes générales liées au système de production (équipements, bâtiments, matières premières, personnel) correspondent à la variabilité ne peut pas être changé sans changer le système. Toute action d'employés ordinaires - les artistes interprètes ou exécutants dans cette situation, très probablement, ne fait qu'aggraver la situation. L'intervention dans le système nécessite presque toujours une action de la haute direction.

Le deuxième groupe comprend les causes spéciales associées aux erreurs de l'opérateur, aux échecs de configuration, aux violations de mode, etc. L'élimination de ces causes est effectuée par le personnel directement impliqué dans le processus. Ce sont des raisons non aléatoires - usure des outils, desserrage des fixations, changements de température du liquide de refroidissement, violation du régime technologique. De telles raisons doivent être étudiées et peuvent être éliminées lorsque le processus est réglé, ce qui garantit sa stabilité.

Les principales fonctions des méthodes statistiques au Royaume-Uni

Fonction d'information cognitive

fonction prédictive

Fonction d'évaluation

Fonction analytique

Alarme fausse et non déclarée

Dans ce cas, on parle d'erreurs statistiques. Où, du fait de leur apparition, une fausse alarme peut être annoncée et, inversement, la non-détection de ces erreurs peut conduire à une alarme non déclarée.

En général, les erreurs d'observation sont des écarts entre l'observation statistique et les valeurs réelles des grandeurs étudiées.

Lors de la réalisation d'observations statistiques, on distingue deux types d'erreurs

1) erreurs d'enregistrement

2) erreurs de représentativité

Erreurs d'enregistrement - surviennent en raison d'un établissement incorrect de faits dans le processus d'observation, ou d'un enregistrement erroné de ceux-ci, ou des deux.

Les erreurs d'enregistrement peuvent être aléatoires ou systématiques, intentionnelles ou non.

Les erreurs aléatoires sont les erreurs qui se produisent sous l'influence de facteurs aléatoires.

De telles erreurs peuvent être dirigées à la fois dans le sens de l'exagération et dans le sens de la sous-estimation, et avec un nombre suffisamment grand d'observations, ces erreurs s'annulent sous l'action de la loi des grands nombres.

Erreurs systématiques - se produisent en raison de certaines causes constantes agissant dans la même direction, c'est-à-dire vers une exagération ou une sous-estimation de la taille des données, ce qui entraîne de graves distorsions des résultats globaux observation statistique.

Les erreurs intentionnelles sont des erreurs causées par la fausse représentation délibérée des données.

Les erreurs non intentionnelles sont des erreurs accidentelles, non intentionnelles, telles que des instruments de mesure défectueux.

Erreurs de représentativité - ces erreurs se produisent lorsque l'observation n'est pas continue. Comme les erreurs d'enregistrement, elles sont aléatoires et systématiques.

Les erreurs de représentativité aléatoire surviennent du fait que l'échantillon d'unités d'observation sélectionné sur la base du principe du hasard ne reflète pas l'ensemble de la population, l'ampleur de cette erreur peut être estimée.

Des erreurs systématiques surviennent en raison d'une violation du principe de sélection aléatoire des unités de la population à l'étude, qui doivent être soumises à l'observation.

La taille de ces erreurs, en règle générale, ne peut pas être quantifiée. La validation des données d'observation statistique peut être mise en œuvre par la mise en œuvre de contrôle.

Classification des écarts des paramètres de qualité du produit et des méthodes de contrôle

Selon la source et la méthode d'obtention des informations, les méthodes d'évaluation de la qualité sont classées en objectifs, heuristiques, statistiques et combinés (mixtes). Méthodes objectives sont divisés en mesure, enregistrement, règlement et opération d'essai. Les méthodes heuristiques regroupent les méthodes organoleptiques, expertes et sociologiques.

L'utilisation de méthodes statistiques est l'un des moyens les plus efficaces pour développer de nouvelles technologies et contrôler la qualité des processus.

Question 2. Fiabilité des systèmes. Évaluation de la probabilité de pannes et de la probabilité de fonctionnement sans panne du système pour différents schémas de connexion de ses éléments constitutifs.

Fiabilité des systèmes

La fiabilité du système est la propriété d'un objet de maintenir dans le temps dans les limites établies les valeurs de tous les paramètres qui caractérisent la capacité à exécuter les fonctions requises dans des modes et conditions d'utilisation donnés, Maintenance, réparations, entreposage et transport.

L'indicateur de fiabilité caractérise quantitativement une ou plusieurs propriétés qui constituent la fiabilité d'un objet.

L'indicateur de fiabilité peut avoir une dimension (par exemple, le temps entre pannes) ou non (par exemple, la probabilité de fonctionnement sans panne).

Les indicateurs de fiabilité peuvent être simples et complexes. Unité indicateur de fiabilité caractérise une des propriétés, mais complexe - plusieurs propriétés constituant la fiabilité de l'objet.

Il existe les indicateurs de fiabilité suivants :

facilité d'entretien

performance

Fiabilité

Durabilité

maintenabilité

Récupération

Conservation, etc...

Raisons de la fabrication de produits non fiables :

1) absence de vérification régulière du respect des normes ;

2) erreurs dans l'utilisation des matériaux et contrôle inapproprié des matériaux pendant la production ;

3) une comptabilité et des rapports incorrects sur le contrôle, y compris des informations sur l'amélioration de la technologie ;

4) schémas d'échantillonnage inférieurs aux normes ;

5) manque de tests de conformité des matériaux ;

6) non-respect des normes pour les tests d'acceptation ;

7) manque de matériel didactique et d'instructions pour effectuer le contrôle ;

8) utilisation peu fréquente des rapports de contrôle pour l'amélioration des processus.

L'évaluation de la probabilité de pannes et de la probabilité de fonctionnement sans panne de tout système dépend du schéma de connexion de ses éléments constitutifs.

Il existe trois schémas de connexion :

1) connexion en série des éléments


Un système série pour connecter des éléments est fiable lorsque tous les éléments sont fiables et plus le nombre d'éléments dans le système est élevé, plus sa fiabilité est faible.

La fiabilité des éléments connectés en série peut être trouvée par la formule :

(1)

où p est le degré de fiabilité de l'élément.

n est le nombre d'éléments.

La probabilité de défaillance d'un système d'éléments connectés en série est trouvée par la formule :

2) connexion parallèle des éléments


La connexion parallèle des éléments augmente la fiabilité du système.

La fiabilité du système avec connexion parallèle des éléments est déterminée par la formule :

où q est le degré de non-fiabilité de l'élément

la probabilité de défaillance en connexion parallèle d'éléments est déterminée par la formule :

3) Connexions combinées.

Il existe deux schémas de connexions combinées d'éléments.

Schéma (1) - reflète la fiabilité du système lorsque deux sous-systèmes sont connectés en parallèle, lorsque chacun d'eux est constitué de deux éléments connectés en série.

Schéma (2) - reflète la fiabilité du système lorsque deux sous-systèmes sont connectés en série, lorsque chacun d'eux se compose de deux éléments connectés en parallèle


La fiabilité du système avec une connexion parallèle de deux sous-systèmes, lorsque chacun d'eux est constitué de deux éléments connectés en série, est déterminée par la formule:

La fiabilité du système lorsque deux sous-systèmes sont connectés en série, lorsque chacun d'eux est constitué de deux éléments connectés en parallèle, est déterminée par la formule.

Les méthodes statistiques (méthodes basées sur l'utilisation de statistiques mathématiques) sont outil efficace collecte et analyse d'informations de qualité. L'utilisation de ces méthodes ne nécessite pas de dépenses importantes et permet de juger de l'état des phénomènes étudiés (objets, processus) dans le système qualité avec un degré donné de précision et de fiabilité, de prévoir et de réguler les problèmes à toutes les étapes. cycle de la vie produits et sur cette base pour développer des décisions de gestion optimales. Le besoin de méthodes statistiques se pose, tout d'abord, en relation avec la nécessité de minimiser la variabilité des processus. La variabilité est inhérente à presque tous les domaines d'activité liés à l'assurance qualité. Cependant, il est le plus caractéristique des processus, car ils contiennent de nombreuses sources de variabilité.

Une des principales étapes recherche psychologique– analyse quantitative et significative des résultats obtenus. Une analyse significative des résultats de la recherche est l'étape la plus importante, la plus complexe et la plus créative. L'utilisation des statistiques en psychologie est une composante nécessaire du processus de traitement et d'analyse des données. Il ne propose que des arguments quantitatifs qui nécessitent une justification et une interprétation substantielles.

Classiquement, toutes les méthodes peuvent être classées sur la base de la généralité en trois groupes principaux : les méthodes graphiques, les méthodes d'analyse de populations statistiques et les méthodes économiques et mathématiques.

Méthodes graphiques reposent sur l'utilisation d'outils graphiques d'analyse de données statistiques. Ce groupe peut inclure des méthodes telles que la liste de contrôle, le diagramme de Pareto, le schéma d'Ishikawa, l'histogramme, le nuage de points, la stratification, la carte de contrôle, le graphique de séries chronologiques, etc. Ces méthodes ne nécessitent pas de calculs complexes, peuvent être utilisées à la fois indépendamment et en combinaison avec d'autres méthodes. Les maîtriser n'est pas difficile non seulement pour les ingénieurs et les techniciens, mais aussi pour les ouvriers. Cependant, ce sont des méthodes très efficaces. Pas étonnant qu'ils trouvent l'application la plus large dans l'industrie, en particulier dans le travail des groupes de qualité.

Méthodes, analyse des agrégats statistiques sont utilisés pour étudier des informations lorsque la variation du paramètre analysé est aléatoire. Les principales méthodes incluses dans ce groupe sont : les analyses de type régression, variance et factorielle, la méthode de comparaison des moyennes, la méthode de comparaison des variances, etc. Ces méthodes permettent : d'établir la dépendance des phénomènes étudiés à des facteurs aléatoires, aussi bien qualitatifs (analyse de variance) que quantitatifs ( analyse de corrélation); explorer les relations entre les variables aléatoires et non aléatoires (analyse de régression); identifier le rôle des facteurs individuels dans la modification du paramètre analysé ( analyse factorielle) etc.

Méthodes économiques et mathématiques sont une combinaison de méthodes économiques, mathématiques et cybernétiques. Le concept central des méthodes de ce groupe est l'optimisation, c'est-à-dire le processus de recherche la meilleure option parmi l'ensemble des possibles, en tenant compte du critère retenu (critère d'optimalité). Au sens strict, les méthodes économiques et mathématiques ne sont pas purement statistiques, mais elles utilisent largement l'appareil de la statistique mathématique, ce qui justifie de les inclure dans la classification envisagée des méthodes statistiques. Pour des finalités liées à l'assurance qualité, parmi un ensemble assez large de méthodes économiques et mathématiques, il convient tout d'abord de distinguer : programmation mathématique(linéaire, non linéaire, dynamique); planification d'expériences; modélisation par simulation : théorie des jeux ; théorie des files d'attente; théorie de l'ordonnancement; analyse des coûts, etc. Ce groupe peut inclure à la fois les méthodes Taguchi et la méthode Quality Function Deployment (QFD).

Fonctionnalités et variables

Fonctionnalités et variables sont des phénomènes psychologiques mesurables. De tels phénomènes peuvent être : le temps pour résoudre un problème, le nombre d'erreurs commises, le niveau d'anxiété, un indicateur de labilité intellectuelle, l'intensité des réactions agressives, l'angle de rotation du corps dans une conversation, un indicateur de statut sociométrique , et de nombreuses autres variables.

Les concepts d'attribut et de variable peuvent être utilisés de manière interchangeable. Ce sont les plus courants. Parfois, à leur place, les concepts d'indicateur ou de niveau sont utilisés, par exemple, le niveau de persistance, l'indicateur d'intelligence verbale, etc. Les concepts d'indicateur et de niveau indiquent que le trait peut être mesuré quantitativement, puisque les définitions " élevé" ou "faible" leur sont applicables, par exemple, un haut niveau d'intelligence, un faible niveau d'anxiété, etc.

Les variables psychologiques sont des variables aléatoires, car on ne sait pas à l'avance quelle valeur elles prendront.

Les valeurs caractéristiques sont déterminées à l'aide d'échelles de mesure spéciales.

Échelles de mesure La mesure est l'attribution de formes numériques à des objets ou à des événements conformément à certaines règles. classification des types d'échelles de mesure:

Échelle nominative (échelle de nom)–Les objets sont regroupés en différentes classes afin qu'au sein de la classe, ils soient identiques en termes de propriété mesurée.

Échelle ordinale (rang)- attribuer des numéros aux objets en fonction de la gravité de la caractéristique mesurée.

Échelle d'intervalle (métrique) - Il s'agit d'une mesure dans laquelle les chiffres reflètent non seulement les différences entre les objets au niveau de l'expression de l'Île Sainte, mais aussi combien plus ou moins l'Esprit Saint est exprimé.

variables est quelque chose qui peut être mesuré, contrôlé ou modifié dans la recherche. Les variables diffèrent à bien des égards, en particulier le rôle qu'elles jouent dans la recherche, l'échelle de mesure, etc.

Variables indépendantes sont appelées variables qui sont modifiées par le chercheur, tandis que variables dépendantes sont des variables qui sont mesurées ou enregistrées.

Discret est une variable qui ne peut prendre des valeurs que dans une liste de certains nombres. continu nous considérerons toute variable qui n'est pas discrète.

qualité- des données qui enregistrent une certaine qualité que possède un objet.

Sujet de science statistique

Le rôle et l'importance des statistiques en tant que science

La statistique est une branche de l'activité humaine visant à collecter, traiter et analyser les données de la comptabilité économique. La statistique elle-même est l'un des types de comptabilité (comptable et opérationnelle-technique).

Les statistiques sont apparues comme une science pour la première fois en Chine au 5ème siècle avant JC, lorsqu'il est devenu nécessaire de calculer les terres domaniales, le trésor, la population, etc. Associé à la naissance de l'État. Posséder la poursuite du développement statistiques reçues lors de la formation du capitalisme : usines, usines, agriculture, Échange international etc. La statistique a subi de profonds changements aussi bien pendant les années du socialisme qu'à l'heure actuelle. Fondamentaux pour le développement de techniques, méthodes Art. étaient les conditions préalables au développement des secteurs public et privé.

Le terme a été introduit dans la science par les Allemands. le scientifique Gottfried Achenwahl, qui en 1746 commença à lire au Marbuk puis à l'Université de Göttengen une nouvelle discipline, qu'il appela "statistiques".

Éq. social de masse. phénomènes

· Indicateurs Activités commerciales

Le sujet des statistiques est l'étude des phénomènes sociaux, la dynamique et la direction de leur développement. À l'aide d'indicateurs statistiques, cette science détermine le côté quantitatif d'un phénomène social, observe les schémas de transition de la quantité vers la qualité à l'aide de l'exemple d'un phénomène social donné et, sur la base de ces observations, analyse les données obtenues dans certaines conditions. de lieu et de temps. La statistique explore les phénomènes et processus socio-économiques massifs, étudie les nombreux facteurs qui les déterminent.

MÉTHODES STATISTIQUES - méthodes scientifiques pour décrire et étudier les phénomènes de masse qui permettent une expression quantitative (numérique)

Les méthodes statistiques comprennent à la fois des principes expérimentaux et théoriques. Les statistiques proviennent principalement de l'expérience;

Les méthodes statistiques d'analyse des données sont utilisées dans presque tous les domaines de l'activité humaine. Ils sont utilisés chaque fois qu'il est nécessaire d'obtenir et d'étayer des jugements sur un groupe (objets ou sujets) présentant une certaine hétérogénéité interne.

Il convient de distinguer trois types d'activités scientifiques et appliquées dans le domaine des méthodes statistiques d'analyse de données (selon le degré de spécificité des méthodes associé à l'immersion dans des problèmes spécifiques) :

a) développement et recherche de méthodes usage général, sans tenir compte des spécificités du domaine d'application ;

b) développement et recherche de modèles statistiques de phénomènes et processus réels en fonction des besoins d'un domaine d'activité particulier;

c) application de méthodes statistiques et de modèles pour l'analyse statistique de données spécifiques.

Un ensemble de diverses méthodes forme une méthodologie statistique.

La méthode de l'étape de la recherche économique et statique

synthèse et traitement statistiques

Yerlan Askarov, professeur agrégé de KazNTU nommé d'après. K. Satpaeva


Les méthodes statistiques jouent un rôle important dans l'évaluation objective des caractéristiques quantitatives et qualitatives du processus et sont l'une des éléments essentiels système d'assurance qualité des produits et l'ensemble du processus de gestion de la qualité. Ce n'est pas un hasard si le fondateur de la théorie moderne de la gestion de la qualité, E. Deming, a travaillé pendant de nombreuses années au Bureau du recensement et s'est occupé précisément des questions de traitement des données statistiques. Il attachait une grande importance aux méthodes statistiques.

Pour obtenir des produits de haute qualité, il est nécessaire de connaître la précision réelle de l'équipement existant, de déterminer la conformité de la précision du processus technologique sélectionné avec la précision spécifiée du produit et d'évaluer la stabilité du processus technologique. La résolution de problèmes de ce type s'effectue principalement par un traitement mathématique de données empiriques obtenues par des mesures répétées soit des dimensions réelles des produits, soit d'erreurs de traitement ou d'erreurs de mesure.

Il existe deux catégories d'erreurs : systématiques et aléatoires. À la suite d'observations directes, de mesures ou d'enregistrement de faits, on obtient un grand nombre de données qui forment un ensemble statistique et doivent être traitées, y compris la systématisation et la classification, le calcul des paramètres caractérisant cet ensemble, la compilation de tableaux, de graphiques illustrant le processus .

En pratique, un nombre limité de caractéristiques numériques, appelées paramètres de distribution, sont utilisées.

Centre de regroupement. L'une des principales caractéristiques de la population statistique, qui donne une idée de quel centre toutes les valeurs sont regroupées, est la moyenne arithmétique. Il est déterminé à partir de l'expression :

où Xmax, Xmin sont les valeurs maximale et minimale de la population statistique.

La plage de variation n'est pas toujours caractéristique, puisqu'elle ne prend en compte que des valeurs extrêmes, qui peuvent différer fortement de toutes les autres valeurs. Plus précisément, la dispersion est déterminée à l'aide d'indicateurs prenant en compte l'écart de toutes les valeurs par rapport à la moyenne arithmétique. Le principal de ces indicateurs est l'écart type du résultat des observations, qui est déterminé par la formule

La forme de la distribution de probabilité. Pour caractériser la forme de la distribution, on utilise généralement le modèle mathématique qui se rapproche le mieux de la forme de la courbe de distribution de probabilité obtenue en analysant les données expérimentales.

La loi de la distribution normale. La plupart des phénomènes aléatoires qui se produisent dans la vie, en particulier dans la production et la recherche scientifique, sont caractérisés par la présence d'un grand nombre de facteurs aléatoires, décrits par la loi de distribution normale, qui est la principale dans de nombreuses études pratiques. Cependant, la distribution normale n'est pas la seule possible. Selon la nature physique des variables aléatoires, certaines d'entre elles peuvent en pratique avoir un type de distribution différent, par exemple logarithmique, exponentielle, Weibull, Simpson, Rayleigh, probabilité égale, etc.

L'équation décrivant la densité de probabilité d'une distribution normale est :


(5)

La distribution normale est caractérisée par deux paramètres μ et σ 2 et sur le graphique c'est une courbe gaussienne symétrique (Figure 1), qui a un maximum au point correspondant à la valeur X \u003d μ (correspond à la moyenne arithmétique X cf et est appelé le centre de regroupement), et lorsque X → -∞ et Х → ∞ se rapprochent asymptotiquement de l'axe des x. Le point d'inflexion de la courbe est à une distance σ du centre de localisation μ. Lorsque σ diminue, la courbe s'étire le long de l'axe des ordonnées et se contracte le long de l'axe des abscisses. Entre les abscisses μ - σ et μ + σ se trouve 68,3% de toute l'aire de la courbe de distribution normale. Cela signifie qu'avec une distribution normale, 68,3 % de toutes les unités mesurées s'écartent de la valeur moyenne de pas plus de σ, c'est-à-dire qu'elles sont toutes à l'intérieur de + σ. La zone comprise entre les ordonnées tracées à une distance de 2σ des deux côtés du centre est de 95,4% et, par conséquent, le même nombre d'unités de population se trouve à moins de μ + 2σ. Et enfin, 99,73 % de toutes les unités sont à moins de μ + 3σ. C'est la règle dite des "trois sigma", caractéristique de la distribution normale. Selon cette règle, pas plus de 0,27% de toutes les valeurs des quantités sont en dehors de l'écart de 3σ, soit 27 réalisations pour 10 000. Dans les applications techniques, lors de l'évaluation des résultats de mesure, il est d'usage de travailler avec des coefficients z à σ correspondant à 90%, 95%, 99%, 99,9% de la probabilité que le résultat tombe dans la zone de tolérance.


Image 1

Z90 = 1,65 ; Z95 = 1,96 ; Z99 = 2,576 ; Z999 = 3,291.

A noter que la même règle s'applique aux écarts de la valeur moyenne X cf (?). Il fluctue également dans une certaine zone de trois valeurs de l'écart type de la valeur moyenne S dans les deux sens, et 99,73% de toutes les valeurs de la valeur moyenne sont contenues dans cette région. La distribution normale se manifeste bien avec un grand nombre de membres de la population statistique, au moins 30.

Répartition étudiante. Pour la pratique, il est d'un grand intérêt de pouvoir juger de la distribution des variables aléatoires et de déterminer les erreurs de production dans tous les produits manufacturés et les erreurs dans les expériences scientifiques sur la base des résultats de la mesure des paramètres d'une population statistique obtenue à partir d'un petit lot. Cette technique a été développée par Carl Gosset en 1908 et publiée sous le pseudonyme Student.

La distribution t de Student est symétrique mais plus aplatie qu'une courbe de distribution normale et donc allongée aux extrémités (Figure 2). Chaque valeur de n a sa propre fonction t et sa propre distribution. Le coefficient z est remplacé dans la distribution de Student par le coefficient t, dont la valeur dépend du niveau de signification donné, qui détermine quelle partie de l'implémentation peut être en dehors de la zone sélectionnée de la courbe de distribution de Student et le nombre de produits de l'échantillon.


Figure 2

En général n la distribution de Student se rapproche asymptotiquement de la distribution normale standard. Avec une précision acceptable pour la pratique, on peut supposer qu'à n?30, la distribution de Student, qui est parfois appelée t distribution est approchée par une distribution normale.

t distribution a les mêmes paramètres que la distribution normale. C'est la moyenne arithmétique Xav, l'écart type ? et l'écart type de la moyenne S. Xav est déterminé par la formule (1), S est déterminé par la formule (4), et ? selon la formule :


(6)

Contrôle de précision. Lorsque la distribution d'une variable aléatoire est connue, il est possible d'obtenir toutes les caractéristiques d'un lot de produits donné, d'en déterminer la valeur moyenne, la variance, etc. Mais l'ensemble complet des données statistiques d'un lot de produits industriels, et donc la loi de distribution de probabilité, ne peut être connu qu'après la production de l'ensemble du lot de produits. En pratique, la loi de distribution de l'ensemble des produits est presque toujours inconnue, la seule source d'information est un échantillon, généralement petit. Chaque caractéristique numérique calculée à partir de données d'échantillon, par exemple la moyenne arithmétique ou la dispersion, est une réalisation d'une variable aléatoire qui peut prendre des valeurs différentes d'un échantillon à l'autre. La tâche de contrôle est facilitée par le fait qu'il n'est généralement pas nécessaire de connaître la valeur exacte des différences entre des valeurs aléatoires et une valeur donnée. Il suffit de savoir si les valeurs observées diffèrent de plus que la valeur de l'erreur autorisée, qui est déterminée par la valeur de la tolérance. L'extension à la population générale des estimations faites à partir de données d'échantillon ne peut se faire qu'avec une certaine probabilité Р(t). Ainsi, le jugement sur les propriétés de la population générale est toujours de nature probabiliste et contient un élément de risque. Étant donné que la conclusion est tirée d'après des données d'échantillon, c'est-à-dire avec une quantité limitée d'informations, des erreurs du premier et du second type peuvent se produire.

La probabilité de faire une erreur de type I est appelée niveau de signification et notée mais. Zone de probabilité mais, est dite critique, et la région qui la complète, dont la probabilité de tomber est égale à 1-a, est dit recevable.

La probabilité d'une erreur de seconde espèce est notée ? , et la valeur 1-? est appelée la puissance du critère.

Évaluer mais parfois appelé risque du fabricant, et la valeur ? appelé risque consommateur.

Avec probabilité 1-a la valeur inconnue X 0 de la population totale se situe dans l'intervalle

(XSR-Z ?)< Х 0 < (Хср + Z?) для нормального распределения,

(Xsr - t?)< Х 0 < (Хср + t?) для распределения Стьюдента.

Les valeurs extrêmes limites X 0 sont appelées limites de confiance.

Avec une diminution de la taille de l'échantillon sous la distribution de Student, les limites de confiance augmentent et la probabilité d'erreur augmente. Étant donné, par exemple, un niveau de signification de 5 % (a = 0,05), on pense qu'avec une probabilité de 95 % (P = 0,95) la valeur inconnue X 0 est dans l'intervalle

(Xsr - t?,:., Xsr+t?)

En d'autres termes, la précision requise sera égale à Хср + t?, et le nombre de pièces avec une taille en dehors de cette tolérance ne sera pas supérieur à 5 %.

Contrôle de la stabilité du processus. Dans des conditions de production réelles, les valeurs réelles des paramètres de processus technologiques et les caractéristiques des produits fabriqués non seulement changent de manière aléatoire en raison d'erreurs aléatoires, mais s'écartent souvent progressivement et de manière monotone des valeurs définies au fil du temps, c'est-à-dire de manière systématique. des erreurs se produisent. Ces erreurs doivent être éliminées en identifiant et en éliminant les causes qui les provoquent. Le problème est qu'en conditions réelles, les erreurs systématiques sont difficiles à distinguer des erreurs aléatoires. Des erreurs systématiques insignifiantes sans analyse statistique particulière peuvent passer longtemps inaperçues sur fond d'erreurs aléatoires.

L'analyse est basée sur le fait que lorsqu'il n'y a pas d'erreurs systématiques, les valeurs réelles des paramètres changent de manière aléatoire. Cependant, leurs valeurs moyennes et leurs principales erreurs restent inchangées dans le temps. Dans ce cas, le processus est dit stable. Il est conditionnellement considéré que dans ce lot tous les produits sont identiques. Avec un processus stable, les erreurs aléatoires obéissent à la loi de distribution normale de centre μ=Xo. Les valeurs moyennes des paramètres obtenus dans différents lots doivent être approximativement égales à Xo. Par conséquent, ils sont tous approximativement égaux les uns aux autres, mais la valeur de la valeur moyenne actuelle de Хavt fluctue dans l'intervalle de confiance + ts, c'est-à-dire :

(Xav - tS) ≤ Xav ≤ (Xav + tS) (7)

Le matériau pour l'analyse de stabilité peut être les mêmes données que celles utilisées pour le contrôle de la précision. Mais ils ne seront utiles que s'il s'agit d'observations continues couvrant une période de temps suffisante, ou s'ils sont constitués d'échantillons prélevés à certains intervalles de temps. Les intervalles entre prélèvements, ici appelés prélèvements, sont fixés en fonction de la fréquence observée des pannes d'équipements.

A un niveau de significativité donné, la valeur moyenne de Хav dans différents lots courants ne peut différer de plus de tS de la base Хav obtenue pour la première mesure, c'est-à-dire

/Хср - Хсрт/ ≤ tS (8)

Lorsque cette condition est remplie, on peut supposer que le procédé est stable et que les deux lots ont été libérés dans les mêmes conditions. Si la différence entre les valeurs moyennes de deux lots dépasse la valeur tS, alors on ne peut plus considérer que cette différence est causée uniquement par des raisons aléatoires. Au cours du processus, un facteur constant dominant est apparu, qui modifie les valeurs des paramètres des produits d'un lot selon une certaine loi constante. Le procédé est instable et les produits fabriqués en temps différent, différeront sensiblement les uns des autres, et cette différence augmentera avec le temps.

Ainsi, l'écart entre les valeurs moyennes de différents lots de plus de tS indique la présence d'erreurs systématiques et la nécessité de prendre des mesures pour les détecter et éliminer les causes qui les provoquent. Ce principe a été appliqué par W. Shewhart dans le développement des cartes de contrôle.

Les méthodes statistiques d'analyse de stabilité peuvent également être utilisées dans des situations opposées à celles décrites ci-dessus. Si des modifications sont apportées à la conception du produit ou au processus technologique de sa fabrication, il est alors nécessaire de déterminer dans quelle mesure cela conduira aux résultats attendus.

Par conséquent, il est nécessaire d'effectuer des tests, de faire plusieurs échantillons et de traiter statistiquement les données. Si

/Xsr.st.-Xsr.new/ > tS, (9)

Sept techniques simples pour la recherche sur les processus statistiques

Les méthodes statistiques modernes sont assez difficiles à percevoir et à utiliser largement dans la pratique sans une formation mathématique approfondie de tous les participants au processus. En 1979, l'Union des scientifiques et ingénieurs japonais (JUSE) avait mis au point sept méthodes visuelles assez faciles à utiliser pour l'analyse des processus. Malgré leur simplicité, ils entretiennent un lien avec les statistiques et donnent la possibilité aux professionnels d'exploiter leurs résultats et, si nécessaire, de les améliorer.

Diagramme d'Ishikawa causal. Ce diagramme est un outil très puissant pour analyser la situation, obtenir des informations et l'influence de divers facteurs sur le processus principal. Ici, il devient possible non seulement d'identifier les facteurs influençant le processus, mais également de déterminer la priorité de leur influence.


figure 3

Le diagramme de type 5M considère des composants de qualité tels que « personnes », « équipement », « matériel, matières premières », « technologie », « gestion », et dans le diagramme de type 6M, le composant « environnement » leur est ajouté (Figure 3).

En ce qui concerne le problème de l'analyse qualimétrique en cours de résolution,
- pour la composante « personnes », il est nécessaire de déterminer les facteurs liés à la commodité et à la sécurité d'exécution des opérations ;
- pour la composante "équipement" - la relation entre les éléments structuraux du produit analysé entre eux, associée à la mise en œuvre de cette opération ;
- pour la composante « technologie » - facteurs liés à la performance et à la précision de l'opération effectuée ;
- pour le composant "matériau" - facteurs associés à l'absence de modifications des propriétés des matériaux du produit lors du processus d'exécution de cette opération;
- pour la composante "technologie" - facteurs associés à la reconnaissance fiable d'une erreur dans le processus d'exécution d'une opération ;
- pour la composante « environnement » - les facteurs liés à l'impact de l'environnement sur le produit et des produits sur l'environnement.

Types de défauts Données de contrôle Total
bosses ///// ///// //// 14
fissures ///// ///// ///// // 17
Hors tolérance en moins ///// // 7
Sortie pour admission en plus ///// ///// ///// ///// /// 23
Perçage de traitement thermique ///// //// 9
Incliner les surfaces de base /// 3
coquilles de fonderie ///// / 6
Inadéquation de la rugosité ///// ///// ///// /// 18
Défauts de peinture //// 4
Autre ///// // 7
Total 108

Figure 4

Fiches de contrôle. Les listes de contrôle peuvent être utilisées à la fois pour le contrôle qualité et pour le contrôle quantitatif ; dans ce document, certains types de défauts sont enregistrés pendant une certaine période de temps. La liste de contrôle est un bon matériel statistique pour une analyse et une étude plus approfondies des problèmes de production et de la réduction des défauts (Figure 4).

Analyse de Pareto. L'analyse de Pareto porte le nom de l'économiste italien Vilfredo Pareto (1848-1923), qui a montré que la majorité du capital (80 %) est entre les mains d'un petit nombre de personnes (20 %). Pareto a développé des modèles mathématiques logarithmiques décrivant cette distribution non uniforme, et le mathématicien M.O. Lorentz a fourni des illustrations graphiques, en particulier la courbe cumulative.

La règle de Pareto est un principe "universel" qui s'applique dans une variété de situations, et sans doute dans la résolution de problèmes de qualité. D. Juran a noté l'application "universelle" du principe de Pareto à tout groupe de causes qui provoquent un effet particulier, et la plupart des effets sont causés par un petit nombre de causes. L'analyse de Pareto classe les domaines individuels en termes d'importance ou d'importance et appelle à identifier et avant tout à éliminer les causes qui causent le plus de problèmes (incohérences).

Figure 5

L'analyse de Pareto, en règle générale, est illustrée par un diagramme de Pareto (Figure 5), dans lequel les causes des problèmes de qualité sont tracées le long de l'abscisse par ordre décroissant des problèmes qu'elles ont causés, et le long de l'ordonnée - en termes quantitatifs, les problèmes eux-mêmes, à la fois en pourcentage numérique et en pourcentage cumulé (cumulatif). Construisons un graphique basé sur les données extraites de l'exemple précédent - une feuille de contrôle.

Le diagramme montre clairement le domaine d'action prioritaire, décrivant les causes qui causent le plus d'erreurs. Ainsi, en premier lieu, les mesures préventives devraient viser précisément à résoudre ces problèmes. Identifier et éliminer les causes qui causent le plus grand nombre de défauts nous permet de dépenser le minimum de ressources (argent, temps, personnes, support matériel) pour obtenir le maximum d'effet sous la forme d'une réduction significative du nombre de défauts.

Stratification. Fondamentalement, la stratification est le processus de tri des données selon certains critères ou variables, dont les résultats sont souvent présentés dans des tableaux et des graphiques. Nous pouvons classer un tableau de données en différents groupes (ou catégories) avec caractéristiques générales, appelée variable de stratification. Il est important de définir quelles variables seront utilisées pour le tri. La stratification est la base d'autres outils tels que l'analyse de Pareto ou les nuages ​​de points. Cette combinaison d'outils les rend plus puissants.

Prenons les données de la feuille de contrôle (Figure 4). La figure 6 montre un exemple d'analyse de la source des défauts. Tous les défauts 108 (100%) ont été classés en 3 catégories - par équipes, par ouvriers et par opérations. De l'analyse des données présentées, on voit clairement que la plus grande contribution à la présence de défauts est faite par le 2ème quart (54%) et le travailleur G (47%), qui travaille dans ce quart.

Histogrammes. Histogrammes - l'une des options d'un graphique à barres qui affiche la dépendance de la fréquence d'atteinte des paramètres de qualité d'un produit ou d'un processus dans une certaine plage de valeurs à partir de ces valeurs.

Vous trouverez ci-dessous un exemple de construction d'un histogramme.

Pour la commodité des calculs et de la construction, nous utilisons le progiciel informatique appliqué EXCEL. Il est nécessaire de déterminer la répartition des valeurs de la dimension géométrique, par exemple le diamètre de l'arbre dont la taille nominale est de 10 mm. 20 arbres ont été mesurés, les données de mesure sont données dans la première colonne A (Figure 7). Dans la colonne B, nous organisons les mesures par ordre croissant, puis dans la cellule D7, nous déterminons la plage de taille comme la différence entre les valeurs de mesure les plus grandes et les plus petites. Nous sélectionnons le nombre d'intervalles de l'histogramme égal à 8. Nous déterminons la plage de l'intervalle D. Ensuite, nous déterminons les paramètres des intervalles, c'est la plus petite et la plus grande valeur inclusive du paramètre géométrique inclus dans l'intervalle.

où i est le numéro de l'intervalle.

Après cela, nous déterminons le nombre de résultats des valeurs de paramètre dans chacun des 8 intervalles, après quoi nous construisons finalement l'histogramme.


Figure 7

Nuage de points. Les diagrammes de dispersion sont des graphiques qui vous permettent d'identifier la corrélation (dépendance statistique) entre divers facteurs qui affectent les indicateurs de qualité. Le diagramme est construit selon deux axes de coordonnées, la valeur du paramètre à modifier est portée en abscisse, et la valeur résultante du paramètre à l'étude, que nous avons au moment de l'utilisation du paramètre variable, est portée sur le l'axe des ordonnées, nous plaçons un point à l'intersection de ces valeurs. Après avoir collecté un nombre suffisamment important de ces points, nous pouvons faire une analyse et une conclusion.

Prenons un exemple. L'entreprise a décidé d'organiser des cours sur les bases de la gestion de la qualité. Un certain nombre de travailleurs étaient formés chaque mois. En janvier, 2 personnes ont été formées, en février 3 personnes, etc. Au cours de l'année, le nombre d'employés formés a augmenté et à la fin de l'année a atteint 40 personnes. La direction a chargé le service qualité de suivre la dépendance du pourcentage de produits sans défaut présentés au premier essai, du nombre de réclamations produit reçues par les clients et de la consommation électrique de l'atelier sur le nombre d'ouvriers formés. Le tableau 1 des données par mois a été compilé et des nuages ​​de points ont été construits (Figure 8, 9, 10). Ils montrent clairement que le pourcentage d'absence de défauts augmente, nous avons une corrélation directe, le nombre de plaintes diminue, nous avons une corrélation inverse, et les diagrammes montrent clairement une corrélation clairement prononcée, qui est déterminée par la précision des points et leur approche de toute trajectoire précisément définie, en Dans notre cas, il s'agit d'une ligne droite. La quantité d'électricité consommée ne dépend pas du nombre de travailleurs formés.

Cartes de contrôle. Les cartes de contrôle sont un type spécial de carte, proposé pour la première fois par W. Shewhart en 1924. Elles affichent la nature du changement de l'indicateur de qualité au fil du temps, par exemple, la stabilité de l'obtention de la taille d'un produit. Essentiellement, les cartes de contrôle montrent la stabilité du processus, c'est-à-dire la recherche de la valeur moyenne du paramètre dans le couloir des valeurs admissibles, composé des limites de tolérance supérieure et inférieure. Les données de ces cartes peuvent signaler que le paramètre approche de la limite de tolérance et il est nécessaire de prendre des mesures proactives avant même que le paramètre n'entre dans la zone de défaut, c'est-à-dire qu'une telle méthode de contrôle permet d'empêcher l'apparition d'un défaut même au stade de sa création.

Il existe 7 principaux types de cartes.

    Écarts de l'écart type de la valeur moyenne x-S,

    Écarts de portée x-R,

    Écarts des valeurs x individuelles,

    Fluctuations du nombre de défauts C,

    Fluctuations du nombre de défauts par unité de production u,

    Fluctuations du nombre d'unités défectueuses pn,

    Fluctuations de la proportion de produits défectueux p.

Toutes les cartes peuvent être divisées en deux groupes. Le premier contrôle les paramètres quantitatifs de qualité, qui sont des variables aléatoires continues - dimensions, poids, etc. La seconde est de contrôler des paramètres discrets alternatifs qualitatifs (il y a un défaut - il n'y a pas de défaut).

Tableau 2



Par exemple carte x-s. Fluctuations de la moyenne arithmétique, le couloir de tolérance est ici la valeur de 3S (pour une distribution normale) ou tS (pour une distribution de Student), où S est l'écart type de la moyenne. Le milieu du couloir est la moyenne arithmétique de la première mesure. Les significations de cette carte sont les plus fiables et objectives. Forme générale La carte de contrôle est illustrée à la figure 11.

Littérature:

1. Askarov ES Contrôle de qualité. Didacticiel. Éd.2. Almaty, Service Pro, 2007, 256 p.


Suffisamment détaillé dans la littérature nationale. Dans la pratique des entreprises russes, seules certaines d'entre elles sont utilisées. Considérons ensuite quelques méthodes de traitement statistique.

informations générales

Dans la pratique des entreprises nationales, il est principalement courant méthodes de contrôle statistique. Si nous parlons de la régulation du processus technologique, cela est noté extrêmement rarement. Application de méthodes statistiques prévoit qu'un groupe de spécialistes possédant les qualifications appropriées est formé dans l'entreprise.

Signification

Selon ISO ser. 9000, le fournisseur doit déterminer le besoin de méthodes statistiques qui sont appliquées lors du développement, de la réglementation et du test des opportunités processus de production et les caractéristiques du produit. Les méthodes utilisées sont basées sur la théorie des probabilités et des calculs mathématiques. Méthodes statistiques pour l'analyse des données peut être mis en œuvre à n'importe quelle étape du cycle de vie du produit. Ils permettent d'évaluer et de rendre compte du degré d'hétérogénéité des produits ou de la variabilité de leurs propriétés par rapport aux valeurs nominales établies ou aux valeurs requises, ainsi que de la variabilité du processus de sa création. Les méthodes statistiques sont méthodes par lesquelles il est possible de juger de l'état des phénomènes étudiés avec une précision et une fiabilité données. Ils vous permettent de prédire certains problèmes, de développer des solutions optimales basées sur les informations factuelles, les tendances et les modèles étudiés.

Mode d'emploi

Les principaux domaines dans lesquels il est répandu les méthodes statistiques sont:


Pratique des pays développés

Les méthodes statistiques sont base qui assure la création de produits à haute caractéristiques du consommateur. Ces techniques sont largement utilisées dans les pays industrialisés. Les méthodes statistiques sont, en fait, des garanties que les consommateurs reçoivent des produits qui répondent aux exigences établies. L'effet de leur utilisation a été prouvé par la pratique. entreprises industrielles Japon. Ce sont eux qui ont contribué à la réalisation du plus haut niveau de fabrication dans ce pays. Des années d'expérience pays étrangers montre l'efficacité de ces techniques. En particulier, on sait que Hewlelt Packard, en utilisant des méthodes statistiques, a pu réduire le nombre de mariages par mois de 9 000 à 45 unités dans l'un des cas.

Difficultés de mise en œuvre

Dans la pratique nationale, il existe un certain nombre d'obstacles qui ne permettent pas l'utilisation méthodes statistiques d'étude indicateurs. Les difficultés surviennent en raison de:


Développement de programme

Il faut dire que déterminer le besoin de certaines méthodes statistiques dans le domaine de la qualité, choisir, maîtriser des techniques spécifiques est un travail assez long et compliqué pour tout entreprise nationale. Pour sa mise en œuvre efficace, il est conseillé de développer un programme spécial à long terme. Il devrait prévoir la constitution d'un service dont les tâches comprendront l'organisation et l'encadrement méthodologique de l'application des méthodes statistiques. Dans le cadre du programme, il est nécessaire de prévoir la dotation en moyens techniques appropriés, la formation de spécialistes, la détermination de la composition des tâches de production, qui doit être résolu en utilisant les méthodes choisies. La maîtrise est recommandée pour commencer par utiliser les approches les plus simples. Par exemple, vous pouvez utiliser la production élémentaire bien connue. Par la suite, il est conseillé de passer à d'autres méthodes. Par exemple, il peut s'agir d'analyse de variance, de traitement sélectif de l'information, de régulation de processus, de planification de recherches et d'expériences factorielles, etc.

Classification

Les méthodes statistiques d'analyse économique comprennent différentes astuces. Inutile de dire qu'il y en a pas mal. Cependant, un expert de premier plan dans le domaine de la gestion de la qualité au Japon, K. Ishikawa, recommande d'utiliser sept méthodes de base :

  1. Diagrammes de Pareto.
  2. Regroupement des informations selon des caractéristiques communes.
  3. Cartes de contrôle.
  4. Diagrammes de cause à effet.
  5. Histogrammes.
  6. Fiches de contrôle.
  7. Nuage de points.

Sur la base de sa propre expérience dans le domaine de la gestion, Ishikawa affirme que 95% de tous les problèmes et problèmes de l'entreprise peuvent être résolus en utilisant ces sept approches.

diagramme de Pareto

Celui-ci est basé sur un certain ratio. Cela a été appelé le "principe de Pareto". Selon lui, sur 20% des causes, 80% des conséquences apparaissent. sous une forme visuelle et compréhensible montre l'influence relative de chaque circonstance sur le problème global par ordre décroissant. Cet impact peut être étudié sur le nombre de pertes, de défauts, provoqués par chaque cause. L'influence relative est illustrée par des barres, l'influence cumulée des facteurs par une droite cumulée.

diagramme de cause à effet

Sur celui-ci, le problème à l'étude est classiquement représenté sous la forme d'une flèche droite horizontale, et les conditions et facteurs qui l'affectent indirectement ou directement sont sous la forme de flèches obliques. Lors de la construction, même des circonstances apparemment insignifiantes doivent être prises en compte. Cela est dû au fait qu'en pratique, il existe assez souvent des cas dans lesquels la solution du problème est assurée par l'exclusion de plusieurs facteurs apparemment insignifiants. Les raisons qui influencent les principales circonstances (du premier ordre et des ordres suivants) sont représentées sur le diagramme par de courtes flèches horizontales. Le schéma détaillé sera sous la forme d'un squelette de poisson.

Informations de regroupement

Ce méthode économique et statistique est utilisé pour organiser un ensemble d'indicateurs qui ont été obtenus en évaluant et en mesurant un ou plusieurs paramètres d'un objet. En règle générale, ces informations sont présentées sous la forme d'une séquence de valeurs non ordonnée. Il peut s'agir des dimensions linéaires de la pièce, du point de fusion, de la dureté du matériau, du nombre de défauts, etc. Sur la base d'un tel système, il est difficile de tirer des conclusions sur les propriétés du produit ou les processus de sa création. La commande est effectuée à l'aide de graphiques linéaires. Ils montrent clairement les changements des paramètres observés sur une certaine période.

Feuille de contrôle

En règle générale, il est présenté sous la forme d'un tableau de distribution de fréquence pour l'occurrence des valeurs mesurées des paramètres de l'objet dans les intervalles correspondants. Des listes de contrôle sont compilées en fonction de l'objectif de l'étude. La plage de valeurs de l'indicateur est divisée en intervalles égaux. Leur nombre est généralement choisi égal à la racine carrée du nombre de mesures effectuées. Le formulaire doit être simple afin d'éliminer les problèmes lors du remplissage, de la lecture, de la vérification.

graphique à barres

Il se présente sous la forme d'un polygone étagé. Il illustre bien la répartition des indicateurs de mesure. La plage de valeurs définies est divisée en intervalles égaux, qui sont tracés le long de l'axe des x. Un rectangle est construit pour chaque intervalle. Sa hauteur est égale à la fréquence d'occurrence de la valeur dans l'intervalle donné.

Nuages ​​de points

Ils sont utilisés pour tester une hypothèse sur la relation entre deux variables. Le modèle est construit comme suit. La valeur d'un paramètre est portée sur l'axe des abscisses et la valeur d'un autre indicateur est portée sur l'ordonnée. En conséquence, un point apparaît sur le graphique. Ces actions sont répétées pour toutes les valeurs des variables. S'il existe une relation, le champ de corrélation est étendu et la direction ne coïncidera pas avec la direction de l'axe y. S'il n'y a pas de contrainte, il sera parallèle à l'un des axes ou aura la forme d'un cercle.

Cartes de contrôle

Ils sont utilisés lors de l'évaluation d'un processus sur une période spécifique. La constitution des cartes de contrôle repose sur les dispositions suivantes :

  1. Tous les processus s'écartent des paramètres définis au fil du temps.
  2. Le cours instable du phénomène ne change pas par hasard. Les écarts qui dépassent les limites des limites attendues ne sont pas aléatoires.
  3. Les changements individuels peuvent être prédits.
  4. Un processus stable peut s'écarter de manière aléatoire dans les limites attendues.

Utilisation dans la pratique des entreprises russes

Il faut dire que le domestique expérience à l'étranger montre que la méthode statistique la plus efficace pour évaluer la stabilité et la précision des équipements et procédés technologiques est la compilation de cartes de contrôle. Cette méthode est également utilisée dans la régulation des capacités potentielles de production. Lors de la construction des cartes, il est nécessaire de choisir correctement le paramètre étudié. Il est recommandé de privilégier les indicateurs qui sont directement liés à l'utilisation prévue du produit, qui peuvent être facilement mesurés et qui peuvent être influencés par le contrôle du processus. Si un tel choix est difficile ou non justifié, il est possible d'évaluer les valeurs corrélées (interreliées) avec le paramètre contrôlé.

Nuances

Si la mesure des indicateurs avec la précision requise pour la cartographie selon un critère quantitatif n'est pas économiquement ou techniquement possible, un signe alternatif est utilisé. Des termes tels que "mariage" et "défaut" y sont associés. Ce dernier s'entend comme chaque non-conformité distincte du produit aux exigences établies. Le mariage est un produit dont la fourniture n'est pas autorisée aux consommateurs en raison de la présence de défauts.

Particularités

Chaque type de carte a ses spécificités. Il faut en tenir compte lors de leur choix pour un cas particulier. Les cartes par critère quantitatif sont considérées comme plus sensibles aux changements de processus que celles qui utilisent une fonctionnalité alternative. Cependant, les premiers sont plus intensifs en main-d'œuvre. Ils sont utilisés pour :

  1. Débogage de processus.
  2. Évaluer les possibilités d'introduction de la technologie.
  3. Vérification de la précision de l'équipement.
  4. Définitions de tolérance.
  5. Mappages de plusieurs façons valides de créer un produit.

aditionellement

Si le désordre du processus est caractérisé par le déplacement du paramètre contrôlé, il faut utiliser des X-maps. En cas d'augmentation de la dispersion des valeurs, les modèles R ou S doivent être choisis. Il faut cependant tenir compte d'un certain nombre de caractéristiques. En particulier, l'utilisation de diagrammes en S permettra d'établir plus précisément et plus rapidement le désordre du processus que les modèles R avec les mêmes.En même temps, la construction de ces derniers ne nécessite pas de calculs complexes.

Conclusion

En économie, il est possible d'explorer les facteurs qui se révèlent au cours de évaluation qualitative, dans l'espace et la dynamique. Ils peuvent être utilisés pour effectuer des calculs prédictifs. Aux méthodes statistiques analyse économique n'incluent pas les méthodes d'évaluation des relations de cause à effet des processus et événements économiques, l'identification des réserves prometteuses et inexploitées pour améliorer les performances. En d'autres termes, les techniques factorielles ne sont pas incluses dans les approches considérées.