Organisation du travail, les approches contemporaines

0

Bonsoir chers membres, nous nous retrouvons dans le cadre de cette troisième séance de l’activité Industrie afin de traiter, dans la continuité de notre précédente conférence, de l’organisation du travail. Pour rappel, cette présentation s’intègre dans le cadre d’un premier cycle sur les fondamentaux ayant pour but de présenter les éléments qui sont, à mon sens, constitutifs de ce qu’est l’industrie dans sa réalité la plus tangible et ce au travers de trois dimensions : la délimitation économique, l’organisation productive et l’objet politique. Ainsi, nous allons poursuivre l’activité avec cette troisième partie dédiée aux approches contemporaines du travail marchand. En premier lieu, nous évoquerons les individus au travers de l’approche sociale de l’activité, en traitant successivement du relationnel, du commandement puis des besoins. Nous prolongerons ensuite cette présentation avec une deuxième partie consacrée aux structures et à leur environnement, par l’approche des organisations, notamment au travers d’une analyse de l’école de la contingence. Enfin, nous aborderons les approches mixtes avec dans un premier temps l’analyse stratégique, puis le renouvellement de l’école classique par l’approche de Taiichi Ōno, celle plus communément appelée « Toyotisme ».

Avant de commencer, quelques précisions s’imposent. Premièrement, nous allons nous concentrer ici sur l’analyse de l’organisation du travail en tant que telle. Il ne s’agira pas d’une approche historique ou biographique, nous resterons concentrés sur les formes d’organisations productives, dans un cadre industriel, et ce sans tomber dans le récit. Deuxièmement, dans un souci de concision, non seulement nous serons synthétiques, chaque courant de pensée présenté pouvant faire l’objet d’une conférence à part entière, mais également nous n’aborderons pas certains auteurs dont voici une liste non exhaustive : E. H. Porter, J. L. Moreno, C. Argyris, D. Katz, R. L. Kahn, A. P. Sloan. Enfin, et afin de cadrer le sujet, nous ne traiterons pas des théories économiques des organisations, ces dernières ayant principalement pour but de placer les firmes et les acteurs dans des modélisations économiques, ce qui n’est pas ici notre sujet ou même notre objectif. Néanmoins, voici une liste des principales théories concernées ainsi que leurs auteurs : Théorie de la décision (H. A. Simon), théorie comportementale (J. G. March et R. M. Cyert), théorie managériale (A. A. Berle et G. C. Means), théorie des nœuds de contrats (R. Coase), théorie des droits de propriété (A. A. Alchian et H. Demsetz), théorie de l’agence (M. C. Jensen et William H. Meckling.), théorie des coûts de transaction (O. E. Williamson). Tout ceci étant clarifié, nous pouvons commencer.

L’approche sociale du travail

Basée sur une critique de l’école classique, l’approche sociale du travail regroupe un ensemble de penseurs s’inscrivant en opposition à la révolution Taylorienne, et ce à partir d’un postulat commun qui est celui de l’Homme Social, c’est-à-dire celui qui n’est pas uniquement motivé par des considérations matérielles. L’Homme Social, est un agent qui ne réagit pas directement et mécaniquement aux règles physiques qui s’imposent à lui, tel un engrenage, mais plutôt en fonction de son ressenti et de ses émotions concernant les éléments et les individus extérieurs qui interagissent avec sa personne. Des facteurs comme celui du plaisir au travail ou du sentiment d’utilité sont dès lors essentiels pour appréhender cet Homme social. Celui qui ne fait pas simplement usage de dextérité pour des considérations de gains et de pertes matériels, celui qui n’est pas un système nerveux dénué de conscience. Plutôt celui qui est profondément émotif, l’humain dans toute sa complexité psychologique et sociale. Évidemment dans la théorie, l’école classique ne se place pas à l’opposé de ces approches sociales et elle ne considère pas l’Homme comme un simple rouage remplaçable. Elle croit en l’optimisation de la fonction, au fait de trouver sa place dans une structure, aux compétences personnelles et même à l’œuvre sociale. Néanmoins, cette essentialisation est assumée par ces théoriciens, au sens où ces derniers sont conscients de dénoncer des pratiques en premier lieu et non pas l’ensemble du cadre théorique, poussant le regroupement jusqu’à nommer cette somme, les approches mécanistes. Plaçant d’un côté les humanistes et de l’autre l’ennemi que serait ces productivistes de la mécanique. Ces considérations se retrouvent notamment dans les travaux de l’un des acteurs majeurs de l’approche sociale du travail, ceux de Douglas McGregor avec les théories X et Y. Selon le docteur en psychologie, il existe d’un côté une Théorie X qui suppose que les êtres humains n’aiment pas le travail, y sont contraints et souhaitent l’éviter autant que possible tant que cela ne risque pas de leur nuire, le tout dans un calcul comptable du labeur et des bénéfices financiers. Ici pour que les entreprises fonctionnent, les ânes à deux pattes avancent à la carotte (récompense) et au bâton (sanction), ces derniers ayant besoin d’être dirigés et n’aimant pas les responsabilités. L’intelligence des salariés n’est alors déployée que pour contourner les règles établies afin de limiter le labeur. Dans cette théorie X, les besoins physiologiques et sécuritaires des dirigés sont plutôt bien pourvus, contrairement aux besoins que Douglas McGregor qualifie de sociaux, égoïstes ou d’accomplissements. Cette absence de réponse aux besoins dépassant la simple maintenance physique et biologique des corps est facteur d’une insatisfaction qui va nuire au travail et pour laquelle la théorie X répond par la menace de sanctions, stérilisant alors le potentiel humain au travail.

C’est donc tout naturellement en opposition à ce modèle caricatural que Douglas McGregor conçoit un idéal-type, la théorie Y. Dans cette dernière, on considère que les individus veulent travailler et ne le font pas dans le seul intérêt pécuniaire, qu’ils souhaitent s’accomplir et exercer des responsabilités proportionnées à leur poste. L’Homme est capable d’être son propre contrôleur dès lors que les objectifs lui ont été expliqués. Sa plus grande récompense pour un travail bien réalisé est la pleine satisfaction émotionnelle et intellectuelle, celles-ci créant une dynamique vertueuse pour l’organisation. De manière générale, cette théorie Y se veut être l’incarnation de la possibilité d’accomplissement par le travail, et ce en considérant l’Homme Social dans toute complexité cognitive. Pour autant, l’accomplissement ou l’émancipation n’est pas ici conditionné à la nécessité de quitter le rapport marchand de l’emploi comme le dénonce Karl Marx celui-là même que nous évoquions lors de la précédente séance. Ainsi, Doulglas McGregor permet de formaliser le modèle ainsi que le contre-modèle, l’idéal-type Y et l’approche mécaniste X, les piliers sur lesquels se fonde l’école des relations humaines. Cette dernière, est un mouvement intellectuel né dans le cadre de la crise économique de 1929 et rattaché à l’étude des organisations. Son objectif est de rendre à l’Homme une place socialement acceptable dans un monde industriel considéré comme majoritairement taylorisé. Le père fondateur de cette école est le plus souvent désigné comme étant le sociologue australien Elton Mayo, notamment grâce aux expériences menées par son équipe au sein des usines de la Western Electric Company entre 1924 et 1932, dans la banlieue de Chicago. Utilisons donc cet exemple. Cette firme industrielle produisait des biens pour le secteur des télécommunications, comme des relais téléphoniques et des systèmes de câblage. En outre, il s’agissait d’une entité qui proposait des salaires supérieurs à la moyenne de l’époque et disposait d’infrastructures modernes. L’expérience qui y a été menée, concerne en premier lieu la relation entre l’éclairage du lieu de travail et l’efficacité productive. Deux groupes virent le jour pour l’enquête, l’un travaillant avec les conditions habituelles et l’autre avec une luminosité variable. Suite à cette expérience, on constata avec étonnement que le rendement des deux groupes avait mystérieusement augmenté. Mieux, ce dernier continua de s’améliorer par la suite, malgré une diminution progressive de l’éclairage qui était la variable étudiée initialement. Cet effet persista tout au long de l’expérience. Au final, les résultats obtenus n’ont pas pu servir à l’étude sur les conditions d’éclairage, toutefois, ils ont permis de mettre le doigt sur un facteur fondamental des sciences sociales contemporaines, l’effet Hawthorne.

Ce dernier explique pourquoi dans l’usine concernée, chacun des deux groupes a produit davantage au détriment des conditions. La raison est simple, c’est celle de la réalisation de l’expérience elle-même. En effet, c’est parce que l’on a porté un intérêt particulier au travail des ouvriers, que le rendement résultant a augmenté au détriment des facteurs de l’environnement productif, le facteur social dépassant le reste. Dès lors, l’éclairage n’a plus été la variable déterminante, toutes choses n’étant plus égales par ailleurs (ceteris paribus), ce qui a complètement biaisé l’expérience et permis de fixer un cadre à partir de cet échec pour les futures enquêtes en sciences sociales. Mais est-ce vraiment un échec ? Sur le plan scientifique c’est certain néanmoins, si nous en parlons ici c’est que cette expérience a apporté autre chose à l’organisation du travail. Il s’agit de l’étude de la dynamique sociale en milieu professionnel, c’est-à-dire le fait de constater qu’apporter de l’attention ainsi que de la considération au travail réalisé par les ouvriers, pouvait augmenter la productivité. D’autres expériences interprétées dans le même sens furent par la suite menées dans ces usines.  Par exemple celle sur la fatigue et la monotonie, basée sur le nombre de pauses et leur durée auxquels s’ajoutent la variation du temps de travail quotidien et hebdomadaire. Ici aussi le rendement augmenta en toutes circonstances par le simple biais social de la bonne entente et l’attention apportée, il continua même de progresser après l’expérience. De ce travail non-scientifique, les enquêteurs ont conclu qu’ils avaient involontairement montré l’importance des facteurs sociaux ce qui permit à Elton Mayo de différencier le travail industriel en deux fonctions. La première, la fonction économique, consiste à concevoir et à produire un bien marchand par l’organisation technique et ce dans le but de créer de la valeur pécuniaire. Alors que la fonction sociale quant à elle, consiste en la distribution de la satisfaction parmi les individus membres de l’organisation, par les bonnes relations ainsi que la coopération. Par la suite, Elton Mayo a décomposé les changements intervenus à la Western Electric Company en six variables psychosociologiques.

Le management, qui est devenu davantage participatif ce qui a permis d’augmenter le niveau de confiance accordée aux encadrants. Le statut social, par le recours à l’intelligence des ouvriers, réduisant l’infantilisation et donnant une confiance dans l’importance de leur rôle dans l’entreprise. La cohésion, grâce au développement de l’entente entre les membres des équipes ainsi qu’avec les contremaitres. Les objectifs, au travers d’une dynamique collective se constituant autour du but de commun de participer aux travaux de recherche. Le management informel, qui s’est développé naturellement en interne par l’influence marquée et remarquée de certains employés, transcendant dès lors la hiérarchie officielle. Et enfin le sentiment de la sécurité de son emploi, qui a caractérisé les sujets de l’expérimentation dans une période de crise (1929) sans précédent, ces derniers étant protégés par leur statut de sujet d’expérimentation. Cependant, la plus grande avancée analytique faisant suite à ces expérimentations, ne réside non pas dans le dénombrement de ces variables mais plutôt dans la distinction entre deux formes d’organisation. La première est l’organisation formelle, celle que l’on connaît déjà et qui se décompose en niveaux hiérarchiques définis par un organigramme, codifiant ainsi les poids de la parole ainsi que la rémunération de chacun. Son but est avant tout économique et se base sur une forme imposée de coordination des efforts à laquelle s’ajoutent les systèmes de contrôle du travail introduits par la compagnie pour atteindre ses objectifs financiers. Le second type en revanche, est régi par les interactions humaines et les coutumes qui en découlent, il s’agit de l’organisation informelle. Cette dernière a pour première particularité d’exister à l’intérieur d’une organisation hôte, se développant subtilement dans un avatar, celui de l’entité formelle que nous évoquions. L’organisation informelle donc, vient en complément des interactions fonctionnelles normalisées, apportant dans les rapports humains, les distinctions sociales non professionnelles, celles du quotidien. On y retrouve les relations interpersonnelles et les groupes sociaux qui se construisent en superposition, ou en opposition, à la structure formelle et règlementée de la firme. À cette notion d’organisation informelle on peut donc ajouter celle des petits groupes, comme énoncé dans les travaux de George Homans en 1950. Il s’agit de représentations qui émergent de la structure informelle et qui fonctionnent par les mécanismes sociaux libérés de la structure établie. L’élément majeur est donc ici la relation qui existe entre d’un côté les organisations formelles et leur hiérarchie, et de l’autre les organisations informelles et leurs petits groupes, dans le même esprit que les rapports entre la direction et les syndicats, les statuts en moins. Nous préciserons cependant que l’ensemble de cette analyse repose sur une expérimentation très contestée, de par son objet d’étude changeant, son non-respect du ceteris paribus,  son absence de durabilité dans les gains de productivité obtenus, ses échantillons composés de peu d’individus, son remplacement de certains d’entre eux en cours de test et la présence d’un chef de file informel qui a su insuffler une dynamique provisoire pour des nécessités personnelles.

Ce dernier point nous amène à notre deuxième axe de l’approche sociale, celui du commandement avec la question suivante : Comment diriger l’Homme Social ? Dans cet esprit, le Français Octave Gélinier propose en 1968, année-charnière de l’approche sociale du travail en France, un enrichissement de l’organisation de l’activité productive à partir des travaux de Peter Drucker, ce que l’on nomme la Direction Participative Par Objectifs (DPPO). Cette dernière, consiste en un processus de coordination par lequel les salariés et leurs responsables hiérarchiques directs établissent des objectifs, le tout dans un cadre de négociations visant à définir les délais ainsi que les moyens alloués à la réalisation. Ces objectifs individuels sont construits à l’intérieur d’autres objectifs, plus grands, que l’on peut appeler les orientations générales de l’entreprise. Elles permettent d’encadrer l’activité de la firme, des divisions ainsi que des unités opérationnelles qui en découlent. Les objectifs sont dans un premier temps définis puis validés selon leur faisabilité (SMART : Specific Measurable Achievable, Relevant and Time-bound), suite à quoi ils sont évalués régulièrement dans leur avancement afin de notifier les écarts. Des ajustements à partir de l’expérience accumulée sont réalisés lors des échéances et de nouveaux objectifs sont fixés pour la période à venir. Néanmoins, au-delà de ces fameux objectifs, la dimension intéressante de la DPPO est celle de l’organisation participative. Cette dernière permet en théorie de ramener la décision à une échelle plus horizontale grâce à une définition commune entre les salariés et leurs managers. Du moins, ça serait le cas si la décision finale ne revenait pas au manager, ce qui est le cas ici. Nous sommes donc face à une forme de « dialogue social » pour utiliser un terme contemporain, forme normifiée de lutte des classes rétorqueront certains, où le cadre légal et managérial tente de formaliser ce que le mouvement social réalise déjà, dans une vision romanesque, du haut de ses barricades et de ses piquets de grève. Cela rentre dans la volonté ou plutôt dans la stratégie d’adoucissement qui consiste à intégrer directement dans les firmes et leur management, l’instrument de négociation du travail. Actant toutefois une réduction du pouvoir de la force ouvrière, cette dernière se reposant sur le nombre et la pression aux impératifs productifs. Outre la diminution des prérogatives syndicales, cela individualise la lutte en plaçant les négociations au niveau individuel, permettant à la direction d’exercer une pression plus importante au cas par cas. La partie participative de la DPPO reste dès lors incomplète par le simple fait des prérogatives hiérarchiques qui viennent biaiser ses finalités.

Cette importance du facteur commandement prenant de plus en plus d’espace dans cette configuration individualisée du travail, il est légitime de vouloir l’approfondir et même la décomposer en plusieurs formes. C’est notamment ce qu’a cherché à faire Kurt Lewin dans ses travaux, ces derniers ayant été par la suite enrichis par les apports de Ronald Lippitt et de Ralph White. Ils définiront trois types de commandement, délimités suite à l’observation de groupes d’enfants dans les écoles. En premier lieu, le style autoritaire, qui consiste à diriger par des ordres impératifs et à imposer des décisions en se plaçant en supériorité par rapport au reste du groupe. Le style permissif, qui caractérise un responsable qui s’implique très faiblement dans son groupe, qui participe peu ou pas aux différentes activités et qui laisse les membres de son groupe s’auto-diriger. Et le style démocratique, qui correspond à un meneur qui participe activement à la vie du groupe et qui encourage ses membres à faire des suggestions, à participer aux discussions et à faire preuve de créativité. Ce troisième type sera bien entendu, dans le cadre de cette école des relations humaines que représentent ces trois auteurs, le style préconisé pour une bonne organisation du travail. Ces travaux seront toutefois rapidement complétés par Rensis Likert qui définira quant à lui quatre types de commandement à partir de ce premier triptyque. Tout d’abord, le système autoritaire exploiteur, où l’autorité du dirigeant est fondée sur la crainte et le respect des ordres reçus. Le système autoritaire paternaliste, dans lequel le dirigeant dispose d’une autorité incontestée et entretient des relations de proximité avec ses subordonnés. Le système consultatif, qui permet au dirigeant d’entretenir des rapports de confiance avec ses subordonnés, ceux-ci étant consultés avant la prise de décision finale. Et également, le système participatif, par lequel les employés participent de manière directe afin de prendre des décisions concernant la gestion de l’entreprise. Cette vision a pour avantage de proposer une grille de lecture plus précise des formes de commandement que l’on peut trouver dans les firmes, tout en prônant encore une fois le système participatif comme le meilleur modèle. Enfin, pour en terminer avec ces styles de management, Robert Blake et Jane Mouton ont également apporté leur pierre à l’édifice de la gestion des Hommes, au travers d’une vision se traduisant sous la forme d’une typologie distribuée sur un axe, avec encore une fois un idéal démocratique placé en 9,9 sur le graphique.

Grille de Blake et Mouton.

On notera toutefois, que même en considérant l’aspect ludique de la chose, avec un intérêt certain en matière de nomenclature, ces classifications du commandement sont à la fois vagues et assez peu pertinentes dans le cadre de l’organisation du travail. Pour pallier ce faible intérêt, il est essentiel d’aborder également l’approche sociale sous l’angle des besoins individuels,  ceux qui régiraient le travail et les interactions des individus en tant que source de motivation profonde. Sur ce point, les travaux les plus répandus sont probablement ceux de Abraham Maslow, ces derniers étant connus pour leur développement concernant la hiérarchisation des besoins de l’Homme, représentée le plus souvent sous la forme d’une pyramide, la pyramide de Maslow. Celle-ci est composée de cinq étages qui sont hiérarchisés et ne peuvent être actifs, c’est-à-dire ressentis par une personne, simultanément. De plus, l’accession à chacun des échelons est conditionnée par la satisfaction préalable du besoin antérieur au sein de la pyramide, les besoins présents étant alors assujetties à la bonne réalisation des précédents. C’est donc un fonctionnement simple pour ne pas dire simpliste, l’absence de satisfaction du besoin amène à une tension et cette tension est destinée à disparaitre après l’assouvissement dudit besoin, ou alors à subsister en absence de satisfaction. La tension est alors permanente si on considère que l’Homme finit par s’adapter à sa situation et à aspirer à de nouveaux besoins, la disparition n’étant alors que temporaire, amenant à la survenance du besoin supérieur. Cela s’intègre parfaitement au monde professionnel, avec une évolution de carrière et de vie qui correspond à une évolution de l’objet de la quête du travail marchand. Dès lors, la firme a tout intérêt de se saisir de la question, notamment en des termes compensatoires, cherchant à apporter ce que le foyer et les cercles de solidarité n’apportent pas ou plus aux travailleurs.

Pyramide de Maslow.

Également, la dimension des besoins dans l’organisation sociale du travail connaît d’autres théoriciens comme Clayton Alderfer. Dans son analyse de 1969 et contrairement à Maslow, ce psychologue ne présente pas les besoins sous la forme d’une hiérarchie mais plutôt sous l’angle d’une courbe de progression non-conditionnelle décomposée en 3 ensembles. Les besoins d’existence (E) qui sont fondamentaux à la vie dans le sens physique et biologique, les besoins de sociabilité (S) qui correspondent aux interactions sociales et à la recherche d’estime, et les besoins de croissance (C) qui représentent l’élévation et la réalisation de soi. Ces groupes de besoins peuvent intervenir simultanément dans l’esprit de l’individu et ont pour caractéristique d’avoir un effet d’assouvissement cumulatif, qui ne fait qu’augmenter la probabilité de réaliser les besoins supérieurs sans pour autant en être la condition. Le tout avec un postulat qui exprime que la dominance d’un type de besoin ne peut être liée qu’à la subjectivité de chaque être, pas de règle absolue. Cette grille est toutefois plutôt vague et assez peu pertinente dans le cadre du travail marchand, contrairement à la théorie bifactorielle de Frederick Herzberg. Son originalité découle non seulement du fait que les besoins peuvent y être actifs simultanément mais également et surtout car ces derniers vont agir différemment selon qu’ils visent ou non la réalisation de soi, faisant ainsi perdre la dualité causale que l’on croyait fondamentale entre le sentiment de satisfaction et le sentiment d’insatisfaction dans leurs survenances respectives. C’est-à-dire que, les facteurs de réalisation de soi (motivation), sont des facteurs moteurs et intrinsèques au travail qui ne provoquent pas d’insatisfaction quand on ne les prend pas en considération, et ce alors qu’ils génèrent de la satisfaction à partir du moment où l’organisation cherche et parvient à les stimuler chez ses employés. On accepte le fait que notre structure ne permette pas de nous aider à nous épanouir au niveau de notre accomplissement personnel, néanmoins nous sommes satisfaits si cette dernière entrouvre cette possibilité. À l’inverse, les facteurs qui ne visent pas la réalisation de soi (nommées facteurs d’hygiène par Herzberg), qu’ils soient physiologiques, sécuritaires ou en lien avec les relations humaines dans l’organisation, ne génèrent pas les mêmes attentes. Ces derniers, peu importe leur niveau de développement dans la structure, ne provoquent pas de satisfaction et sont considérés comme normaux et ce alors qu’ils peuvent provoquer de l’insatisfaction dès l’amorce d’un recul. On ne sera pas satisfait du fait qu’il y a des facteurs permettant d’assouvir les besoins physiques, biologiques et sociaux mais on sera insatisfait dès lors que leurs niveaux viendraient à s’amoindrir. Nous observons donc une scission entre le sentiment de satisfaction et celui de l’absence de satisfaction (neutralité), par l’avancée d’une réponse à un besoin individuel d’une part, et une dissonance entre le sentiment d’insatisfaction et celui d’absence d’insatisfaction (neutralité), par le recul d’une réponse à un besoin collectif d’autre part.

L’approche organisationnelle du travail

Contrairement à l’approche sociale qui se focalise sur les individus, l’école la contingence est axée sur l’analyse des structures, c’est-à-dire des organisations en tant qu’entités. Elle trouve son origine, comme l’école des relations humaines, dans une critique de l’approche mécaniste, notamment Taylorienne. Toutefois, contrairement à leurs confrères de l’Homme Social, les acteurs de la théorie de la contingence ne portent pas tant leurs attaques sur la prétendue absence de prise en compte des émotions humaines autres que mercantiles dans le processus de production, mais plutôt sur le fait qu’il existerait des méthodes universellement applicables à toutes les formes d’organisation, et ce au détriment des caractéristiques intrinsèques à leur situation propre. La localisation, le statut, le secteur d’activité, l’histoire, la taille et bien d’autres raisons n’étant pas considérées dans les « one best way » énoncés ou suggérés par les théoriciens de l’école classique. Cependant, si les critiques remontent à l’existence même de la propagation de la division du travail, l’école de la contingence en revanche ne connaitra un développement notable de ses travaux qu’entre 1950 et 1980. Elle proposera, par une démarche systémique plutôt qu’analytique, d’analyser les structures afin de trouver, en fonction de leur contexte, la meilleure forme d’organisation et ce sans pour autant chercher à former une méthode universelle ou un idéal-type. Cela donnera naissance à différents écrits dont ceux de Paul Lawrence et Jay Lorsch qui formaliseront ce que l’on appelle, la théorie de la contingence. Cette dernière aide à comprendre le postulat de l’école du même nom par la recherche d’explications justifiant les différences entre les organisations. Deux notions se dégagent de leur travail. La première, celle de la différenciation, consiste comme son nom l’indique à distinguer les éléments au sein d’une entité qui participent à son articulation, c’est-à-dire ici les divisions. Pour cela il faut observer pour chaque division le degré de hiérarchie, la nature des objectifs, l’orientation temporelle voulue et les relations interpersonnelles présentes. À partir de ces 4 variables, on peut ensuite estimer le degré de différenciation d’une firme, ce dernier étant toutefois conditionné par le contexte industriel de la structure et donc par l’environnement dans lequel elle évolue. Ainsi, cette articulation par la différenciation est un gage d’efficacité, la division entrant dans le champ de l’efficience rationnelle, partant donc du postulat qu’une entreprise qui s’y refuserait serait moins performante. Cela signifie donc que, en fonction des conditions extérieures à l’entreprise, cette dernière se divise en sous-systèmes et développe des attributs particuliers pour s’adapter à un certain niveau de contraintes. Cependant pour compléter cette notion, la théorie de la contingence apporte un second concept impératif, celui de l’intégration. Ce dernier correspond au niveau de collaboration entre les divisions dans une optique d’union des efforts afin de répondre aux besoins de l’entité organisationnelle. La firme doit donc mettre en place des processus efficaces d’intégration sans pour autant remettre en cause la différenciation existante ou souhaitée. C’est ce que les auteurs appellent « l’unité d’effort », celle qui doit relier les différents sous-systèmes de la structure. Par exemple, la division production d’une entreprise doit collaborer étroitement avec la division logistique afin que ladite industrie fonctionne de manière homogène. La différenciation correspond ainsi à l’existence de ces divisions, à leur intégration ainsi qu’à leur collaboration, le tout dans un environnement qui engendre la nécessité de ces deux facteurs. En sachant que, plus le contexte industriel est difficile à cerner, plus il y aura besoin de différenciation et plus il sera nécessaire d’avoir de l’intégration pour assurer l’unité d’effort.

Pour en arriver à cette analyse, Paul Lawrence et Jay Lorsch se sont basés sur le travail de leurs prédécesseurs et notamment celui de Joan Woodward ainsi que de Charles Perrow sur la technologie. Selon la première d’entre eux, les systèmes de production semblables engendrent des structures d’organisation semblables et ce à partir du prisme technologique employé dans lesdites activités industrielles. Comme elle le disait elle-même, « une production en grande série convient à une structure hiérarchisée avec un fort taux d’encadrement, des productions du type unitaire engendrent des structures plus souples ». Les structures doivent donc, dans un cadre de performance souhaitée, s’adapter aux technologies et pas l’inverse. Selon son analyse empirique, c’est cette variable technologique qui est la plus importante à prendre en compte,  devant l’histoire, l’appartenance à une filière particulière, la taille de l’organisation et tout autre facteur. Elle propose ainsi, dix types de firmes répartis en trois groupes.

Typologie de Woodraw.

Elle défend l’idée qu’il n’y a pas une technologie plus efficace qu’une autre, pas une organisation optimale mais que chaque entreprise à des caractéristiques propres, conditionnées par l’usage productivo-logistique de son activité et qui nécessite une organisation spécifique. Cette vision se verra confortée par le second auteur, Charles Perrow, qui énoncera quant à lui quatre types d’activités qui impliquent également des choix technologiques et organisationnels adaptés.

Variabilité faible Variabilité élevée
Activité formalisable Activités routinières

Organisation formalisée et centralisée

Activités d’engineering

Organisation flexible et centralisée

Activité peu formalisable Activités artisanales

Organisation flexible et décentralisée

Activités non-routinières

Organisation innovatrice

Typologie de Perrow.

Toujours dans les fondations de la théorie de la contingence, il existe des travaux parus en 1961, produits par Tom Burns et George Stalker sur la nature organisationnelle. Toutefois, nous nous concentrerons ici sur leur analyse la plus connue, celle de la définition d’un axe permettant de trier les entreprises à partir d’une échelle dont les extrémités antagonistes sont : L’organisation mécanique et l’organisation organique. La première, adaptée aux environnements stables, se caractérise par sa complexité, son formalisme et sa centralisation. Sa méthode de travail est routinière et rationnelle, les statuts et les qualifications y sont rigides, le fonctionnement est profondément hiérarchique et vertical avec une certaine obsession pour la loyauté et l’obéissance. La seconde quant à elle, c’est-à-dire l’organisation organique, est adaptée aux environnements instables et se repose sur sa flexibilité, son niveau d’expertise et son degré de connaissances réparties dans l’ensemble de la structure. Sa méthode de travail est en continuel chantier de redéfinition des tâches individuelles, le fonctionnement y est profondément participatif et horizontal, les acteurs dépassent les limites de leurs responsabilités, le tout avec une certaine dominance pour la connaissance technique. À partir de ces deux modèles, les théoriciens peuvent ensuite positionner les firmes qu’ils observent sur une échelle qui dénotera une approche davantage mécanique ou organique. Enfin, et avant de passer au ténor de cette école, nous allons traiter de l’approche originale de l’historien Alfred Chandler sur la stratégie des organisations. Cet Américain constate, par son observation historique d’industries évoluant entre 1850 et 1920, que le développement de nouveaux marchés et l’élargissement des gammes de fabrication vont progressivement rendre le fonctionnement des organisations inefficace. Pour remédier à cela, elles recherchent selon lui des mécanismes de coordination pour mieux accorder les différentes activités et ce avec des organisations de plus en plus divisionnalisées. Chandler observe que la transformation fondamentale des firmes réside dans leur changement de structures, elles passent au cours de la période étudiée, d’une forme unitaire à une forme multidivisionnelle. La seconde étant plus adaptée à l’après 1945, avec un contexte d’avancée rapide des innovations technologiques et une croissance notable de la demande des consommateurs pendant la seconde moitié du XXe siècle. Quoi qu’il en soit, la première forme, c’est-à-dire la forme unitaire, concerne les organisations focalisées sur un seul type de produit et organisées selon les fonctions classiques. Elle se caractérise cependant par une formalisation des règles de travail ainsi que par une spécialisation des tâches, l’inscrivant dès lors dans la modernité. La Direction Générale y assure du contrôle et de la coordination des fonctions mais avec peu d’échelons hiérarchiques. Cette structure trouve cependant son inefficacité lorsque l’environnement devient instable ou lorsque l’entreprise élargit ses activités, il devient dès lors difficile de coordonner les décisions et de motiver les acteurs. Ici, la centralisation des choix implique un traitement croissant de flux d’information ce qui amène vers un risque de perte de contrôle de la Direction Générale. De plus, le cloisonnement entre les services réduit la coopération, les différentes directions fonctionnelles étant incitées à négliger ce qui se passe dans les autres fonctions, augmentant le risque de tension tout en diminuant celui de réactivité pour s’adapter aux changements. La seconde forme d’ Alfred Chandler quant à elle, nommée multidivisionnelle, est divisée en unités homogènes correspondant à des activités, des secteurs, des classes de produits ou des zones géographiques, c’est une modularisation de l’activité. Ces divisions ont une grande autonomie dans leur gestion quotidienne, la Direction Générale planifie la stratégie et alloue des ressources entre les différentes divisions selon leurs performances. Cette forme montre une réactivité plus grande aux changements de l’environnement, une meilleure coordination entre les différentes divisions par l’atteinte des objectifs globaux et une meilleure adaptabilité aux besoins particuliers de chaque marché. Cependant, il existe des risques, la trop grande autonomie des divisions de l’entreprise peut entraîner un problème de cohérence globale lors de la création d’une nouvelle division. Il peut également exister des conflits autour de l’allocation des ressources entre les divisions. Enfin, il y a un risque de dispersion des ressources entre les différentes divisions ayant les mêmes services fonctionnels. L’objectif d’une telle organisation est donc souvent d’introduire un élément de marché au sein de la firme, les divisions étant considérées comme des centres de profits, elles peuvent être mises en concurrence entre elles, c’est notre notion de marché dans le marché évoquée en séance 1. La direction générale qui alloue les ressources n’a ainsi plus qu’à arbitrer en fonction des performances de chacune de ses antennes.

Enfin, pour conclure ou plutôt commencer avec cette école de la contingence, nous devons aborder le travail d’un mastodonte des théories de l’organisation, le chercheur le plus connu de cette école, le Québécois qui fait référence depuis les années 70 pour ses approches théoriques du travail, Henri Mintzberg. Il figure notamment parmi les initiateurs du courant systémique en sociologie, en contribuant fortement au développement des analyses globales, se détournant de la méthodologie classique dont la démarche vise à isoler les facteurs étudiés. C’est par cette démarche qu’il en vient à une définition vaste des organisations comme étant, des ensembles de moyens utilisés pour diviser le travail et pour coordonner les tâches ainsi réparties. Afin de comprendre ses travaux, il est nécessaire de bien intégrer le fonctionnement de sa théorie, celle de la typologie en cinq. En premier lieu selon lui, il existe cinq composantes fondamentales à toutes les organisations. De plus, il existe également cinq mécanismes de coordination possibles pour ces mêmes entités. Ainsi, une organisation se constitue autour d’une composante fondamentale que l’on considérera comme dominante ainsi que par un mécanisme de coordination principal, ceux-ci formant ensemble un style de structure. Cette organisation résultante est alors ce que l’on appelle une configuration organisationnelle, ces dernières se répartissant entre cinq principaux types. Nous avons donc trois listes de cinq types à considérer dans notre analyse, commençons tout d’abord avec celle des composantes fondamentales.

Pitte, M. (2019). Composantes de l’organisation.

Au niveau de la base de la structure représentée sur le graphique ci-dessus, nous avons le centre opérationnel, composé de la force de travail, celle qui produit et qui exécute les tâches, la masse des employés en somme, ceux sans qui rien ne se ferait. À l’inverse tout en haut, nous avons le sommet stratégique, il s’agit de la direction, celle qui est chargée de la stratégie et qui coordonne l’organisation dans son ensemble, la tête pensante de la structure. Pour relier ces deux organes, il y a la ligne hiérarchique, composée des cadres moyens et supérieurs, elle sert à relayer les décisions et à faire remonter les informations, elle fonctionne comme un pont de l’encadrement. À gauche de notre graphique, nous trouvons la technostructure, celle dont le but est d’analyser le fonctionnement de l’organisation (sous l’angle des processus, de la planification et du contrôle), afin de proposer des solutions standardisées. Sa mission consiste notamment à normaliser le travail et en assurer la programmation. Enfin, à droite de cette représentation il y a les services de soutien, c’est-à-dire les unités spécialisées dans l’activité de support au travers des fonctions d’accompagnement, ce qui revient l’assistance de l’ensemble de l’organisation. Ces cinq composantes doivent travailler ensemble afin de faire fonctionner l’organisation et donc avoir une activité productive. On n’imagine pas par exemple le sommet stratégique se charger de la production dans un souci de savoir-faire et de temps à allouer aux tâches, de même, on ne voit pas le service de soutien devenir la ligne hiérarchique et qui muterait instantanément en encadrement déresponsabilisé par logique de support non impliqué. La coordination est donc de mise et pour cela, il est nécessaire de coordonner ces composantes par des mécanismes que Henri Mintzberg a estimé au nombre de cinq.

Le premier, est celui de la supervision directe, il correspond à une forme d’autorité traditionnelle, celle où les chefs énumèrent directement aux travailleurs les attendus et vont superviser l’activité, dans le rôle que l’on nomme communément celui du contremaitre. Ici cela peut par exemple être l’exploitation agricole. Ensuite, il y a le mécanisme de standardisation des processus de travail, c’est-à-dire l’articulation par les procédures, les normes et les règlements formels, celle où le travail est détaillé sous forme de fiches dans une logique de rationalisation productive. Ici cela peut par exemple être une grande chaine de restauration Fast Food. Sous une autre forme, il existe également un mécanisme de standardisation des résultats, qui correspond quant à lui tout simplement à la coordination par les objectifs, c’est-à-dire les résultats à atteindre, dans le même esprit que celui des travaux de Octave Gélinier que nous avons évoqué précédemment. Ici cela peut par exemple être une enseigne franchisée d’une grande marque de vêtements. Pour compléter le trio, on trouve aussi le mécanisme de standardisation des qualifications, qui se base sur le fait que les différents salariés vont posséder certaines qualifications bien précises, ces dernières étant attendues et standardisées, que ce soit sous la forme de connaissances ou de compétences en commun, de diplômes ou d’expériences professionnelles. Ici cela peut par exemple être le bloc opératoire d’un hôpital. Enfin, le cinquième et dernier mécanisme est celui de l’ajustement mutuel, celui de la participation donc, où les acteurs s’entendent sur le travail à effectuer, tout comme sur la méthode, le lieu et l’échéance. On pensera ici par exemple à un groupe de TD dans le cadre des études supérieures. C’est donc à partir de ces cinq mécanismes de coordination, conjugués avec nos cinq composantes fondamentales, que Henri Mintzberg va analyser les structures résultantes, c’est-à-dire les configurations organisationnelles.

Dupuis, A. Déry, R. Les formes organisationnelles selon Henri Mintzberg. Cahier d’activités d’apprentissage.

En premier lieu, la configuration de la structure simple, celle dominée par son sommet stratégique ainsi que par ses relations informelles. Assez représentative de beaucoup de PME, elle est adaptée aux affaires changeantes de par sa simplicité organisationnelle. Les décisions et la coordination du travail y sont centralisées dans le sommet stratégique qui est un interlocuteur direct, de par l’inexistence de technostructure ainsi que le faible nombre de cadres intermédiaires.

La bureaucratie mécaniste quant à elle, correspond à la majorité des grandes industries, c’est d’ailleurs elle qui donne la forme originelle du schéma de Mintzberg. Ici, les proportions sont équilibrées en matière d’effectifs, à la différence que c’est bien la technostructure,  donc les analystes, ingénieurs et contrôleurs de gestion entre autres, qui mènent l’activité par la standardisation des processus, le développement des techniques de planification et la formalisation des flux ainsi que des relations formelles.

Ensuite, la bureaucratie professionnelle va pour son cas, représenter la majorité des organisations non-industrielles existantes, et ce pour tous les secteurs et structures confondus. C’est l’entité dirigée par les experts, qui sont intégrés au centre opérationnel en tant que formateurs et gestionnaires. Le niveau de compétence est la priorité, les agents du centre opérationnel possèdent une large autonomie et détiennent un pouvoir substantiel sur la réalisation de leur travail.

Également, nous avons la structure divisionnelle, comme évoqué en séance 1 avec l’exemple du groupe Thales, cela correspond aux entreprises constituées de plusieurs divisions plus ou moins autonomes les unes par rapport aux autres. La lignée hiérarchique, les cadres intermédiaires donc, y jouent le rôle central, ils sont responsables des objectifs. Pour coordonner le mastodonte administratif, la direction joue sur la standardisation des résultats et ce afin de donner un cap général tout en se dotant d’un outil de comparaison des divisions. Ces dernières ont en revanche tendance à prendre la forme de bureaucraties mécanistes.

Pour en finir avec ces configurations organisationnelles, la cinquième correspond à l’adhocratie et englobe la plupart des firmes innovatrices. Elle se divise en unités de travail qui se forment autour de projets à réaliser puis sont dissoutes à la clôture de ces derniers. Si l’adhocratie est de type administratif, alors les services de soutien deviennent centraux, étant les seuls services stables dans l’entreprise, tandis que la partie opérationnelle sera standardisée ou sous-traitée. Toutefois, dans le cas d’une adhocratie de type opérationnel,  il existera peu de différences entre le travail administratif et le travail productif dans leurs incarnations fonctionnelles, le centre opérationnel dominant la structure par l’absorption des services de soutien.  Dans les deux cas, les cadres intermédiaires y seront en nombre réduit et la technostructure sera inexistante. Nous voici avec cinq principaux types d’organisations qui regroupent la majorité des entités, marchandes ou non. En plus de ces configurations de la structure organisationnelle, il est aussi tout à fait possible d’analyser les cinq composantes fondamentales de Henri Mintzberg comme des entités conscientes de leur statut, ayant des revendications et cherchant par exemple à lutter en interne pour faire avancer la vision qui leur est profitable. On peut dire que chacune tend, au paroxysme de sa domination, vers un effet de transformation de l’organisation. Le sommet stratégique tend à renforcer la centralisation et à coordonner par supervision directe. La technostructure veut coordonner par standardisation des procédés de travail et tirer l’organisation vers une bureaucratie mécaniste. Les membres du centre opérationnel souhaitent coordonner l’organisation par le développement des qualifications afin de promouvoir leur liberté organisationnelle et la structurer comme une bureaucratie professionnelle. Les cadres intermédiaires, c’est-à-dire la ligne hiérarchique, tendent à vouloir garder leur rôle central de relai et de contrôle des flux décisionnels formels, maintenir leur distance avec leurs subordonnés, conserver une autonomie dans la gestion de leurs unités, c’est-à-dire en somme plus de division par services, une balkanisation. Enfin, les acteurs des fonctions de soutien doivent quant à eux collaborer avec les membres de tous les autres organes pour tirer la structure vers une fixation de leurs propres postes, se rendant dès lors indispensables dans chaque processus de la firme et menant vers l’adhocratie administrative.

Pitte, M. (2019). Les forces antagonistes dans l’organisation.

Par la suite, Henri Mintzberg amènera quelques apports à sa théorie, notamment en la complétant par une sixième composante fondamentale qui est la culture d’entreprise, appelée idéologie d’entreprise parfois, ce qui comprend les croyances, les modes d’action et de pensée partagés par les membres de l’organisation. Et tout logiquement un sixième mode de coordination, la standardisation des normes, celle qui conduit les participants à agir selon un même ensemble de croyances. Ainsi, deux autres configurations organisationnelles en découleront. L’organisation missionnaire, où la culture constitue l’élément-clé de la structure et où le contrôle est essentiellement normatif, c’est l’exemple du monastère. Et l’organisation politique, celles où les jeux politiques entre participants dominent le fonctionnement de l’organisation, c’est par exemple le cas de l’Assemblée nationale. Enfin, pour conclure avec les travaux du sociologue, on retrouve les différentes formes organisationnelles dans des environnements propres à chaque entité mais que l’on peut toutefois différencier selon deux dimensions, la stabilité et la complexité. On peut classer les environnements des plus stables aux plus dynamiques. Plus un environnement est stable, plus il est prévisible et facile d’y planifier. Plus il est dynamique, c’est-à-dire changeant, moins il est stable et moins il est possible ou pertinent d’y planifier et d’espérer que nos plans se réalisent. On peut également classer les environnements des plus simples aux plus complexes. Un environnement est simple si une seule personne peut arriver à le connaître et à le comprendre dans son ensemble. Il est complexe lorsqu’il ne peut être connu et compris à tout moment par un nombre restreint de personnes. À partir de cette grille de lecture, il est possible de trier de la manière suivante :

  Stable Dynamique
Simple Bureaucratie mécaniste

Structure divisionnelle

Structure simple
Complexe Bureaucratie professionnelle Adhocratie

Typologie de Mintzberg

L’approche mixte du travail

Nous avons abordé l’approche se concentrant sur les individus dans un cadre d’analyse sociale, nous avons évoqué l’approche qui traite des structures dans un cadre d’analyse organisationnelle, à présent, nous allons nous rendre à la jonction de ces deux pôles avec ce que l’on appellera, l’approche mixte. Nous débuterons avec une grille de lecture datant de la fin des années 70 et qui a connu quelques apports durant la fin du siècle, celle de l’analyse stratégique, produite par Michel Crozier et de Erhard Friedberg. Ces derniers ont tenté de montrer que l’un des principaux défauts de la théorie de la contingence, était que le comportement des agents au sein des firmes était complétement ignoré, ne s’intéressant donc qu’à la structure elle-même, pensant qu’elle conditionnerait les comportements. Ainsi, si on disait que pour l’école de la contingence, les comportements résultent de l’organisation et que pour l’école des relations humaines, les organisations résultent du comportement, ce n’est pas le prisme qu’emprunte l’analyse stratégique qui y préfère l’analyse du jeu de pouvoir. Néanmoins selon nos auteurs, il faut en premier lieu se demander ce qui fait émerger les structures, puis, ce qui va leur permettre de survivre au marché. La réponse selon eux réside dans son caractère de construction sociale, dont la raison d’être est d’aider l’Homme, par le travail des Hommes, en répondant aux problèmes qui se posent aux Hommes. Toutefois, la première échelle est ici individuelle, les problèmes évoqués étant ceux d’êtres singuliers, engagés plus ou moins volontairement dans des dynamiques collectives, celles des organisations, visant à apporter la résolution et l’assouvissement des désirs et des tensions. C’est de là que naît l’espace de jeu, c’est-à-dire l’instrument qui articule l’action, sa coordination, par une conciliation entre les libertés et les contraintes présentes.

Pour gagner, les joueurs doivent contraindre partiellement leur liberté afin de mettre en œuvre une stratégie rationnelle, dans le cadre des règles et de leurs intérêts. On accepte la contrainte pour l’avancement de ses projets personnels mais en permettant également, de manière volontaire ou non, l’atteinte des objectifs du groupe, dès lors que les règles auront été bien ficelées par la firme et l’environnement économique. Le jeu est un système de répartition des ressources productives, la somme des libertés individuelles contribuerait ici à l’intérêt collectif. Michel Crozier et Erhard Friedberg ont également des postulats dans leur cadre théorique, outre l’artificialité des organisations, l’autonomie des individus et leur rationalité limitée, le plus notable est celui de l’acceptation conditionnelle. En effet, les hommes n’accepteraient à priori pas d’être traités comme des moyens de production servant des objectifs qui les dépassent, et dès lors ils lutteraient par une interprétation personnelle de leur poste et de leurs tâches en fonction de leurs objectifs propres, la vendetta de velours aux inspirations individualistes. Ils sont ainsi libres, dans la limite des règles du jeu, d’agir et d’adapter leurs objectifs au contexte organisationnel. Tandis que la structure quant à elle devra ajuster le niveau de régulation, et donc de conformisation de ses acteurs à la volonté collective, par un durcissement de ses règles du jeu et ce sans pour autant tuer l’initiative individuelle qui serait involontairement profitable à l’entité. Ainsi, ces postulats ne présentent pas l’organisation comme un modèle rationnel mais plutôt comme un réseau complexe d’interactions entre les différents acteurs. Ce réseau fonctionne sur la dépendance des agents les uns envers les autres, c’est ce que Michel Crozier appelle les zones d’incertitude pertinente. Outre la volonté de la structure de rendre le comportement des acteurs prévisibles par la réglementation et la standardisation, les acteurs de l’entreprise résistent par l’usage de l’incertitude en ne dévoilant ni leurs objectifs, ni leur stratégie, afin de disposer d’un pouvoir.

Ici, Monsieur Crozier nous parle d’un pouvoir des individus basé sur leur capacité à faire régner l’incertitude sur l’exercice de leur propre liberté d’agir, comme par exemple sur la réalisation effective d’une tâche ou sur la transmission réelle d’une information. Plus la possibilité de faire régner l’incertitude est grande et plus le pouvoir augmente. Cela passe par un usage de cette capacité de flou sur les compétences, l’information, la norme et l’interface de travail. De même dans cette optique, on considère que l’agent A dispose d’un pouvoir sur l’agent B dans la mesure où, il lui serait possible de pousser B à réaliser une action qu’il ne ferait pas sans cette intervention. Comme pour Max Weber que nous avons évoqué en première partie de la séance 2, le pouvoir chez Michel Crozier et Erhard Friedberg respecte des conditions strictes. En premier lieu, il n’est pas un attribut indépendant et n’existe qu’au travers des relations interpersonnelles. Il est également relatif à la considération qu’on lui donne, par la perception de l’autre qui va, consciemment ou non, fixer le curseur de reconnaissance de ce pouvoir. Il est fluctuant, son fonctionnement évoluant avec le degré de dépendance, dès lors que l’agent B n’a plus besoin de l’agent A, alors l’agent A n’exerce plus de pouvoirs sur l’agent B. Et enfin, il est intransitif au sens où : Le fait que l’agent A ait du pouvoir sur l’agent B, et que l’agent B en a sur l’agent C, n’implique pas l’agent A exerce un quelconque pouvoir sur l’agent C. Au final, même inconscients et diffus, les objectifs de l’acteur lui inspirent des conduites qui lui feront suivre des stratégies qui ne sont pas prédéterminées, et qui tiennent compte des ressources et des contraintes en présence. Ces stratégies respectent donc une certaine logique, c’est là tout le raisonnement de l’analyse stratégique. Penser que les individus décident et calculent dans la limite de leurs capacités pour profiter au maximum de leur environnement afin d’atteindre leurs buts personnels, tandis que l’organisation devra diriger cette dynamique et cette force productive dans un intérêt commun, par des outils qui s’apparentent aux règles d’un jeu. Un jeu sans aucune règle créer l’anarchie pour la victoire de chacun, tandis qu’un jeu avec trop de règles n’intéresse pas les joueurs qui se sentent contraints, il ne reste plus alors qu’à celui qui écrit, de déterminer le cadre le plus propice pour son épopée industrielle, son intérêt individuel aux aires de cap collectif. Car oui, si l’intérêt individuel était l’intérêt des acteurs alors nous ne leurrons pas, ceux de la capitainerie industrielle suivent vraisemblablement la même logique, celle de l’Homo economicus dans une théorie qui, quoi qu’on en dise, épouse les analyses libérales dans leur conception de l’être, avatar de ses seules envies, petite panoplie de la mallette hobbesienne.

Néanmoins, et pour en terminer avec cette séance, traversons à présent le continent pour nous rendre au Japon, dernière étape de notre voyage organisationnelle, afin d’aborder la configuration productive du travail la plus réputée et répandue aujourd’hui. Avant toute chose l’analyse débute avec Masahiko Aoki, économiste japonais, qui a décrit sous la forme d’idéal-type deux modèles, la firme H et la firme J. Dans la première (H), les ouvriers d’un atelier de production travaillent sous l’autorité directe du chef d’atelier et ne communiquent pas d’un atelier à l’autre. En cas d’imprévus, la coordination est verticale et c’est le responsable qui prend une décision à partir des informations remontées par le centre opérationnel. Dans cette entreprise, les salariés sont spécialisés et disposent de savoirs adaptés à leur poste de travail. L’employé dont les compétences sont supérieures à son poste, va les valoriser en passant par le marché du travail, afin de rechercher directement un emploi mieux rémunéré ailleurs. Cette firme constituerait la firme classique Américaine au cours des années 70, le H correspondant à hiérarchique. À l’inverse dans la firme J, les salariés sont autonomes et communiquent abondamment entre les ateliers. En cas d’imprévus, leurs compétences élargies leur permettent de se coordonner entre eux. La promotion du salarié se fonde alors sur ses capacités à communiquer et à favoriser la résolution collective des problèmes. Dans l’entreprise J, le système d’incitation est centralisé pour identifier et valoriser les salariés ayant ces aptitudes. Le système fonctionne beaucoup en interne et encourage le principe de « l’emploi à vie ». Selon Masahiko Aoki, la firme J ayant une structure plus souple et un système d’information plus horizontal que l’entreprise H, elle est de fait plus efficace et mieux adaptée aux environnements contemporains très incertains. Vous l’aurez compris, cette firme J, c’est la firme japonaise et plus particulièrement le modèle Industriel qui a pris une grande ampleur au pays du soleil levant, le TPS, pour Système de Production Toyota. Mais remettons un peu de contexte, même si le TPS n’est réellement appliqué qu’à partir des années 70, ce dernier a commencé à être pensé dès les années 50 par la direction de l’entreprise ainsi que par le célèbre ingénieur, père du Toyotisme, Taiichi Ōno. En 1950 donc, on comptait au Japon 1900 immatriculations neuves, dont 1500 véhicules japonais tandis que la même année, les Etats-Unis fabriquaient 6 600 000 voitures. Cette taille de marché, combinée au contexte historique d’après Seconde Guerre mondiale dans le pays asiatique ainsi qu’à la mentalité japonaise, a dès lors rendu impertinente l’application de la méthodologie fordienne sur le territoire. Pourtant, pour vendre des voitures, Toyota devait tout de même les produire à des coûts suffisamment bas et ce alors qu’il ne pouvait profiter des économies d’échelle d’une production massive, cette dernière ne pouvant être soutenue par la population, le pouvoir d’achat et les structures routières. Il a donc été décidé de compter sur des bases industrielles plus modestes et de miser sur des séries courtes afin de s’adapter à leur marché intérieur. Viens alors la question : Comment améliorer la productivité sans augmenter la quantité produite ?

Ce que l’on va dire à présent va paraitre évident à chacun, couler de source d’une certaine façon, ce qui démontrera bien à quel point cette forme d’organisation du travail est celle appliquée, ou du moins plébiscitée, dans la grande majorité des industries contemporaines pour qui elle est un modèle. Le TPS propose une articulation différente, originale pour son époque, il ambitionne d’incarner une forme d’organisation du travail qui consiste à éviter la surproduction, diminuer les délais et à produire la meilleure qualité possible. Pour cela, Taiichi Ōno prônera une méthode très connue aujourd’hui et décomposera en cinq facteurs cibles ce qu’il est nécessaire de réduire au maximum, les cinq zéros. En premier lieu zéro délai, au sens où la production doit être réalisée à la demande, en flux tiré (heijunka) donc, ce qui permet d’éviter l’offre excédentaire et de réduire le temps d’attentes de l’ensemble des collaborateurs dont la clientèle. Cela amène au zéro stock, qui part du principe que tout élément fini, semi-fini ou brut mis en réserve entrainera divers coûts qui sont évitables, par l’approvisionnement en continu. Également, il s’agit d’avoir zéro papier, c’est-à-dire de réduire au maximum les documents en tout genre, les nécessités administratives ainsi que la hiérarchie. Toyota recherche aussi le zéro défaut, c’est-à-dire le fait que le minimum de produits soient défectueux, en partant du principe que plus on détecte taux le défaut, et moins il coutera à l’entreprise, le réajustement unitaire de matière première étant une infime dépense par rapport au traitement unitaire du service client. Enfin, le cinquième zéro est celui des pannes, il est nécessaire que les machines-outils soient toujours fonctionnelles ou au moins remplacées, et ce par une maintenance prédictive et complète. Au final, on pourrait résumer ces préceptes en disant que l’ouvrier de Toyota n’a pas vocation à être l’opérateur spécialisé réalisant une seule tâche de la production fordienne mais plutôt, un acteur responsabilisé par des prérogatives diverses en lien avec des tâches pourtant divisées, c’est ce que Taiichi Ōno nomme l’organisation par les yeux. De plus, cette organisation contemporaine préconise également différents mécanismes qui vont permettre à la production d’atteindre ses objectifs, complétant la philosophie manufacturière proposée ici, nous n’irons cependant pas dans le détail des outils employés.

Le premier mécanisme est celui du juste-à-temps, qui comme son nom l’indique, amène à planifier afin de disposer du nécessaire uniquement lorsqu’il est requis pour une action déterminée, partant du principe qu’en disposer plus tôt ou plus tard est un coût supplémentaire évitable. Puis, il y a le mécanisme d’autonomisation des machines qui est un mélange entre l’autonomie et l’autonomisation, définissant ici la capacité induite des machines à s’arrêter dès qu’elles rencontrent un problème, un outil intelligent en somme, permettant à un seul superviseur de toutes les surveiller. Ce principe est également applicable à l’Homme, c’est ce qu’on appelle la responsabilisation, ce qui permet de réduire les dépenses de contrôle, les ouvriers redevenant garants de leur production. Également, il y a le mécanisme du kaizen qui est appréhendé comme une philosophie de production, celle de l’amélioration continue, par la standardisation et le développement de ce qu’on appelle les bonnes pratiques de fabrications, le tout amené par le retour d’expérience et l’observation sur le terrain (gemba), c’est la fameuse organisation apprenante (hensei). Nous trouvons aussi dans ces organisations les kanban qui sont un système d’étiquetage à base de feuilles adhésives, dont l’objectif est de connaitre en permanence l’état des besoins pour la production et leur degré d’avancement. Dans le même esprit que les andon qui correspondent quant à eux, aux panneaux signalétiques qui indiquent la présence de problèmes. Enfin, il y a les cercles de qualité qui sont des groupes de travail composés d’employés et qui traitent de questions en tout genre en lien avec l’activité de la firme, dans l’optique de faire remonter les informations et de partager les retours d’expérience, dans la logique de prévention des erreurs (poka-yoke). Finalement, cette démarche du TPS s’inscrit dans une volonté, celle d’éviter les surcharges (muri) et incohérences (mura) ainsi que celle d’éliminer les gaspillages (muda). Ainsi, il existe huit types de gaspillage dans le système de Toyota : Les gaspillages de surproduction, de temps, de transport, de méthode de fabrication, de disponibilités de stocks, de gestes, de défauts sur les produits et de mauvaise utilisation de la force de travail.

Au final, la démarche de Taiichi Ōno est avant tout de tenter de bâtir une culture de la production, assimilable à la fameuse « culture d’entreprise » contemporaine, qui encouragerait dans le cas de Toyota les employés à s’arrêter et à prendre le temps pour résoudre et anticiper les erreurs, dans une optique de productivité par la qualité, aussi saine pour le bien-être au travail que pour la rentabilité de la firme. C’est cet esprit d’un nouveau compromis Taylorien, qui permettra à ce modèle non seulement de perdurer mais également de s’inscrire dans tous les courants, tel un caméléon, autant chez les productivistes, que chez les innovateurs ou les tenants de l’Homme social. Comme si la lutte avait finalement été gagnée par la méthode japonaise. Enfin, Japonaise ? Ce serait négliger le pouvoir d’attraction de l’Oncle Sam qui aura réussi à s’approprier la méthode nippone sous un autre nom, celle du Lean Management. Qualificatif donné par une équipe de chercheurs du MIT (Massachusetts Institute of Technology) au système de production de Toyota en 1987, c’est bien aux Etats-Unis que se mettra en place ce que l’on pourrait appeler une école du Lean, et ce dès les années 90, dans un esprit mercatique qui caractérise si bien la terre des affaires américaines. Mais alors qu’est-ce que le lean management ? C’est littéralement ce que nous avons exposé plus haut, c’est-à-dire le toyotisme avec quarante ans de retard. Il s’agit d’une démarche qui se repose sur une résolution active des problèmes de la production, en cherchant à éliminer tout ce qui est inutile au sein du processus de transformation. Les outils ont évidemment un peu évolué au cours du temps mais le fonctionnement lui reste identique aux préceptes de Taiichi Ōno, c’est-à-dire une organisation scientifique du travail qui souhaite responsabiliser les ouvriers et créer une culture de la qualité totale et permanente. La différence la plus notable que l’on pourra trouver, n’est pas  dans le lean management mais plutôt dans ce que l’on appelle, le lean six sigma, fusion entre la méthode américanisée de Toyota et celle de Motorola.

Pour être plus précis, le six sigma singulièrement correspond à la volonté de réduction drastique de la variabilité des processus, en somme, une démarche quantifiée et organisée de standardisation. Prenant son essor dans les années 2000, il s’agit d’une méthode basée sur les données mesurables ainsi que sur la recherche permanente de la satisfaction client. En statistiques, la lettre grecque sigma σ désigne l’écart-type, « six sigma » signifie donc « six fois l’écart-type ». L’écart-type (racine carrée de la variance) pouvant être assimilé à la dispersion d’un processus, on parle ici d’étendue de production sur la base d’un paramètre de dispersion. Le but est donc que chacun des éléments constitutifs d’un processus soit compris dans un intervalle s’éloignant au maximum de six sigma, par rapport à la moyenne générale des éléments considérés. On cherche alors la réduction de la variabilité, la standardisation en somme, dans l’optique de minimiser au maximum le rejet par le client, le produit ayant moins de chances d’être en dehors de ses spécifications et attentes. On réalise alors que cette prétendue démarche de la qualité totale basée sur la satisfaction client, est en fait un apogée de l’aliénation consumériste, par une standardisation des besoins et des volontés, ainsi qu’une optimisation de la production fondée sur la mort de la créativité, nommée ici sous le terme « écart ». Tandis que devient « incertitude » tout ce qui n’est pas standard, on en revient ici à notre première séance sur l’industrie avec la définition de cette dernière, différente de celle de l’artisanat, étant au final celle proposée par le six sigma. Mais alors, la question se pose, le lean six sigma étant aujourd’hui la méthode la plus développée, on dirait même la plus aboutie, sur les critères classiques de la productivité, est ce qu’elle est devenue l’exacte définition de ce qu’a toujours mis en avant l’industrie ? Ou alors est ce qu’elle a contribué, avec ses prédécesseurs, classiques notamment, à altérer et même conditionner cette définition de l’industrie que l’on utilise à présent ?

La deuxième option me semble plus pertinente et ce n’est pas renier l’industrie ou le lean six sigma que de l’affirmer. Cette méthode propose en soit des choses très intéressantes comme par exemple l’utilisation récurrente de la roue de Deming, celle qui consiste à articuler chaque activité sous l’autorité du processus suivant : Définir, Mesurer, Analyser, Améliorer, Maîtriser (DMAIC). L’objectif pour la firme étant grossièrement de se doter d’actions mesurables et efficaces, de satisfaire ses clients, d’impliquer ses équipes et d’améliorer son image. Il n’empêche que tout cela, cette image, et que ce soit celle du toyostisme, du lean management ou du six sigma, elle est factice. Factice au sens où ces conceptions de l’organisation se parent d’airs contemporains et d’un anti-Taylorisme latent, sous la pression de l’héritage sociologique, psychologique et syndical du XXème siècle, et ce alors qu’elles sont, de manière évidente, les héritières de l’école classique et plus précisément les héritières du Taylorisme. Ce sont des organisations scientifiques du travail, où l’objectif est de standardiser tout ce qu’il est possible de standardiser, le produit, les outils, l’environnement de travail, le temps alloué, les tâches, les relations interpersonnelles, les compétences etc. Des organisations où la raison d’être est profondément marchande, où le prisme est pleinement productiviste, où l’humain n’est en réalité, et quoi qu’en dira le service chargé de la communication, qu’une marchandise qui joue au jeu du requin carriériste d’un aquarium de salon. Certes cette marchandise est « responsabilisée », il fallait bien anesthésier la lutte contre l’absurdité du travail, par une prérogativisation de la tâche dans sa propre division, offrant un sentiment de maitrise malgré la domination d’un processus pré-codifié. On disait souvent en parlant du Fordisme, « le flic est dans le flux », cette époque est révolue, à présent le flic est dans la norme. Les œillères de la start-up nation nous parlant de la fin du taylorisme lui empêchent probablement de voir qu’il s’agit d’une mutation de l’école classique, un néoclassicisme comme on a l’habitude d’en subir en économie, un changement de méthode mais pas de paradigme. On change les mots, commandement devient management des hommes, organisation scientifique du travail devient amélioration continue, contrôle des tâches devient audit du processus, standardisation devient qualité et règles devient bonnes pratiques. Au monde où règne la forme, aux organisations où dominent les termes, la production avance sur un tapis roulant, la larve sort de sa mue imaginale sans ailes, sans appareil (re)producteur, se contentant de quelques couleurs.

Conclusion

Nous en avons terminé avec l’organisation du travail. À l’heure où cette question se voit progressivement remplacée par celle de la gouvernance, de la responsabilité sociale des entreprises et de la communication managériale, il est intéressant d’aborder ces questions, celle de la production dans sa réalité la plus tangible. Néanmoins, notons qu’il s’agissait d’une synthèse, qu’elle ne se veut pas être un guide d’outils applicables et que la volonté de l’activité reste de s’inscrire dans l’objet politique de Relève de France. C’est pourquoi, nous nous retrouverons dans deux semaines pour traiter du travail, ou plutôt de la débâcle du travail. Son organisation ayant été un sujet de première importance ici, celui de sa fuite en avant le sera d’autant plus. La désindustrialisation de nos terres au profit d’une tertiarisation fera donc l’objet de notre prochain rendez-vous. Je vous remercie pour votre écoute et me tiens à votre disposition pour les questions que vous pourriez avoir suite à cette deuxième séance.

Bibliographie

Alderfer, Clayton. (1971). Existence, Relatedness, and Growth; Human Needs in Organizational Settings, Presse libre, 1971.

Blake, Robert et Jane Mouton. The Managerial Grid, Gulf Publishing, 1964.

Burns, Tom et G. M. Stalker. The Management of Innovation, Institut Tavistock, 1961.

Chandler, Alfred. The Visible Hand: The Managerial Revolution in American Business, Harvard University Press, 1977.

Crozier, Michel et Erhard Friedberg. L’acteur et le système, Seuil, 1977.

Gélinier, Octave. La direction participative par objectifs, Hommes et techniques, 1968.

Herzberg, Frederik. Mausner, Bernard et Barbara Snyderman. The Motivation to Work, Wiley, 1959.

Lawrence, Paul et Jay W. Lorsch. Organization and Environment : Managing Differentiation and Integration, Harvard Business School Press, 1967.

Lippitt, Ronald et Ralph White. Une étude expérimentale du commandement et de la vie en groupe, Dunod, 1978.

Maslow, Abraham. Motivation and Personality, Harper, 1954.

Mayo, Elton. The Social Problems of an Industrial Civilization, Harvard University Press, 1945.

McGregor, Douglas. The Human Side of Enterprise, McGrawHill, 1960.

Mintzberg, Henry. (1982). Structures et dynamique des organisations, Organisation, 1982.

Ōno,  Taiichi. Workplace management, Productivity Press, 1998.

Rensis, Likert. New Patterns of Management, McGraw-Hill, 1961.

Shimizu, Koichi. Le toyotisme, La découverte, 1999.

Woodward, Joan. Industrial Organization: Theory and Practice, Oxford University Press, 1966.

Partager :

Auteur

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.