dimanche 28 septembre 2008

II) Présentation détaillée de la Systémique (4/8)

II-3-7) Formalisation et modèles :

On ne peut parler de Systémique sans parler de formalisation. Les différents formalismes préexistaient à la Systémique mais sont employés par elle méthodiquement et consciemment, notamment en établissant des analogies avec le réel par l’intermédiaire de modèles. L’analogie est un outil pour la Systémique, encore une fois en opposition avec Descartes qui la combattait comme incertaine, ou relevant d’une pensée archaïque et magique qu’il fallait éliminer. Le malentendu a duré longtemps, l’utilisation systématique des modèles et des analogies, dégagés de toute confusion avec une pensée primitive, se faisant au cours du XX° siècle.
Enfin il ne faut pas perdre de vue deux choses avec les modèles :
  - « la carte n’est pas le territoire » d’A. Korzybski, le modèle n’est pas la réalité ;
 - ils doivent donc être utilisés, et surtout généralisés au monde réel avec la plus extrême phronésis/prudence d’Aristote et G.B. Vico ;
  - enfin, inventer, construire une théorie, n’est pas autre choses que créer un modèle, une théorie est un modèle conceptuel de la réalité, simplifié et découpé plus ou moins arbitrairement dans la réalité et en prenant des risques. C’est ce que résume L. von Bertalanffy dès 1965 en une phrase qui contient déjà tous les mots clés de la Systémique, du Constructivisme épistémologique et de la méthode de conjecture/réfutation de K. Popper : « Un modèle théorique est une construction conceptuelle qui restitue de manière consciemment simplifiée certains aspects d’un phénomène naturel et permet des déductions et des prédictions qui peuvent être testées dans l’expérience. ». [BERTALANFFY L. von, « Zur Geschichte theoretischer Modelle in der Biologie. » , Studium Generale, 18, 1965, p 291].

Il existe plusieurs types de modèles, dans le cadre de processus de modélisations bien définis :

a) Types de modèles :

  • Modèle verbal (premier modèle mis sur pied par le chercheur). Ce modèle intuitif est le plus proche de la pensée primitive ou instinctive, où le chercheur explore une idée incertaine voire fugitive.
  • Modèle abstrait en langage symbolique, exemple : mathématiques, physique, ... Avec ce modèle, le chercheur passe à un stade de consolidation où ce modèle sera l’outil permettant d’explorer les divers aspects de l’hypothèse travaillée, ses contours, conséquences, réactions, pouvant susciter d’autres pistes le cas échéant. Cet outil permettra de faire « vivre » le système exploré.
  • Maquette sur matériaux, sur plastique, sur ordinateur … A ce stade il s’agit de tester dans des conditions les plus réelles possibles le système étudié. Un modèle abstrait n’est jamais à l’abri d’erreurs, quelques fois importantes, qu’une maquette révèlera plus facilement. Le dernier stade de la maquette sera le test en réel (prototype, échantillons, analyses statistiques,…).
  • Schématisation, langage pictographique : AMS (Analyse Modulaire des Systèmes), organigrammes, ... qui sont autant de formes de langages possibles, assimilables aux modèles abstraits.
Autres modèles, ... Buts des modèles :
  • Modèles cognitifs : compréhension du système.
  • Modèles normatifs : optimisation en fonction d’un projet, et mesures précises des performances, réactions, comportements, dimensions, du système étudié.
  • Modèles prospectifs : description des formes d’avenir possibles du système en fonction d’entrées différentes, d’états de départs, de variables internes, de l’environnement, ....
b) Processus de modélisation :

Découpe - malheureusement arbitraire - dans le réel du système à étudier :
 
Le chercheur découpe donc arbitrairement « de manière consciemment simplifiée certains aspects » du réel perçu, plus exactement dans l'ensemble des phénomènes que nos sens outillés ou non peuvent percevoir.
Une note importante ici : le mot découpe est ici volontairement mal choisi. Il s’agit aussi bien à ce stade qu’aux suivants de construire (voir III-2-13 Constructivisme) en fait le système scientifique à étudier. Comme le dit Jean Ullmo en citant d’ailleurs Bachelard : « la Science choisit le réel, choix actif d’objets scientifiques construits (et non choix passifs parmi une réalité donnée), réel opératoire projeté par l’esprit pour s’égaler aux phénomènes ». En passant, il faut aussi remarquer la complète opposition de la Systémique, et en particulier du Constructivisme épistémologique, avec les classiques sur ce point puisqu’il n’y a plus alors ni “ Réel Donné ” immédiat, ni de “ Vérité Absolue ”, comme le soutiennent les positivistes avec Descartes dont la méthode consiste « à ne jamais reconnaître une chose pour vraie que je ne la connaisse évidemment pour telle ». Le critère « d’Évidence » -typiquement cartésien- étant des plus dangereux, peu clair et contestable, car dépendant en réalité des à priori culturels, religieux, psychologiques, etc… de l’intéressé.
Cette découpe pourra se faire selon plusieurs perspectives :
  • en fonction de la finalité du sujet/objet étudié (téléonomie) : quelle est sa fonction ? Quel est son projet ?
  • en fonction de l’historique du sujet/objet étudié : quelle est la genèse du système ?
  • en fonction du niveau d'organisation : quelle est la place du système par rapport aux autres ou par rapports au sur-système ?
  • en fonction de la structure globale : dans quel type de niveau se trouve-t il (simple, hiérarchisés, en réseau, fractals,…) ?
Ces perspectives multiples doivent se faire selon deux principales approches :
  • par différents axes d’attaques, points de vue, ou différentes tentatives de découpes. Au lieu de « voir » l’objet d’étude comme imposé, donné, il s’agit au contraire de choisir sous quel angle nous allons l’étudier, sous quel critère qualitatif. C’est ce que L. von Bertalanffy appelle le « perspectivisme », dans son processus de cognition, l’être humain (et tous les animaux) ne sont pas passif, mais agents actifs  : « Aucun organisme, l’homme inclus, n’est un simple spectateur de la scène du monde […] Il est un ré-acteur et un acteur du drame […] Il semble que ce soit la plus sérieuse insuffisance de la philosophie occidentale classique de Platon à Descartes et Kant que de considérer primordialement l’homme comme un spectateur, un ens cogitans, alors que pour des raisons biologiques il doit essentiellement être un acteur, un ens agens dans le monde où il est jeté. » [Von BERTALANFFY, L., “An essay on the relativity of categories”, Philosophy of Science, 1955, p 256].Ainsi, on peut choisir d’étudier l’espèce canine sous les aspects de mammifères, de cellules vivantes animales, de système de meutes organisées et hiérarchisées, dans son rapport avec l’être humain, etc… C’est la dialogique d’E. Morin. Ces différents axes volontairement multiples sont ici naturellement en opposition avec les approches cartésiennes où l’on prendra l’unique axe consistant à expliquer le niveau supérieur par le niveau inférieur, sans même avoir conscience que l’on opère une découpe de l’objet d’étude dans le réel.
  • par la prise en compte du fait que cette découpe se fait du point de vue du chercheur particulier, et aboutit à un modèle lui-même fait à partir de ce point de vue. Comme le dit J.L. Le Moigne, le modèle se fait donc à partir de ce point de vue et non à partir du modèle.
  • par une réflexion non plus sous la forme d’oppositions binaires tout/rien, avant/après, blanc/noir, ouvert/fermé, de sauts qualitatifs brutaux propres à la dialectique –quelle soit idéaliste ou matérialiste- et que l’on pourrait aussi bien écrire sous la forme de « di-alectique » à cet égard ; mais par une réflexion de différenciations progressives pouvant déclencher des équilibres dynamiques ponctués non-linéaires issus de co-organisation de sous-systèmes en coopétitions. On retrouve à nouveau la définition de la dialogique d’E. Morin.
Conformément au perspectivisme de L. von Bertalanffy, on peut avoir construit alors non seulement plusieurs types de modèles différents mais aussi selon ces perspectives multiples. Ces modèles sont autant de cartes (refer A. Korzybski), mais aucune ne peut être décrétée supérieur à l’autre : « La même réalité peut être représentée par des moyens symboliques différents, différentes cartes au sens le plus large du terme, et il n’y a aucun sens à se demander laquelle est la plus correcte : toute carte ne représente que certains aspects de la réalité. ». [BERTALANFFY L. von, « Semantics and General System Theory », General Semantics Bulletin, 20/21, p 41]. 

Identification et classification des éléments constitutifs par leurs propriétés, classes, groupes,...etc :
On essaye dans la mesure du possible de ne rien ignorer, mais l’on peut aussi volontairement laisser de côté certains éléments pour les besoins de simplification, encore une autre opposition à Descartes.
  • Identification et classification des interrelations avec la même remarque.
  • Incubation/Saturation puis Illumination/Inspiration -au sens de Hermann von Helmohlz- qui peut arriver à n’importe quel moment, rapide ou très lent, tenir du génie ou être complètement invalidée par la suite du processus.
  • Induction/ généralisation par remplacement du modèle par un autre plus universel, si cela est possible.
  • Déductions tirées de ce modèle en vue de vérifications expérimentales répétables et vérifiables. C’est le réel considéré comme seule référence,… malgré toutes les difficultés soulignées en (II-3-5). Ceci renvoie à l’approche empirique que Karl Popper a analysée en détail dans ses ouvrages sous le vocable mal traduit en français de « falsification », en fait réfutation, d’une théorie. On aborde aussi ici, avec l’informatique, les domaines des simulations en tous genres. Apparaît ici le besoin d’un nouveau critère de démarcation « à la Popper » des modèles, sur lequel nous reviendrons.
  • Bouclage du processus a toutes les étapes.
  • Il faut insister sur le fait qu’un certain degré de simplification, s’il est explicité correctement, peut intervenir pour rendre le modèle plus compréhensible.
  • Enfin on sort de l’éternel débat Induction versus Déduction puisque les deux sont délibérément utilisés, c’est la synthèse.
Remarque : certains philosophes structuralistes se sont focalisés sur la « déconstruction » du réel : J. R. Searle, Deleuze, Derrida,… en ayant tendance à considérer comme quelque chose d’essentiel, ce qui n’est qu’une étape obligatoire du processus de modélisation (voir « découpe » en tête de ce paragraphe). Ce qui frappe ces philosophes, c’est l’étape où il est en effet nécessaire de se sortir, se détacher du « Réel Donné » pour prendre une attitude plus neutre, plus élevée, en d’autres termes plus scientifique, pour être capable d’analyser méthodiquement et choisir intelligemment (retour à l’intuition) quelle partie du réel doit être étudiée et modélisée. Cette étape du travail a probablement fasciné ces philosophes parce qu’elle est la plus proche –en apparence avec la « tabula rasa »- de la méthode Cartésienne. Mais la Systémique la resitue comme une première étape, dans un cadre beaucoup plus large et qui va surtout beaucoup plus loin. C’est en effet sur ce point précis que l’opposition entre Descartes et J.B. Vico est la plus nette et la plus violente. Descartes se focalise, sur la recherche du vrai, de la Vérité des théories scientifiques découlant de son introspection et du bon sens indubitable. Au contraire J.B. Vico souhaite rétablir l’équilibre entre la phase créatrice, imaginative, en bref inductive et la phase de validation/réfutation des théories imaginées. Nous reviendrons ultérieurement sur ce point.

II-3-8) Le cas des modèles utilisant des statistiques :

Dans de nombreux domaines, on s’appuie sur des statistiques pour créer des modèles, des simulations. Or les statistiques se heurtent au problème de découpe soulevé plus haut d’une part et également au problème de faire référence au passé, sur des éventements non reproductibles car historiques, comme c’est le cas en économie : 
● Quel périmètre de « découpe » pour une série statistique ? Prenons par exemple une étude statistique économique sur « le prix des pommes de terre ». Il y a donc création par l’économiste d’un agrégat, « les pommes de terre » vues comme un ensemble unique implicitement cohérent. Admettons dans cet exemple que parmi celles-ci on trouve en réalité des pommes de terre d’un goût farineux bas de gamme mais assez résistantes aux maladies, et à l’opposé, des pommes de terre douces haut de gamme mais fragiles. L’économiste va donc prendre la totalité des ventes de la production de toutes les pommes de terre pour en tirer un prix de vente moyen. Admettons que la 2° année de production, les pommes de terre douces aient été victimes d’une maladie, leur production sera alors basse, La production des bas de gamme (dont le prix est beaucoup plus bas) restant constante. Le chercheur sera alors en face du paradoxe incompréhensible pour lui d’une baisse du prix moyen alors que la production totale a baissé pour une demande identique. La 3° année, les productions revenant à la normale, il se trouve qu’une nouvelle sorte de riz très prisée par les consommateurs apparaisse sur le marché entraînant une désaffection pour les pommes de terre, le prix moyen de celles-ci sera alors beaucoup plus bas sans raison apparente pour le chercheur ne travaillant que sur le périmètre, l’agrégat – la découpe - « les pommes de terre ». Il faut citer également les sondages d’opinion : ils se font sur des échantillons beaucoup trop petits (950 personnes par exemple), des journalistes commentant alors abondamment une variation de 0,5 % alors que les mathématiques donnent une marge d’erreur de ± 3 % sur un échantillon de 3000 individus . Cet exemple trivial montre toute les pièges des agrégats statistiques faits sans la prudence tel que recommandée par J.B. Vico, et sans réflexion de fond sur la pertinence de ces travaux.
● Les statistiques économiques relèvent de l’Histoire, donc non reproductible en laboratoire : C’est un point largement souligné par K. Popper. On peut faire toutes les statistiques que l’on veut, mais celles-ci ne reflètent – en admettant quelles soient pertinentes !- qu’une chaîne d’évènements du passé qui n’a aucune chance de renouveler à l’identique. Ainsi que conclure de statistiques économiques portant du les années 1920 à 1930 pour édicter une théorie sur les crises économiques en général ? On retrouve ici le débat entre rationalisme versus empirisme (Voir V-3) car il est possible de comprendre des événements historiques précis (à la condition de s’en tenir aux faits). Mais il est impossible de tirer une théorie générale d’un cas particulier… on ne peut que proposer l’intuition d’une théorie mais elle sera impossible à tester – contrairement aux sciences de la nature - puisqu’il est impossible de reconstituer en laboratoire le monde des années 20 du XX° siècle. Nous y reviendrons avec K. Popper.  
 
II-3-9) Exemple de modèle : la norme ISO/IEC 15288 :

L’IEC et l’ISO ont bien compris l’importance de la Systémique en éprouvant le besoin de normaliser pour les besoins de l’industrie, des services, etc.… les systèmes, types de systèmes, organisations, etc.… qui peuvent exister dans les entreprises. Un exemple ici concerne le modèle des processus techniques à cycles de vies de l’Ingénierie des Systèmes (l’Ingénium cher à G. Vico et Vinci !) que l’on peut trouver dans l’organisation d’une entreprise :
· Processus d’Entreprise :
o Processus de management de l’environnement de l’entreprise
o Processus de management de l’investissement
o Processus de management des processus de cycles de vie du système
o Processus de management des ressources
o Processus de management de la qualité
· Processus Contractuels :
o Processus d’acquisition
o Processus de fourniture
· Processus de Projet :
o Processus de planification du projet
o Processus d’évaluation du projet
o Processus de pilotage du projet
o Processus de décision
o Processus de management des risques
o Processus de gestion de configuration
o Processus de management de l’information
· Processus Technique :
o Processus de définition des exigences des parties prenantes
o Processus d’analyse des exigences
o Processus de conception de l’architecture
o Processus d’implémentation
o Processus de vérification
o Processus de transition
o Processus de validation
o Processus d’exploitation
o Processus de maintenance
o Processus de retrait de service

(Tiré du site de l’AFIS, Association Française d’Ingénierie Système).

Dans cette norme, on aura identifié (découpé) quatre processus majeurs : d’entreprise, des projets, techniques, et contractuels, eux-mêmes composés de sous-processus en inter-relations étroites au sein du processus qui l’englobe, mais aussi avec d’autres processus appartenant à l’un des quatre autres processus principaux. Exemple : le sous-processus de décision dépend des résultats du sous-processus d’analyses des exigences.

SUITE du Blog : Les caractéristiques d'un système

Benjamin de Mesnard

Aucun commentaire: