Accueil Société Culture La vérité nous rendra libre

La vérité nous rendra libre

0
0
107

L’époque et le monde où nous vivons sont profondément marqués par l’influence de la manipulation. Les conséquences de ce rejet de la vérité sont évidentes. Les injustices sont plus que jamais criantes, et les pays pauvres sont particulièrement touchés. Quoi de plus important que de réutiliser les instruments du raisonnement et qui contribuent considérablement à redonner à la vérité son poids dans les sociétés. Il est donc primordial de revoir souvent les éléments de la logique, des méthodes empiriques et au besoin recourir à la statistique, afin de prendre régulièrement des décisions qui correspondent à la réalité telle qu’elle est, c’est-à dire à la vérité en quelque sorte. Cependant, il faudrait qu’on analyse au départ, les procédés de manipulation comme le sophisme et d’autres formes de mensonges, afin de tirer les conclusions nécessaires pour dire non à la minipulation. Voyons d’abord, en gros, ce que c’est le sophisme:

(…)
Le règne du sophisme

Ou la volonté de domination (puissance) en politique : la vocation pervertie de la politique par le pouvoir

« Gorgias : C’est bien là, Socrate, en toute vérité
le bien suprême, à la fois principe de liberté
pour les hommes qui le possèdent et principe
de domination pour quiconque, dans sa propre
cité, l’exerce sur les autres.
Socrate : Mais enfin, de quoi veux-tu parler?
Gorgias : Ce dont je veux parler, c’est du pouvoir
de persuader, grâce aux discours [...] bref, du pouvoir
de persuader dans n’importe quelle réunion qui soit
une réunion de citoyens.[...] »

Platon, Gorgias.
Lorsque l’on parle des hommes politiques, la plupart du temps, nous devenons très souvent désabusé et nous avons tendance à qualifier les gouvernements de sophiste. Le sophisme (ou argument à logique fallacieux) est un raisonnement qui apparaît comme rigoureux et logique, mais qui en réalité n’est pas vrai.

Ce phénomène semble être adopté par tout homme politique assoiffé de pouvoir (donc de manipulation), alors que la politique, en son fond, appelle à une toute autre attitude.

Comme l’a très bien exprimé Hannah Arendt (philosophe allemande, 1906-1975), « le politique doit donc être compris comme centré sur la liberté [...] comme le fait de ne-pas-gouverner-ni-être-gouverné et comme un espace qui doit être construit par la pluralité et dans lequel chacun se meut parmi ses pairs. [...]

C’est la raison pour laquelle celui qui domine d’autres hommes et qui, de ce fait même, est essentiellement différent d’eux, quand bien même est-il plus heureux et plus enviable que ceux qu’il gouverne, n’en est pas pour autant plus libre. Lui aussi se meut dans un espace où la liberté n’existe finalement pas. » C’est donc dire que si le pouvoir est l’antinomie du politique, liberté et pouvoir (dans le sens de la domination) sont incompatibles.

C’est peut-être le motif qui fait basculer la plupart des citoyens à l’intérieur d’un cynisme débridé envers la politique, alors qu’elle est la nourriture spirituelle fondamentale (et vitale !) pour le maintien des interactions humaines et permet une percée ou une brèche vers un bien-vivre et un vivre-bien au niveau de la communauté. En ce sens, la politique permet à l’homme de sortir de l’état sauvage, d’éviter le glissement vers la barbarie.

Un autre concept fondamental s’ajoute à tout programme politique qui décide de léguer la gouvernance du peuple à une instance particulière (une organisation ou un particulier) afin qu’elle prenne en charge le développement d’une société. Ces personnes doivent posséder une qualité essentielle afin d’être en mesure de diriger un pays : c’est le principe de l’autorité. La meilleure définition que nous pouvons donner, c’est que l’autorité inspire, de par sa compétence et sa moralité, la confiance qui permettra d’obtenir le meilleur de chacun et la bonne entente entre les différents individus du groupe. En ce sens, plus un homme a de l’autorité, moins il use de violence.

La vérité nous rendra libre dans Culture peinture1

Je pense que le problème de la politique, aujourd’hui, réside dans une crise de l’autorité : la surexploitation de la puissance destructrice au niveau mondial en est un exemple flagrant. Tant que la politique sera synonyme de pouvoir ou de domination, c’est l’avenir de l’homme qui demeurera en péril.

Dans un fameux texte de Platon, celui-ci met en scène deux personnages (Socrate et Gorgias) qui discutent de l’essence de la rhétorique (l’art du discours), donc une réflexion sur le langage. En effet, dans le texte (intitulé Gorgias, fameux sophiste contemporain de Platon), il est dit :

« Socrate : Cependant il est vrai que la persuasion est aussi grande chez ceux qui savent et chez ceux qui croient.

Gorgias : Il en est ainsi.

Socrate : Veux-tu donc que nous posions qu’il existe deux sortes de persuasion : l’une qui permet de croire sans savoir et l’autre qui permet de connaître ?

Gorgias : Parfaitement.

Socrate : De ces deux formes de persuasion, quelle est celle que produit la rhétorique, dans les tribunaux et dans les autres assemblées, au sujet du juste et de l’injuste ? Est-ce celle d’où résulte la croyance sans la science, ou celle d’où résulte la science ?

Gorgias : Il est évident Socrate que c’est une persuasion d’où résulte la croyance.

Socrate : De ce fait, la rhétorique produit, semble-t-il, une persuasion qui engendre la croyance de ce qui est juste ou injuste, mais qui ne le fait pas connaître véritablement.

Gorgias : Oui. »

Ce que tente de démontrer Platon ici, c’est que lorsque le langage se sépare de la vérité pour devenir simple instrument de domination, le discours devient violence. Aucune réelle politique ne peut émerger. Ainsi, comme l’a affirmé Hannah Arendt, « c’est parce que nos expériences avec la politique se sont essentiellement déroulées dans le champ de la violence qu’il ne nous est que trop naturel de comprendre l’action politique sous les formes de la contrainte et de l’être contraint, de la domination et de l’être dominé, car c’est à l’intérieur de ces formes que se révèle le sens véritable de toute action violente. » En ce sens, la politique est indissociable de l’engagement de chaque citoyen, soit de promouvoir la paix, la dignité et la liberté de chacun dans la cité. Le langage et la vérité doivent être des entités indissociables, afin de redonner sens et valeur à chaque individu dans l’espace public pouvant mener à une existence meilleure.

 

Par Pierre-Luc Gagné

 

 

http://benhur.teluq.uquebec.ca/~journal/2007_04/politique4.html

 

**********************************************************************

De l’espace pour la Logique:

Logique

Un article de Wikipédia, l’encyclopédie libre.

 

180px-Gregor_Reisch%2C_Margarita_Philosophica%2C_Typus_Logice dans Culture

 

magnify-clip

Gregor Reisch, « La logique présente ses thèmes centraux », Margarita Philosophica, 1503/08 (?). Les deux chiens veritas et falsitas courent derrière le lièvre problema, la logique se presse armée de son épée syllogismus. En bas à gauche se trouve Parménide dans une grotte, grâce auquel la logique aurait été introduite dans la philosophie.

La logique (du grec λόγος (logos), signifiant entre autres, raison, science, langage, rapport) est dans une première approche l’étude des règles formelles que doit respecter toute déduction correcte.

Elle est depuis l’Antiquité l’une des grandes disciplines de la philosophie, avec l’éthique et la métaphysique. En outre, on a assisté durant le XXe siècle au développement fulgurant d’une approche mathématique et informatique de la logique. Elle trouve depuis le XXe siècle de nombreuses applications en ingénierie, en linguistique, en psychologie cognitive, en philosophie analytique ou en communication.

 

Sommaire

[masquer]

//

Histoire [modifier]

Icône de détail Article détaillé : Histoire de la logique.

La logique est à l’origine la recherche de règles générales et formelles permettant de distinguer un raisonnement concluant de celui qui ne l’est pas. Elle trouve ses premiers tâtonnements dans les mathématiques et surtout dans la géométrie mais c’est principalement sous l’impulsion des Mégariques et ensuite d’Aristote qu’elle prit son envol.

La logique a très tôt été utilisée contre elle-même, c’est-à-dire contre les conditions mêmes du discours : le sophiste Gorgias l’utilise dans son Traité du non-être afin de prouver qu’il n’y a pas d’ontologie possible : « ce n’est pas l’être qui est l’objet de nos pensées ». La vérité matérielle de la logique est ainsi ruinée. Le langage acquiert ainsi sa propre loi, celle de la logique, indépendante de la réalité. Mais les sophistes ont été écartés de l’histoire de la philosophie (sophiste a pris un sens péjoratif), si bien que la logique, dans la compréhension qu’on en a eu par exemple au Moyen Âge, est restée soumise à la pensée de l’être. Au XVIIe siècle Leibniz fit des recherches fondamentales en logique qui révolutionnèrent profondément la logique aristotélicienne même si Leibniz se réclama constamment de la tradition des syllogismes d’Aristote. Il fut le premier à imaginer et à développer une logique entièrement formelle. Emmanuel Kant, quant à lui, définit la logique comme «une science qui expose dans le détail et prouve de manière stricte, uniquement les règles formelles de toute pensée». L’œuvre d’Aristote appelée l’Organon, où figure notamment l’étude du syllogisme, fut longtemps considérée comme le manuel de référence sur ce sujet. Mais la naissance d’une logique formelle dépassant la structure binaire entre sujet et attribut à partir du XIXe siècle, a profondément changé cet état de fait. Ainsi Gottlob Frege et Russell remplacent-t-ils l’analyse prédicative par une distinction entre fonction et argument.

Il a fallu attendre le début du XXe siècle pour que le principe de bivalence soit clairement remis en question de plusieurs façons différentes :

  • La deuxième façon insiste sur le démontrable. Il y a donc ce qui est démontrable et le reste. Dans ce « reste », il peut y avoir des propositions réfutables, c’est-à-dire dont la négation est démontrable et des propositions au statut incertain, ni démontrable, ni réfutable. Cette approche est tout à fait compatible avec la logique classique bivalente, et on peut même dire que l’un des apports de la logique du XXe siècle est d’avoir analysé clairement la différence entre la démontrabilité et la validité, qui, elle, repose sur une interprétation en termes de valeurs de vérité. Mais la logique intuitionniste se fonde elle sur une interprétation des démonstrations, la sémantique de Heyting — ainsi une preuve de l’implication s’interprète par une fonction qui à une preuve de l’hypothèse associe une preuve de la conclusion, plutôt que sur une interprétation des énoncés par des valeurs de vérité. On a pu cependant après coup donner des sémantiques qui interprètent les énoncés, comme celle de Beth, ou celle de Kripke dans laquelle le concept de base est celui de monde possible. La logique intuitionniste est également utilisée pour analyser le caractère constructif des démonstrations en logique classique. La logique linéaire va encore plus loin dans l’analyse des démonstrations.
  • La quatrième façon, est celle de la logique modale qui par exemple atténue (possible) ou renforce (nécessaire) des propositions. Si Aristote s’intéresse déjà aux modalités, le XXe siècle, sous l’impulsion initiale de Clarence Irving Lewis, apporte une étude plus approfondie de celles-ci, et Saul Aaron Kripke donne une interprétation des énoncés des logiques modales utilisant des mondes possibles.

Les différentes approches [modifier]

De manière très générale il existe quatre approches de la logique :

  • L’approche historique qui s’intéresse à l’évolution et au développement de la logique et tout particulièrement à la syllogistique aristotélicienne et aux tentatives depuis Leibniz de faire de la logique un véritable calcul algorithmique. Cette approche historique est tout particulièrement intéressante pour la philosophie car aussi bien Aristote que les Stoïciens ou que Leibniz ont travaillé comme philosophes et comme logiciens. Voir aussi l’article histoire de la logique.
  • L’approche mathématique : la logique mathématique contemporaine est liée aux mathématiques, à l’informatique et à l’ingénierie.
  • L’approche philosophique : la philosophie et surtout la philosophie analytique reposent sur un outillage d’analyse et argumentatif provenant d’une part des développements logiques réalisés au cours de l’histoire de la philosophie et d’autre part des développements récents de la logique mathématique. Par ailleurs, la philosophie et surtout la philosophie de la logique se donnent pour tâche d’éclairer les concepts fondamentaux et les méthodes de la logique.
  • Enfin, la quatrième approche est celle informatique qui s’attaque à l’automatisation des calculs et des démonstrations, aux fondements théoriques de la conception des systèmes, de la programmation et de l’intelligence artificielle[1]. L’approche informatique est cruciale parce que c’est en essayant de mécaniser les raisonnements, voire de les automatiser, que la logique et les mathématiques vivent une véritable révolution au début du XXIe siècle. Les conséquences épistémologiques de ces développements sont encore largement insoupçonnées.

[modifier] Approche mathématique

Icône de détail Article détaillé : Logique mathématique.

Dans ce dernier cas, sa position est un peu particulière d’un point de vue épistémologique, puisqu’elle est à la fois un outil de définition des mathématiques, et une branche de ces mêmes mathématiques, donc un objet.

Notions élémentaires de logique formelle [modifier]

Un langage logique est défini par une syntaxe, c’est-à-dire un système de symboles et de règles pour les combiner sous formes de formules. De plus, une sémantique est associée au langage. Elle permet de l’interpréter, c’est-à-dire d’attacher à ces formules ainsi qu’aux symboles une signification. Un système de déduction permet de raisonner en construisant des démonstrations.

La logique comprend classiquement :

Considérons un langage logique. Ce dernier est soit :

  • un langage propositionnel, on parle alors de logique des propositions,
  • un langage contenant des notations pour des entités avec des quantifications sur ces entités, on parle alors de logique des prédicats.

Syntaxes [modifier]

La syntaxe de la logique des propositions est fondée sur des variables de propositions appelées également atomes que nous notons avec des lettres minuscules (p, q, r, s, etc.). Ces symboles représentent des propositions sur lesquelles on ne porte pas de jugement vis-à-vis de leur vérité : elles peuvent être soit vraies, soit fausses, mais on peut aussi ne rien vouloir dire sur leur statut. Ces variables sont combinées au moyen de connecteurs logiques qui sont, par exemple :

  1. le connecteur binaire disjonctif (ou), de symbole: ∨ ;
  2. le connecteur binaire conjonctif (et), de symbole: ∧ ;
  3. le connecteur binaire de l’implication, de symbole: → ;
  4. le connecteur monadique de la négation (non), de symbole: ¬.

Ces variables forment alors des formules complexes.

La syntaxe de la logique du deuxième ordre, contrairement à celle du premier ordre, considère d’une part les termes qui représentent les objets étudiés, et d’autre part les formules qui sont des propriétés sur ces objets. Dans la suite nous noterons V l’ensemble des variables (x, y, z…), F l’ensemble des symboles de fonctions (f, g…) et P l’ensemble des symboles de prédicats (P, Q…). On dispose également d’une application dite d’arité m.

Qu’en est-il de la signification d’une formule ? C’est l’objet de la sémantique. Là encore, elle diffère selon le langage envisagé.

En logique traditionnelle (appelée aussi classique), une formule est soit vraie soit fausse. Plus formellement, l’ensemble des valeurs de vérité est un ensemble B de deux booléens : le vrai et le faux. La signification des connecteurs est définie à l’aide de fonctions de booléens vers des booléens. Ces fonctions peuvent être représentées sous la forme de table de vérité.

La signification d’une formule dépend donc de la valeur de vérité de ses variables. On parle d’interprétation ou d’affectation. Toutefois, il est difficile, au sens de la complexité algorithmique, d’utiliser la sémantique pour décider si une formule est satisfaisante (ou non) voire valide (ou non). Il faudrait pour cela pouvoir énumérer toutes les interprétations. Leur nombre est exponentiel.

Une alternative à la sémantique consiste à examiner les preuves bien formées et à considérer leurs conclusions. Cela se fait dans un système de déduction. Un système de déduction est un couple (A, R), où A est un ensemble de formules appelées axiomes et R un ensemble de règles d’inférence, c’est-à-dire de relations entre des ensembles de formules (les prémisses) et des formules (la conclusion).

On appelle dérivation à partir d’un ensemble donné d’hypothèses une suite non vide de formules qui sont : soit des axiomes, soit des formules déduites des formules précédentes de la suite.

Une démonstration d’une formule φ à partir d’un ensemble de formules Γ est une dérivation à partir de Γ dont la dernière formule est φ.

Quantification [modifier]

Icône de détail Article détaillé : Calcul des prédicats.

On introduit essentiellement deux quantificateurs dans la logique moderne :

  • \exists (il existe au moins un), appelé quantificateur existentiel.
  • \forall (pour tout), appelé quantificateur universel.

Grâce à la négation, les quantificateurs existentiels et universels jouent des rôles duaux et donc, en logique classique, on peut fonder le calcul des prédicats sur un seul quantificateur.

Égalité [modifier]

Un prédicat binaire, que l’on appelle égalité, énonce le fait que deux termes sont égaux quand ils représentent le même objet. Il est géré par des axiomes ou schémas d’axiomes spécifiques. Cependant parmi les prédicats binaires c’est un prédicat très particulier, dont l’interprétation usuelle n’est pas seulement contrainte par ses propriétés énoncées par les axiomes : en particulier il n’y a usuellement qu’un prédicat d’égalité possible par modèle, celui qui correspond à l’interprétation attendue (l’identité). Son adjonction à la théorie préserve certaines bonnes propriétés comme le théorème de complétude du calcul des prédicats classique. On considère donc très souvent que l’égalité fait partie de la logique de base et l’on étudie alors le calcul des prédicats égalitaire.

Dans une théorie qui contient l’égalité, un quantificateur, qui peut être défini à partir des quantificateurs précédents et de l’égalité, est souvent introduit :

  • \exists! (il existe un et un seul).

D’autres quantificateurs peuvent être introduits en calcul des prédicats égalitaires (il existe au plus un objet vérifiant telle propriété, il existe deux objets …), mais des quantificateurs utiles en mathématiques, comme « il existe une infinité … » ou « il existe un nombre fini … » ne peuvent s’y représenter et nécessitent d’autres axiomes (comme ceux de la théorie des ensembles).

Annexes [modifier]

Bibliographie [modifier]

Icône de détail Article connexe : Bibliographie de logique et de philosophie du langage.

  • Jean-Pierre Belna, Histoire de la logique, 2005
  • Robert Blanché & Jacques Dubucs, La logique et son histoire: d’Aristote à Russell, Paris, Armand Colin, 1996
  • François Chenique, Éléments de Logique Classique, Paris, L’Harmattan, 2006
  • Bruno Couillaud, Traité de Logique – analytique, dialectique, rhétorique, sophistique, 2e Ed., De Guibert, 2007
  • Pascal Engel, La Norme du vrai, philosophie de la logique, Paris, Gallimard, 1989
  • (en)Michael R. Genesereth and Nils J. Nilsson, Logical Foundations of Artificial Intelligence, 1987 [détail des éditions]
  • Paul Gochet & Pascal Gribomont, Logique. Vol. 1: méthodes pour l’informatique fondamentale, Paris, Hermès, 1990
  • Paul Gochet & Pascal Gribomont, Logique. Vol. 2: méthode formelle pour l’étude des programmes, Paris, Hermès, 1994
  • Paul Gochet, Pascal Gribomont & André Thayse, Logique. Vol. 3: méthodes pour l’intelligence artificielle, Paris, Hermès, 2000
  • (en)William Kneale & Martha Kneale, The development of logic, Oxford, Clarendon Press, 1962
  • François Lepage, Éléments de logique contemporaine, Montréal, Les Presses de l’Université de Montréal, 1991
  • Dirk Pereboom, Logique et logistique, Genève, INU PRESS, [1995].(ISBN 2-88155-002-9).
  • Xavier Verley, Logique symbolique, Ellipses, 1999

Notes et références [modifier]

 

  1. voir (en)Logical Foundations of Artificial Intelligence

Voir aussi [modifier]

(v. Wikipeadia)
**********************************************************************

Des méthodes empiriques et autres instruments pour la recherche:

L’empirisme désigne un ensemble de théories philosophiques (avec des applications logiques, psychologiques ou linguistiques) qui font de l’expérience sensible l’origine de toute connaissance valide et de tout plaisir esthétique. L’empirisme s’oppose en particulier à l’innéisme des idées et à l’idée de connaissance a priori. Il va souvent de pair avec une théorie associationniste des idées, qui expliquent leur formation par la conjonction d’idées simples (William James étant, sur ce point, une exception notable [1])

 

180px-Roger-bacon-statue

 

magnify-clip

Roger Bacon, philosophe scolastique

L’empirisme postule que toute connaissance provient essentiellement de l’expérience. Représenté par exemple par les philosophes anglais Roger Bacon, John Locke et David Hume, ce courant considère que la connaissance se fonde sur l’accumulation d’observations et de faits mesurables, dont on peut extraire des lois générales par un raisonnement inductif (dit aussi synthétique [réf. nécessaire]), allant par conséquent du concret à l’abstrait. L’« empirie » est ainsi l’ensemble des données de l’expérience pure, considéré comme l’objet sur lequel porte la méthode expérimentale.

(V. Wikipedia)
***********************************************************************

 

L’apport de la méthode statistique:

- Statisitique élementaire:

 

Statistiques

Un article de Wikipédia, l’encyclopédie libre.

Pour un article sur une statistique consultez l’article statistique 20px-Confusion.svg

La statistique est l’ensemble des instruments et de recherches mathématiques permettant de déterminer les caractéristiques d’un ensemble de données (généralement vaste).

Ce domaine des mathématiques ne doit pas être confondu avec une statistique qui est un nombre calculé à partir d’observations. Pour un article (plus technique) sur une statistique consultez l’article statistique.

Les statistiques sont le produit des analyses reposant sur l’usage de la statistique. Cette activité regroupe trois principales branches :

Cette distinction ne consiste pas à définir plusieurs domaines étanches. En effet, le traitement et l’interprétation des données ne peuvent se faire que lorsque celles-ci ont été récoltées. Réciproquement, la statistique mathématique précise les règles et les méthodes sur la collecte des données, pour que celles-ci puissent être correctement interprétées.

John Tukey disait qu’il y a deux approches en statistiques, entre lesquelles on jongle constamment : les statistiques exploratoires et les statistiques confirmatoires (exploratory and confirmatory statistics) :

  • on explore d’abord les données pour avoir une idée qualitative de leurs propriétés ;
  • puis on fait des hypothèses de comportement que l’on confirme ou infirme en recourant à d’autres techniques statistiques.
 

Sommaire

[masquer]

//

Histoire [modifier]

Icône de détail Article détaillé : histoire des statistiques.

Bien que le nom de statistique soit relativement récent – on attribue en général l’origine du nom au XVIIIe siècle de l’allemand Staatskunde – cette activité semble exister dès la naissance des premières structures sociales. D’ailleurs, les premiers textes écrits retrouvés étaient des recensements du bétail, des informations sur son cours et des contrats divers. On a ainsi trace de recensements en Chine au XXIIIe siècle av. J.-C. ou en Égypte au XVIIIe siècle av. J.-C.. Ce système de recueil de données se poursuit jusqu’au XVIIe siècle. En Europe, le rôle de collecteur est souvent tenu par des guildes marchandes, puis par les intendants de l’État.

Ce n’est qu’au XVIIIe siècle que l’on voit apparaître le rôle prévisionnel des statistiques avec la construction des premières tables de mortalité.

La statistique mathématique s’appuyait sur les premiers travaux concernant les probabilités développés par Fermat et Pascal. C’est probablement chez Thomas Bayes que l’on vit apparaître un embryon de statistique inférentielle. Condorcet et Laplace parlaient encore de probabilité là où l’on parlerait aujourd’hui de fréquence. Mais c’est à Adolphe Quételet que l’on doit l’idée que la statistique est une science s’appuyant sur les probabilités.

Le XIXe siècle voit cette activité prendre son plein essor. Des règles précises sur la collecte et l’interprétation des données furent édictées. La première application industrielle des statistiques eut lieu lors du recensement américain de 1890, qui mit en œuvre la carte perforée inventée par le statisticien Herman Hollerith. Celui-ci avait déposé un brevet au bureau américain des brevets.

Au XXe siècle, ces applications industrielles se développèrent d’abord aux États-Unis, qui étaient en avance sur les sciences de gestion, puis seulement après la Première Guerre mondiale en Europe. Le régime nazi employa des méthodes statistiques à partir de 1934 pour le réarmement. En France, on était moins au fait de ces applications.

L’application industrielle des statistiques en France se développe avec la création de l’INSEE, qui remplaça le Service National des Statistiques créé par René Carmille.

L’avènement de l’informatique dans les années 1940 (aux États-Unis), puis en Europe (dans les années 1960) permit de traiter un plus grand nombre de données, mais surtout de croiser entre elles des séries de données de types différents. C’est le développement de ce qu’on appelle l’analyse multidimensionnelle. Au cours du siècle, plusieurs courants de pensée vont s’affronter :

  • les objectivistes ou fréquentistes qui pensent que les probabilités fournissent un modèle permettant d’idéaliser la distribution en fréquence et que là s’arrêtent leur rôle ;
  • les subjectivistes qui voient les probabilités comme un moyen de mesurer la confiance que l’on peut avoir dans une prévision ;
  • les néo-bayesiens qui soutiennent que les données statistiques seules ne permettent pas de donner le modèle probabiliste idéalisant la distribution en fréquence: il est nécessaire de proposer au départ une forme générale du modèle.

Domaines d’application [modifier]

Les statistiques sont utilisées dans des domaines très variés comme :

Statistique descriptive et statistique mathématique [modifier]

Le but de la statistique est d’extraire des informations pertinentes d’une liste de nombres difficile à interpréter par une simple lecture. Deux grandes familles de méthodes sont utilisées selon les circonstances. Rien n’interdit de les utiliser en parallèle dans un problème concret mais il ne faut pas oublier qu’elles résolvent des problèmes de natures totalement distinctes. Selon une terminologie classique, ce sont la statistique descriptive et la statistique mathématique. Aujourd’hui, il semble que des expressions comme analyse des données et statistique inférentielle soient préférées, ce qui est justifié par le progrès des méthodes utilisées dans le premier cas.

Considérons par exemple les notes globales à un examen. Il peut être intéressant d’en tirer une valeur centrale qui donne une idée synthétique sur le niveau des étudiants. Celle-ci peut être complétée par une valeur de dispersion qui mesure, d’une certaine manière, l’homogénéité du groupe. Si on veut une information plus précise sur ce dernier point, on pourra construire un histogramme ou, d’un point de vue légèrement différent, considérer les déciles. Ces notions peuvent être intéressantes pour faire des comparaisons avec les examens analogues passés les années précédentes ou en d’autres lieux. Ce sont les problèmes les plus élémentaires de l’analyse des données qui concernent une population finie. Les problèmes portant sur des statistiques multidimensionnelles nécessitent l’utilisation de l’algèbre linéaire. Indépendamment du caractère, élémentaire ou non, du problème il s’agit de réductions statistiques de données connues dans lesquelles l’introduction des probabilités améliorerait difficilement l’information obtenue. Il est raisonnable de regrouper ces différentes notions :

Un changement radical se produit lorsque les données ne sont plus considérées comme une information complète à décrypter selon les règles de l’algèbre mais comme une information partielle sur une population plus importante, généralement considérée comme une population infinie. Pour induire des informations sur la population inconnue il faut introduire la notion de loi de probabilité. Les données connues constituent dans ce cas une réalisation d’un échantillon, ensemble de variables aléatoires supposées indépendantes (voir Loi de probabilité à plusieurs variables). La théorie des probabilités permet alors, entre autres opérations :

  • d’associer les propriétés de l’échantillon à celles qui sont prêtées à la loi de probabilité, inconnue en toute rigueur, c’est l’échantillonnage ;
  • de déduire inversement les paramètres de la loi de probabilité des informations que donne l’échantillon, c’est l’estimation ;
  • de déterminer un intervalle de confiance qui mesure la validité de l’estimation ;
  • de procéder à des tests d’hypothèse, le plus utilisé étant le Test du χ² pour mesurer l’adéquation de la loi de probabilité choisie à l’échantillon utilisé ;
  • etc.

Statisticien [modifier]

Icône de détail Article détaillé : Statisticien.

Le statisticien utilise des statistiques théoriques et appliquées dans le secteur privé et le secteur public. Le cœur du travail est de mesurer, interpréter et décrire le monde en combinant généralement l’interprétation statistique avec des fortes connaissances sur le domaine d’étude.

Les domaines d’applications sont très variés: la production, la recherche, les finances, la médecine, l’assurance et les statistiques descriptives au sujet de la société. Les statisticiens sont souvent employés en tant qu’aide à la décision. Ils effectuent des recherches sur des concepts, des théories, des procédés et des méthodes statistiques, sous leurs aspects mathématiques et autres, les améliorent, et donnent des avis sur leurs applications dans des domaines tels que le commerce, la médecine, les sciences sociales et autres, ou les appliquent eux-mêmes.

La démarche statistique [modifier]

Recueil des données [modifier]

L’enquête statistique est toujours précédée d’une phase où sont déterminés les différents caractères à étudier.

L’étape suivante consiste à choisir la population à étudier. Il se pose alors le problème de l’échantillonnage : choix de la population à sonder (au sens large : cela peut être un sondage d’opinion en interrogeant des humains, ou bien le ramassage de roches pour déterminer la nature d’un sol en géologie), la taille de la population et sa représentativité.

Que ce soit pour un recueil total (recensement) ou partiel (sondage), des protocoles sont à mettre en place pour éviter les erreurs de mesures qu’elles soient accidentelles ou répétitives (biais).

Le pré traitement des données est extrêmement important, en effet, une transformation des données initiales (un passage au logarithme, par exemple), peuvent considérablement faciliter les traitements statistiques suivants.

Traitement des données [modifier]

Le résultat de l’enquête statistique est une série de chiffres (tailles, salaires) ou de données qualitatives (langues parlées, marques préférées). Pour pouvoir les exploiter, il va être nécessaire d’en faire un classement et un résumé visuel ou numérique. Il sera parfois nécessaire d’opérer une compression de données. C’est le travail de la statistique descriptive. Il sera différent selon que l’étude porte sur une seule variable ou sur plusieurs variables.

Étude d’une seule variable [modifier]

Le regroupement des données, le calcul des effectifs, la construction de graphiques permet un premier résumé visuel du caractère statistique étudié. Dans le cas d’un caractère quantitatif continu, l’histogramme en est la représentation graphique la plus courante.

Les valeurs numériques d’un caractère statistique se répartissent dans \mathbb{R}, il est nécessaire de définir leurs positions. En statistiques, on est en général en présence d’un grand nombre de valeurs. Or, si l’intégralité de ces valeurs forme l’information, il n’est pas aisé de manipuler plusieurs centaines voire milliers de chiffres, ni d’en tirer des conclusions. Il faut donc calculer quelques valeurs qui vont permettre d’analyser les données : c’est le rôle des réductions statistiques. Celles-ci peuvent être extrêmement concises, réduites à un nombre : c’est le cas des valeurs centrales et des valeurs de dispersion. Certaines d’entre elles (comme la variance) sont élaborées pour permettre une exploitation plus théorique des données (voir Inférence statistique)

On peut aussi chercher à comparer deux populations. On s’intéressera alors plus particulièrement à leurs critères de position, de dispersion, à leur boîte à moustaches ou à l’analyse de la variance.

Étude de plusieurs variables [modifier]

Les moyens informatiques permettent aujourd’hui d’étudier plusieurs variables simultanément. Le cas de deux variables va donner lieu à la création d’un nuage de points, d’une étude de corrélation (mathématiques) éventuelle entre les deux phénomènes ou étude d’une régression linéaire .

Mais on peut rencontrer des études sur plus de deux variables : c’est l’analyse multidimensionnelle dans laquelle on va trouver l’analyse en composantes principales, l’analyse en composantes indépendantes, la régression linéaire multiple et le data mining. Aujourd’hui, le data mining (appelé aussi knowledge discovery) s’appuie sur la statistique pour découvrir des relations entre les variables de très vastes bases de données. Les avancées technologiques (augmentation de la fréquence des capteurs disponibles, des moyens de stockage, et de la puissance de calcul) donnent au data mining un vrai intérêt.

Interprétation et analyse des données [modifier]

Icône de détail Article détaillé : Inférence statistique.

L’inférence statistique a pour but de faire émerger des propriétés d’un ensemble de variables connues uniquement à travers quelques une de ses réalisations (qui constituent un échantillon de données).

Elle s’appuie sur les résultats de la statistique mathématique, qui applique des calculs mathématiques rigoureux concernant la théorie des probabilités et la théorie de l’information aux situations où on n’observe que quelques réalisations (expérimentations) du phénomène à étudier.

Sans la statistique mathématique, un calcul sur des données (par exemple une moyenne), n’est qu’un indicateur. C’est la statistique mathématique qui lui donne le statut d’estimateur dont on maîtrise le biais, l’incertitude et autres caractéristiques statistiques. On cherche en général à ce que l’estimateur soit sans biais, convergeant et efficace.

On peut aussi émettre des hypothèses sur la loi générant le phénomène général, par exemple « la taille des enfants de 10 ans en France suit-elle une loi gaussienne ? ». L’étude de l’échantillon va alors valider ou non cette hypothèse : c’est ce qu’on appelle les tests d’hypothèses. Les tests d’hypothèses permettent de quantifier la probabilité avec laquelle des variables (connues seulement à partir d’un échantillon) vérifient une propriété donnée.

Enfin, on peut chercher à modéliser un phénomène a posteriori. La modélisation statistique doit être différenciée de la modélisation physique. Dans le second cas des physiciens (c’est aussi vrai pour des chimistes, biologistes, ou tout autre scientifique), cherchent à construire un modèle explicatif d’un phénomène, qui est soutenu par une théorie plus générale décrivant comment les phénomènes ont lieu en exploitant le principe de causalité. Dans le cas de la modélisation statistique, le modèle va être construit à partir des données disponibles, sans aucun a priori sur les mécanismes entrant en jeux. Ce type de modélisation s’appelle aussi modélisation empirique. Compléter une modélisation statistique par des équations physiques (souvent intégrées dans les pré traitements des données) est toujours positif.

Un modèle est avant tout un moyen de relier des variables à expliquer Y à des variables explicatives X, par une relation fonctionnelle :

Y = F(X)

Les modèles statistiques peuvent être regroupés en grandes familles (suivant la forme de la fonction F):

  • les modèles linéaires ;
  • les modèles non linéaires ;
  • les modèles non paramétriques.

Les modèles bayésiens (du nom de Bayes) peuvent être utilisés dans les trois catégories.

Statistique mathématique [modifier]

Cette branche des mathématiques, très liée aux probabilités, est indispensable pour valider les hypothèses ou les modèles élaborés dans la statistique inférentielle. La théorie mathématiques des probabilités formalise les phénomènes aléatoires. Les statistiques mathématiques se consacrent à l’étude de phénomènes aléatoires que l’on connaît via certaines de ses réalisations.

Par exemple, pour une partie de dés à six faces :

  • le point de vue probabiliste est de formaliser un tel jeu par une distribution de probabilité p_1,p_2,\ldots,p_6 associée aux événements la première, deuxième, …, sixième face est tirée. La théorie des probabilités nous dit par exemple que pour que cette distribution soit une distribution de probabilité, il est nécessaire que \sum_{n=1}^6 p_n=1. On peut alors étudier différentes propriétés de ce jeu ;
  • une fois cela fixé, les statistiques s’intéressent alors à ce genre de question : « Si au bout de 100 parties, chaque face n a été tirée fn fois, puis-je avoir une idée de la valeur des probabilités p_1,p_2,\ldots,p_6 ? Avec quel degré de confiance ? »

Une fois la règle établie, elle peut être utilisée en statistique inférentielle.

Statistique en sciences sociales [modifier]

Les statistiques sont utilisées dans la plupart des sciences sociales. Elles présentent une méthodologie commune avec toutefois certaines spécificités selon la complexité de l’objet d’étude

En sociologie [modifier]

L’apport des méthodes statistiques permet au sociologue l’utilisation de méthode quantitative lui permettant de déterminer des sociostyles.

Le problème majeur est pour le chercheur de définir des unités comparables (style de vie, tranche de revenus, opinions politiques etc …).

Le sociologue réussit ainsi à déterminer des nuages de points correspondant à des axes comportementaux qui définissent l’évolution des différents groupes sociaux vers tel type de comportement (achat de tel ou tel produit, vote pour tel ou tel candidat à une élection).

Voir aussi [modifier]

Sur les autres projets Wikimedia :

Liens internes [modifier]

Liens externes [modifier]

Ouvrages de références [modifier]

(v. wikipedia)****************************************************************************************************
-  Statistique avancée:

* Notions de Regression:

La régression est une méthode statistique très utilisée pour analyser la relation d’une variable par rapport à une ou plusieurs autres. On recourt à une estimation des paramètres inconnus du modèles de régression par un ajustement mathématique du modèle spécifié en fonction des données récoltées. En économétrie, elle est notamment utilisée à des fins de prévision économique. À partir d’un ensemble de valeurs expérimentales, qui peuvent être représentées par des points sur un graphique, on cherche à calculer la courbe qui reproduit le mieux les variations de la grandeur à étudier, c’est-à-dire celle qui s’ajuste « au mieux » au nuage de points. La régression est donc l’opération qui consiste à ajuster une droite (ou une autre courbe mathématique) « le plus près possible » d’un certain nombre de points observés.

Une des méthodes les plus employées pour obtenir un modèle estimé est celle des « moindres carrés ». Sous certaines hypothèses, les estimateurs obtenus par la méthode des moindres carrés sont les meilleurs estimateurs pouvant être obtenus parmi ceux linéaires et non biaisés. Disposant de l’estimation de cette courbe, on peut alors effectuer des interpolations, pour calculer l’ordonnée de points intermédiaires. D’autres méthodes ont été plus récemment développées pour éviter des problèmes causés par des données atypiques ou sortant du cadre des hypothèses classiques, voir robustesse.

Les étapes généralement suivies pour obtenir une régression sont:

  1. Cadrage du problème,
  2. Sélection des variables pertinentes,
  3. Récolte des données,
  4. Spécification du modèle,
  5. Sélection de la méthode d’ajustement,
  6. Ajustement du modèle aux données,
  7. Validation du modèle estimé,
  8. Utilisation du modèle.

Le processus de construction du modèle de régression est souvent itératif, car lors de la validation ou de l’utilisation du modèle il n’est pas rare de devoir revenir sur les étapes précédentes selon les résultats obtenus.

Les tableurs permettent, pour affiner les corrélations, d’utiliser un modèle linéaire — une droite d’équation Y = a * X + b — mais aussi des modèles logarithmiques ou exponentiels. Le modèle exponentiel est utilisé pour illustrer des phénomènes dont les variations sont très rapides : l’accroissement de la variable est ici proportionnel à sa valeur. (v. Wikipedia)

Autres éléments: Analyse factorielle1,Analyse factorielle2, Analyse des facteurs3, Faktorenanalyse4, Faktorenalys5(en Spss),

 

 

************************************************************************

Primum vivere, deinde philosophari? Philosopher quand même…

 

-Ontologie: Essence et accident,

 

************************************************************************

 

 

 

 



Theo

Est-ce que le MDPR ( parti dissout en l'an 2013), aura joue un role, si minime qu'il soit, dans la comprehension du probleme rwandais et dans l'avancement pour la recherche des solutions? C'est a chacun de juger. De toutes facons, notre action n'aura pas tout a fait passe inapercu! Sans politique ou en politique, nous continuerons a lutter pour la liberte, la verite et la reconciliation, ainsi que pour l'instauration d'un etat de droit au Rwanda. Selon Sylmpedia: "Mouvement Démocratique du Peuple pour la Réconciliation (MDPR- INTIGANDA) Drapeau du MDPR Fondé le 13 Décembre 2009 par l’Abbé Théophile Murengerantwari. Ancien "titulaire" de l’Evêché de Cyangugu, exilé en Allemagne ou il a basé son mouvement issu d’une scission avec le RMC. Il soutient le retour du Roi Kigeri V et un nouveau référendum sur la question de la restauration de la monarchie. Il s’est prononcé en faveur la candidate Victoire Ingabire Umuhoza, leader du Front Démocratique Unifié (actuellement mise en résidence surveillée pour tentative de déstabilisation du pays et négation du génocide depuis Avril 2010) qui n’a pu participer à l’élection pluraliste du 9 Août 2010. Très actif, le MDPR émet régulièrement des communiqués sur son site et participe à des manifestations contre le gouvernement rwandais du Président Kagamé." http://www.sylmpedia.fr/index.php/Parti_royaliste_Rwandais

Charger d'autres articles liés
Charger d'autres écrits par Theo
Charger d'autres écrits dans Culture

Laisser un commentaire

Consulter aussi

Abayobozi ba Ishema Party bazasesekara ku kibuga cy’indege cy’i Kanombe ku wa mbere tariki ya 23 Mutarama 2017

  Itangazo rigenewe abanyamakuru: ICYO TWE TUGAMIJE NI « UKUNGA ABENEGIHUGU NGO DUFAT…