Feeds:
Articles
Commentaires

Archive for the ‘Web Sémantique’ Category

Pour que  l’analyse d’une idée soit vraiment efficace il faut disposer d’un minimum d’informations à analyser. Même si la chose semble paradoxale, le meilleur moyen d’arriver au bon résultat c’est de ne pas trop avoir d’informations. Ce qu’il faut pour prendre une décision, c’est d’avoir une faible densité informative. Ma proposition peut sembler à contre-courant alors que partout on nous dit qu’il faut disposer d’un maximum d’informations pour prendre une bonne décision. Aussi paradoxale que la chose puisse paraître, moins nous avons d’informations, plus simple et efficace est notre catégorisation du monde qui nous entoure.

Par exemple, si vous présentez une image floue à quelqu’un sur un écran d’ordinateur, et que vous la rendez de moins en moins floue, le cerveau émettra des hypothèses au fur et à mesure que l’image sera de moins en moins floue. Si vous le faites, disons en dix étapes séparées et peu espacées les unes des autres dans le temps, votre cerveau émettra plus de dix hypothèses quant à la nature de l’image avant de la résoudre. Si vous le faites en cinq étapes un peu plus espacées dans le temps, le cerveau n’émettra que cinq hypothèses pour identifier l’image. Le principe derrière ce phénomène est le biais de confirmation. Notre cerveau, dès qu’il émet une hypothèse, cherche par tous les moyens à confirmer son hypothèse. Donc, plus vous avez d’informations, moins vous êtes efficace et plus vous cherchez à valider de fausses hypothèses. En fait, plus nous avançons dans le temps, plus nous avons d’informations à propos du mode de fonctionnement des événements, moins nos prédictions par rapport à ces mêmes événements sont valides.

Faible densité informative

Lorsque vous êtes en présence de trop d’informations, vous êtes perplexe et vous vous demandez quoi faire. Dans plusieurs cas, certains s’en remettent à la puissance de traitement des ordinateurs pour colliger toutes les données et les mettre en relation afin de déceler le schéma informatif sous-jacent. Et pourtant, en réalité, la seule vraie façon de pouvoir soutirer de la pertinence d’un ensemble d’informations, c’est lorsque vous êtes en présence d’une faible densité informative. Ça vous semble contre-intuitif? Voici mon point de vue sur la chose. John D. Barrow, dans son livre « La grande théorie[1] », aborde le problème de la façon suivante :

« […] inextricablement liée à la compressibilité algorithmique du monde est la capacité de l’esprit d’effectuer des compressions. Nos esprits ont pris comme supports les éléments du monde physique et ont été aiguisés, tout au moins partiellement, par le processus de sélection naturelle, pour devenir aujourd’hui coupants. Leur aptitude à censurer l’environnement et leur capacité de survie sont reliées de manière évidente à leur qualité de compression algorithmique. Plus le stockage et la codification de l’expérience naturelle de l’organisme sont efficaces et plus l’organisme peut écarter les dangers. Dans la phase la plus récente de l’histoire de l’homo sapiens, cette capacité a atteint de nouveaux sommets de sophistication. […] Plus précisément, nos esprits génèrent des simulations d’expériences passées dans le contexte de situations nouvelles, ce qui requiert un cerveau passablement exercé. Il est clair que les capacités mentales doivent passer un certain seuil pour effectuer une compression algorithmique digne de ce nom. On peut comprendre que ce ne soit pas le cas : s’ils étaient si fins qu’ils puissent consigner la plus petite information possible au sujet de tout ce que nous voyons et entendons, alors nos esprits seraient surchargés d’informations. […] Le fait que nos esprits abandonnent toute ambition de collection et de traitement total de l’information a pour conséquence que le cerveau effectue une compression algorithmique de l’Univers, qu’il soit ou non effectivement compressible. En pratique, le cerveau opère par troncature. »

Lorsque j’ai fait mes études doctorales en sciences cognitives au début des années 2000, cette idée simple et élégante de Barrow m’avait séduite, à savoir que le cerveau opère par troncature et compression algorithmique. Au fil des années, je me suis rendu compte d’une chose : le cerveau n’effectue pas de compression algorithmique. Il comble plutôt les trous d’informations. Je m’explique. S’il fallait que le cerveau procède par compression algorithmique, cela impliquerait forcément que lorsqu’il restitue l’information, celle-ci serait accessible dans son intégralité. Ce qui veut donc dire que le cerveau serait dans un constant processus de décompression pour ramener à notre conscience les événements passés et les informations dont nous avons besoin pour agir et réagir aux situations. Mais, la nature a une particularité bien précise : s’il y a un million de façons de faire une chose, elle choisira toujours l’option la plus simple.

Par exemple, nous savons tous que lorsque nous nous remémorons un fait ou un événement, celui-ci ne nous est jamais présenté dans son intégralité. Il faut donc supposer que le cerveau s’appuie plutôt sur une faible densité informative, et qu’il comble les trous pour nous fournir un portrait d’ensemble. Lors d’un procès, les avocats savent fort bien que la mémoire est une faculté qui oublie, et ils se servent de cette faille pour tenter de discréditer l’une ou l’autre partie. Donc, si le cerveau compresse l’information, c’est qu’il doit être capable de la décompresser. Et s’il est capable de la décompresser, il devrait au moins nous retourner une image assez fidèle de la totalité de cette même information. À l’évidence, ce n’est pas le cas, car nous avons toujours des trous béants.

Acquisition comprimée

Je n’aime pas l’exemple que je vais vous présenter, car il a tendance à faire un lien direct entre le fonctionnement d’un système informatique et le fonctionnement du cerveau. Par contre, il a au moins l’avantage de clarifier mon propos. Lorsque vous décompressez un fichier informatique, vous retrouvez l’intégralité de l’information de celui-ci. Il n’y a pas de trous dans l’information retournée. Elle est tout simplement restituée dans son intégralité. Même si le cerveau avait cette capacité de compresser l’information, même s’il est massivement parallèlement connecté du point de vue neuronal, il lui serait strictement impossible de conserver toutes les informations compressées. Il faut donc supposer que le cerveau utilise une tout autre méthode, soit celle de l’acquisition comprimée. L’analogie que je pourrais utiliser pour expliquer l’acquisition comprimée est la suivante : il suffit de relier l’ensemble des points pour obtenir une image globale, un peu comme dans les dessins où il faut relier les points selon une séquence déterminée.

Le cerveau fonctionne par acquisition comprimée. C’est-à-dire qu’il ne retient que l’essentiel et qu’il rejette dès le départ tout ce qui est superflu. Donc il ne compresse pas. C’est par la suite qu’il reconstruit une « image » globale en comblant les informations manquantes.

Si le cerveau ne compresse pas, alors comment fait-il pour relier les points entre eux et ajouter l’information manquante entre ceux-ci ? Encore ici, je vais procéder par analogie. Avez-vous entendu parler de la ℓ1 minimization ? Il s’agit d’un procédé algorithmique qui permet de reconstruire des images ou d’autres types d’informations à partir de données manquantes.

Un jour de février 2004, Emmanuel Candès, alors chercheur au CalTech, se demandait comment clarifier une image en provenance d’un système d’imagerie par résonance magnétique. Le problème, c’est que, parfois, le système n’a pas assez de temps pour compléter le processus de scanning. L’idée lui vint d’appliquer le filtre de la ℓ1 minimization, et surprise, il obtint au bout de l’opération une image tout à fait claire et détaillée. Surpris, il considéra la chose comme impossible et reprit l’opération sur d’autres images et le résultat fut le même. Il était donc possible de reconstituer une image à partir d’un minimum d’informations. Ce fut le début de l’ouverture d’un tout nouveau champ de recherche : le compressed sensing. Rapidement, des fonds de recherche furent alloués à plusieurs scientifiques pour développer les mathématiques les plus appropriées pour traiter différents types d’informations. Imaginez un peu la chose : des systèmes de résonance magnétique qui peuvent fournir une image au bout de quelques minutes plutôt que de quelques heures, sans compter tout le champ de traitement des données, de l’écoute électronique, des applications militaires, des applications économiques, de la génomique, etc. C’est donc un tout nouveau champ d’applications qui se développe.

Dans le domaine de l’informatique et des communications, il faut s’attendre à une révolution du traitement des données. Au lieu d’avoir des algorithmes de compression qui seront devenus obsolètes dans vingt ou cinquante ans, une simple procédure mathématique universelle permettra de reconstruire les images, les vidéos, les données, etc. Dans le domaine de l’imagerie médicale et astronomique, les retombées seront absolument sidérantes. Par exemple, si vous avez une sonde spatiale qui orbite autour de Saturne, vous n’avez pas le luxe d’avoir une mémoire embarquée importante et plusieurs processeurs pour compresser l’information. Il vous suffit donc de procéder par acquisition comprimée d’images et vous laissez le soin aux ordinateurs sur Terre de faire tout le travail de reconstitution. Voici comment fonctionne le processus :

  1. Une caméra capture seulement qu’une partie de l’information disponible de façon aléatoire.
  2. L’algorithme ℓ1 minimization est appliqué. Celui-ci commence tout d’abord par choisir arbitrairement l’une des multiples façons de combler l’information manquante.
  3. L’algorithme tente de définir la nature de la faible densité informative de l’image. Pour ce faire, il tente de modifier l’image par des couches colorées successives.
  4. L’algorithme insère de simples rectangles qui se marient à la couleur du pixel adjacent. S’il détecte quatre pixels verts adjacents, il ajoute un pixel vert.
  5. Itération après itération, l’algorithme ajoute les plus simples formes possible tout en poursuivant sa recherche de faible densité informative. Éventuellement, il arrive à produire une image qui est presque la reconstitution parfaite de l’image originale.

Maintenant, imaginez cette technique appliquée aux enquêtes policières. À partir de bandes vidéo pas toujours très claires et souvent floues, il devient désormais possible de clarifier le tout et d’avoir une image nette et précise. Dans le domaine de la sécurité, il est certain que cette technique a un bel avenir, surtout que nous exigeons de plus en plus de mesures de contrôle pour nous protéger de l’imprévisible. Mais au-delà des prouesses techniques, la notion d’acquisition comprimée a un avantage encore plus intéressant pour nous. Elle nous permet d’envisager comment pourrait fonctionner le cerveau dans la classification du monde qu’il nous propose. Imaginez maintenant toutes les possibilités qui s’offrent à nous en terme de classification et d’organisation du Web.


[1] Barrow John D., La grande théorie, coll. Champs, Flammarion, Paris, 1996, p. 250.

Read Full Post »

Il y a certaines idées fausses qu’il est nécessaire de corriger. (1) L’une est celle de la métamorphose telle celle de la chrysalide en papillon ou du têtard en grenouille. C’est la métamorphose au sens que lui donne le poète latin Ovide. L’autre idée fausse répandue est celle de « l’échelle des êtres » ou « Scala Naturae ». Selon cette idée, les organismes peuvent être classés par ordre de complexité croissante. Cette idée était déjà chez Aristote. Elle sera reprise par Leibniz (1646-1718). Selon ce principe de complexité, en bas on trouverait  les quatre éléments – l’eau, la terre, le feu, l’air -, au-dessus il y aurait les pierres et les minéraux, au-dessus encore les plantes, et enfin, les animaux, avec au sommet de l’échelle : l’homme. Cette classification linéaire continue d’imprégner nombre d’esprits…

Il est vrai que les idées neuves ont bien du mal à s’imposer. Dans les sciences modernes du vivant, une première idée neuve va bousculer ces idées naïves précédentes : c’est celle de « plan d’organisation ». Elle permet une première approche du concept d’« homologie » qui sera central dans la théorie de l’évolution. L’idée est que si deux animaux possèdent le même plan d’organisation, alors on peut comparer les organes, les caractères de ces animaux. Cette idée, on la doit à Etienne Geoffroy Saint-Hilaire. Il la nomme « principe des connexions ». Cela signifie que des organes qui se situent de la même façon dans un plan d’organisation interne des animaux sont comparables ou « homologues » : on les définit par leurs « connexions » entre eux et avec les autres organes et non plus, comme autrefois, par leur fonction ou leur forme. Exemple : les membres antérieurs des vertébrés (oiseaux ou homme) ont tous un humérus. Chez tous ces vertébrés, on appellera humérus cet os parce qu’il est, à chaque fois, situé entre la ceinture scapulaire et un couple d’os longs parallèles – radius et cubitus – eux aussi définis selon le même principe géométrique.

Une deuxième idée neuve est celle, géniale, de Georges Cuvier, fondateur de la paléontologie des vertébrés au début du XIXe siècle. Cuvier établit, le premier, qu’à des époques très anciennes, existaient des animaux qui ont aujourd’hui disparu. Notamment à cause des changements climatiques sur de longues périodes. Par exemple, on trouvait, il y a très longtemps, des crocodiles sur les berges de la Seine. Le fait alors que certains de ces animaux n’existent plus, met en évidence « la mort des espèces » : des espèces peuvent disparaître à jamais.

Au début du XIXe sècle, on dispose donc, grâce au concept d’homologie, d’une méthode efficace de comparaison des organes et des caractères. On sait que les métamorphoses, au sens antique du terme, n’existent pas. L’idée de « génération spontanée » est réfutée et on sait surtout que la terre a été formée il y a très longtemps et que les espèces peuvent disparaître. Si on réfléchit alors à la formation des espèces, deux hypothèses sont en concurrence.

L’hypothèse créationniste avance qu’à un moment donné, un certain nombre d’espèces ont été créées. Mais si les espèces meurent avec le temps, on peut imaginer que leur nombre va tendre vers zéro. Comment se sortir de cette contradiction ? Cuvier propose l’hypothèse de créations multiples : les temps géologiques ont été ponctués par des séries de catastrophes qui ont fait disparaître des espèces et en même temps contribué à créer de nouvelles espèces – ce qui a compensé les disparitions. Le fixisme est donc vérifié : le nombre d’espèces créées est stable.

L’hypothèse transformiste considère au contraire, que les espèces se transforment les unes les autres au cours des temps. Lamarck est le premier à avancer cette hypothèse. Il l’expose dans le « Discours d’ouverture du cours de l’an X » qu’il prononce en 1802 au Muséum d’histoire naturelle. Il redéveloppe l’idée dans son ouvrage : « Philosophie zoologique » paru en 1809. Il fait l’hypothèse de plusieurs types de transformations, qui depuis ont été remis en cause, notamment lors de l’apparition de la théorie darwinienne.

(1) On lira avec profit le petit ouvrage d’Hervé Le Guyader : « Classification et évolution », Paris, Le Pommier, 2003.

Read Full Post »

Dès que je pense le monde, je l’organise et je ne peux pas penser le monde sans classer les choses ou les phénomènes, qui à mon sens, le composent. Tel est le paradoxe de nos vies et de nos sociétés : tout se classe pour se penser, tout s’organise pour se comparer et donc se catégoriser. Très tôt, nous savons qu’il y a des plantes et des animaux et que cela organise la Nature et qu’on doit la penser ainsi : elle est constituée par les plantes, les animaux et par nous, humains. Nous humains : divisés en riches et pauvres, en beaux, en laids, en méchants, en gentils, en jeunes, en vieux, en sains, en malades, etc.

Une formule m’avait frappé, lue sur la couverture d’une revue : « Le bel avenir de la pauvreté » (Esprit, mai 1997). La formule choquait. Pourquoi ? D’abord, parce qu’à cette époque, on ne parlait guère encore de crise, et que ensuite,  pauvreté et avenir ne vont pas bien ensemble : on ne choisit pas d’être pauvre : on l’est, on le devient, mais ce n’est pas un avenir au sens de réussite qu’on attache d’habitude à ce mot. On dit « il a un bel avenir », mais on ne dit pas « la pauvreté est un bel avenir ». En revanche, si on pense que la pauvreté est un phénomène qui se répand dans la société, alors oui, on pourra dire qu’elle a « un bel avenir », et la formule provocante peut être douloureuse ou laisser indifférent. Dans les deux cas, elle signifie la même chose : la coupure sociale – on  parle de « fracture » – s’accentue : il y a de plus en plus de pauvres, mais on ne sait pas s’il y a de moins en moins de riches ou si les riches deviennent de plus en plus riches.

Ce qu’on sait, c’est qu’il faut s’habituer à penser la société comme catégorisée en riches et pauvres, mais aussi, selon les nouveaux mots en usage, en exclus, en intégrés, en performants, en inadaptés sociaux, en illettrés, en drogués, en suicidaires, en isolés dans les villes, en oubliés à la campagne, en vaincus ou en gagnants, en dynamiques, en fonctionnaires, en contractuels, etc. Voilà le phénomène : nous ne pouvons plus considérer la société sans immédiatement nous mettre à catégoriser ceux qui la constituent, par revenus bas ou élevés, par domicile fixe ou sans domicile fixe, par travail et salaire ou sans travail et sans salaire, etc.

La société ne s’imagine plus comme un ensemble ou un tout : pour la penser, il nous faut la classer, la subdiviser, la hiérarchiser, la décomposer comme si nous courrions sans cesse après les étiquettes pour tenter de comprendre et de s’y retrouver. Aux « nouveaux pauvres » – on les appelait ainsi dans les années 1982-1983 – ont succédé les « exclus », ce qui déjà signifie qu’on s’habitue au phénomène. Le « développement social des quartiers sensibles » – ce qui était une belle formule – a été remplacé par la « politique de la ville » – ce qui est plus économique et signifie tout et rien. Quant à l’administration, elle a inventé le terme ‘SDF’ ou « ’sans domicile fixe » pour tous ceux qui n’ont plus ni résidence ni travail ni droit de vote, etc. Tout se passe comme si la société acceptait de plus en plus ces distinctions qui se voient, se touchent, s’oublient, s’indiffèrent. Une société de multiples dualités où tout devient relatif et donc admis : la pauvreté n’a pas le même sens aux Indes, dans un bidonville de Rio de Janeiro, dans une ville nord-américaine, ou en France selon qu’on habite le nord ou le sud

Avoir un salaire, un emploi stable, autrefois définissait l’individu et les salariés définissaient la société. La rareté de l’emploi est maintenant au cœur de la société et la recherche du travail devenue obsession majeure. Cette précarité est de plus en plus admise de même que les inégalités parfois considérables entre revenus. L’augmentation des écarts entre salaires et modes de vie compte moins que cette nécessaire « flexibilité » du travail que recommandent les économistes. Après tout, les Etats-Unis s’accommodent bien d’un taux de chômage important touchant les Américains à bas niveau d’instruction et la part de la population frisant l’illettrisme y est deux fois supérieure à celle de l’Europe. Mais plus que s’en accommoder, on y considère que l’absence d’emploi touchant en majorité les habitants des ghettos n’est pas une exclusion que ceux-ci subissent de la part de la société, mais une incapacité à travailler que ces habitants des ghettos entretiennent eux-mêmes et dont ils sont responsables. Comme par une sorte de « nature » qui serait la leur, qui les rendrait différents des autres, inaptes à s’intégrer. Ainsi se constituent des « réserves » confinées dans des territoires tel qu’on le  constate déjà en France à propos de certaines « zones » de banlieue où les violences sont ordinaires et les violents, de plus en plus jeunes, ayant très tôt accumulé tous les handicaps sociaux, mais maîtrisant avec brio les mécanismes de la justice, et « commettant des infractions en sachant exactement combien elles sont tarifées » (Le Monde, S.Bd et B.G., 24/05/1997).

Sourdement, insidieusement, parfois avec éclat, nous sommes ainsi entrés dans « une guerre des mondes », non pas seulement de pays pauvre à pays riche, mais à l’intérieur même des pays et dans les villes, de quartier à quartier, de rue à rue ou d’étage à étage dans un même immeuble. Certains y voient la manifestation d’une conflit entre les cultures voire d’un affrontement entre « la barbarie » et « la culture », situation propice à la multiplication des mafias et des bandes antagonistes (Huntington, 1996), mais aussi au renforcement des frontières entre territoires, s’opposant les uns aux autres . Ainsi : « En France, la tendance actuelle est indéniablement à des formes de regroupement où les « pairs » se retrouvent entre eux, ce qui correspond à un phénomène que Daniel Cohen nomme « l’appariement sélectif » et qui donne lieu à des sanctuarisations urbaines » (Mongin, 1997, Paugam, 1996). Le ‘chez moi’ signifie davantage que ‘le chez-soi’ : c’est ce qui n’est pas ‘chez toi’ et c’est ce qui nous met à distance infranchissable, moi de toi, toi de moi, les uns des autres. On s’agglomère en zones à l’intérieur desquelles les individus se catégorisent entre eux comme égaux et ces zones les mettent à distance de ceux qui sont susceptibles de les gêner, à commencer par les mendiants que certaines villes chassent déjà de leurs espaces publics.

La ségrégation permet la hiérarchie entre les gens de même qu’entre les espèces ; mieux : elle la légitime. Au travers d’évidents ou subtils critères. Il y a d’abord ce qu’on gagne financièrement par mois et par an, il y a de qui on descend et quels étaient les statuts des ancêtres, pauvres ou bourgeois,  il y a bien sûr ce qu’on mange et que les autres ne mangent pas, il y a ces loisirs qui vous distinguent car inaccessibles à beaucoup comme les destinations lointaines de voyages exotiques, il y a enfin ces écoles où on place ses enfants parce qu’elles sont dites meilleures et qu’ils ne s’y « mélangent » pas. Lorsque certains magazines hedomadaires nous fournissent régulièrement un classement  des meilleurs lycées, on sait à quel point la carte scolaire en France est un enjeu dans la formation des futures élites, et que ces cartes sont celles de la ségrégation qu’une société accepte comme allant de soi, même avec les meilleurs sentiments républicains.
Mais il est un critère de classement et de catégorisation encore plus terrible car biologique celui-là : c’est celui de l’âge. Nous ne savons plus penser la société autrement qu’en tranches d’âge, et dès l’enfance, nous voilà accoutumés à distinguer les ‘grands’, les ‘petits’, les vieux’ et les ‘moins vieux’. Les économistes, chaque semaine, nous rappellent le ‘prix de l’âge’ : en France, déjà en 1993, les personnes âgées de 65 ans et plus représentaient 19,6% de la population et accaparaient 41,4% du total des dépenses de santé (Le Monde, 29/05/97). Une nouvelle et subtile discrimination surgit : à l’encontre des vieux cette fois, »dévoreurs » de nos systèmes de santé. Après tout, il faut bien des causes aux déséquilibres constatés, et s’il y a déséquilibre, il y a menace, et s’il y a menace, il y bien des responsables, des fautifs.

Peut-on penser autrement ? Peut-on penser sans classer, sans catégoriser voire opposer ? Et qu’est-ce qu’organiser sinon différencier pour classer ? Ce jeu de différences et de discriminations fait partie de nous ; dès l’origine, du moins très précocément, il est en nous pour que les systèmes qui nous sont naturels, puissent fonctionner. On sait maintenant que dès les premières semaines de la vie, les bébés sont capables de distinguer les sons qui appartiennent à des langues différentes et d’y réagir. Cette capacité précoce va favoriser plus tard l’acquisition de la langue maternelle en tant que système de sons organisés par rapport aux autres bruits environnants.

Read Full Post »

Georges Vignaux et Pierre Fraser vous souhaitent la bienvenue sur ce blogue. Nous espérons que notre réflexion à propos du Web Sémantique saura apporter à plusieurs d’entre vous des éléments permettant de mieux comprendre les tenants et aboutissants du phénomène.

Georges Vignaux et Pierre Fraser

Read Full Post »