Thierry CROUZET
Point triple
Point triple

L’information dans tous ses états

Le vocable information a été employé pour la première fois comme nouvelle unité par Ralph Hartley des Bell Labs en 1928 pour désigner la partie utile d’un message (en écartant le bruit causé par les parasites par exemple). Pour lui, l’information mesure ce que nous apprenons (si nous avons déjà reçu le message, nous n’apprenons rien).

En 1948, Claude Shannon prolongea cette idée et publia sa théorie de l’information (ou pour être précis sa théorie de la communication). Pour lui, la quantité d’information contenue dans un message équivaut au nombre de bits pour l’encoder.

Si le message indique soit blanc, soit noir, un seul bit est nécessaire. La mesure de l’information selon Shannon est indépendante de sa signification. Un listing peut contenir beaucoup d’informations qui ont peu de signification, un aphorisme peut contenir peu d’information et avoir une signification profonde. La signification existe dans l’esprit de l’émetteur et du récepteur, pas dans l’information qui circule.

Von Neumann n’appréciait pas l’idée de séparer information et signification. Il remarqua que la formule de Shannon pour décrire l’information était identique à celle pour d’écrire l’entropie (au signe moins près). Il aurait donc mieux valu parler d’entropie (ou de néguentropie) mais Shannon continua à parler d’information parce que les ingénieurs employaient déjà ce mot.

Mais qu’est-ce que l’entropie ? Elle indique le niveau de désordre dans un système (alors que la néguentropie indique son niveau d’ordre). Le second principe de la thermodynamique stipule que l’entropie d’un système fermé augmente toujours jusqu’à atteindre son maximal.

Exemple le plus simple. On place deux gaz différents dans deux réservoirs. Les particules sont relativement ordonnées, les unes dans un réservoir, les autres dans l’autre. Si on connecte les deux réservoirs, les particules de l’un passent dans l’autre jusqu’à ce que nous obtenions un mélange parfait, c’est-à-dire un désordre maximal.

Mais qu’est-ce que le désordre maximal ? Les physiciens ont découvert que c’est l’état où le système enferme le plus d’information possible. Exemple. Dans un livre, les lettres sont relativement ordonnées, formant des mots qui se répètent de temps à autre. Ce texte peut-être compressé : on remplace chaque mot qui se répète par un code plus court. En revanche, si on mélange les lettres au hasard, on augmente le désordre, perd la signification mais la quantité d’information nécessaire à décrire le système augmente (on ne peut plus compresser le texte, on ne peut pas proposer un codage plus court que le texte lui-même).

L’entropie d’un système fermé ne peut jamais décroitre parce que, une fois que deux gaz se sont mélangés par exemple, la structure initiale de l’information a été détruite (le code a disparu). On a besoin de plus de bits pour décrire le système parce que la forme compacte, mieux structurée, s’est volatilisée. Le système a en quelque sorte perdu la mémoire de son état antérieur. C’est entre autre pour cette raison qu’un œuf une fois cassé ne se reconstitue jamais. C’est pour cela aussi qu’on parle de flèche du temps.

On voit ainsi comment la théorie de l’information et la thermodynamique nouent des liens qui ne sont pas uniquement d’ordre métaphorique (depuis 1948 les scientifiques et les philosophes ne cessent de discuter de ce lien). La formulation identique de l’entropie dans les deux domaines révèle une similitude d’ordre physique mais aussi psychologique.

Une information que je connais déjà ou que je ne comprends pas ne constitue pas pour moins une réserve de néguentropie alors qu’elle peut l’être pour celui qui ignore l’information et la comprend. Ainsi il reste toujours difficile de séparer l’information de sa signification. Le codage est du domaine de la physique, l’information le dépasse, notamment par son aspect qualitatif.

Quand je suppose que l’information peut comme l’eau se trouver dans plusieurs états, je joue donc un jeu dangereux d’un point de vue scientifique. En toute rigueur, je ne devrais donc parler que de l’information qui se code.

Je persiste néanmoins. Pour observer les différents états de l’eau, on fait varier la température et la pression. Qu’est-ce que cela peut signifier pour l’information ?

Lorsque la température est nulle, zéro absolu, l’entropie est nulle. Le système est parfaitement ordonné. La quantité d’information pour le décrire est minimale. Lorsque la température s’élève, le système s’agite, il faut de plus en plus d’information pour le décrire. L’entropie augmente.

1/T = Delta S/Delta U

Cette formule lie la température T à la variation de l’entropie S et à la variation du nombre de particules dans le système U. Elle signifie que plus il y a de particules, plus la température est grande et que plus la température s’élève, plus l’entropie est grande.

Si on remplace U par la quantité d’information selon Shannon, on définit une forme de température pour l’information. Elle s’élève quand le système reçoit plus d’information. Pour un texte gravé dans le marbre, la quantité d’information ne varie pas. Rien ne bouge. La température est minimale. Elle s’élève quand il y a interaction. Lorsque nous parlons ou nous branchons sur les flux.

Delta S/ Delta V = p/T

Cette formule lie l’entropie, le volume du système, la pression et la température. La pression serait l’équivalent de la vitesse à laquelle on injecte l’information dans le système.

J’avoue que je n’ai plus l’esprit assez matheux pour tenter de tracer un diagramme des phases pour l’information afin de repérer les différents états possibles. J’ai effectué quelques recherches sans rien trouver. Si un physicien passe par là, je l’appelle au secours. Dans mon prochain livre, la métaphore me suffit, appuyée sur cette vague justification. J’ai l’habitude de me fier à mon intuition.

PS : Ce texte sera inséré en hypernote dans mon prochain livre.

Thierry Crouzet @ 2009-10-21 11:17:25

Pour ceux qui ont envie de se prendre la tête. Besoin d’aide sur mon blog. http://bit.ly/3nBzdo

ownicrew @ 2009-10-21 11:20:26

OwniCrew L’information dans tous ses états http://bit.ly/tA3CR

JM Planche @ 2009-10-21 11:45:52

Brillant et spécialement pour @fienkelcroute : RT @crouzet: Pour ceux qui ont envie de se prendre la tête. http://bit.ly/3nBzdo

Wandrille Vallet @ 2009-10-21 11:49:50

Y’a des familiers de la thermodynamique dans la salle pour aider un blogueur http://tinyurl.com/yhk2blg ? #flemme

Pascal Méance @ 2009-10-21 11:57:28

amha il tient une piste RT @crouzet (cherche physiciens)... qui ont envie de se prendre la tête. http://bit.ly/3nBzdo (via @jmplanche)

baaz @ 2009-10-21 12:02:05

Encore un truc excellent -> RT: @jmplanche: RT @crouzet: Pour ceux qui ont envie de se prendre la tête. http://bit.ly/3nBzdo

breizh2008 @ 2009-10-21 12:21:47

RT @jmplanche: Brillant et spécialement pour @fienkelcroute : RT @crouzet: Pour ceux qui veulent se prendre la tête. http://bit.ly/3nBzdo

Thierry Crouzet @ 2009-10-21 12:56:21

J’ai demandé un peu d’aide à Henri A pour ce billet... qui reste encore trop flou à mon goût. Je pense qu’on doit pouvoir pousser la rigueur beaucoup plus loin.

Sstatsfoot @ 2009-10-21 14:35:24

Il faut raisonner par analogie. Dans un système d’information quelles paramètres (ou assemblage de paramètres) jouent le role de la température, la pression, le nombre de particules, l’entropie ... ?

Pour moi, l’entropie va être la qualité du message (capacité à être compris).

La température va traduire sa capacité à être diffusé (médias, flux).

Le nombre de particule est la complexité du message (sa taille).

On retrouve déjà ici : 1/T = ?S/?U

Volume : Zone où est enregistrer le message

Plus j’augmente la diffusion du message (Température) plus la capacité de perforation (pression) du message augmente, aussi que le nombre de personnes au courant (Volume) par contre je perds en compréhension (entropie).

On retrouve déjà : ?S/?V = p/T

L’analogie est à affiner.

en conclusion, l’entropie augmente toujours. Tout message ou connaissance est voué à se dilluer et se perdre au fil du temps, à priori oui. Mais attention ceci est vrai uniquement dans système fermé.

arvic @ 2009-10-21 14:49:40

Yves Jeanneret, Y-a-t-il (vraiment) des technologies de l’information ?, 2007 :

"Il ne suffit pas, du tout, que les technologies "traitent de l’information" (c’est à dire soumettent les objets du monde à un certain type d’écriture mathématique) pour qu’elles "produisent de l’information" (c’est à dire modifient la perception que nous avons du monde, informent notre esprit, mettent en forme notre relation au réel)."

"L’expression (...) "technologies de l’information" entretient la confusion entre deux définitions parfaitement distinctes du mot "information"’, l’une dans le cadre d’un certain type de procédures techniques, l’autre dans le cadre de pratiques sociales - ce qui a pour intérêt, du point de vue des technologues, de suggérer que le traitement mathématique des signes est, en lui-même, vecteur d’information sociale. [Il faut] résister à cette assimilation, à caractère idéologique (...)."

"La théorie de l’information est donc un moyen d’ "autoriser" la machine à modifier les propriétés concrètes d’un message, tout en conservant l’intégrité de ce message, et ceci, sans en connaître le sens. (...) L’efficacité de cette notion statistique de l’information réside même dans l’exclusion du sens, et plus largement, du savoir, à laquelle elle procède. C’est seulement parce que le sens est exclu que le traitement de la forme est efficace."

Dans la théorie mathématique de l’information :

"de nombreux attributs de l’information sont [...] ignorés, notamment sa signification. Ce point de vue est celui de l’intermédiaire dont la seule fonction est d’acheminer un message qu’il n’a pas à connaître, mais il est pertinent à la technique des communications. L’exclusion de la sémantique est un obstacle à la généralisation de la théorie de l’information à des domaines où il est impossible de faire abstraction du sens, comme la biologie, la sociologie ou l’économie." (in Gérard Battail, "Les télécommunications", 1993).

"Malheureusement, cette prudence, caractérisant le scientifique qui utilise un concept dans son cadre limité de pertinence, n’a pas été celle des innombrables vulgarisateurs et généralisateurs de la théorie mathématique de l’information. A commencer par Roman Jakobson (...)"

"Il y a une différence essentielle de nature entre l’information au sens social du terme et l’information au sens mathématique. Elles sont même exactement le contraire l’une de l’autre, car l’information, au sens social du terme, a pour condition l’interprétation, que l’information mathématique a pour bénéfice d’éliminer."

Thierry Crouzet @ 2009-10-21 15:10:45

@Narvic

“Il ne suffit pas, du tout, que les technologies “traitent de l’information” (c’est à dire soumettent les objets du monde à un certain type d’écriture mathématique) pour qu’elles “produisent de l’information”

Shannon dit bien que si tu as déjà reçu une information elle n’apporte pas de nouvelle information. En revanche toute information encodée qui arrive au récepteur le transforme s’il la comprend. Jeanneret ne dit rien de plus que Shannon/Weiner.

Je ne parle pas du tout ici de technologie (Shannon dit bien qu’on se fiche de la technologie dans sa théorie... ça marche aussi avec la télépathie). Jeanneret délire quand il parle d’idéologie non ? Personne n’a jamais confondu le codage (ce dont s’occupe la technologie éventuellement) et la signification (ce dont s’occupe les hommes... mais peut-être aussi certaines technologies - Jeanneret prend-t-il en compte cette possibilité, celle que nous soyons nous-mêmes une technologie, ce qui est techniquement le cas d’ailleurs). Il y’a qu’un sémiologue prétentieux pour croire que tout le monde sauf lui confond code et sens :-)

Impossible de faire abstraction du sens en biologie ? Il faut m’expliquer. à moins que les sciences sociales soient biologiques (ce qui est le cas d’une certaine façon). :-)

Franck Latxague @ 2009-10-21 15:11:54

RT @crouzet La physique et l’information mises en //. Attention : prise de tête possible et replongeon dans nos cours http://bit.ly/3nBzdo

Henri A @ 2009-10-21 15:18:45

Ce que tu cites Narvic est plus ou moins résumé dans ces cinq lignes :

"Une information que je connais déjà ou que je ne comprends pas ne constitue pas pour moins une réserve de néguentropie alors qu’elle peut l’être pour celui qui ignore l’information et la comprend. Ainsi il reste toujours difficile de séparer l’information de sa signification. Le codage est du domaine de la physique, l’information le dépasse, notamment par son aspect qualitatif."

A Sstatsfoot : tu utilises deux définitions différentes en même temps pour le mot "information".

Il est scientifiquement très difficile de parler de signification.

En plus d’un physicien, il faudrait un mathématicien en informatique.

arvic @ 2009-10-21 15:27:50

@ Thierry

Personne ne confond code et sens ?

Roman Jakobson et ses "fonctions de communication" : assimilations sans fondement épistémologique à la communication sociale des propriétés des systèmes de télécommunication (émetteur, canal, code, etc.).

Autres assimilations : désigner les productions culturelles en termes de "bruit" et de "signal". Ces notions de "bruit" et de "signal" relève de la théorie mathématique et concernent une approche statistique de l’information qui, précisément, exclue toute approche sémantique. Ces notions sont-elles transposables à la réalité sociale, dès lors que l’on réintroduit la signification et l’interprétation dans l’information ? Il faudrait le justifier épistémologiquement, ce qui n’a jamais été fait.

De même pour l’introduction, par pur glissement, de notions relevant du code, dans l’espace du sens : l’opposition digital/analogique, les notions de feedback, d’interface, etc.

Tout cela nage en pleine analogie, fonctionne par glissement et assimilation, et transgresse la méthode scientifique. C’est ce type de fonctionnement que l’on nomme précisément "l’idéologie".

L’analogie, ou la métaphore, ont une grande puissance littéraire et poétique et une grande force pédagogique, mais elles doivent être extirpées de tout raisonnement scientifique, et de tout discours philosophique rationnel.

@ Henry

La validité de la transposition dans l’espace social - et même biologique - des concepts d’entropie et de néguentropie n’est pas rationnellement étayée (quelqu’un s’y colle ?). C’était l’un des aspects fondamentaux du projet de la cybernétique : elle a clairement échoué sur ce point. Les chercheurs en informatique/mathématique, en biologie et en sciences sociales, qui s’étaient, un temps, retrouvés ensemble dans le projet cybernétique, ont tous repris leur liberté pour évoluer dans des direction séparées.

Thierry Crouzet @ 2009-10-21 15:37:48

Moi je lis pas les mecs qui font ces glissements :-)

Toutefois il ne faut pas oublier que l’homme peut être considéré comme une machine et que donc la théorie mathématique s’applique dans ce cas. Sauf que c’est un peu compliqué. Personne n’a vraiment démontré comment le sens jaillit du code même si beaucoup de gens y travaillent. Tous ceux de l’IA (le projet cybernétique continue sous d’autres noms)

Plutôt que dénoncer les gens qui utilisent mal les mathématiques, qui effectuent des glissements, Jeanneret devrait se joindre à ceux qui tentent de produire une théorie solide, c’est à ce seul prix qu’on entre dans l’histoire.

Pour mon livre, je définis trois états de l’information, je fais comprendre avec l’eau, mais je ne me sert pas de théorie physique pour tirer des conclusions.

Un toutefois encore s’imposerait. On peut simuler les comportements humains parfois avec une grande fidélité. Avec feedback et tout. Pas de sens en jeu sinon dans l’interprétation. Mais quand on reproduit un comportement, quand on arrive à anticiper des comportements... on est dans la science. Son but n’est pas le sens mais la modélisation. Le sens n’intéresse pas le scientifique mais le philosophe, le prêtre, le politicien... et bien sûr l’artiste.

arvic @ 2009-10-21 15:52:21

@ thierry

Mais la démarche de Jeanneret, et des autres chercheurs en - justement !- "sciences de l’information et de la communication", qui travaillent sur le même sujet, est éminemment constructive !

Une fois débarrassé des glissements foireux et des analogies abusives à la Jakobson et à la McLuhan, on peut commencer à travailler. ;-)

Cela donne des recherches très intéressantes sur la nature de l’hypertexte. Et ça débouche sur une théorie, encore en construction, sur la nature spécifique de l’"écrit d’écran", considéré dans la relation des objets techniques aux pratiques sociales que l’on en a.

La direction de ces recherches me semble autrement féconde que de plaquer de l’émetteur, du canal, du code, du signal et du bruit dans le domaine social, sans avoir jamais expliqué comment tout ça arrivait là-dedans, depuis l’univers des mathématiques et des télécommunications. ;-)

Thierry Crouzet @ 2009-10-21 16:03:13

Comme je te disais j’ai pas fréquenté les gens qui s’amusaient à ça... même si Jean Bricmont m’a fait rire en le dénonçant il y a une dizaine d’année.

La nature de l’hypertexte ? J’ai pas de recul ;-) Et je me méfie des sociologues qui ne savent pas de quoi ils parlent. L’homme qui dit les choses les plus brillantes sur le sujet reste pour moi le bon vieux Tim. Mais si tu as une bonne référence je veux bien goûter (j’ai peur que ça me fasse autant bondir que F).

Henri A @ 2009-10-21 16:07:33

Jakobson, Jeanneret, Fink...des agrégés en lettres. Cela devient suspect.

arvic @ 2009-10-21 16:16:36

@ thierry

Moi je me méfie surtout des gens qui débarquent avec leurs valises depuis les sciences dures dans les sciences sociales, en croyant avoir réinventé l’oeuf, sans avoir aucune culture de ce qui a déjà été fait par d’autres avant eux sur le sujet, et sans aucune notion de l’épistémologie particulière de l’objet sur lequel ils plaquent des théories importées en fraude. ;-)

La cybernétique aura été une expérience bien plus intéressante que ça, car elle relevait d’une tentative d’approche réellement pluridisciplinaire, associant l’informatique et les mathématiques, la biologie et les sciences humaines et sociales. Mais ça n’a pas marché. Les sciences cognitives et neuro-sciences, l’intelligence artificielle, et la sociologie contemporaine, ont dû se séparer pour progresser chacune dans leur domaine.

Et l’on est aujourd’hui toujours à la recherche du paradigme qui permettrait de rassembler tout ça (c’est Edgar Morin qui s’y colle aujourd’hui, mais pas sûr qu’il aboutisse dans le temps qui lui reste...)

Thierry Crouzet @ 2009-10-21 17:29:26

Wittgenstein a fait ça en philo, Schopenhauer avant lui... c’est pas mal de ne pas avoir la culture d’un champ et d’y entrer bille en tête. En science des gens font ça tout le temps. Y’a pas de raison que ça soit pas identique dans d’autres domaines.

Quand j’ai écrit le peuple des connecteurs je pensais pas faire un truc sociologique puisque j’avais presque jamais rien lu du domaine... c’est d’autres qui ont dit que je faisais de la sociologie. Moi j’ai toujours dit que je faisais de l’art et pas de la science. Je connecte pour faire naître des idées et pour me trouver un art de vivre (ma démarche ici ou dans mes livres n’est pas scientifique mais initiatique).

Henri A @ 2009-10-21 18:53:51

A Thierry :

Une piste ?

http://www.unicaen.fr/mrsh/publications/autres/complexite/complexe2.pdf

000 @ 2009-10-22 02:58:28

"Moi je me méfie surtout des gens qui débarquent avec leurs valises depuis les sciences dures dans les sciences sociales, en croyant avoir réinventé l’oeuf, sans avoir aucune culture de ce qui a déjà été fait par d’autres avant eux sur le sujet"

Très juste.

J @ 2009-10-22 10:18:43

@000

en passant vite fait...

abruti, cultive toi sur les multiples projets qui avancent notamment via le net, et qui peu à peu élaborent des divergences, à la place de bouffonner tes lectures.

tiens, commence par ted.com, pour ta culture G.

quel pitoyable fat ce mec!

rien ne m’indispose tant que ces pseudos intellectuels bouffis de références et d’orgueil, et dans le fond aux capacités de raisonnement et de création d’idées bien limitées.

d’ailleurs, ça me fait penser à un soi disant philosophe, au passage... :)

Henri A @ 2009-10-22 19:50:38

A triple F(x) :

“des agrégés en lettres. Cela devient suspect”

J’aurais dut écrire QUE des agrégés en lettres. Ce « que » aurait ainsi résumé ce qui va suivre.

Je n’ai rien contre la littérature et les sciences sociales, au contraire. Pour ce qui est de prendre au sérieux quelque chose, tout dépend du sérieux avec lequel ce quelque chose a été fait, que cela soit en sciences dites dures ou élastiques, ainsi que entre autres dans la littérature. Je ne hiérarchise pas tout ces domaines.

Il y a beaucoup de mauvaise vulgarisation en sciences ( dure ou pas ), comme il y a beaucoup de mauvaise vulgarisation en ce qui concerne la littérature.

Ce qui devient pénible est cette espèce de renversement permanent de ce qui peut-être constaté honnêtement :

“Moi je me méfie surtout des gens qui débarquent avec leurs valises depuis les sciences dures dans les sciences sociales, en croyant avoir réinventé l’oeuf, sans avoir aucune culture de ce qui a déjà été fait par d’autres avant eux sur le sujet”

Tu dis « très juste ». Vous en avez vu beaucoup de ces gens ? Ou, quand ?

Musil à son époque, dénonçait déjà cette escroquerie. Encore les « victimes agresseurs ». Il me semble que c’est plutôt dans l’autre sens que l’on peut constater un certain nombre de cas. Par exemple des agrégés en lettres qui viennent expliquer les mathématiques aux mathématiciens, la physique aux physiciens, la logique aux logiciens ( très répandue ), la science cognitive aux spécialistes de cette science.

Quelque soit le domaine, quelque un qui utilise des analogies sauvages, des amalgames, du mensonge, du bluff ( faire croire que l’on connaît un sujet ), la théâtralisation, je considère son discours comme peu fiable. Les faits sont têtus.

Il y a trop d’écrivains qui se prennent pour des philosophes et des philosophes qui se prennent pour des écrivains en France. A la fin, c’est la philosophie qui disparaît.

000 @ 2009-10-23 02:47:43

@ Henri minuscule

En tout cas ce n’est pas un agrégé de lettres que le peuple citoyen plébiscite sur Internet :

http://www.jeanmarcmorandini.com/article-31942-qui-est-vraiment-le-1er-blog-d-infos-media-en-france.html

"Parce que jeanmarcmorandini.com est un site média indépendant qui n’appartient à aucun groupe de communication contrairement à la totalité de ses concurrents.

Parce que jeanmarcmorandini.com dérange dans le petit monde du net et de la télé

Parce que jeanmarcmorandini.com se bat, seul contre tous, face à tous ceux que nos informations et nos révélations dérangent chaque jour

Parce que des règles stupides nous interdisent de donner les chiffres de nos concurrents alors que nous les avons

Parce que nous demandons à nos concurrents de jouer la transparence et de publier, chaque mois, leurs chiffres de visiteurs uniques

Voici les derniers chiffres de jeanmarcmorandini.com

Juin 2009: 1.300.000 visiteurs uniques

Juillet 2009: 1.320.000 visiteurs uniques

Août 2009: 1.340.000 visiteurs uniques

Alors, qui est VRAIMENT

le 1er blog d’infos média

en France* ?"

lucky semiosis @ 2009-10-25 13:12:03

A lecture de cet article et des commentaires associés, une question me vient à l’esprit :

Combien de temps faudra-t-il encore pour que l’information intuitive (non-calculable) soit acceptée comme composante essentielle du sens et non plus comme un "déchet" de la raison ? N’est-ce pas plutôt le contraire ???

Il me semble que l’information est fondamentalement une énergie.

De ce point vu, l’information est absolument plastique : elle peut prendre toute forme !

Suivant la forme qu’on choisi d’évaluer différentes sciences pourront être utiles pour la comprendre : physique, biologie, histoire, philosophie, poésie...

Certaines formes ont l’avantage d’être transversales par rapport aux sciences. L’eau en fait sans doute partie. Personnellement, je m’intéresse beaucoup à l’eau comme composante essentielle d’une autre forme fondamentale : la bulle. Cette forme offre un modèle générique d’ontologie comprise comme les rapports entre une intériorité et une physicalité (cf. Descola, Deleuze, Spinoza, Sloterdijk...). Pour moi, la question du sens est avant tout un problème d’existence.

Si la science est particulièrement efficace pour traiter la physicalité et les rapports, il me semble qu’elle ne l’est plus du tout concernant l’intériorité, domaine "réservé" de l’intuition...

Merci pour cet article très intéressant et très fertile en inspiration...

Thierry Crouzet @ 2009-10-25 13:39:48

C’était en partie le projet cybernétique d’utiliser l’information comme moyen de traverser toutes les disciplines. Je pense qu’on en est qu’au début de cette approche. Quand tous les intellectuels maîtriseront l’informatique, les sociologues, les historiens... ils pourront à leur tour manipuler l’information et le sens qui va avec elle.

lucky semiosis @ 2009-10-25 15:03:16

je crois que de nombreux historiens, sociologues etc... vont être content de savoir que sans l’informatique il ne peuvent pas manipuler le sens ;-)

l’enjeu du web n’est-il pas de permettre l’expression de tous ceux qui ne sont pas intellectuels, qui ne sont pas des professionnels de la pensée, mais qui quotidienne manipule le sens ?

Thierry Crouzet @ 2009-10-25 15:35:06

Je parlais pour les intellectuels qui font de grand discours sur l’information et on oublié qu’on avait inventé un nouvel outil pour la manipuler.

Bien sûr que le Web permet de la manipuler aussi. Même même sur le Web ça aide de savoir coder... si on veut faire ressortir des choses, trier, recouper... Il faut bien que des gens inventent les outils.

lucky semiosis @ 2009-10-25 15:55:28

Oui des outils il y en a des tonnes qui apparaissent tous les jours...

En voilà deux qui utilisent l’analogie de l’eau :

Wave : https://wave.google.com

Raindrop : http://labs.mozilla.com/raindrop/2009/10/22/introducing-raindrop/

Mais il reste encore beaucoup à faire avant de pouvoir cultiver un jardin de connaissance : http://www.jardindesconnaissances.org/

Visibilité
Newsletters Me soutenir