Archives pour la catégorie Technique informatique

Communiquer sur les réseaux sociaux, communication digitale.

Communiquer sur les réseaux sociaux, communication digitale.

Qui ne s’est jamais trouver idiot de s’apercevoir que le message qu’on avait envoyé a totalement été incompris ?

Qui n’a jamais reçu un message, et de rage d’en vouloir au destinataire ; et s’apercevoir in fine qu’il y avait incompréhension manifeste ?

Qu’est ce qui permet au quotidien , « quand on se parle », d’éviter ces erreurs aussi grossières, dans notre façon de communiquer ? Lire la suite

Mythe de l’usage des nouvelles technologies et innovation

En quoi les nouvelles technologies et les nouveaux réseaux sociaux sont différents des technologies qui ont bercé le XIX ou XXeme siècle ? Pas grand chose. Pourquoi la génération Y devient le moteur de la légitimité de ce qu’on voit passer dans nos nouveaux usages de la technologie ?

Les nouvelles technologies, comme un exemple de la médiologie.

La pensée humaine et la communication entre hommes  ont longtemps été considérés comme l’accouchement du « logos »,  comme un absolu de la raison. Lire la suite

Calendrier du mois

Prenons date ! C’est la rentrée de Septembre, l’occasion de  remettre  les neurones en place , et se consoler de l’été par des moments de grâces :

D’abord , émotion :

D’abord s’enlacer, se mouvoir dans le monde …

https://zeboute.wordpress.com/2010/09/27/la-vapeur-des-corps-communication-fusionnelle/

Ensuite , quoi de neuf dans le marketing et le net ? L’usage, user user user les nouveautés ? A voir dans son sac à main ..

https://zeboute.wordpress.com/2010/09/25/lusage-et-nouvelles-technologies/

Et un texte fondamental, logique de la communication, un pied de nez à la communication née de l’informatique. plutôt penser relation.

texte fondamental, innovant dans la recherche sur la thérapie mentale :

https://zeboute.wordpress.com/2010/09/17/paul-watzlawick-une-logique-de-la-communication/

Bonne lecture, octobre arrive , à suivre !

Claude Shannon Théorie mathématique de la communication

Points de repère

Plus loin

Source Claude Shannon [1916-2001]. 1948, Mathematical Theory of Communications .

Introduction

Voilà un des textes les plus essentiels qu’on puisse connaître dans un siècle. Comme la théorie générale de Darwin. Ce texte définit une science de l’information, et une théorie mathématique, qui permet aujourd’hui d’écouter la 5ème symphonie de Mozart sur son i-phone, user de l’ordinateur, de la télévision, du fax. Claude Shannon a dématérialisé tout contenu de communication en suite logique de « bits ». Peu importe le contenu ( visuel, son, ..).

Avant Shannon, on pressentait qu’un message, télégraphique par exemple, pouvait être codifié, transporté, et « redéballé » pour le restituer à l’humain. Les laboratoires Bell travaillaient déjà sur le sujet. Robert Wiener, maître de Shannon, par ses réflexions sur la probabilité des états de transmission d’un signal a influencé cette théorie.

L’apport de Shannon a été de cristalliser des courants de pensée, et les formaliser dans ce texte essentiel.

On n’abordera pas ici les théorèmes relatifs à la capacité d’un canal de communication à transmettre la quantité d’information.

Système de communication.

Claude Shannon définit le système de communication [ schéma de Shannon ] :

Modèle de communication de Shannon

source → encodeur → signal → décodeur → destinataire, dans un contexte de brouillage

L’information.

Shannon définit la notion d’information, d’un point de vue scientifique.

L’information est une mesure scientifique. Elle n’a pas de lien avec la signification en tant que telle d’un message. Il s’agit bien d’une théorie des signaux. On ne s’intéresse pas au sens des messages. C’est ce qui fait la force de cette abstraction. « il n’y a de science que le général ». Shannon refuse la spécificité du message ( sa signification par exemple ) au profit de ses caractéristiques physiquement observables. C’est en cela que « par une série d’élargissements successifs, un modèle de communication partant de l’échange de signes parfaitement définis depuis un point jusqu’à un autre », Claude Shannon a pu intégrer plus globalement ensuite la musique, la parole, l’image.

L’information est une mesure de la liberté de choix, dont on dispose lorsqu’on sélectionne un message. Une mesure mathématique de l’originalité de la situation, créée au récepteur par l’avènement d’un message.

Lorsque j’ai le choix entre 2 messages («  noir  » ou « blanc  »), j’ai deux possibilités que je représente par 0 ou  1. Plus généralement, la quantité de l’information est définie par le logarithme du nombre des choix possibles. 2 puissance n, lorsqu’il y a n choix possibles. Pour le choix le plus simple, l’unité d’information est 2  (2 puissance 1 ). Cette unité d’information est appelée bit ( mot proposé par John W. Tukey pour « binary digit » ).

De sorte que le « digit binaire » ou « bit » est naturellement associé à une situation de double choix constituant une unité d’information. Dans un système à 3 choix possibles, j’ai 2 puisse 3 soit 8 possibilités, formalisée par 000, 001, 010, 011, 100, 101, 110, 111.

Entropie et probabilités d’information.

Plus on a le choix dans l’élaboration des messages, plus la probabilité de choisir un des messages est forte,  et plus grande est l’information. ( entropie forte ).

Plus une situation est hautement organisée et prédictive ( « le soleil se couche en fin de journée »), le  hasard ou le choix sont limités, plus l’information ( ou entropie ) est faible.

« La quantité précisément nécessaire à l’établissement de l’information correspond exactement à la notion thermodynamique d’entropie. Elle s’exprime en termes de probabilités. Celles nécessaires pour l’accession à certains stades de processus de formation des messages, et celles une fois ces stades atteints, prévoyant le choix suivant de certains symboles. »

Soit le mot « joie » ; le « e » est déterminé, ne laisse pas le choix à celui qui écrit le mot. Il s’agit de la fraction de structure de message qui est déterminé non par le libre choix de l’émetteur mais plutôt par des règles statistiques admises gouvernant l’emploi des symboles en question ( ici la langue française ). On l’appelle « redondance », car cette fraction du message n’est pas nécessaire, et redondante.

Le bruit.

Le bruit modifie le message, lorsqu’il y a parasite sur une ligne téléphonique par exemple. Une erreur dans la transmission du message. Ces éléments « perturbateurs » de la transmission sont appelés « bruit ». Naturellement on peut penser que le bruit abime le message transmis ( on n’a pas tout entendu ),et donc que l’information transmise diminue . Paradoxalement, l’incertitude du message augmente, et donc l’information.

L’impact de ce texte est fondamental. Sa synthèse d’une dimension communicationnelle de son modèle a inspiré les linguistiques.

Jakobson, par exemple, s’est inspiré du modèle de Shannon , pour structurer les 6 fonctions du langage. Ses études ont elles même marqué les sciences linguistiques.

Au code, émetteur, destinataire, canal,   message et bruit, Jakobson en a déduit les fonctions du langage ordinaire : les 6 fonctions du langage de Jakobson

Ce texte reste moderne : aujourd’hui avec les nouveaux réseaux sociaux, ces concepts demeurent.

On lira ainsi : les 6 fonctions de Twitter, selon Jakobson : un exemple appliqué à ce réseau social

Le modèle de Shannon a structuré toute une école de la pensée autour de la communication. On lira cette évolution : l’évolution du concept de la communication.

Claude Shannon : en savoir plus !

Claude Shannon a laissé son nom à un prix décerné chaque année par l’association de la théorie de l’information (IEEE), pour récompenser les avancées sur la théorie de l’information. Site officiel : IEEE Information Theory Society.

Claude Shannon a vraiment bousculé notre monde.

Aujourd’hui, le bit, l’octet ont permis de révolutionner le monde. Notamment le monde numérique : les photos, les textes, les vidéos, et bientôt le monde des objets connectés du monde réel suivent ce même trajet, tracé par Claude Shannon.

D’un point de vue humain, l’être humain est ainsi devenu numérique, extension d’un monde improbable : le bit ou la sueur de la vie numérique

 

 

Von Neumann L’ordinateur et le cerveau

Points de repère

Plus loin

L’ordinateur et le cerveau ( 1958 ).

Source « L’ordinateur et le cerveau », suivi de « les machines molles de Von Neumann », 1992.

John Von Neumann est mathématicien hongrois. Il fut l’un des fondateurs des neurosciences ( modélisation du cerveau par les mathématiques ), l’informatique, et l’investigation physico-chimique. On lui doit la construction de la théorie de l’informatique ( appelée architecture de Von Neumann ), qui distingue le hardware ( quincaillerie ) et le software ( logiciel ).

Dans ce texte, Von Neumann s’intéresse au matériel, le fonctionnement microscopique réel du cerveau. Von Neumann compare ici la structure du cerveau et celle de l’ordinateur. Dans ses similitudes et différences. On n’abordera pas ici les comparaisons chiffrées ( en capacité de traitement, et en volume de composants  électroniques des transistors) puisqu’elles ont largement évoluées depuis l’écriture du texte.

Description simplifiée des fonctions du neurone.

« Le composant de base est la cellule nerveuse, le neurone. Sa fonction est d’engendrer et de propager un influx nerveux. Ce processus d’influx comporte une variété d’aspects : électriques, chimiques, mécaniques.

La cellule nerveuse consiste en un corps dont partent directement ou indirectement un ou plusieurs branches. Ces branches sont appelées axones de la cellule.

L’influx nerveux est un changement continu, qui se propage habituellement à une vitesse fixe, le long de l’axone : la perturbation électrique a un potentiel de l’ordre du 50 mVolt, et d’une durée environ d’1 ms. »

Il ne s’agit pas que de perturbation électrique, mais aussi de changement :

–         Chimique : la constitution du fluide intercellulaire change.

–         Electro chimique : les propriétés des parois de l’axone, la membrane, change : conductivité, perméabilité.

–         Mécanique : les changements des différentes perméabilités ioniques produisent une réorientation de ses molécules ( par des changements mécaniques ).

« Ces changements sont réversibles : quand l’influx a passé, toutes les conditions qui prévalent le long de l’axone et toutes ses parties constituantes reviennent à leurs états initiaux ».

Tous ces changements ont lieu à l’échelle moléculaire ( l’épaisseur de la membrane de quelques dizièmes de micron 10-5 cm ), et les distinctions chimiques, électriques et mécaniques peuvent se confondre et interagir entre eux.

Le processus de stimulation.

Le processus d’induction ( la stimulation d’un influx nerveux ) peut réussir ou échouer. « Si elle échoue, une perturbation passagère se produit d’abord, mais après quelques millisecondes, elle s’éteint. Dans ce cas, il ne se propage pas de perturbations le long de l’axone. Si elle réussite, la perturbation prend très vite une forme standard, et c’est sous cette forme qu’elle se propage le long de l’axone. Les récepteurs de stimulations sont appelés dendrites. La stimulation lorsqu’elle vient d’une autre impulsion émane d’une terminaison spéciale de l’axone, la synapse.

Caractère digital de l’impulsion.

« Il est clair qu’on peut considérer les impulsions nerveuses comme des marqueurs ( à 2 valeurs ) au sens discuté précédemment : l’absence d’une impulsion représente alors une valeur ( disons le chiffre binaire 0 ) ,et la présence d’une impulsion l’autre valeur ( disons le chiffre binaire 1 ).

« Le neurone est donc un organe qui reçoit et émet des entités physiques définies, les impulsions. En règle générale, cette impulsion est conditionnelle, c’est-à-dire que seules certaines combinaisons et synchronismes d’impulsions primaires de ce type stimulent l’impulsion secondaire en question. Sinon il n’émettra rien. Cette description correspond à toute évidence à celle du fonctionnement d’un organe dans une machine digitale.

Stimulation par d’autres impulsions nerveuses.

La sortie normale d’un neurone est l’impulsion nerveuse standard. Elle peut être induite par diverses formes de stimulation, y compris par diverses formes de stimulations, y compris d’une ou d’autres impulsions venues d’autres neurones. D’autres sources possibles de stimulation sont les phénomènes du monde extérieur, auxquels le neurone est sensible ( comme la lumière, le son, la pression, la température ), et les changements physiques et chimiques intervenant dans l’organisme à l’endroit où le neurone se trouve stimulé.

Logiques élémentaires ET / OU.

Si un neurone entre en contact par les axones de 2 autres neurones ( par l’intermédiaire de leurs synapses), et si la condition minimale de stimulation de ce neurone est qu’interviennent 2 impulsions simultanées, alors nous dirons que ce neurone est en fait un organe conjonctif ( ET ) : il effectue l’opération logique de conjonction ( verbalisé par « et » ), puisqu’il ne répond que quand ses stimulateurs sont simultanément actifs. Si, d’un autre côté, la condition minimale est seulement l’arrivée d’une impulsion (au moins), le neurone est un organe disjonctif ( ou ) , c’est-à-dire qu’il effectue l’opération logique de disjonction ( verbalisé par « ou ») ; puisqu’il répond quand l’un ou l’autre de ses stimulateurs est actif.

« et » et « ou » sont les opérations de base de la logique. Avec l’opérateur « non », elles permettent de déduire toutes les autres opérations logiques.

Une stimulation plus complexe, limite du cerveau à l’ordinateur.

Van Neumann précise lui-même que ce fonctionnement est simplifié, et une idéalisation de la réalité.

« Certaines neurones ont des synapses avec les axones de nombres autres neurones. Dans certaines circonstances, plusieurs axones issus d’un seul neurone forment des synapses sur un autre. On voit donc que les stimulateurs possibles sont nombreux, et que les structures de stimulation susceptibles d’être efficaces doivent être définies de manière plus complexe que dans les schémas de « et » et « ou » décrits ci-dessus.

S’il y a de nombreuses synapses sur un neurone :

1.      Le neurone réagira s’il reçoit un certain nombre minimal d’impulsions nerveuses ( pas forcément 2 dans le cas de « et »).

2.      Le neurone réagira en fonction des relations spatiales de ces synapses, en fonction qu’elles couvrent certaines zones, comme le corps du neurone, ou son système dendritique. Le seuil comme la présence d’un ensemble simultané d’impulsions stimulatrices n’est pas défini uniquement comme un nombre minimal à franchir, mais plus complexe.

3.      Récepteurs externes / internes.

La stimulation des récepteurs peut être l’intensité minimale de l’agent stimulant ( intensité minimale de la lumière, augmentation de la température ).

Cependant il ne s’agit pas de niveau minimal qui entre en jeu, mais à un changement.

Exemple du nerf optique : de nombreux neurones répondent à un changement d’éclairage ( dans certains cas de la lumière à l’obscurité ) et non à l’intensité minimale de la lumière. C’est l’augmentation ou la diminution qui fournit le critère de simulation ( id est la valeur de sa dérivée et non sa valeur ).

4.      Au-delà de l’aspect digital du cerveau humain, certaines complexités jouent aussi du cerveau humain ; certaines complexités jouent ainsi un rôle analogique, ou en tout cas « mixte ». Des effets électriques globaux peuvent influencer le fonctionnement du système nerveux. « Il se pourrait que certains potentiels électriques généraux jouent un rôle important et que le système réponde globalement aux solutions des problèmes potentiels théoriques.. Problèmes moins élémentaires que par des critères digitaux explicités plus hauts ». Néanmoins, comme le système nerveux est d’abord digital, de tels effets, s’ils sont réels, interagiraient probablement avec des effets digitaux. De sorte que l’on se trouverait en présence d’un système « mixte » plutôt qu’un système purement analogique ou digital.