On 11:17 27/04/2015, xxxxxxxx said:
J'ai un peu cogité sur cette contribution dont je n'avais pas tout de suite mesuré les implications probables réellement géniales de simplicité. Attention on pense à des bots autonomes qui chacun suit sa petite mission cornaqué par l'application et l'optimiseur d'utilisation de bande passante.

Je suis sûr que si tu cogites plus tu vas nous en sortir mieux !

En fait oui ! Hier j'étais un peu fatigué : c'était implicite dans le mail de Bruno Martin et Olivier Auber l'avait bien vu : R peut être l'ensemble régulateur. R+ va être un réseau multi tout ce qu'on veut ET multiscalaire. C'est implicite dans le "réseau des réseaux" Louis Pouzin: les réseaux peuvent être locaux et ou fractaux. Fractal veut dire régle invariable à l'échelle et donc récursif en profondeur. Ainsi le réseau de l'écosystème environmental. On va donc pouvoir jouer sur les échelles.

Exemple : je vais diffuser un film à l'échelle des décodeurs de ses images, selon la langue à l'echelle des zones linguistiques, avec des métadonnées à l'échelle des cinéclub qui vont en discuter, et des syllodonnées tariffaires (réductions, incentives, etc.) à l'échelle des ISP distributeurs. Ma stéganographie sera simplement dans rythme des datagrammes de chaque type envoyés à un utilisateur donné.

Un peu moins poétique que "Les sanglots longs des violons de l'automne blessent mon cœur d'une langueur monotone." mais bien plus souple !

Dès lors que l'on passe du bout en bout internet au frange à frange du catenet, on se rajoute l'intelligence de la couche six et dans ce que l'on appelle l'écologie computationnelle qui est la réponse au besoin agorique que je pense aidable par mon idée de "netix".

jfc

PS. J'ai retrouvé l'ami B.A. Huberman dont la compilation de 1998 à ce sujet ("The ecology of computation") serait à scanneriser et à utiliser comme trâme de réflexion post-agorics-papers de Miller et Drexler. En fait son B.A. est "Bernardo A." et il est passé chez HP http://www.hpl.hp.com/research/idl/people/huberman/. Il semble venir à Paris de temps en temps, certains d'entre-vous le connaissent peut-être ?

La question que je me pose depuis longtemps à son sujet est la suivante : une boîte noire (et tous les autres filtres) sont des systèmes hierarchiques. Dans les conditions suffisament matheux pour cela, mais il y a un papier de Huberman de 1985 qui m'a toujours turlupiné lorsqu'on parle de la datamasse elle-même. Je vais tâcher de le scanner pour en donner le texte à qui veut. Il me semble que la probabilité mathématique que PRISM nous implique tous dans le 9/11 est très faible mais réelle.



_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com

Répondre à