On 11:17 27/04/2015, xxxxxxxx said:
J'ai un peu cogité sur cette contribution dont je n'avais pas tout
de suite mesuré les implications probables réellement géniales de
simplicité. Attention on pense à des bots autonomes qui chacun suit
sa petite mission cornaqué par l'application et l'optimiseur
d'utilisation de bande passante.
Je suis sûr que si tu cogites plus tu vas nous en sortir mieux !
En fait oui ! Hier j'étais un peu fatigué : c'était implicite dans le
mail de Bruno Martin et Olivier Auber l'avait bien vu : R peut être
l'ensemble régulateur. R+ va être un réseau multi tout ce qu'on veut
ET multiscalaire. C'est implicite dans le "réseau des réseaux" Louis
Pouzin: les réseaux peuvent être locaux et ou fractaux. Fractal veut
dire régle invariable à l'échelle et donc récursif en profondeur.
Ainsi le réseau de l'écosystème environmental. On va donc pouvoir
jouer sur les échelles.
Exemple : je vais diffuser un film à l'échelle des décodeurs de ses
images, selon la langue à l'echelle des zones linguistiques, avec des
métadonnées à l'échelle des cinéclub qui vont en discuter, et des
syllodonnées tariffaires (réductions, incentives, etc.) à l'échelle
des ISP distributeurs. Ma stéganographie sera simplement dans rythme
des datagrammes de chaque type envoyés à un utilisateur donné.
Un peu moins poétique que "Les sanglots longs des violons de
l'automne blessent mon cur d'une langueur monotone." mais bien plus souple !
Dès lors que l'on passe du bout en bout internet au frange à frange
du catenet, on se rajoute l'intelligence de la couche six et dans ce
que l'on appelle l'écologie computationnelle qui est la réponse au
besoin agorique que je pense aidable par mon idée de "netix".
jfc
PS. J'ai retrouvé l'ami B.A. Huberman dont la compilation de 1998 à
ce sujet ("The ecology of computation") serait à scanneriser et à
utiliser comme trâme de réflexion post-agorics-papers de Miller et
Drexler. En fait son B.A. est "Bernardo A." et il est passé chez
HP http://www.hpl.hp.com/research/idl/people/huberman/. Il semble
venir à Paris de temps en temps, certains d'entre-vous le connaissent
peut-être ?
La question que je me pose depuis longtemps à son sujet est la
suivante : une boîte noire (et tous les autres filtres) sont des
systèmes hierarchiques. Dans les conditions suffisament matheux pour
cela, mais il y a un papier de Huberman de 1985 qui m'a toujours
turlupiné lorsqu'on parle de la datamasse elle-même. Je vais tâcher
de le scanner pour en donner le texte à qui veut. Il me semble que la
probabilité mathématique que PRISM nous implique tous dans le 9/11
est très faible mais réelle.
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com