Merci, très intéressant, la question est bien, pour simplifier, comment et quand et avec qui spécifier la frange et/ou la couche 6 présentation et la porter dans les machines et le réseau, voire au niveau des mobiles, ou plus simple encore, en dehors de l'internet IAB stricto sensu, phénomène gazeux, hégémonique, mais auquel on ne peut réduire la présentation des textes et des imagezs du monde, et qui s'épuise dans son extension (idéologique) sans fin.
et donc pourquoi passer nécessairement par l'IETF qui va bloquer au bout du compte, et quid du role de l'Afnor, du JTC1 de l'ISO, de l'ETSI, UIT, etc.y a quand même des bordures,
bref, s'appuyer sur la filière de l'industrie "publishing" (bécanes et éditeurs, imprimeurs) avec un groupe pilote d'usagers de l'édition, archivage, documentation, indexage, typo, et, si possible, en préparant un projet UE de faisabilité avec un consortium ad hoc, soutenu par les pays/régions européens concernés au niveau de l'administration de la R&D, de la culture et des pouvoirs locaux, sensibilisant, au préalable, le dispositif bruxellois à l'impasse actuelle.
Oui. Mais cela est au dessus des moyens temps/argent/compétence/localisation d'un pékin moyen. Je suis à Montpellier (où je découvre les ressources). D'autre part par nature l'évolution consiste à mettre le travail qui est fait au JTC1, ISO, IUT (je ne connais pas l'ETSI) et l'UIT, un petit projet AFNOR/INRIA, dans un contexte archtectural d'utilisation intelligente des ressources centralisée en bordure - dans l'interface, donc une perspective nouvelle. J'essaie d'avancer par deux moyens :
- les utilisateurs intelligents, et très exactement il faudrait un petit projet sectoriel tourné vers le grand-public. D'autant plus facile que RIEN ne doit être changé, simplement de l'intelligence ajoutée à la prise du réseau.
- la normalisation avec une association que nous montons en bordure du TC46 et du TC37 où je cherche la consolidation d'un référentiel libre pour la phase ultérieure que j'apelle l'intersem, l'intersémiotique, (intégration des idées style web/web sémantique) dans les couches manquantes de l'OSI (interapplications et services) localisées dans l'IUI (c'est ce que j'appelle le PLUS - plugged layers on the user side) et la fédération de l'ensemble sous un "OS" réseau (netix), permettant de retrouver encapsulant l'internet l'intelligence initiale du réseau sous l'architecture orientée services (1978-1988) des services internationaux public à commutation de paquets sous Tymnet.
Je vous quitte pour prendre mon train pour Paris, pour tenter d'accoucher de cette association où nous avons engagé avec les langues avec l'IF et voyons la DGLFLF demain, mais dans des conditions de tiraillement interne universitaires/normatif+architectes qui rendent les choses difficile. Les machines sont plus simples à gérer que les égos et les idées presque justes mais incomplètes (tout cela est quand même au bord de la complexité linguistique, sémantique, informatique). Mais c'est aussi le contexte de la guerre normative et numérisée et on se sent bien seul parfois à vouloir bouger le "papillon" qui peut tout déclancher.
Je ne relis pas, et je file.
Amitiés
jfc
bonne journée
Ric
- > Message du 18/12/12 03:18
- > De : "JFC Morfin"
- > A : "richard.delmas" , [email protected], [email protected]
- > Copie à :
- > Objet : ISOC proteste contre une menace decyberattaque de l'UIT.
- >
- > At 14:55 16/12/2012, richard.delmas wrote:
- >
- est-ce vrai que les systèmes informatiques des éditeurs français n'acceptent toujours pas les accents sur les majuscules ?
- > Richard,
- >
- > Si "informatique" signifie ordinateurs, la réponse est non. Les caractères sont supportés par la norme ISO 10646 alimentée par UNICODE. Tous les caractères typographiques à diacritiques sont supportés, et même - et c'est un des problèmes - souvent plutôt deux fois qu'une (en tant que codepoint autonome et en tant que double construction d'un accent et d'une lettre sans accent.C
- >
- > Toutefois, si "informatique" signifie ensemble du monde numérique : machines, programmes, protocoles, claviers, etc. la réponse à "n'acceptent pas toujours les accents les accents sur les majuscules" la réponse est oui.
- >
- > C'est pourquoi le traitement des majuscules françaises est mon cheval de bataille de Troie pour faire sortir l'architecture de l'utilisation de l'Internet, et donc l'ensemble de l'écosystème numérique, de son "marasme IETF" - l'état de l'internet étant la norme commune de fait. Ce marasme résulte d'une cause bien connue de tous qui est l'absence de couche présentation (et de ses extensions subséquentes), chargée des langues, du cryptage, de la sécurité, etc. Ceci pour dire que le sujet des majuscules accentuées françaises sont un point architectural "papillon" (comme le papillon qui déclanche un cyclone) dans la normalisation et la construction de l'internet.
- >
- > ----
- >
- > J'en ai obtenu la résolution architecturale de principe il y a deux ans auprès du WG/IDNABis. Le chair de ce WG, Vint Cerf, en explore la validation partielle avec le développemennt Google+. Elle est très loin d'être appliquée, en particulier pour une raison facile à comprendre : l'IESG, l'IAB et moi (à travers une procédure d'appel préparée à l'avance) avons identifié d'accord commun que cette résolution est *externe* au domaine de l'IETF (qui est le bout en bout). Il en résulte ma proposition IUTF (http://iutf.org) qui doit monter en puissance faute de moyens de mon côté, et qui est interfacée avec l'IETF par l'IUCG (http://iucg.org et ma liste IETF permanente [email protected] devant accueillir des utilisateurs pilotes de l'Internet encore très peu accoutumés à discuter de la standardisation générale du réseau à leurs propres frais). Il s'agit en fait là d'un nouvel internet (l'"internet+") intermédiaire, sur la voie de l'intersem (strate du réseau concernée par l'inter-sémiotique - tous les moyens [y compris émergent ou à emerger] d'interchange du sens).
- >
- > ----
- >
- > Le point est simple. Les données au départ de l'internet sont en ASCII pour l'anglais US. La globalization (z pour bien l'identifier) proposée par Mike Davis (patron d'Unicode, ancien d'Apple, IBM et maintenant chez Google) veut répondre au problème de la barrière linguistique que cela implique pour vendre américain au monde. Pour cela elle propose une solution à trois volets :
- >
- > 1. l'internationalisation. Cela consiste à pouvoir *citer* toute langue dans un texte anglais international. Cela réclame la capacité d'imprimer tout caractère : c'est ISO 10646 tenu à jour par les contribution d'Unicode.
- >
- > 2. la localisation. Cela consiste à donner une couleur locale au système distant par l'application des règles orthotypographiques du contexte local (format de dates, gestion des messages par défaut, etc.)
- >
- > 3. le filtrage des langues. L'internationalisation utilise une plage de caractères dans une table complexe pour présenter la complexité linguistique selon une localisation qui se documente par les fichiers dits "locale". Il s'agit :
- >
- > 3.1. de mettre de l'ordre dans tout cela, tant techniquement que politiquement (pays) et commercialement (marchés).
- >
- > 3.2. de rendre tout cela économiquement jouable en raison du prix d'une langues (spécialistes, documentation, moteurs de recherche, etc.), et donc de "rerouter" les demandes pouvant s'exprimer en 20.000 langues effectives (Linguasphère) vers 150 langues économiquement viables.
- >
- > Cette solution se résume dans un étiquettage des espaces relationnels (selon la langue principale, l'écriture, la législation applicable considérée comme la culture locale) et d'y regrouper les traitements. Votre texte est en breton, écrit en caractères romains, dans un contexte quimpérois : je vais vous répondre en français standard.
- >
- > L'on mesure bien que cet étiquettage est un point clé dans la prise en compte des cultures, la neutralité du net, les politiques intellectuelles, le filtrage, etc. La question principale est donc en fait celle du contrôle de son organisation, sa gouvernance et de sa maintenance technique.
- >
- > Deux positions s'opposent à partir de là, de façon pratique :
- >
- > * celle de Google/USA donc de Mark Davis et donc au niveau réseau de Vint Cerf. Elle est réalistiquement marchande dans un contexte anglophone. Elle vise une réduction à 150 langues, à l'abandon progressif de l'orthotypographie des langues face au nivellement des "macalangues" (langues naturelles telle que transportées et parlées par les machines).
- >
- > * la mienne. Elle est culturellement et techniquement ouverte, elle considère chaque langue et culture de manière égale. Elle vise a suporter une multilinguistique de 70 milliards de parlers différents qui sera avec nous d'ici quelques années, mais sera solidement retardée autrement, (1) car elle boulversera l'usage et donc les répartitions des marchés, (2) sera necessaire pour la sécurité des échanges, (3) participe de l'émergence de la généralisation du triple fondamental mathématiques/logique/raison vers la sémantique/agorique/intellition à une date incertaine, une révolution sociétale qui dépasse la capacité des marchands et qu'ils cherchent donc à prévenir.
- >
- > Elles paraissaient a priori inconciliables.
- >
- > Toutefois, à l'occasion de la normalisation du support des noms de domaines linguistiques (pour moi), internationalisés (pour l'IETF) nous avons trouvé que non seulement elles pouvaient l'être, mais que cela décuplait, sans changer un seul bit de l'existant, la puissance de l'internet qui est, en fait, "fait pour". Ceci veut simplement dire que l'absence de la couche 6 présentation peut permettre d'en positionner bien mieux les fonctions en support de la couche 7 des services (ex. Mail, DNS, etc.) et *au dessus de la couche*, mais en dessous de l'utilisation. C'est à dire à ce que pour l'internet l'on appelle "la frange" : où doit, par sécurité et design de la technologie, se placer l'intelligence et la sécurité (cf. firewalls, proxes, NAT, etc.).
- >
- > Ceci rajoute donc simplement aux principes de robustesse de Jon Postel (RFC 1122 : soit conservateur dans ce que tu envoies et libéral dans ce que tu reçois), de changement perpetuel de Brian Capenter (RFC 1958 : tout sauf ce principe peut changer) et de simplicité de Paul Vixie (RFC 3439 : dans les très grands systèmes l'on doit aller au plus simple pour ne pas se marcher quelque part sur les pieds), le principe de subsidiarité illustré dans la RFC 5895. La diversité linguistique n'est pas supportée par l'Internet, elle doit être prise en compte par l'achitecture périphérique d'utilisation auxiliaire).
- >
- > Toutefois, cette architecture (qui introduit un IUI entre le réseau et l'utilisateur : interface d'utlisation intelligente de l'internet) respecte le souci d'une société de l'information "people centered, , à cartère humain, centrada en la personna" voulue par le SMSI, où les USA ne sont plus le centre nécessaire du monde numérique.
- >
- > jfc
- >
- >
- >
- >
![]()
_______________________________________________ comptoir mailing list [email protected] http://cafedu.com/mailman/listinfo/comptoir_cafedu.com
