At 14:55 16/12/2012, richard.delmas wrote:
est-ce vrai que les systèmes informatiques des éditeurs français n'acceptent toujours pas les accents sur les majuscules ?

Richard,

Si "informatique" signifie ordinateurs, la réponse est non. Les caractères sont supportés par la norme ISO 10646 alimentée par UNICODE. Tous les caractères typographiques à diacritiques sont supportés, et même - et c'est un des problèmes - souvent plutôt deux fois qu'une (en tant que codepoint autonome et en tant que double construction d'un accent et d'une lettre sans accent.

Toutefois, si "informatique" signifie ensemble du monde numérique : machines, programmes, protocoles, claviers, etc. la réponse à "n'acceptent pas toujours les accents les accents sur les majuscules" la réponse est oui.

C'est pourquoi le traitement des majuscules françaises est mon cheval de bataille de Troie pour faire sortir l'architecture de l'utilisation de l'Internet, et donc l'ensemble de l'écosystème numérique, de son "marasme IETF" - l'état de l'internet étant la norme commune de fait. Ce marasme résulte d'une cause bien connue de tous qui est l'absence de couche présentation (et de ses extensions subséquentes), chargée des langues, du cryptage, de la sécurité, etc. Ceci pour dire que le sujet des majuscules accentuées françaises sont un point architectural "papillon" (comme le papillon qui déclanche un cyclone) dans la normalisation et la construction de l'internet.

----

J'en ai obtenu la résolution architecturale de principe il y a deux ans auprès du WG/IDNABis. Le chair de ce WG, Vint Cerf, en explore la validation partielle avec le développemennt Google+. Elle est très loin d'être appliquée, en particulier pour une raison facile à comprendre : l'IESG, l'IAB et moi (à travers une procédure d'appel préparée à l'avance) avons identifié d'accord commun que cette résolution est *externe* au domaine de l'IETF (qui est le bout en bout). Il en résulte ma proposition IUTF (http://iutf.org) qui doit monter en puissance faute de moyens de mon côté, et qui est interfacée avec l'IETF par l'IUCG (http://iucg.org et ma liste IETF permanente [email protected] devant accueillir des utilisateurs pilotes de l'Internet encore très peu accoutumés à discuter de la standardisation générale du réseau à leurs propres frais). Il s'agit en fait là d'un nouvel internet (l'"internet+") intermédiaire, sur la voie de l'intersem (strate du réseau concernée par l'inter-sémiotique - tous les moyens [y compris émergent ou à emerger] d'interchange du sens).

----

Le point est simple. Les données au départ de l'internet sont en ASCII pour l'anglais US. La globalization (z pour bien l'identifier) proposée par Mike Davis (patron d'Unicode, ancien d'Apple, IBM et maintenant chez Google) veut répondre au problème de la barrière linguistique que cela implique pour vendre américain au monde. Pour cela elle propose une solution à trois volets :

1. l'internationalisation. Cela consiste à pouvoir *citer* toute langue dans un texte anglais international. Cela réclame la capacité d'imprimer tout caractère : c'est ISO 10646 tenu à jour par les contribution d'Unicode.

2. la localisation. Cela consiste à donner une couleur locale au système distant par l'application des règles orthotypographiques du contexte local (format de dates, gestion des messages par défaut, etc.)

3. le filtrage des langues. L'internationalisation utilise une plage de caractères dans une table complexe pour présenter la complexité linguistique selon une localisation qui se documente par les fichiers dits "locale". Il s'agit :

3.1. de mettre de l'ordre dans tout cela, tant techniquement que politiquement (pays) et commercialement (marchés).

3.2. de rendre tout cela économiquement jouable en raison du prix d'une langues (spécialistes, documentation, moteurs de recherche, etc.), et donc de "rerouter" les demandes pouvant s'exprimer en 20.000 langues effectives (Linguasphère) vers 150 langues économiquement viables.

Cette solution se résume dans un étiquettage des espaces relationnels (selon la langue principale, l'écriture, la législation applicable considérée comme la culture locale) et d'y regrouper les traitements. Votre texte est en breton, écrit en caractères romains, dans un contexte quimpérois : je vais vous répondre en français standard.
 
L'on mesure bien que cet étiquettage est un point clé dans la prise en compte des cultures, la neutralité du net, les politiques intellectuelles, le filtrage, etc. La question principale est donc en fait celle du contrôle de son organisation, sa gouvernance et de sa maintenance technique. 

Deux positions s'opposent à partir de là, de façon pratique :

* celle de Google/USA donc de Mark Davis et donc au niveau réseau de Vint Cerf. Elle est réalistiquement marchande dans un contexte anglophone. Elle vise une réduction à 150 langues, à l'abandon progressif de l'orthotypographie des langues face au nivellement des "macalangues" (langues naturelles telle que transportées et parlées par les machines).

* la mienne. Elle est culturellement et techniquement ouverte, elle considère chaque langue et culture de manière égale. Elle vise a suporter une multilinguistique de 70 milliards de parlers différents qui sera avec nous d'ici quelques années, mais sera solidement retardée autrement, (1) car elle boulversera l'usage et donc les répartitions des marchés, (2) sera necessaire pour la sécurité des échanges, (3) participe de l'émergence de la généralisation du triple fondamental mathématiques/logique/raison vers la sémantique/agorique/intellition à une date incertaine, une révolution sociétale qui dépasse la capacité des marchands et qu'ils cherchent donc à prévenir.

Elles paraissaient a priori inconciliables.

Toutefois, à l'occasion de la normalisation du support des noms de domaines linguistiques (pour moi), internationalisés (pour l'IETF) nous avons trouvé que non seulement elles pouvaient l'être, mais que cela décuplait, sans changer un seul bit de l'existant, la puissance de l'internet qui est, en fait, "fait pour". Ceci veut simplement dire que l'absence de la couche 6 présentation peut permettre d'en positionner bien mieux les fonctions en support de la couche 7 des services (ex. Mail, DNS, etc.) et *au dessus de la couche*, mais en dessous de l'utilisation. C'est à dire à ce que pour l'internet l'on appelle "la frange" : où doit, par sécurité et design de la technologie, se placer l'intelligence et la sécurité (cf. firewalls, proxes, NAT, etc.).
 
Ceci rajoute donc simplement aux principes de robustesse de Jon Postel (RFC 1122 : soit conservateur dans ce que tu envoies et libéral dans ce que tu reçois), de changement perpetuel de Brian Capenter (RFC 1958 : tout sauf ce principe peut changer) et de simplicité de Paul Vixie (RFC 3439 : dans les très grands systèmes l'on doit aller au plus simple pour ne pas se marcher quelque part sur les pieds), le principe de subsidiarité illustré dans la RFC 5895. La diversité linguistique n'est pas supportée par l'Internet, elle doit être prise en compte par l'achitecture périphérique d'utilisation auxiliaire).

Toutefois, cette architecture (qui introduit un IUI entre le réseau et l'utilisateur : interface d'utlisation intelligente de l'internet) respecte le souci d'une société de l'information "people centered, , à cartère humain, centrada en la personna" voulue par le SMSI, où les USA ne sont plus le centre nécessaire du monde numérique.

jfc



_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com

Répondre à