Merci jfc

L'Europe a déjà tout l'arsenal juridique répondant aux questions que se pose le 
groupe Podesta, fait d'une additions des 
- principes US dits "FIPs" principe de finalité légitime, de proportionnalité 
des données et de leur durée, droit d'accès au données etc...qu'ils n'ont pu 
développer de manière horizontale (seulement de manière très sectorielle et 
incohérente)  comme nous,  pour des raisons de rapport de force négatifs entre: 
Démocrates/républicains; et Congres/secteur privé de l'information
- de ceux ajoutés par la France dès 1978 (droit de connaitre les raisonnements 
qui ont présidé   au logiciel, et de les contester)
- celui de la portabilité introduit dans la proposition de règlement PDP par le 
CE (un droit du consommateur en fait dans contexte des anti-condurrence...)

Néanmoins on notera une timidité incroyable par les "cnils" à les appliquer à 
fond  aux  Big Data réels actuels.. (sur les marges seulement)

Sur ta notion de "polynymie" qui dépasserait les traductions diverses d'un même 
mot dans une autre langue, en formalisant toutes les cultures serait peut être 
intéressant mais pas sans risques. Il est tellement évident qu'on n'exprime pas 
les mêmes chose selon les langues/cultures. : chacune a ses avantages et ses 
limites. Et plus on croit connaitre une culture, plus on a l'impression de ne 
pas la comprendre....selon ma petite expérience. 
Ma conclusion est que la diversité est à conserver en vie, et non en musée ou 
en programme réducteur qui la ferait sans doute mourir au profit de la langue 
d'une  puissance dominante

Bien à toi
Marie



Le 5 mai 2014 à 14:58, Jefsey a écrit :

> Lors de son discours sur la NSA Obama a demandé une évaluation des risques de 
> la datamasse. Ce rapport note initialement:
> “A significant finding of this report is that big data analytics have the 
> potential to eclipse longstanding civil rights protections in how personal 
> information is used in housing, credit, employment, health, education, and 
> the marketplace.”
> 
> Commentaire liminaire
> 
> Ce rapport qui peut être trouvé sous 
> http://www.whitehouse.gov/sites/default/files/docs/big_data_privacy_report_5.1.14_final_print.pdf
>  (85 pages) ne tient pas compte de l'intellition qui semble totalement 
> inconnue de tous alors que nous en tirons pratiquement tout ce qui nous 
> permet de vivre.
> 
> Je rappelle que l'intellition est "ce qui fait sens". Ainsi, notre oeil est 
> pratiquement aveugle et nous fait remonter un nombre minime d'informations. 
> Le reste de notre vision est intellitive : nous imaginons ce qui fait sens à 
> partir de ces informations. Il est évident à chacun que la multiplication 
> d'accès aux données (produites par action reaction cybernétique) captées 
> (après communication mitigée de bruit) va incroyablement accroître le nombre 
> de traitées (ce que nos sens en déduisent après leur intellition, plus 
> intellition informatique) et donc les conclusions ou émergences aprés  
> intellition cérébrale (les petites cellules grises d'Hercule Poirot).
> 
> 
> Risques principaux identifiés
> 
> Il fait ressortir cinq risques spécifiques :
> 
> 1. Data on all of us is piling up fast in the hands of public and private 
> sector organizations and can’t practically be clawed back.
> 
> “Data, once created, is in many cases effectively permanent … The 
> technological trajectory, however, is clear: more and more  data will be 
> generated about individuals and will persist under the control of others. 
> Ensuring that data is secure is a matter of the utmost importance.”
> 
> 2. Privacy laws are outdated. One problem the report raises is that these 
> laws are hard to apply to data stored in the cloud.
> 
> “We will continually need to examine our laws and policy to keep pace with 
> technology, and should consider how the protection of content data stored 
> remotely, for instance with a cloud provider, should relate to the protection 
> of content data stored in a home office or on a hard drive. This is true of 
> emails, text messages, and other communications platforms, which over the 
> past 30 years have become an important means of private personal 
> correspondence, and are most often stored remotely.”
> 
> 3. The way data is used to “personalize” prices, promotions, and access to 
> financial services creates risks of discrimination against minority groups.
> 
> “The ability to more precisely target advertisements is of enormous value to 
> companies … However, private-sector uses of big data must ensure vulnerable 
> classes are not unfairly targeted. The increasing use of algorithms to make 
> eligibility decisions must be carefully monitored for potential 
> discriminatory outcomes for disadvantaged groups, even absent discriminatory 
> intent.”
> 
> 4. Efforts to make online ad tracking more transparent are a mess.
> 
> “Users, more often than not, do not understand the degree to which they are a 
> commodity in each level of this marketplace … technologies to improve 
> transparency and privacy choices online have been slow to develop, and for 
> many reasons have not been used widely by consumers.”
> 
> 5. Congress needs to enact new legislation.
> 
> 
> Propositions d'action
> 
> Le rapport finit avec six proposition concrêtes dont deux réclament une 
> intervention de la loi (US)
> 
> 1. Advance the Consumer Privacy Bill of Rights. Consumers deserve clear, 
> understandable, reasonable standards for how their personal information is 
> used in the big data era. 
> 
> 2. Pass National Data Breach Legislation. Big data technologies make it 
> possible to store significantly more data, and further derive intimate 
> insights into a person's character, habits, preferences, and activities.
> 
> 3. Extend Privacy Protections to non-U.S. Persons. Privacy is a worldwide 
> value that should be reflected in how the federal government handles 
> personally identifiable information about non-U.S. citizens. 
> 
> 4. Ensure Data Collected on Students in School is used for Educational 
> Purposes. Big data and other technological innovations, including new online 
> course platforms that provide students real time feedback, promise to 
> transform education by personalizing learning. 
> 
> 5. Expand Technical Expertise to Stop Discrimination. The detailed personal 
> profiles held about many consumers, combined with automated, algorithm-driven 
> decision-making, could lead­intentionally or inadvertently­to discriminatory 
> outcomes, or what some are already calling "digital redlining." 
> 
> 6. Amend the Electronic Communications Privacy Act. The laws that govern 
> protections afforded to our communications were written before email, the 
> internet, and cloud computing came into wide use. 
> 
> 
> Ceci est important, mais doit-être bien entendu pris dans un contexte 
> information-communication-intellition-services si l'on ne veut pas tomber 
> dans des lois restrictives de la pensée et des accusations permanentes de 
> recours à la théorie du complôt. Sinon les gens ne vont pas considérer 
> l'information communiquée, mais l'intellition obtenue. 
> 
> 
> La notion de vérité des données
> 
> Je note aussi la nécessité de comrendre la notion de vérité dans notre 
> espace-temps-données-métadonnées-syllodonnées. Tout n'est pas dans la 
> philosophie du processus ( 
> http://fr.wikipedia.org/wiki/Philosophie_du_processus) loin de là, mais ses 
> contributions et l'impact techno-scientifique de ses contributeurs ne peut 
> être ignoré. La vérité d'une conclusion est logique (Aristote, dialectique) 
> et figée dans les micro-états de ses successions temporelle (Principes). On 
> doit lui opposer la vie d'une émergence qui est agorique (réseau, 
> polylectique, dynamique et prends en compte le temps) et constitue la 
> concrétisation effective des choses.
> 
> Ainsi, le carnet de notes de 6ème, le CV à trente ans, et le panégyrique 
> final peuvent décire une même personalité totalement différente. Comment 
> faire rentrer la vie dans le texte de la loi et la mémoire des ordinateurs.
> 
> A côté du qbit qui nous pose déjà pas mal de questions voici venir le nbit 
> lié aux polyvalences temporelles et circonstantielles du nom et de la norme. 
> 
> 
> Absence de notion de polynymie
> 
> Une autre point ne semble en effet pas cité (je n'ai pas encore regardé le 
> rapport lui-même) qui est la variabilité du sens selon les personnes et les 
> algorithme, de la description du fait enregistré selon les critères de 
> nomination des faits enregistré des observateurs, des acteurs, des 
> utilisateurs. Quel est la nature exacte de ce qui est enregistré ? Comment 
> peut-on le définir ? Par définition (Mioara Murgür-Schachter) nous savons que 
> nos connaissances sont toujours affectées de probabilité et décrites avec des 
> mots acquis par une expérience dans un univers de probabilité. En plus nous 
> comparons des faits décrits dans des langues différentes (nécessait-ce que 
> français/informatique). Il est donc nécessaire de précisément croiser les 
> définitions multiculturelles jusqu'à obtenir une définition polynymique de 
> référence (polynyme : synonyme strict dans une autre langue pour le jargon 
> considéré - i.e. dans le même contexte).
> 
> 
> jfc
> 
> 
> 
> 
> 
> 
> 
> 
> _______________________________________________
> comptoir mailing list
> [email protected]
> http://cafedu.com/mailman/listinfo/comptoir_cafedu.com

_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com

Répondre à