At 15:28 05/05/2014, Marie GEORGES wrote:
Merci jfc
L'Europe a déjà tout l'arsenal juridique répondant aux questions que
se pose le groupe Podesta, fait d'une additions des
- principes US dits "FIPs" principe de finalité légitime, de
proportionnalité des données et de leur durée, droit d'accès au
données etc...qu'ils n'ont pu développer de manière horizontale
(seulement de manière très sectorielle et incohérente) comme
nous, pour des raisons de rapport de force négatifs entre:
Démocrates/républicains; et Congres/secteur privé de l'information
- de ceux ajoutés par la France dès 1978 (droit de connaitre les
raisonnements qui ont présidé au logiciel, et de les contester)
- celui de la portabilité introduit dans la proposition de règlement
PDP par le CE (un droit du consommateur en fait dans contexte des
anti-condurrence...)
Tu as l'air de connaître : une URL, un dossier sur l'état
technico-légal de la question?
Néanmoins on notera une timidité incroyable par les "cnils" à les
appliquer à fond aux Big Data réels actuels.. (sur les marges seulement)
Sur ta notion de "polynymie" qui dépasserait les traductions
diverses d'un même mot dans une autre langue, en formalisant toutes
les cultures serait peut être intéressant mais pas sans risques.
Attention: il ne s'agit pas de mêler les cultures, mais de
multilinguistique (une discipline particulière à ajouter dans la
sémiotique) c'est à dire de coexistence/cybernétique des langues.
Quand je tape (action) dans des observations d'observation qualifiées
de xxxx dans une langue, comment sont-elles normativement qualifiées
dans une autre ? La référence n'est pas celle des langues, mais les
faits observés selon quelle méthode, etc. Et donc la question est
celle de la miscibilité des données. Ceci pose la question du "nbit"
: dans ce bit quel est l'impact du contexte normatif accepté sur ce
qui est qualifié de 1 ou de 0, et réciproquement. Attention que je
m'applique à une priorité normative (l'informatique la connait) plus
que contextuelle/observationnelle que je ne sais pas quantifier et
que je dois donc quantifier.
A+
jfc
Il est tellement évident qu'on n'exprime pas les mêmes chose selon
les langues/cultures. : chacune a ses avantages et ses limites. Et
plus on croit connaitre une culture, plus on a l'impression de ne
pas la comprendre....selon ma petite expérience.
Ma conclusion est que la diversité est à conserver en vie, et non en
musée ou en programme réducteur qui la ferait sans doute mourir au
profit de la langue d'une puissance dominante
Bien à toi
Marie
Le 5 mai 2014 à 14:58, Jefsey a écrit :
Lors de son discours sur la NSA Obama a demandé une évaluation des
risques de la datamasse. Ce rapport note initialement:
"A significant finding of this report is that big data analytics
have the potential to eclipse longstanding civil rights protections
in how personal information is used in housing, credit, employment,
health, education, and the marketplace."
Commentaire liminaire
Ce rapport qui peut être trouvé sous
http://www.whitehouse.gov/sites/default/files/docs/big_data_privacy_report_5.1.14_final_print.pdf
(85 pages) ne tient pas compte de l'intellition qui semble
totalement inconnue de tous alors que nous en tirons pratiquement
tout ce qui nous permet de vivre.
Je rappelle que l'intellition est "ce qui fait sens". Ainsi, notre
oeil est pratiquement aveugle et nous fait remonter un nombre
minime d'informations. Le reste de notre vision est intellitive :
nous imaginons ce qui fait sens à partir de ces informations. Il
est évident à chacun que la multiplication d'accès aux données
(produites par action reaction cybernétique) captées (après
communication mitigée de bruit) va incroyablement accroître le
nombre de traitées (ce que nos sens en déduisent après leur
intellition, plus intellition informatique) et donc les conclusions
ou émergences aprés intellition cérébrale (les petites cellules
grises d'Hercule Poirot).
Risques principaux identifiés
Il fait ressortir cinq risques spécifiques :
1. Data on all of us is piling up fast in the hands of public and
private sector organizations and can't practically be clawed back.
"Data, once created, is in many cases effectively permanent
The
technological trajectory, however, is clear: more and more data
will be generated about individuals and will persist under the
control of others. Ensuring that data is secure is a matter of the
utmost importance."
2. Privacy laws are outdated. One problem the report raises is that
these laws are hard to apply to data stored in the cloud.
"We will continually need to examine our laws and policy to keep
pace with technology, and should consider how the protection of
content data stored remotely, for instance with a cloud provider,
should relate to the protection of content data stored in a home
office or on a hard drive. This is true of emails, text messages,
and other communications platforms, which over the past 30 years
have become an important means of private personal correspondence,
and are most often stored remotely."
3. The way data is used to "personalize" prices, promotions, and
access to financial services creates risks of discrimination
against minority groups.
"The ability to more precisely target advertisements is of enormous
value to companies
However, private-sector uses of big data must
ensure vulnerable classes are not unfairly targeted. The increasing
use of algorithms to make eligibility decisions must be carefully
monitored for potential discriminatory outcomes for disadvantaged
groups, even absent discriminatory intent."
4. Efforts to make online ad tracking more transparent are a mess.
"Users, more often than not, do not understand the degree to which
they are a commodity in each level of this marketplace
technologies to improve transparency and privacy choices online
have been slow to develop, and for many reasons have not been used
widely by consumers."
5. Congress needs to enact new legislation.
Propositions d'action
Le rapport finit avec six proposition concrêtes dont deux réclament
une intervention de la loi (US)
1. Advance the Consumer Privacy Bill of Rights. Consumers deserve
clear, understandable, reasonable standards for how their personal
information is used in the big data era.
2. Pass National Data Breach Legislation. Big data technologies
make it possible to store significantly more data, and further
derive intimate insights into a person's character, habits,
preferences, and activities.
3. Extend Privacy Protections to non-U.S. Persons. Privacy is a
worldwide value that should be reflected in how the federal
government handles personally identifiable information about
non-U.S. citizens.
4. Ensure Data Collected on Students in School is used for
Educational Purposes. Big data and other technological innovations,
including new online course platforms that provide students real
time feedback, promise to transform education by personalizing learning.
5. Expand Technical Expertise to Stop Discrimination. The detailed
personal profiles held about many consumers, combined with
automated, algorithm-driven decision-making, could
leadintentionally or inadvertentlyto discriminatory outcomes, or
what some are already calling "digital redlining."
6. Amend the Electronic Communications Privacy Act. The laws that
govern protections afforded to our communications were written
before email, the internet, and cloud computing came into wide use.
Ceci est important, mais doit-être bien entendu pris dans un
contexte information-communication-intellition-services si l'on ne
veut pas tomber dans des lois restrictives de la pensée et des
accusations permanentes de recours à la théorie du complôt. Sinon
les gens ne vont pas considérer l'information communiquée, mais
l'intellition obtenue.
La notion de vérité des données
Je note aussi la nécessité de comrendre la notion de vérité dans
notre espace-temps-données-métadonnées-syllodonnées. Tout n'est pas
dans la philosophie du processus (
http://fr.wikipedia.org/wiki/Philosophie_du_processus) loin de là,
mais ses contributions et l'impact techno-scientifique de ses
contributeurs ne peut être ignoré. La vérité d'une conclusion est
logique (Aristote, dialectique) et figée dans les micro-états de
ses successions temporelle (Principes). On doit lui opposer la vie
d'une émergence qui est agorique (réseau, polylectique, dynamique
et prends en compte le temps) et constitue la concrétisation
effective des choses.
Ainsi, le carnet de notes de 6ème, le CV à trente ans, et le
panégyrique final peuvent décire une même personalité totalement
différente. Comment faire rentrer la vie dans le texte de la loi et
la mémoire des ordinateurs.
A côté du qbit qui nous pose déjà pas mal de questions voici venir
le nbit lié aux polyvalences temporelles et circonstantielles du
nom et de la norme.
Absence de notion de polynymie
Une autre point ne semble en effet pas cité (je n'ai pas encore
regardé le rapport lui-même) qui est la variabilité du sens selon
les personnes et les algorithme, de la description du fait
enregistré selon les critères de nomination des faits enregistré
des observateurs, des acteurs, des utilisateurs. Quel est la nature
exacte de ce qui est enregistré ? Comment peut-on le définir ? Par
définition (Mioara Murgür-Schachter) nous savons que nos
connaissances sont toujours affectées de probabilité et décrites
avec des mots acquis par une expérience dans un univers de
probabilité. En plus nous comparons des faits décrits dans des
langues différentes (nécessait-ce que français/informatique). Il
est donc nécessaire de précisément croiser les définitions
multiculturelles jusqu'à obtenir une définition polynymique de
référence (polynyme : synonyme strict dans une autre langue pour le
jargon considéré - i.e. dans le même contexte).
jfc
_______________________________________________
comptoir mailing list
<mailto:[email protected]>[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com