Lors de son discours sur la NSA Obama a demandé une évaluation des
risques de la datamasse. Ce rapport note initialement:
"A significant finding of this report is that big data analytics have
the potential to eclipse longstanding civil rights protections in how
personal information is used in housing, credit, employment, health,
education, and the marketplace."
Commentaire liminaire
Ce rapport qui peut être trouvé sous
http://www.whitehouse.gov/sites/default/files/docs/big_data_privacy_report_5.1.14_final_print.pdf
(85 pages) ne tient pas compte de l'intellition qui semble totalement
inconnue de tous alors que nous en tirons pratiquement tout ce qui
nous permet de vivre.
Je rappelle que l'intellition est "ce qui fait sens". Ainsi, notre
oeil est pratiquement aveugle et nous fait remonter un nombre minime
d'informations. Le reste de notre vision est intellitive : nous
imaginons ce qui fait sens à partir de ces informations. Il est
évident à chacun que la multiplication d'accès aux données (produites
par action reaction cybernétique) captées (après communication
mitigée de bruit) va incroyablement accroître le nombre de traitées
(ce que nos sens en déduisent après leur intellition, plus
intellition informatique) et donc les conclusions ou émergences
aprés intellition cérébrale (les petites cellules grises d'Hercule Poirot).
Risques principaux identifiés
Il fait ressortir cinq risques spécifiques :
1. Data on all of us is piling up fast in the hands of public and
private sector organizations and can't practically be clawed back.
"Data, once created, is in many cases effectively permanent
The
technological trajectory, however, is clear: more and more data will
be generated about individuals and will persist under the control of
others. Ensuring that data is secure is a matter of the utmost importance."
2. Privacy laws are outdated. One problem the report raises is that
these laws are hard to apply to data stored in the cloud.
"We will continually need to examine our laws and policy to keep pace
with technology, and should consider how the protection of content
data stored remotely, for instance with a cloud provider, should
relate to the protection of content data stored in a home office or
on a hard drive. This is true of emails, text messages, and other
communications platforms, which over the past 30 years have become an
important means of private personal correspondence, and are most
often stored remotely."
3. The way data is used to "personalize" prices, promotions, and
access to financial services creates risks of discrimination against
minority groups.
"The ability to more precisely target advertisements is of enormous
value to companies
However, private-sector uses of big data must
ensure vulnerable classes are not unfairly targeted. The increasing
use of algorithms to make eligibility decisions must be carefully
monitored for potential discriminatory outcomes for disadvantaged
groups, even absent discriminatory intent."
4. Efforts to make online ad tracking more transparent are a mess.
"Users, more often than not, do not understand the degree to which
they are a commodity in each level of this marketplace
technologies
to improve transparency and privacy choices online have been slow to
develop, and for many reasons have not been used widely by consumers."
5. Congress needs to enact new legislation.
Propositions d'action
Le rapport finit avec six proposition concrêtes dont deux réclament
une intervention de la loi (US)
1. Advance the Consumer Privacy Bill of Rights. Consumers deserve
clear, understandable, reasonable standards for how their personal
information is used in the big data era.
2. Pass National Data Breach Legislation. Big data technologies make
it possible to store significantly more data, and further derive
intimate insights into a person's character, habits, preferences, and
activities.
3. Extend Privacy Protections to non-U.S. Persons. Privacy is a
worldwide value that should be reflected in how the federal
government handles personally identifiable information about non-U.S.
citizens.
4. Ensure Data Collected on Students in School is used for
Educational Purposes. Big data and other technological innovations,
including new online course platforms that provide students real time
feedback, promise to transform education by personalizing learning.
5. Expand Technical Expertise to Stop Discrimination. The detailed
personal profiles held about many consumers, combined with automated,
algorithm-driven decision-making, could leadintentionally or
inadvertentlyto discriminatory outcomes, or what some are already
calling "digital redlining."
6. Amend the Electronic Communications Privacy Act. The laws that
govern protections afforded to our communications were written before
email, the internet, and cloud computing came into wide use.
Ceci est important, mais doit-être bien entendu pris dans un contexte
information-communication-intellition-services si l'on ne veut pas
tomber dans des lois restrictives de la pensée et des accusations
permanentes de recours à la théorie du complôt. Sinon les gens ne
vont pas considérer l'information communiquée, mais l'intellition obtenue.
La notion de vérité des données
Je note aussi la nécessité de comrendre la notion de vérité dans
notre espace-temps-données-métadonnées-syllodonnées. Tout n'est pas
dans la philosophie du processus
(http://fr.wikipedia.org/wiki/Philosophie_du_processus) loin de là,
mais ses contributions et l'impact techno-scientifique de ses
contributeurs ne peut être ignoré. La vérité d'une conclusion est
logique (Aristote, dialectique) et figée dans les micro-états de ses
successions temporelle (Principes). On doit lui opposer la vie d'une
émergence qui est agorique (réseau, polylectique, dynamique et prends
en compte le temps) et constitue la concrétisation effective des choses.
Ainsi, le carnet de notes de 6ème, le CV à trente ans, et le
panégyrique final peuvent décire une même personalité totalement
différente. Comment faire rentrer la vie dans le texte de la loi et
la mémoire des ordinateurs.
A côté du qbit qui nous pose déjà pas mal de questions voici venir le
nbit lié aux polyvalences temporelles et circonstantielles du nom et
de la norme.
Absence de notion de polynymie
Une autre point ne semble en effet pas cité (je n'ai pas encore
regardé le rapport lui-même) qui est la variabilité du sens selon les
personnes et les algorithme, de la description du fait enregistré
selon les critères de nomination des faits enregistré des
observateurs, des acteurs, des utilisateurs. Quel est la nature
exacte de ce qui est enregistré ? Comment peut-on le définir ? Par
définition (Mioara Murgür-Schachter) nous savons que nos
connaissances sont toujours affectées de probabilité et décrites avec
des mots acquis par une expérience dans un univers de probabilité. En
plus nous comparons des faits décrits dans des langues différentes
(nécessait-ce que français/informatique). Il est donc nécessaire de
précisément croiser les définitions multiculturelles jusqu'à obtenir
une définition polynymique de référence (polynyme : synonyme strict
dans une autre langue pour le jargon considéré - i.e. dans le même contexte).
jfc
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com