Partie 2 : Derrière les BIG DATA, des mythes qui reviennent
Après l’aspect de consumérisation de nos données privées développé en partie 1, à voir l’ensemble des interventions sur les « BIG DATA » force est de se demander si le sujet ne cristallise pas en les faisant resurgir des espoirs et des craintes anciennes. Lesquelles paraissent liées à la renaissance cyclique de mythes qui suivent l’évolution des technologies de l’information : l’infobésité, la connaissance « universelle », l’homme « presque Dieu », ou … « le meilleur des mondes » d’Aldous Huxley.
L’infobésité n’est pas née avec le siècle.
Il suffit de lire l’article d’Ann Blair « Reading Strategies for Coping with Information Overload, ca.1550-1700”, pour s’en convaincre. Ainsi cite-t-elle Conrad Gesner qui se plaignait dans la préface de sa bibliothèque universelle (1545) de « la confusion et l’abondance nocive de livres ». D’autres tels que Adrien Baillet craignaient que cette profusion ne fasse tomber les siècles suivants dans la barbarie, faute de savoir séparer le bon grain de l’ivraie. Francis Bacon (1612) donnait des conseils sur la façon de lire, catégorisant déjà ce qui devait être lu en partie, ou en diagonale, ou pleinement et attentivement. Les conséquences de l’imprimerie plongeaient dans le désarroi des lettrés habitués à des listes de lecture indispensables restreintes. De nouveaux livres venaient enrichir les textes fondateurs, réflexion et enseignement prenaient une autre tournure. Nos façons d’assimiler les connaissances se modifient en fonction des évolutions des supports à la diffusion de cette connaissance. En fait, nos moyens et techniques d’apprentissage changent tout du long de l’évolution humaine. La façon de lire à l’antiquité n’était pas celle de la renaissance qui n’est pas celle d’aujourd’hui.
Ainsi dans sa très intéressante « histoire de la lecture » Alberto Manguel évoque le psychologue Julian Jaynes, qui suggère qu’aux premiers temps de la lecture, la perception était sans doute plus auditive que visuelle. L’écrivain rappelle d’ailleurs que « les mots écrits, dès les temps des premières tablettes sumériennes, étaient destinés à être prononcés à voix haute, puisque chaque signe impliquait, comme son âme, un son particulier. Le dicton classique scripta manent, verba volant – dont le sens est devenu, de nos jours « ce qui est écrit demeure, ce qui est parlé se volatilise »- signifiait jadis exactement le contraire ; il avait été forgé à la louange de la parole, qui a des ailes et peut voler, par comparaison avec le mot écrit, silencieux sur la page, inerte, mort ».
La lecture sur la Toile offre depuis bientôt vingt ans de nouvelles possibilité d’exploration, de catégorisation, de filtres et de lecture.
Plutôt que lire en diagonale des chapitres d’un seul livre et leur résumé, nous effectuons cette lecture visuelle en diagonale non sur un livre mais des centaines de livres ou d’articles entiers, en profitant de leur résumé, des mots clefs ou des commentaires qui les annotent ou des liens qui les unissent, voire des images qui les illustrent. C’est une forme de lecture en maillage, où l’on peut naviguer, rebondir d’un point connecté à un autre d’une façon extrêmement visuelle (on « capte » une image, un mot) et éventuellement découvrir de manière fortuite un tout autre sujet que l’on pourrait souhaiter approfondir, par un effet de sérendipité que le Web renforce (cf. Le monde.fr sur la sérendipité). Mais cet effet n’est renforcé que jusqu’à un certain point et pour deux raisons.
Une sérendipité menacée ?
La première raison est que le processus de naviguer avec sagacité n’est pas donné à tout le monde, comme il n’était pas donné à tous à la renaissance de savoir lire efficacement (voire de savoir lire tout court). Il en suffit pour preuve de constater que plus de 80 % des clicks sur Google s’arrêtent à la première page (cf . voire plus de 91% selon les résultats d’une enquête de la société chitika). La plupart des gens ne vont pas au-delà de cette première page et au mieux s’arrêtent à la deuxième. Or, pour ma part, je trouve que les effets réellement intéressant des associations d’idées prennent corps à la dixième page et il n’est pas rare que j’aille bien au-delà de la vingtième page, pour trouver autres choses que des redondances, des informations dupliquées à l’excès ou des évidences. Ais-je des statistiques pour cela ? Non, car cela voudrait dire que je ne voudrais plus laisser la place au hasard dans ma propre recherche mais allez là où, potentiellement, d’autres me diraient d’aller, là où il serait intéressant a priori de rechercher. Pour créer les conditions d’un hasard heureux il ne faut pas « d’a priori » et se laisser surprendre.
C’est ce qui m’amène à la deuxième raison qui va progressivement limiter les effets de sérendipité de la navigation Web. On va, en utilisant en arrière-plan des bases de concepts/objets liés, nous proposer de plus en plus de contenu dits similaires que nous devrions apprécier, ou partir toujours de ce principe « qui se ressemble s’assemble » nous proposer les livres ou articles que nos « amis » (ceux qui numériquement sont liés à nous) ont aimé. Il faudra donc fouiller de plus en plus loin, pour aller au-delà des algorithmes qui décideront pour nous de ce qui peut être lié ou non, selon des modèles que nous ne connaitrons pas, ou selon les modèles du plus grand nombre.
Ainsi il serait illusoire de croire que cet accès à un gisement énorme de savoirs ferait de nous des surhommes, ou de prétendre à l’universalité à laquelle prétendait les savants de la renaissance qui déjà renâclaient en voyant les limites de leur savoir se dessiner dans l’incapacité à tout lire qu’ils découvraient nouvelle.
La connaissance « universelle »
Voltaire déjà se moquait de la légende entourant l’érudition du Pic de La Mirandole, dont on disait qu’à 18 ans, il connaissait 22 langues : « Quiconque dans une si grande jeunesse en sait vingt-deux, peut être soupçonné de les savoir bien mal, ou, plutôt il en sait les éléments, ce qui est ne rien savoir ». Le philosophe aurait aussi rajouté par ironie à la devise du prince Italien, « De omni re Scibili » (de toutes les choses qu’il faut savoir), la suite « et quibusdam aliis » (et de quelques autres… ). Pas plus aujourd’hui qu’à la renaissance, nous n’avons d’érudit capable de tout connaître, pas plus aujourd’hui n’avons-nous avec le Web des béquilles qui nous autoriseraient un supplément d’intelligence. Ou alors, nous aurions tout intérêt à nous en méfier.
Tout n’est pas écrit sur Internet et ce n’est pas une gigantesque intelligence qui conduirait à la connaissance universelle, jusqu’à être capable de prétendre que des analyses prédictives présentent la réalité objective de ce qui se produira. Pour autant, cela ne décourage pas des flambées d’optimisme vis-à-vis de ce qui peut sortir de ce potentiel de connaissance, qui n’est, à vrai dire, sans analyse humaine, même aidée, qu’un potentiel. Ainsi, Nils Aziosmanoff Président du Cube, Centre de création numérique, est enthousiaste vis-à-vis d’un futur où apparaîtrait l’Homme symbiotique, mi homme mi machine, presque dieu, « Connecté au savoir et aux réseaux sociaux, assisté par la big data et les machines qui pensent, l’homme augmenté acquiert les pouvoirs d’un presque dieu. A l’heure où le progrès technologique s’accélère, l’accès à l’expertise de la donnée peut plus que jamais libérer les forces de la créativité. »
La fascination pour le progrès
Cette fascination pour le futur promis par les progrès des technologies, futur qui reste à écrire, a toujours porté cette aspiration des hommes à s’élever jusqu’au divin. L’utopie du progrès toujours positif, la vision de l’homme « nouveau » n’est pas neuve. Elle est en train de renaître après avoir disparu suite aux excès de la révolution industrielle et de deux guerres mondiales. « Le progrès est le mode de l’homme. La vie générale du genre humain s’appelle le Progrès ; le pas collectif du genre humain s’appelle le Progrès. Le progrès marche ; il fait le grand voyage humain et terrestre vers le céleste et le divin ; » écrivait Victor Hugo. L’écrivain précisait qu’il ne fallait pas confondre le progrès avec Dieu mais il rêvait quand même que l’un rapproche de l’autre. Est-ce vraiment le cas ? On peut en douter à voir la façon d’une part, dont l’Homme fait usage contre son espèce d’armes technologiques de destruction massive, nucléaires, chimiques, bactériologiques et d’autre part, à voir l’effet de l’homme sur la planète, de la disparition accélérée des espèces à l’épuisement des ressources en passant par le réchauffement climatique.
Il y a toujours une boite de pandore embusquée, cadeau des divinités à l’homme qui veut s’élever. Le philosophe Pascal rappelait que « l’Homme n’est ni ange ni bête et qui fait l’ange fait la bête». Si nous savons aujourd’hui être plus proches de certaines bêtes que d’anges indéterminés, dans la mesure où l’homme et le chimpanzé ont 99 pour cent de leur ADN en commun, inutile de noircir le portrait ou de rêver d’un homme presque Dieu. La science qui mène au progrès n’est en elle-même pas mauvaise, elle dépend de l’usage qu’on en fait et de l’éthique attachée à cet usage : « science sans conscience n’est que ruine de l’âme » disait déjà Rabelais. Aujourd’hui nous sommes à un nouveau clivage, un nouveau carrefour où les routes possibles peuvent nous mener vers un avenir peut-être plus solidaire ou peut-être, pourquoi pas, jusqu’à la disparition de l’espèce humaine. C’est en tout cas ce que croit Frank Fenner, professeur émérite de microbiologie à l’Université nationale australienne, qui prédit la disparition de l’Humanité dans les 100 prochaines années (cf. l’article « Il est déjà trop tard » : l’espèce humaine devrait s’éteindre ce siècle).
Les boites de pandore de l’anthropocène
Nous ne devons pas oublier que l’ère numérique est aussi celle de l’anthropocène (voir à ce sujet la video « Welcome to the anthropocene »). Trop de monde, trop de produits à consommer, non recyclables, trop de déchets, pas assez de ressources … La croissance à tous prix se payerait au final avec la disparition de l’Homme. Que viennent faire les « BiG DATA » là-dedans ? Issue de l’explosion des technologies numériques, elles peuvent peser dans la balance dans un sens ou dans l’autre. Car n’oublions pas qu’un des grands aspects du BIG DATA, celui qui séduit tant d’entreprises, c’est de nous faire consommer encore et toujours plus, voire de nous faire devenir outils de consommation. De l’autre côté, au sein des « BIG DATA», réside l’espoir de pouvoir être plus inventif, de pouvoir corréler des grands volumes de données et de pouvoir les mettre en perspective de façon nouvelle pour trouver des solutions à des problèmes de santé, d’énergie, d’alimentation, d’infrastructures … .
Ainsi la médecine progresse grâce au « Big Data », avec la possibilité de faire des analyses sur des échantillons de données plus vastes, réaliser des études cliniques avec plus de cas, d’exemples rassemblés de médecins, de patients différents autour du monde, de chercheurs, plus de possibilités de faire des modèles prédictifs, de réduire les tests humains au juste nécessaire, de même qu’il est possible de comprendre la mutation d’un virus à travers de larges populations de patients. Nous sommes en droit d’être optimistes comme nous sommes au devoir de rester vigilants face à ces progrès qui peuvent nous mener vers plus de biens pour l’humanité, comme ils peuvent être détournés au profit d’une logique capitaliste loin d’être humaniste. Ainsi devons-nous nous interroger sur cette logique qui fait déposer des brevets de propriété intellectuelle sur des semences, des gènes humains, ce qui entraîne parfois de vraies batailles juridiques pour rétablir le droit à la recherche (cf. Libération pas de brevet pour l’adn humain).
A côté de cela, un premier clonage humain est passé presque inaperçu cette année (« le Quotidien du Médecin ») une équipe de chercheurs a produit pour la première fois des cellules souches embryonnaires humaines (CSEh) par le transfert d’un noyau de cellule cutanée dans un ovocyte préalablement énucléé. Une technique qui est réellement celle du clonage et la même que celle utilisé pour dolly. Même si les embryons produits ne semblent pas viables au sens où ils ne pourraient être réimplantés, même si l’objectif annoncé est aujourd’hui thérapeutique et non reproductif… qui peut dire ce que l’avenir nous réserve ?
Vers un « meilleur des mondes » … possible ?
Ajoutez au clonage ce que disait déjà Jeremy Rifkin en 2001 sur le cyberespace « le nouveau théâtre universel où votre ticket d’entrée vous donnera le droit de participer à la représentation comme s’il s’agissait de votre expérience réelle », compléter par cette approche de propositions « par similarité » ou en fonction de votre profil type, qui fera progressivement que vous ne verrez sur le Web que ce qui est censé vous correspondre, ou du moins correspondre à votre segment de client et nous ne sommes plus très loin d’une vision du « meilleur des mondes » d’Aldous Huxley.
La boîte de pandore se fabrique en même temps que nous marchons vers un avenir incertain. On nous promet de plus en plus de distractions, des expériences utilisateurs « rien que pour nous », on nous pousse à consommer, tandis que nos propres gènes deviennent biens de consommation et que cette surconsommation, cette recherche de l’instant et l’individualisme à outrance, nous conduisent vers le moment où la croissance que nous recherchons à tous prix se payera de notre perte. Accepterons-nous d’abdiquer notre éthique, notre liberté, la belle incertitude de notre avenir pour l’illusion du bonheur dans une société normée où tout est joué depuis la naissance ? Ce n’est pas ce que promettent les BIG DATA, elles n’en seront pas la cause, mais elles peuvent en devenir un moyen. Comme elles peuvent nous aider à aller vers d’autres avenirs possibles. Nous ne pouvons prédire objectivement plus l’un que l’autre, sombrer dans le catastrophisme ou l’optimisme à tout crin ne nous aidera pas à construire une voie satisfaisante. Mais s’il y a une leçon à tirer des mythes, c’est qu’ils reviennent toujours à un moment clé de l’évolution, parce que l’avenir est justement, incertain à ce moment-là, en balance entre des extrêmes.
Ce ne sont pas les technologies qui nous poussent vers un chemin ou un autre. Par contre, elles peuvent accélérer les effets de notre avidité ou au contraire nous aider à trouver des méthodes nouvelles pour résoudre des problèmes (méthodes différentes de celles qui les ont créés). En termes technologiques, il semble que les BIG DATA soient l’évolution, dans la continuité, de la Business intelligence et du Web avec les données liées. Alors, où sont les « nouvelles » méthodes ?
Pour lire la 1ère partie : Big Brother Data ou Big Open Data ?
____________
Troisième partie : Les BIG DATA : une évolution dans la continuité des TIC ?