Inspiré de « Rebondir avec la crise du Covid-19 » Publié le 24 mars 2020

La crise de la Covid-19 et l’effet Papillon

En Europe nos systèmes de santé ont été souvent saturés par la première vague, le personnel déjà sollicité parfois au-delà du raisonnable. Une deuxième vague de l’épidémie se développe à une vitesse inattendue et risque de les confronter à une situation critique, avec un système au bord de l’embolie.

Nous sommes proches du premier anniversaire de lx’émergence en Chine de ce nouveau virus qui allait changer la face du monde de façon inattendue, au point d’avoir probablement eu un effet sur l’élection présidentielle des USA. Il est édifiant de constater qu’un minuscule organisme inerte, qui ne peut ironie se multiplier qu’en exploitant l’énergie et le processus de reproduction des cellules qu’il infecte puisse mettre à mal les économies du monde. Celles-ci se sont développées en optimisant des résultats à relativement court terme fondées sur des flux internationaux stimulés par la mondialisation à outrance que nous avons observée depuis quelques dizaines d’années !

Je rapproche ce phénomène de l’ « effet papillon », métaphore que le météorologue Edward Lorenz formula pour la première fois en 1972 lors d’une conférence en posant la question suivante :

« Le battement d’ailes d’un papillon au Brésil peut-il provoquer une tornade au Texas ?»

L’ « effet papillon » se caractérise par une suite d’événements dont le précédent a une influence minime sur le suivant mais portant sur un nombre très considérable d’interactions, ainsi les molécules d’air. D’évènement en évènement, un fait apparemment mineur arrive au bout des interactions à un phénomène d’ampleur considérable.

C’est une des caractéristiques des systèmes complexes, processus chaotiques qui ont, entre autres, mis fin à l’illusion d’une possible prévisibilité sans limite des systèmes déterministes.

Avec la crise sanitaire mondiale que nous vivons tous, nous sommes collectivement victimes d’une rupture qui pourra utilement illustrer dorénavant la caractérisation des systèmes complexes.

Puisque nous avons plus de « temps de cerveau disponible » avec la réduction du temps « consommé » par les déplacements, une occasion de revenir sur quelques questions fondamentales sur nos raisons d’être comme les philosophes nous y invitent, les priorités et la pyramide de Maslow, la résilience de nos organisations …

« A quelque chose malheur est bon » affirme le dicton. Peut-on tirer avantage de cet évènement pour le moins imprévu, y a-t-il des opportunités à saisir, peut-on rebondir?

Alors même que je saurais faire une liste de conséquences potentiellement graves, je préfère, plutôt que de céder au pessimisme, tenter de développer des idées qui peuvent nous aider à reconstruire un autre futur, peut-être une étape vers une utopie souvent risée.

Et si, alors que l’on voit bien que le salut ne peut être que collectif, solidaire, notre boussole ne devrait-elle pas, désormais, indiquer cette direction ?

  1. Intelligence Collective, outils numériques en synergie :

Quand on observe les initiatives qui se mettent en place au niveau du terrain face à la situation « de guerre » à laquelle nous sommes confrontés, on ne peut qu’être admiratif pour l’intelligence dont tous sont capables, stimulés par le besoin de « survivre » dans un monde tout à coup beaucoup plus contraint –et de façon inattendue- mais aussi, et c’est plus que réconfortant, avec le souci des autres.

Quant au dévouement, au sacrifice de ceux dont dépendent la survie des confinés et qui prodiguent les soins dans le système de santé au risque de la leur et même de leur vie, comment leur témoigner notre reconnaissance, dans la durée ?

Ne pourrait-on pas mieux utiliser les moyens « numériques » pour faire corps, pour diffuser les bonnes pratiques, les astuces imaginées par tel ou tel, mises en œuvre efficacement, pouvant servir de levier et multiplier les effets positifs (ou contrer les tentatives de détournement) ?

La cible était déjà définie dans le livre de Pierre Lévy « L’intelligence Collective, Pour une anthropologie du cyberspace » publié en 1994 aux Editions de la découverte. J’en extrais ces quelques phrases de l’introduction, page 25: l’informatique communicante ne visera « … pas de « remplacer l’homme » ni de s’approcher d’une hypothétique « intelligence artificielle », mais de favoriser la construction de collectifs intelligents où les potentialités sociales et cognitives de chacun pourront se développer et s’amplifier mutuellement. Selon cette approche, le projet architectural majeur du XXIe siècle sera d’imaginer, de construire et d’aménager l’espace interactif et mouvant du cyberspace. Peut-être alors sera-t-il possible de dépasser la société du spectacle pour aborder une ère post-médias, ère dans laquelle les techniques de communication serviront à filtrer les flux de connaissances, à naviguer dans le savoir et à penser ensemble plutôt qu’à charrier des masses d’informations. « 

La crise que nous vivons met en avant toute une série de dispositifs de partage, de web conférences etc

A quand un inventaire des structures de données, connaissances, fonctionnalités, algorithmes [[1]], ontologies permettant de faire travailler en synergie ceux qui déjà participent au développement des logiciels libres. Le site Framasoft est une initiative qui mérite probablement notre soutien : https://framasoft.org/fr/

  1. Bio mimétisme, architectures informatiques et cybersécurité

Alors que :

  • le réseau Internet, conçu pour un monde utopique d’une communauté du partage entre individus souhaitant que le « progrès » profite à l’humanité tout entière, montre chaque jour ses faiblesses, notamment en matière de sécurité, ouvrant la porte à des malversations et que,
  • d’autre part, des entreprises (principalement les GAFAs) ont réussi à développer des applications prédatrices qui exploitent nos données personnelles et tendent à devenir prédominantes au point de devenir, en captant toujours plus notre attention, le point de passage presque obligé pour nos contacts avec le monde,

on peut se demander si les limites de l’acceptable n’ont pas été franchies et si, dans la situation de rupture actuelle il n’est pas opportun de jeter les bases d’une architecture nouvelle plus robuste, résiliente respectant, par construction, quelques « valeurs » humanistes que l’Europe dit défendre.

La nature nous offre des dispositifs qui se sont perfectionnés tout au long des milliards d’années de l’évolution depuis les premiers organismes vivants unicellulaires. L’espèce humaine est considérée comme le stade ultime du processus de complexification des organismes vivants. Mais complexe est souvent antinomique avec résilience, nous l’observons dans le système global de répartition mondialisé que nous avons construit avec un seul critère de « mesure » l’efficience du « marché » supposée optimiser l’allocation des ressources pour le bien de l’humanité. Il apparait que cet édifice n’est pas un modèle de résilience, contrairement à beaucoup d’ écosystèmes qui nous ont précédés et nous survivront.

Plusieurs chercheurs nous invitent à adopter, pour imaginer des solutions innovantes à des problèmes concrets, des réflexions guidées par le bio-mimétisme ou la bio-inspiration.

On sait que la nature a inventé des mécanismes particulièrement efficaces dans l’utilisation de l’énergie. Les processus physico-chimiques qui supportent le « vivant » de nos muscles au système nerveux et au fonctionnement du cerveau sont remarquables. Les enzymes obtiennent des résultats extraordinaires avec des combinaisons de molécules qui en font des catalyseurs étonnants[[2]].

L’émergence de ce nouveau virus, qui après d’autres, sème la panique dans nos sociétés et déséquilibre nos organisations m’invite à formuler une piste qui m’avait déjà traversé l’esprit :

Pourquoi ne pourrions-nous pas repenser l’architecture informatique du futur en nous inspirant des mécanismes des organismes vivants :

  • mécanismes de détection, de reconnaissance, des amis (air, rayonnements, nourriture, collaboration, certains enzymes etc ), et de leur assimilation, digestion,
  • alerte (globules blancs) sur les ennemis : microbes, virus, poisons, et dispositifs d’élimination,
  • capacité à la reproduction sexuée sélective entre seuls membres d’une espèce,
  • collaboration dans des écosystèmes entre animaux, végétaux (arbres entre eux, arbres et champignons etc ..)
  • Enfin l’accumulation des connaissances et leurs transmissions entre générations au travers des cultures.

A quand la transposition aux OS et protocoles réseaux des règles de confinement et gestes barrages ?

  1. Le traitement de l’information, le « numérique » ne suit pas les règles qui fondent l’économie « classique »,

Michel Volle en fait un point majeur de son analyse (voir l’institut de l’Iconomie )

L’économie classique est construite sur 2 principes qui ne sont plus valides :

  1. Des échanges de biens transfèrent la propriété d’un « objet » d’un acteur économique à un autre au travers d’une transaction de « vente ». C’est un « jeu » à somme nulle.

Une évaluation intermédiaire partagée de la « valeur » de l’échange sur une échelle donnée par une monnaie permet de dépasser le mécanisme primitif du troc. L’apparition de la notion de la « monnaie » libère simultanément des contraintes d’unité de lieu et de temps des échanges « physiques » ; elle permet aussi un stockage de la « valeur » produite pour l’utiliser plus tard. Aussi la possibilité de l’emprunter et de la rembourser ultérieurement.

Le dispositif s’étend de plus en plus à un autre « bien » de notre économie « le service » qui devient, grâce à la monnaie, « convertible » en biens matériels dont, au premier rang, la nourriture.

  1. La théorie économique « classique » enseigne que la concurrence -réputée parfaite- dans un marché tend à rapprocher le prix de cession (de vente) du coût marginal de « production» de l’unité supplémentaire.

Comme l’information, numérisée, peut être copiée à un coût extrêmement faible, presque nul, la tendance à long terme pousse à une diminution du prix de « vente », le réduisant progressivement à zéro. Une évaluation économique de la valeur d’une « information » est très difficile, encore plus la valeur d’une « donnée » qui, isolée et non qualifiée n’a pas de sens, pas plus qu’un atome participant à une molécule complexe comme celles que l’on trouve au cœur des organismes vivants.

L’effet réseau (apparu déjà avec le téléphone), qui explique que la « valeur » d’un réseau augmente selon une fonction plus que linéaire du nombre d’abonnés, s’applique aux applications que nous avons vu naitre qui ont donné naissance à la puissance des GAFAMs.

A l’inverse les coûts de développement des applications ne cessent d’augmenter et exigent des investissements considérables avant toute commercialisation, avant tout retour. L’équilibre ne peut donc être atteint qu’en prenant une part majeure du marché et en « valorisant », indirectement, d’autres exploitations des données recueillies au travers, principalement d’une publicité mieux ciblée sur le profil, de plus en plus précis de l’utilisateur des applications proposées.

Ce qui est vrai pour les applications est aussi observé pour de nombreux composants électroniques : avec la densité croissante des circuits, qui suivent toujours la « Loi de Moore», une nouvelle usine coûte plusieurs dizaines de milliards de $, tandis que le coût marginal de production d’un processeur est devenu presque négligeable.

Contrairement aux biens « physiques » les informations et les connaissances se multiplient quand on les partage : celui qui « donne » une information ou « partage » une connaissance ne la perd pas, il la conserve.

L’intelligence de chacun y compris dans le règlement astucieux des problèmes quotidiens, les organisations efficaces, l’autonomie, le moyen et le long termes, la résilience doivent être à nouveau considérés sérieusement, l’économie des « connaissances » n’est plus celle qui a modelé nos sociétés !

  1. Des fondements économiques renouvelés fondés sur des règles économiques favorisant le partage

La recherche du profit personnel montre ses limites pour obtenir des progrès au bénéfice du plus grand nombre. Ne faut-il pas fixer un nouveau critère d’optimisation qui viserait l’intérêt de la communauté : le « commun » tout en prenant en compte l’avenir de la race humaine en équilibre avec son écosystème : notre terre ?

Mais aussi, selon un mode de « reconnaissance » novateur plus adapté à l’économie de la connaissance, pour rétribuer ceux qui souhaitent vivre d’une activité dans ce domaine.

J’imagine, je sais que cette idée sera jugée utopique, un dispositif stimulant le partage des connaissances, des algorithmes pour, finalement, le bien de tous.

Une rétribution fonction de l’usage pourrait peut-être s’envisager afin que le « producteur » d’une information, d’un module puisse, contrairement au logiciel libre, en retirer un revenu, raisonnable : une sorte de transposition des droits de diffusion des œuvres musicales gérés par la SACEM.

On compte bien les octets échangés sur le réseau, les accès disques par application, ne pourrait-on compter le nombre de sollicitations d’un algorithme ?

Il faudrait pour cela :

  • Identifier chaque version d’algorithme, lui attacher un « inventeur »
  • Définir une « unité » de mesure, je propose qu’on l’appelle le « Turing »
  • Alimenter un fonds via une « cotisation » adossée aux abonnements FAI
  • Répartir selon une croissance en « loi de puissance » avec plafonnement à 30 fois la valeur du revenu minimum (le SMIC par exemple) comme le recommandait Henry Ford.

Un avantage connexe de cette approche serait d’évaluer l’ utilité et la performance des algorithmes et alors que l’on commence, à peine, à s’intéresser à la consommation énergétique du « numérique », approcher une sorte de « rendement ». Il y a beaucoup à faire me semble-t-il dans cette direction. Le développement industriel a été directement lié aux nouvelles sources d’énergie, elles ne sont pas illimitées, même les plus récentes.

Modestement Forum ATENA dont l’objectif est justement le partage des connaissances ne pourrait-il pas stimuler, dans un premier temps, une synergie entre les multiples cercles de réflexion qui s’intéressent au « numérique » et promouvoir une telle approche novatrice ?

Il faut bien, au crépuscule de sa vie (qui peut durer, comme pas) rêver un peu …

[1] Voir par exemple l’initiative « Software Heritage » deRoberto Di Cosmo de l’INRIA https://www.softwareheritage.org/

[2] Voir la chaire Chimie des processus biologiques de Marc Fontecave au Collège de France https://www.college-de-france.fr/site/marc-fontecave/