54 - Mémoire & Technologie -
I – OBJECTIFS -
Mémoire & Technologie, ou l'Homme & l'Ordinateur : si les exploits de ce dernier nous émerveillent, il ne faut pas oublier qu'il n'est encore que le produit du cerveau humain. Le nom d'ordinateur a été donné par le professeur Jacques Perret (1906-1992), philologue, agrégé de grammaire, docteur es-lettres, théologien catholique, professeur à la faculté de Paris, à la demande d'IBM pour la francisation du mot "computer".
Mon objectif, ce soir, dans la poursuite de nos réflexions sur la mémoire, est de vous apporter des éléments de réflexion susceptibles de nous aider à porter un regard circonspect sur la société numérique dématérialisée en construction avancée. N'oubliez pas que, dernièrement, j'attirais déjà votre attention sur le fait que nous vivons, depuis maintenant 2 décennies, une révolution culturelle d'une ampleur encore plus importante que celle de 1454 résultant de l'invention de l'imprimerie, dont l'importance a été reconnue par les historiens puisqu'ils l'ont retenue comme date de transition entre le Moyen-Âge & la Renaissance.
II – LES ORDINATEURS -
20 – Structure matérielle (hardware) -
Le principe d'un ordinateur a été posé par John von Neumann (János Lajos Neumann) né à Budapest en 1903 et mort à Washington en 1957, mathématicien & physicien, théoricien de l'informatique. La machine de von Neumann, sur le plan matériel, comprend :
- un processeur, en charge des opérations arithmétiques et logiques et de la coordination du fonctionnement global ;
C'est ce qui s'assimile, mais d'une manière ô combien réductrice, aux capacités humaines d'analyse, de réflexion, de synthèse.
- une mémoire centrale, contenant à la fois les programmes (ou logiciels et progiciels), une partie des données à traiter, comme le résultat temporaire de ces traitements ;
Pour l'humain c'est notre capacité mnémonique, à quelqu'endroit qu'elle se situe.
- des périphériques, organes de communication avec l'environnement : ce sont les unités de stockage des données, les unités de saisie, d'affichage et de restitution (écran, pupitre, claviers, imprimante, scanner, caméra, appareil photos, haut-parleurs, lecteurs de codes divers), les unités de télé-transmission et de travail en réseau.
Pour l'humain, ce sont nos sens, mais également notre mémoire, nos membres, nos capacités de déplacement, mais aussi notre bibliothèque, notre discothèque, nos systèmes de notes en tout genre…
L'évolution constante de la recherche scientifique & technologique a permis la conceptualisation de familles de machines plus évoluées telles :
- les machines parallèles et massivement parallèles conçues pour le calcul scientifique, fondées sur le principe que l'on peut décomposer un programme en un ensemble de tâches indépendantes et communiquant entre elles, qui sont exécutes simultanément sur des processeurs différents, se partageant une mémoire commune ;
- les multiprocesseurs : architectures dans lesquelles plusieurs processeurs de même niveau communiquent et coopèrent à différents niveaux pour exécuter une ou plusieurs applications parallèles, se partageant l'ensemble des ressources de la machine ;
- les multi-ordinateurs : système puissant d'interconnexion d'un grand nombre d'ordinateurs modulé selon les besoins des traitements : c'est le système adapté pour les machines à tolérance de panne,
- mais aussi des machines miniaturisées aux capacités inimaginables il y a peu.
Pour nous, utilisateurs, cette typologie conduit à l'existence sur le marché des familles de machines suivantes : les ordinateurs d'entreprise, les ordinateurs scientifiques, les serveurs de données d'entreprise y compris les "Data Centers", les ordinateurs personnels, les tablettes, les phablettes, les smartphones & iPhones, les appareils photos & vidéos, mais également tous ces microprocesseurs invisibles inclus dans cette infinité de matériels d'usage commun : automobile, matériels ménagers, matériels domestiques, composants des immeubles "intelligents", domotique, matériels médicaux, matériels industriels, …
21 – Structure logicielle (software) -
De même, l’architecture logicielle d'une machine décrit d’une manière symbolique et schématique les différents éléments d’un ou plusieurs systèmes informatiques, leurs interrelations et leurs interactions.
Pour l'humain, c'est le domaine des sciences cognitives qui ont pour objet de décrire, d'expliquer et, le cas échéant, de simuler voire d'amplifier les principales dispositions et capacités de l'esprit humain – langage, raisonnement, perception, coordination motrice, planification, décision, émotion, conscience, culture...
On distinguait jusque vers la fin du XX° siècle 2 grandes typologies de logiciels :
- les logiciels de base destinés au fonctionnement propre de la machine : c'est le logiciel d'exploitation (p. ex. Unix, Dos-Windows, Linux, Android, iOS, …), avec ses couches propres aux interfaces utilisateurs, aux communications, à la gestion des données et des périphériques ;
Pour l'humain, c'est l'ensemble des informations qui relèvent des domaines de l'inné et du réflexe : on ne réfléchit pas pour se tenir debout, pour regarder à droite, à gauche, …
- les logiciels d'applications : ceux qui sont au service de l'utilisateur : ensemble des progiciels disponibles sur le marché pour la résolution de problèmes spécifiques, logiciels développés par les utilisateurs ou les sociétés de service (SSII), en langage de codification ou à partir de progiciels particuliers de développement.
Pour l'humain, c'est l'ensemble des informations qui relèvent des domaines de l'acquis, de la réflexion consciente....
22 – L'intelligence artificielle -
Elle relève des deux niveaux précédents de logiciel et peut, par son appellation, se rapprocher des modes de fonctionnement de l'humain en tant qu'approche "pensante", fait actuellement l'objet d'importants investissements, mais vous est quasiment invisible, alors même que vous l'utilisez au quotidien lors de vos recherches numériques ou tout simplement pour l'envoi de vos SMS. Aussi m'a-t-il paru opportun de vous en faire une présentation distincte.
Ses premiers pas datent de la protohistoire où mythes, légendes & rumeurs dotent des êtres artificiels, réalisés par des maîtres-artisans, d'une intelligence ; l'Intelligence Artificielle telle que nous l'entendons maintenant, a été initiée par les philosophes classiques, tel le philosophe, mathématicien, logicien, physicien, diplomate & juriste, Leibniz (Gottfried Wilhelm Leibniz 1646-1716), avec son "calculus ratiocinator", qui essaie de décrire le processus de la pensée humaine comme la manipulation mécanique de symboles ; puis sont intervenus plus tardivement les travaux du mathématicien et cryptologue anglais Allan Mathison Turing (1912-1954) qui proposa en 1936 une expérience de pensée et des concepts de programmation et de programme, ce que l'on nomme la machine de Turing ; ce modèle a trouvé tout son sens avec la création des ordinateurs. Toutefois, la recherche proprement dite a véritablement débuté après la conférence qui s'est tenue durant l'été 1956 sur le campus du Dartmouth College (USA-New-Hampshire), ce même Turing ayant commis en 1950 un article mémorable dans lequel il spéculait sur la possibilité de créer des machines dotées d'une véritable intelligence, tout en constatant la difficulté de définir une notion d'intelligence commune à l'homme et à la machine. A signaler enfin, pour notre culture, que dès 1949, Warren Weaver (1894-1978) scientifique américain, mathématicien et administrateur de la recherche, avait publié un memorandum sur la traduction automatique des langues naturelles qui était à la fois visionnaire et optimiste sur le futur de ce problème fondamental de l'intelligence artificielle.
Le concept qui en découle consiste à élaborer des programmes informatiques capables d'effectuer des tâches accomplies par des humains, mais qui demandent un apprentissage, une organisation de la mémoire, et la conceptualisation d'un raisonnement.
Très porteuse d'espoir jusque dans les années 1980, selon le courant utopiste habituel, les limites de ses résultats ont conduit les sociétés d'investissement à réduire leurs ambitions, pour limiter ses applications à des domaines plus fermés, mais qui nous assistent maintenant au quotidien : sur les smartphones (p.ex., la reconnaissances de visage sur Facebook ou de la voix sur Google), en médecine, en automobile (avec notamment les travaux de recherche en voie de finalisation des véhicules sans pilote), dans le secteur domestique avec les robots, dans la lutte contre la criminalité, dans les secteurs industriels à haut risque (nucléaire, processus thermiques à forte température, …), dans les secteurs industriels à très forte production, à durée de vie courte, et à technologie très avancée...
A titre anecdotique, après la machine DeepBlue d'IBM, qui a battu en mai 1997 le champion du monde d'échecs Garry Kasparov, le programme AlphaGo, développé par DeepMind (entreprise britannique fondée et dirigée par Demis Hassabis,, filiale de Google) a à son tour eu raison en 2015 du joueur de Go professionnel, le français Fan Jui, sur un goban de taille normale (19x19) sans handicap ; en mars 2016, c'était au tour de Lee Sedol, le 9° meilleur jouer mondial de succomber puis enfin, très récemment, le 27 mai 2017, le programme AlphaGo a obtenu la consécration en battant le champion du monde, le chinois Ke Jie.
III – L'ÉVOLUTION TECHNOLOGIQUE -
30 – Évolutions annoncées -
Le développement fulgurant des sciences & techniques de l'information résulte des progrès technologiques réalisés à un rythme très soutenu depuis plus de quatre décennies. En effet, selon les lois de Gordon E. Moore, né en 1929, cofondateur d'Intel (le 18-07-1968 - le fabricant de semi-conducteurs et de micro-processeurs), exprimées en 1965, puis 1975, dans leur version vulgarisée, un élément des constituants électroniques d'une machine double tous les 18 mois : ce sont soit, la puissance, la capacité, la vitesse, la fréquence d'horloge...
Toujours plus petit, sous la férule de ces lois de Moore, l’électronique maintient cette course depuis plus de 50 ans, au point que de nouveaux matériaux doivent être développés pour éviter les dérapages quantiques dès lors que la taille de ces composants atteint maintenant l’échelle de l’atome.
A titre d'illustration je vous soumets ci-après trois synthèses tirées du panorama très récent de l'actualité scientifique en matière de recherche électronique & informatique :
1 - Des équipes de recherche du Berkeley Lab ont annoncé avoir produit un transistor (interrupteur électronique qui laisse ou non passer le courant électrique) mesurant 1 nm de large, ou 1 milliardième de mètre, un cheveu moyen ayant une largeur de 50 000 nm, ce qui représente une taille 14 fois inférieure à ce que peuvent actuellement produire les meilleurs fabricants de semi-conducteurs comme Intel, Samsung ou Qualcomm. Cette performance est réalisée au moyen de nanotubes de carbone associés à un substrat de disulfure de molybdène (MoS2), des structures plus tolérantes que les procédés actuels à base de silicium ; seule ombre au tableau, ce circuit est paradoxalement très volumineux ce qui en exclut, pour l'instant, la mise en production en grandes séries !
2 - Des chercheurs de l’Université de Delft, aux Pays-Bas, ont créé une unité de stockage si petite qu’elle ne mesure que 100 nm de large : chaque élément de base (bit = binary digit) de données qui y est stocké l’est sur un seul atome, ce qui permet d’atteindre l’extraordinaire capacité de 1 KO par unité ; pour donner la pleine mesure de ce chiffre, la mise en œuvre de ces unités représente une densité de stockage de l’ordre de 500 Terabits (10 p. 12 ou 1 000 milliards) par pouce carré, soit 500 fois plus que les disques durs actuellement disponibles sur le marché, densité de stockage record qui permettrait de stocker tous les livres jamais écrits par l’homme sur une surface équivalente à un seul timbre poste.
A l'heure actuelle, son fonctionnement implique des conditions particulières de laboratoire puisque, pour que les atomes de cuivre et de chlore restent stables et organisés, il doivent être placés dans un état de vide et à une température de 77° Kelvin (-196° Celsius) !
3 - Des chercheurs allemands du laboratoire Helmholtz Zentrum Berlin (HZB) ont découvert comment réaliser un enregistrement magnétique HAMR (heat-assisted magnetic recording) plus efficace en remplaçant la combinaison fer/platine normalement utilisée sur nos supports magnétiques actuels, par un film de cobalt et de dysprosium {élément chimique de symbole Dy et de n° atomique 66, de la la série des Lantanides dans la table de Mendeleiev, découvert en 1866 par Paul Lecoq de Boisbaudran} placé sur une membrane. Cette membrane possède une structure en nid d’abeille avec des trous de 68 nm de diamètre et un espace de 105 nm entre chaque trou afin de créer des zones d’enregistrement indépendantes. La spécificité de l’enregistrement HAMR est d’utiliser un faisceau laser pour chauffer la zone à enregistrer, ce qui réduit considérablement la température de gravure et accroît la stabilité de la gravure.
4 - La croissance des données produites chaque jour à raison des énormes moyens individuels de production étant exponentielle, il devient indispensable de les stocker, et de manière pérenne, la fiabilité de nos supports actuels n'étant absolument pas garantie sur une longue durée ; p. ex., que sont devenus les fichiers de nos vieux ordinateurs d'il y a à peine 20 ans ? Il convient donc de trouver des alternatives aux serveurs actuels pour conserver d'immenses volumes d'informations, de manières durable et respectueuse de l'environnement, ainsi qu'à des coûts très très bas en raison du volume en croissance exponentielle. A cette quadrature du cercle, il semble que des chercheurs du Molecular Information Systems Lab de l'université de Washington, associés à des membres de Microsoft Research, aient trouvé une solution qui consiste à utiliser le plus formidable et le plus durable support d'information inventé par la vie, dont la structure a été élucidée par l'américain James Dewey Watson (1928-) & l'anglais Francis Harry Compton Crick (1916-2004), il y a maintenant près de 60 ans, ce qui leur a valu le prix Nobel de physiologie ou médecine en 1962 : l'ADN (Acide Desoxyibo Nucléique, macromolélcule biologique élément des cellules vivantes et de nombreux virus, constituée, pour les cellules vivantes, de 2 brins antiparallèles enroulés l'un autour de l'autre pour former une double hélice, chacun de ces brins, ou polymère, appelé aussi polynucléotide, étant lui-même constitué d'un nucléotide formé de l'une des 4 bases nucléiques, ou bases azotées : l'Adénine, la Cytosine, la Guanine et la Thymine (A-C-G-T), ces nucléotides étant unis par paires). Le principe de la méthode consiste alors à encoder une information binaire sous la forme d'une série de bases de l'ADN, le brin d'ADN ainsi encodé étant ensuite stocké dans une nanosphère de silice afin d'être ultérieurement extrait, séquencé et décodé. Une première tentative de faisabilité de cette technique a été récemment donnée en enregistrant un livre entier, soit 5,37 Mb dans seulement 1 picogramme (10 p. -12 ou 1 millionième de millionième de gramme), ce qui représente plus de 10 milliards de fois la densité de stockage d'un CD... Quant à la pérennité du stockage ainsi réalisé, des paléontologues de l'École polytechnique fédérale de Zurich viennent de tester par simulation ce procédé pour affirmer qu'il est fiable sur une durée d'au moins un million d'années... A méditer !
31 – Quelques pistes de réflexion -
Tous ces progrès permettent d'offrir des puissances de calcul et des capacités de stockage sans cesse croissantes, avec un abaissement considérable des prix de revient des machines et des coûts d'exploitation des centres de calcul et de gestion ; ainsi, ce sont désormais les logiciels qui représentent l'investissement le plus lourd dans un système informatique ; et si l'évolution des ordinateurs présente à l'évidence une certaine continuité dans les architectures de machines c'est parce que la nécessité de préserver les énormes investissements en logiciels freine la réalisation d'architectures originales.
Pour ces raisons, les architectures nouvelles ne pourront s'imposer que si elles apportent un progrès décisif dans la production et la fiabilité des logiciels d'application.
Après ces - je n'espère pas - fastidieux prolégomènes, je vous convie à réfléchir sur les implications qui résultent de ces nouvelles capacités technologiques offertes à l'homme.
IV – MÉMOIRE & TECHNOLOGIE -
Les outils technologiques accessibles à chacun ont conduit à une explosion quantitative, et souvent redondante, de la production de données numériques, ce qui n'a pas manqué de contraindre tout décideur, mais aussi tout philosophe, à envisager de nouvelles manières de voir et analyser le monde.
Leurs domaines d'exploitation sont énormes et en partie encore insoupçonnés. Ainsi en est-il par exemple des possibilités d'exploration de l'information diffusée par les médias, qu'ils soient scientifiques, culturels ou généralistes, la construction de nouvelles connaissances à partir d'analyses tendancielles et prospectives de ces immenses champs de données, en matière de climat, d'environnement, de sociopolitique, de sociologie, de comportements individuels, de gestion des risques, de biologie (génomique), de médecine, de gestion des réseaux énergétiques complexes, de sécurité et de lutte contre la criminalité, …, le réseau Internet permettant un accès aisé, mais non sécurisé, à ces informations.
C'est pourquoi la multiplicité de ces applications a donné naissance à un véritable écosystème économique impliquant, d'ores et déjà, les plus grands acteurs du secteur des technologies de l'information.
Il est hors de question de s'étendre plus longuement sur le champ des possibles ; examinons plutôt les problèmes à résoudre.
40 – Les volumes de données & l'Énergie -
Récupérer toute sorte de données numérisées pour les mettre à la disposition de chacun (il est permis de rêver...), via le réseau internet, p.ex., 24 h sur 24, implique la constitution de gigantesques serveurs de données sécurisés, les "Data Centers", installés quand c'est possible auprès de sources d'énergie naturelles, renouvelable, ou à faible coût de production (centrales hydrauliques) à raison de leur énorme consommation d'électricité : p.ex. en France nos actuels 130 Data Centers absorbent 9 % de l'électricité produite... Pour vous éclairer - puisqu'on parle d'énergie - un mail envoyé représente 24 w/h de consommation et l'on estime à 2 672 milliards le nombre d'e-mails envoyés chaque jour ! Aussi, les internautes sont-ils maintenant directement responsables de la moitié des émissions de gaz à effet de serre, Internent étant devenu le 3° consommateur énergétique mondial. Imaginez ce que le triplement attendu pour 2020, à très court terme donc, de l'utilisation du réseau mondial aura comme conséquences sur le plan environnemental.
L’anecdote suivante donne également une idée des problèmes posés par le stockage et la mise en sécurité de ce gigantesque volume d'informations :
"Parfois, les autoroutes de l'information sont moins rapides que nos bonnes vieilles routes. La preuve : Amazon Web Services vient de se doter d'un camion poids-lourd "Snowmobile" pour transférer des masses de données vraiment importantes. Ce véhicule est en l'occurrence capable de stocker 100 pétaoctets (10 p. 15) de données, soit l'équivalent de 100 000 disques durs d'un téraoctet (10 p. 12).
Snowmobile est destiné aux entreprises qui gèrent d'énormes masses de données dans leurs "Data Centers" et qui souhaiteraient les migrer vers un cloud, par exemple. Mais une telle migration ne peut se faire que par un déplacement physique des données car, même au moyen d'une connexion fibre optique à très haut débit (1 Gbits/s), transférer 100 pétaoctets de données nécessiterait plus de 28 ans, et avec une connexion traditionnelle de réseau d'entreprises (100 Mbits/s) presque trois millénaires, alors qu'avec Snowmobile, c'est l'affaire de quelques semaines !".
Dans la mesure où notre capacité mnémonique est également considérable, il est possible de mesurer les progrès techniques à accomplir pour rendre ces "Data Centers" aussi mobiles et peu consommateurs d'énergie (à voir !) que les humains !
Pour donner enfin un ordre d'idées de la consommation des données mobiles en France et de son évolution, l'ARCEP (Autorité de Régulation des Communications Électroniques et des Postes) a déterminé qu'en 2016, les français ont consommé 1 036 million de GO de données au moyen de leurs seuls smartphones, ce qui représente plus du double de la consommation 2015...
41 – La récupération sélective des données -
S'il est technologiquement possible de stocker de telles masses d'informations, se poser la question de leur récupération sélective c'est tenter de résoudre le banal problème de l'aiguille dans la meule de foin ; et pourtant !
Certes, stocker des informations, c'est bien, les récupérer en tant que de besoin, au moment voulu, avec la pertinence et la complétude nécessaires, c'est encore mieux.
Le cerveau humain est analogique, les neurones ayant la capacité d’émettre des signaux dans une grande variété de modalités, contrairement à l’ordinateur qui est numérique, ne traite que deux états, et de manière séquentielle, quoique de plus en plus de manière parallèle.Le cerveau utilise une mémoire activant des liens conceptuels, l’ordinateur, par contraste, utilisant une mémoire fondée sur l’activation de "mots" d'information dont la détermination du sens nécessite l'activation d'outils logiciels d'interprétation de ces données.
Le cerveau est un instrument qui opère massivement en parallèle comme de manière associative, voire par l'intuition ; l’ordinateur est généralement modulaire et séquentiel, avec au plus un traitement parallèle de données.
D'où l'intensité des recherches sur les réseaux de neurones artificiels...
Aucune distinction matériel/logiciel ne s’applique au cerveau ou à l’esprit ; la pensée émerge directement du cerveau où toute modification entraîne un changement à ce niveau. Jusqu'à ce jour, et en l'état des connaissances divulguées, rien de tout ceci ne serait encore possible pour l'ordinateur.
Malgré cette probable incapacité à imiter encore le cerveau, si de tels volumes de données, et à de tels coûts, sont disponibles, c'est qu'il existe bien évidemment des outils logiciels capables de les rendre exploitables.
C'est le domaine de la science des données, d'un accès extrêmement difficile (tant physiquement qu'intellectuellement), car les algorithmes mis en œuvre au sein de ces immenses masses sont en partie inaccessibles en raison de leur caractère secret eu égard aux enjeux - que l'on a peine à imaginer – qui résultent de leur maîtrise en matière individuelle ou collective, économique, financière, sécuritaire, politique et internationale ; dans un monde de compétition permanente c'est un défi majeur que de maîtriser le management de la connaissance.
De la même manière, c'est l'un des champs privilégiés de l'Intelligence Artificielle puisque très récemment un partenariat regroupant 5 géants américains (Amazon, Facebook, Google, IBM et Microsoft), 5 titans à la tête de centaines de "Data Centers", de centres de recherches avancées en matière d'intelligence artificielle, de réseaux neuronaux, 5 acteurs accumulant quotidiennement des milliards de données, ont décidé de fédérer leurs unités de recherche en vue de mettre en commun le résultat desdites recherches.
Le philosophe, comme le citoyen – fut-il planétaire – ne manquera pas de se poser la question du respect, par de tels groupes, des règles indispensables en matière d'éthique et de libertés individuelles qui ne manqueront pas de se poser au moment de la mise en œuvre commune de ces résultats...
V – LES INTERFACES HOMME-MACHINE -
Un autre aspect du futur des sciences & techniques de l'information doit enfin être abordé, c'est celui qui concerne tout naturellement (naturel sur le strict plan du raisonnement!) l'interaction entre l'homme et la machine. Il sera développé selon deux axes :
- les ICM, ou interfaces cerveau-machine,
- les CybOrg, ou individus greffés.
50 – Les ICM -
Une interface cerveau-machine (ICM) désigne un système de liaison directe entre un cerveau & un ordinateur, permettant à un individu d’effectuer des tâches sans passer par l’action des nerfs périphériques et des muscles. Ce type de dispositif permet de contrôler par la pensée un ordinateur, une prothèse ou tout autre système automatisé, sans sollicitation des bras, des mains ou des jambes. Le concept remonte à 1973 et les premiers essais chez l’homme datent du milieu des années 90.
L’ICM peut notamment être utilisée pour contrôler par la pensée des jeux vidéo, des logiciels, de la robotique ou des gadgets électroniques. Les opportunités offertes par ces interfaces sont exponentielles. Précurseur dans ce domaine, Microsoft a déposé en 2006 un brevet pour un dispositif capable de reconnaître les états mentaux d’un sujet à partir de l’activité électrique du cerveau, l'objectif affiché étant d'étudier plus efficacement la façon dont les utilisateurs interagissent avec les ordinateurs afin d'évaluer et d'optimiser les interfaces de ses logiciels. Jusqu’ici les développeurs ne disposaient que des témoignages directs des utilisateurs, or, comme le soulignaient à l’époque les chercheurs de Microsoft, Desney Tan et Johnny Lee, "les êtres humains sont souvent de médiocres témoins de leurs propres actions".
Pour sa part, Mark Zuckerberg, l'informaticien et chef d'entreprise américain, rêve de connecter le monde et plus que tout, de connecter les cerveaux par la seule pensée. Sa solution, une forme de télépathie dirigée par une intelligence artificielle. En 2007, il affirmait "un jour, vous serez capables de penser à quelque chose que vos amis pourront ressentir immédiatement". Propos de visionnaire ?
Plus récemment, en 2016, Elon Musk, ce chercheur sud-africain, chef d'entreprises, notamment de Tesla et SpaceX (production de véhicules terrestres et spatiaux électriques et fortement automatisés) naturalisé américain depuis 2002, vient de créer Neuralink, startup américaine de nano-biotechnologies, pour développer des composants électroniques susceptibles d'être intégrés dans le cerveau afin d'améliorer les performances de mémorisation et d'établir de meilleurs connexions entre l'homme et l'ordinateur. Le but ultime de Neuralik est de permettre d'intégrer l'intelligence artificielle à la conscience humaine...
Évidement de telles interfaces entre l’Homme et la machine ne manquent pas de susciter bien des questions sur le plan éthique, notamment :
- comment garantir, en matière médicale, une égalité de traitement pour tous les malades au moyen de ces dispositifs, compte tenu de leur coût et de leur difficulté d’accès prévisible ?
- comment distinguer la responsabilité de l’Homme de celle de la machine lors d’un défaut de fonctionnement de l’ICM ? Ce problème est devenu d'actualité le 7 mai 2016 en Floride lorsqu'un américain de 40 ans, Joshua Brown, s'est tué à bord de sa voiture automobile Tesla Model S, navigant alors en mode "autopilot" le système n'ayant pas détecté un camion qui lui a coupé la route...
- le neurofeedback (technique thérapeutique, issue de la science de la modélisation des cellules et des neurones du cerveau; elle utilise un processus d'apprentissage pour entraîner le cerveau à modifier et à réguler son activité cérébrale) a-t-il des effets secondaires ?
- qu'en est-il des systèmes qui ne manqueront pas d'influer sur le cerveau de manière indésirable ?
51 – Les CybOrg-
Les CybOrg représentent un stade avancé de fusion entre la biologie et la technologie. Comme leur nom l’indique, ils sont en partie cybernétiques et en partie organiques. Ce sont des humains qui augmentent leurs capacités physiques et mentales en recourant à la technologie. Cela peut passer par des implants, mais pas nécessairement. On peut aussi y parvenir par un usage intensif d’appareils externes.
C'est la perception sensorielle augmentée, de la réalité virtuelle à la réalité augmentée, qui en est l’aspect actuel le plus intéressant et le plus développé. Le plus grand salon sur la réalité virtuelle & augmentée - Salon des Technologies et Usages du Virtuel - a été organisé à Laval (F-53) du 22 au 26 mars 2017 - et sa 19° édition s'y tiendra à nouveau du 4 au 8 avril 2018.
Le terme de réalité augmentée a été utilisé pour la première fois en 1992 par Tom Caudell & David Mizell pour nommer la superposition de matériel informatisé sur le monde réel. En 1994, l’expression a été précisée par Paul Milgram & Fumio Kishino dans un article fondateur dans lequel ils décrivent "un continuum entre le monde réel et le monde virtuel (baptisé réalité mixte) où la réalité augmentée évolue près du monde réel tandis que la virtualité augmentée évolue près du monde virtuel".
Une définition assez fine en a été donné par Bruno Arnaldi & ses chercheurs : "La réalité augmentée est un domaine scientifique et technique exploitant l’informatique et des interfaces comportementales en vue de simuler dans un monde mixte le comportement d’éléments artificiels qui sont en interaction en temps réel entre elles, avec l’environnement naturel et avec un ou des utilisateurs en immersion naturelle ou pseudo-naturelle par l’intermédiaire de canaux sensorimoteurs".
Pour donner une idée des domaines d'application de cette technique, il faut savoir que la réalité augmentée a aujourd’hui dépassé son stade initial de recalage d’indices virtuels dans un flux vidéo (passage par traitement d'images d'un domaine de 2 à 3 dimensions afin d'en affiner les détails) ; actuellement, par exemple le système MARTS comprend un casque audio qui permet de transmettre les sons par conduction osseuse sans obstruer le canal auditif interne (Audiobone) et une ceinture tactile qui procure des indications de direction au moyen de vibrations.
Si, à l'origine, il s’agissait de pallier les déficiences de certains organes par l'implantation de composants technologiques, cette discipline évolue aujourd’hui pour aller jusqu’au pilotage des capacités du cerveau humain.
L’homme pourra-t-il encore se définir comme un être biologique, ou la technique le fera-t-elle accéder à un autre stade ? Où se situent les limites ?
V – CONCLUSION -
Il ne saurait être question de quitter ce ciel troublé d'informations techniques et prospectives autrement que par un atterrissage sur le terrain philosophique.
Je vous propose donc la bienvenue dans le concept de Transhumanisme.
Bien que le premier usage connu du mot "transhumanisme" remonte à 1957, son sens actuel trouve son origine dans les années 1980 ; il s'agit d'un mouvement culturel et intellectuel international qui prône l'usage des sciences et des techniques afin d'améliorer les caractéristiques physiques et mentales des êtres humains.
Ainsi, le transhumanisme considère certains aspects de la condition humaine tels que le handicap, la souffrance, la maladie, le vieillissement ou la mort subie, comme inutiles et indésirables. Dans cette optique, les penseurs transhumanistes comptent sur les biotechnologies et autres techniques émergentes, pour en minimiser les effets.
En France, le philosophe Bernard Stiegler {(1-04-1952 - Sarcelles (F-95)} travaille sur les enjeux des mutations actuelles (sociales, politiques, économiques, psychologiques, notamment) induites par le développement scientifique des technologiques numériques. B. Stiegler après avoir été membre du Conseil national du numérique jusqu'en janvier 2016, est actuellement membre du Comité d'orientation et de prospective du Forum Vies Mobiles (think tank de la SNCF).
Selon lui : "Ce qui distingue un organe naturel, comme la main ou le foie, de l'organe artificiel, c'est que le premier est soumis aux lois biologiques de sélection qui maintiennent son entropie (ou niveau de désorganisation) au plus bas, alors que le second peut aussi être générateur de chaos social si aucun contrôle social n'est exercé ; s'en remettre à l'économie de marché pour décider des innovations à développer et de celles à tuer, comme le prônent les transhumanistes, c'est du délire. Il convient de refonder l'économie car c'est une forme de néodarwinisme socio-économique que de décider entre ceux qui pourront vivre éternellement et les autres !"
Gageons qu'il soit entendu...