L'IA…. l'Intelligence Artificielle.

1)  Définitions.

Définition de l'intelligence (une !):

Faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement.

Définition de l'Intelligence Artificielle.

Ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…).

 

2) Histoire de l'IA.

2-a) historique récent des supports de l'IA.

l'IA repose sur l'exécution de codes (programmes) qui résident dans de la mémoire et sont exécutés par un processeur (unique ou pas).

Le premier ordinateur (non électro mécanique) commercialisé en 1953 l'IBM 650; mémoire de 2000 mots ! (10 bits) volume 2,5 m3, poids 900kg+1350kg (alimentation), 16000 instructions/s,  500 000$.

Le premier microprocesseur commercialisé en 1971 l'Intel 4004, 2300 portes (transistors; taille de 10µm), mot de 4 bits, 600000 instructions/s,  env. 1cm3, quelques grammes, 100$ (?!).

Le dernier… 2018 Intel Icore i (3/5/7) plus de 1 750 000 000 portes taille de 20 nm (atome 0,1 nm), mot de 64 bits, 50 milliards d'instructions/s, tjs 1cm3 et moins de 300$.

 Côté prix, les microcontrôleurs: (ex. PIC_16F) 1€ ou moins par quantité mais tout de même 5 millions d'instructions/s

Résumé: en 70 ans; rapport de puissance de calcul: plus de 3 millions de fois plus rapide et 1 million de fois moins cher, moins gros, moins gourmand en énergie.

Côté mémoire: Au début, quelques milliers  de mots (kilo == 1024), aujourd'hui une carte mère peut disposer de 1 milliard de kilo octets (1 téra).

En matière de mémoire sur disque dur à l'échelle mondiale (big data) env  10 zetta-octets soient 10 995 116 277 760 milliards d'octets  … et on dit que ça chauffe un peu ! (env. 50 tranches nucléaires… ce qui n'est pas loin de la consommation électrique totale de la France (58 tranches) !)

Un monde virtuel, pour ainsi dire immatériel... juste si on ne se pose pas de questions ! 

En résumé: en 70 ans; rapport de volume mémoire, 550 milliards de milliard fois plus grand !!!!!

Côté réseaux: Premier essai Internet 1982 . débit de 56000bits/s en 99, aujourd'hui (très haut débit) 1000 000 000 bits/s  (1 Gb/s) ratio: > 15000 fois plus rapide.

(c'est le "point faible" des performances des systèmes qui communiquent via les réseaux, vs les puissances de calcul au niveau des processeurs. Les échanges sont "lents.)

 Bref ça bouge très vite… et lorsque  les calculateurs quantiques seront "commercialisés" toutes ces données exploseront encore d'un facteur de 1 à 100 millions (mais probablement pas pour les réseaux).

2-b) Historique du concept.

Si l'on considère qu'elle résulte d'une convergence/coopération de techniques, alors elle trouve son origine avec la maîtrise du feu, mais si on la cerne autour de sa caractéristique "copie de l'intelligence humaine" alors elle trouve son point de départ dans les années 1950 avec les travaux d'Alan Turing (un des responsable du décodage automatique des messages de l'état major Nazi durant la seconde guerre mondiale), qui se demande si une machine peut «tromper» un humain au point que ce dernier ne distingue plus la nature artificielle de la machine.

 

Dans ce sens, le développement croissant des technologies informatiques (puissance de calcul qui croit/ taille et prix qui décroissent) et des techniques algorithmiques (notamment l'apprentissage profond ou deep learning) ont permis la réalisation de systèmes numériques surpassant l'humain dans certaines de ses capacités cognitives emblématiques : le jeu d'échecs en 1997, le jeu de go en 2016 et le poker en 2017.

Les tendances évoquées (puissance calcul notamment), mais aussi la taille des bases de données et leurs interconnexions (réseaux) continuent à croître. Ainsi, si les calculateurs quantiques sont un jour fonctionnels, un nouveau facteur d'échelle (106 ? 109 ? plus ?) en terme de puissance de calcul (donc de temps de réponse) sera atteint.

Bref, si en 50 ans nous sommes passés du premier circuit intégré à des "systèmes" capables de battre tout homme "champion" de go ou d'échec. Quel spécialiste de "quoi-que-ce-soit"* ne sera pas dépassé par les systèmes de demain (25 ans !) ?

* les hommes politiques ou les économistes, ne sont-ils pas des joueurs de go ou de poker, tout à fait remplaçables par ces "machines" ?

 

3) Limites de l'intelligence incarnée vs l'artificielle.

L'intelligence humaine est-elle limitée ?

_Pour un individu "isolé" et mortel (durée d'existence limitée), la réponse est oui, assurément oui, si on inclut la caractéristique "comprendre". Une vie ne laisse pas assez de temps pour "tout" comprendre.

_Pour l'humanité mortelle… la compréhension totale de(s) univers, par passage des connaissances, s'améliore de siècle en siècle (d'un point de vue scientifique), mais aurons-nous le temps de "tout comprendre" ?

Ces deux propositions, si elles sont vraies, soulignent la supériorité de la collectivité qui transmet, partage ses expériences, à l'individualisme qui ne partage rien et est très probablement voué à stagner.

La supériorité de l'accroissement des connaissances vs leurs stagnations étant supposée elle aussi vraie, indiscutable. Le "paradis" est-il derrière nous ou devant nous ?

L'IA est l'une des matérialisations de la recherche collective. De ce point de vue, elle est un repère, un stade, pas un danger…. mais comme toutes innovations, suivant l'usage que nous en ferons elle peut devenir danger.  La maîtrise du feu peut se décliner par une suite d'inventions morbides: maîtrise de la métallurgie qui produit les armes , ou remarquables: l'impression des livres (caractères de plomb fondu) !

500 000 ans séparent la maîtrise du feu par l'homme, du premier mousquet.

30 ans séparent l'invention du premier transistor, de la première transaction internet (TCP-IP)

Tout va extrêmement vite… mais le temps qu'il serait nécessaire de laisser à la réflexion éthique est totalement incompatible avec l'exigence de la rentabilité financière caractéristique de nos idéologies capitalistes-libérales.

l'IA est là, les USA et la Chine sont "à fond" dedans… ne nous laissons pas dépasser* (comme des enfants (des garçons) qui jouent à l'épervier dans une cours de récréation)… l'heure n'est pas à la réflexion, hâtons-nous !

* Cédric Villani, matinale France Inter mai 2018.

 

Pour la suite de l'exposé, nous commencerons par jouer les Cassandres, non pour satisfaire un sombre pessimisme, mais du fait de l'observation du monde tel qu'il est, où les automatismes "élémentaires" posent déjà un vrai défi vis-à-vis de la place des humains dans les productions de biens, dans leurs relations au travail, en définitive (peut être ?) de leur raison d'être, à l'heure où se percutent une évolution démographique quasi exponentielle avec une inutilité grandissante des opérateurs humains remplacés par des automatismes !

Ces considérations deviennent encore plus aigues et préoccupantes car les automatismes contrôlés par l'IA vont toucher des secteurs d'activités jusqu'à présent jugés "hors de portée" des automatismes "élémentaires" évoqués.

À la fin de l'exposé, en contre-pied, nous adopterons un point de vue plus optimiste.

3) L'IA où ?

Les algorithmes traditionnels permettent déjà, exécutés sur des processeurs rapides associés à des capteurs et des actionneurs ad 'hoc, de réaliser la plupart des opérations simples réalisées jusqu'à présent par des opérateurs humains.

La capacité d'apprentissage et d'auto-amélioration de cet apprentissage donnent aux nouveaux automates des capacités d'adaptations nouvelles.

Dans le passé (15 ans !), tel mouvement d'un bras de robot devait d'abord être totalement décrit par des systèmes d'équations avant d'être rendu opérationnel, via un programme exécutant la traduction algorithmique des dites-équations.

Aujourd'hui il est tout à fait envisageable d'équiper un opérateur de capteurs qui enregistrent tous ses gestes en poste (leurs trajectoires) mais aussi ce qu'il voit (par exemple des travaux de peinture). Les valeurs saisies (échantillonnées) alimentent un réseau de neurones d'une suite de consignes pour sa phase d'apprentissage destinée, à terme, à conduire le bras d'un robot de peinture…. mais, en cas de "nouveautés" dans son environnement (exemple nouvelle forme de pièces à peindre) le réseau s'auto-modifie pour satisfaire "au mieux" sa tâche de peintre.

En ce sens, la machine a un comportement "humain".

Mais d'une certaine manière, cela fait plus de 20 ans que les ateliers ont vu les opérateurs humains, petit à petit, remplacés par les robots (ou ont été délocalisés, là où les bras humains restaient moins chers que ceux des robots), par contre la même concurrence va apparaître dans des secteurs jusqu'ici épargnés.

Quelques exemples;

Un médecin, c'est quoi ? Un Vidal, 9 années de cours, une expérience fonction de son âge. Plus des yeux, des mains et un certain nombre d'instruments aptes à l'informer sur ce "qui ne se voit pas".

Mais tout cela, est totalement et bien au-delà, inclus dans les bases de données.

Le Vidal bien sûr puisqu'il est en ligne, comme la compilation livresque (les 9 années d'études) ou les millions de scanners de moult pathologies… bref il ne manque qu'un cerveau pour faire des corrélations, des comparaisons et rendre un diagnostic. Et bien les réseaux de neurones et la logique floue peuvent être ce cerveau, lui aussi capable d'auto apprentissage.

Certes il n'y a pas l'humain… mais les déserts médicaux et le fameux trou de la sécu peuvent compenser ce manque… "la dette, la dette, les trous vous dis-je !"

Dans ce dessin de Serre, le patient passe un très mauvais moment… non du fait de la machine, mais d'un opérateur humain… nuance !

Un juriste c'est quoi… remplacez le Vidal par Code civil, Code du travail, Code de commerce, Code pénal, Code général des impôts, Code de procédure civile, Code de procédure pénale, Codes des assurances, Code rural, Code de l'avocat… et les jurisprudences, le tout dans des grandes banques de données, consultables par des outils de recherches neuronaux et le tour est joué… plus besoin d'hommes de loi. La machine tranchera tous les différends… impartialement et si rapidement… efficacement !

Un trader c'est quoi… un cerveau qui analyse les évolutions de courbes et les croisent via une certaine mémoire de scénarios passés pour en tirer des ordres de ventes ou d'achats… estimer les dérivées premières, secondes, troisièmes… puiser des scénarios de corrélations dans des banques de données. Un automatisme sur base d'IA sait le faire… juste 1000, 10000 fois plus vite que le plus vif des opérateurs humains.

 

Médecins, juristes, trader c'est peu de monde… mais combien de temps encore survivront les emplois dédiés aux relations humaines (pardon… clients) ?

L'interprétation des suites de phonèmes que nous prononcerons devant un micro (en général celui de notre smartphone) seront, en temps réel, traduites en consultation de bases de données avec réponse synthétique et cela dans toutes les langues. (c'est déjà tout à fait disponible en tant que traducteurs vocaux, sur tous les bons smartphones et tablettes du marché.)

Ainsi dans nos grandes surfaces (si elles existent encore dans 20 ans !?), dans nos salons d'expositions, nos interfaces humains que sont hôtesses d'accueil et autres animateurs d'HEPAD… Combien de temps avant que des robots humanoïdes ne mettent au placard ces acteurs humains, plus ou moins fiables, voire contestataires ?.... et à propos d'acteurs, itou pour le cinéma !

Bref partout où la compétence peut se résumer à puiser "intelligemment" dans un bouquin ou une expérience, l'IA peut faire l'affaire.

Alors que restera-t-il ?   les métiers de la création artistique !.... à moins que nous ne trouvions tellement "so much" les créations IA… et le snobisme n'ayant pas de limite, les Van Gogh de demain ont peut être du souci à se faire.

 

Dresser la liste des métiers "en danger" est un exercice très difficile, d'autant qu'il dépend en partie de la réaction des humains eux-mêmes, de leur suivisme ou de leur résistance, voire de leur rejet du tout "numérique".

Pour l'heure, très majoritairement, ils suivent enthousiasmés par toutes ces modernité avec en fond sonore; "dormez tranquilles braves gens, les métiers de demain sont à inventer".        Ce discours optimiste me semble un peu court.

Pas sur la forme, puisqu'il s'agit juste d'une pure lapalissade, mais sur le fond, car les technologies n'ont jamais évolué aussi vite.

Du coup l'adage "mieux qu'hier, mais moins bien que demain" (fond de commerce du grand philosophe cathodique qu'est Michel Serre), qui peut avoir un sens lorsque les choses "bougent" sur la longueur de plusieurs générations, que des itérations peuvent être mises en évidence, n'a aucune légitimité, lorsque en une demie génération les humains sont dépassés vis-à-vis de ce qu'ils ont connu dans leur jeunesse.

Ce que nous vivons en terme d'environnement numérique n'a pas connu la progressivité d'installation des technologies antérieures (mécanique ou même électrique), en ce sens toutes prédictions en matière d'incidences sur nos sociétés relèvent plus d'une l'imposture que d'une démarche scientifique basée sur des hypothèses d'itérations.

Un adage pertinent s'appuie sur une expérience vécue et revécue, pas sur une séquence historique aussi "bouleversante", aussi mondialisée et aussi rapidement diffusée.

Le mantra, vis-à-vis du chômage, "pas de soucis, les métiers de demain sont à inventer" est une imposture intellectuelle. 

Nos dirigeants sont de ce point de vue, ou bien peu cultivés ou bien cyniques (j'opte pour cette seconde hypothèse.)

 

… mais au-delà du chômage engendré,

via nos smartphones, nos accès internet (recherche, mail, réseaux sociaux) , nous sommes suivis, généralement plus ou moins volontairement, analysés, guidés vers nos souhaits, le tout bien entendu au motif de services rendus… pour notre bien "être" et le beaucoup "avoir" des GAFA.

Les applications de tout poil nous préparent à l'interconnexion permanente et ce, dès le plus jeune âge. Le monde de 1984 imaginé par George Orwell est en fait techniquement réalisé.

Une forme d'IA est mise en œuvre pour cela. Une IA au service du pur mercantilisme; mais pas que… on nous parle déjà d'interférences dans le champ des choix de nos hommes politiques (Trump aux USA élu par Poutine via les réseaux sociaux partagés par les américains !)

Fantasmes ou réalité… dans cette dernière hypothèse l'IA serait utilisée pour nous aliéner mentalement… !

Bref; IA… Intelligence Artificielle ou Interface-Agent de « surveillance » embarquée dans notre environnement (smartphone, gps, carte bleue…), les GAFA et leurs objectifs mercantiles sans bornes déontologiques !

 

4) L'IA pourquoi ça prend "si bien" ?

Sans doute parce que nous "aimons" la modernité. Elle est signe de jeunesse au sens où elle est née il y a peu de temps, avec nous. Or, qui ne souhaite pas être jeune ?

Elle est surtout marqueur de "IN" vs "OUT" pour ceux qui ne l'aiment pas. Et qui veut passer pour un "has-been" ?

Et cerise sur le gâteau, "le numérique", c'est moins compliqué à utiliser de jour en jour… terminés les claviers, place à la voix qui ordonne, commande ou simplement "dicté".

Dès la rentrée en primaire, certains enfants* disposent d'un smartphone (au cas où). Ces appareils sont devenus en quelque temps des interfaces homme/machine, plus que des téléphones.

Il est probable qu'en l'absence de véritables débats éthiques, l'Homme augmenté, porteur d'une puce sous-cutanée, est pour demain. Et qui ne voudrait pas être un homme ou une femme augmenté(e) ?

Et bien entendu, promoteurs de la pensée unique, comme toujours les détenteurs vedettes des micros de nos médias qui tiennent à être des hyper-branchés, nous parlant de changement d'algorithme en lieu et place de programme, de version 2.0 en lieu et place de nouveauté… etc 

Présentateurs vedettes qui seront eux-aussi, d'ici peu, remplacés par des cyber-présentateurs.

 * à priori pas ceux des leaders de ces technologies, Sundar Pichai (Google), Tim Cook (Apple), Mark Zuckerberg (Facebook) et Jeff Bezos (Amazon), bien au fait des nuisances qu'ils veulent éviter à leurs enfants.

 

5) L'IA jusqu'où ?  ou un peu de SF.

L'auto-adaptation et l'auto-apprentissage sont une nouveauté dans la nouveauté.

Jamais dans les technologies passées, les machines n'ont eu la possibilité de "s'auto-améliorer".

Cette autonomie potentielle, les machines "IA" d'aujourd'hui la porte en germe.

De ce fait, elles ont  la capacité de nous remplacer dans tous les domaines où la matière grise est utilisée. En particulier dans les domaines où l'analyse est utilisée en vue de prises de décision. Il est difficile en l'occurrence de ne pas penser à nos décideurs politiques, dont nous doutons bien souvent de la pertinence des décisions.

 Et au fond… en allant vite, une IA qui s'auto-améliorerait avec comme "mission" la gouvernance du monde au profit de tous et non d'une poignée, au profit de l'écologie planétaire et non de quelques firmes, au profit de la paix et non d'une poignée de faucons… et le tout sans égo à satisfaire, sans ambition de carrière, sans aucun des défauts humains !... C'est presque angoissant… non ?

 

7) Conclusion

Nous l'avons déjà évoquée dans ces lignes, l'assistance infatigable à de nombreuses activités dont nous pouvons tous être un jour bénéficiaires. Médecine, transports sécurisés, météorologie, recherches en pharmacie, chimie, physique… etc.

Bref tous les cas où analyse "intelligente" des bases de données, où l'exécution rapide de modèles complexes, permettent de faire avancer nos connaissances sont bien évidemment justifiés.

 Nous en revenons donc à l'éternel sujet de la destination d'une innovation technologique majeure pour l'humanité. La chimie au service du vaccin qui guérit ou au service de la fabrication d'un gaz neurotoxique, c'est toujours de la chimie ! Faut-il pour autant "enterrer" cette discipline ?

Non, ce serait une forme d'obscurantisme. A contrario avoir une confiance aveugle sur les déploiements des produits issus de l'industrie chimique serait (est) tout bonnement imbécile.

 L'IA, n'échappe pas à ce type de sujet. Le risque de s'interdire de s'interroger est très grand.

Cette auto-censure liée, nous l'avons déjà dit, à la modernité "2.0" (nouveau monde, comme dit E.M), mais aussi à "l'angoisse" de perdre du temps (de l'argent !) à réfléchir, alors que d'autres foncent, est une forme de démission de l'intelligence humaine… face à l'Intelligence Artificielle… une démission de plus de la réflexion au profit de l'action… (profits et actions peuvent être lus dans les deux sens des deux termes).

Le chômage (adossé à la démographie, tjs écartée des débats) évidemment lié à l'usage des automatismes "conventionnels" est exploité pour attaquer de tous les côtés le statut de l'employé.

Il coûte trop, il nuit à la compétitive du pays, il faut rogner ses protections via un allègement du code du travail, il faut rogner son salaire sous peine de délocalisation "là où son alter-égo demande moins", il faut casser son organisation en décrédibilisant le syndicalisme et en promouvant l'auto-entreprise, il faut qu'il soit flexible au sens du kleenex qui ne se plaint pas de son sort.

L'IA va multiplier plus encore le nombre des domaines où la concurrence homme-machine peut s'exercer.

Compte tenu du cynique refus d'accompagner l'envahissement des automatismes "conventionnels" dans tous les lieux de production par une réduction proportionnée du temps de travail, il est à craindre que l'usage généralisé de l'IA, qui va pousser toujours plus d'opérateurs à l'état  de chômeur, ne sera pas plus accompagné des réductions d'horaires requises, mais singulièrement par un peu plus de burn-out pour ceux qui seront les heureux "titulaires" d'un poste de travail.

La formation manquante, qui expliquerait une grande partie du chômage (toutes ces malheureuses entreprises qui n'arrivent pas à trouver de collaborateurs !)  va être offerte à des officines privées, qui à grand coup d'IA-learning (mais surtout de subventions publiques) vont sortir des statistiques du chômage une armée de "en-formation", de stagiaires, d'apprentis (à présent possible jusqu'à 30 ans !) et retarder ainsi de quelques années supplémentaires les véritables mesures à mettre en œuvre pour combattre le chômage. Véritable plaie qui peut très bien à terme nous conduire dans les bras du fascisme, qui a toujours prospéré sur la misère sociale liée au chômage de masse.

Le revenu universel sera préféré au passage aux 28 ou 24h hebdo, mettant ainsi aux oubliettes la dignité que peut procurer un travail et les relations sociales qu'il entraine.

Il reste que produire des biens de consommation sans les hommes pour des hommes sans revenus pour acquérir ces biens, constitue une véritable énigme à laquelle personne ne répond clairement. 

A moins que l'horizon soit juste quelque chose du genre : "Du cirque et du pain !"  … surtout du cirque… et de temps en temps une p'tite guerre par l'intermédiaire de soldats-robots, avec son lot de dommages collatéraux…  juste pour alimenter l'attention des téléspectateurs, les réseaux sociaux et les intérêts bien sentis de Lafarge, Bolloré et consorts !

Mais peut-être qu’un puissant mouvement de retour au « naturel » naîtra par réaction au tout artificiel !... À suivre.

 Christian.

 

 

 

Ajouter un Commentaire


Code de sécurité
Rafraîchir