Plan du Site Index Pages FEBB Accueil du site Menu histoire Contact


l' Intelligence Artificielle  : Un tour de la question....par un non spécialiste...en 2014


Préambule :

 L' IA (Intelligence Artificielle, ou AI ) ne peut être qu'une affaire de spécialistes, plus même, ne peut être laissée qu'aux mains de spécialistes. encore faut-il que chacun sache de quoi on parle ! En effet, tout le monde est concerné, directement ou indirectement.
Si le présent article peut convaincre de cela, le but de l'auteur est atteint.


Une donnée de base : (datée de 2023)
"Définitions et avis concernant l’IA" , réalisés par l’institution française CNIL (Centre National Informatique et Libertés) :
La CNIL fut créée en 1978 par la loi Informatique et Libertés, la CNIL est une autorité administrative indépendante, composée d’un Collège de 18 membres et d’une équipe d’agents contractuels de l’État.
Sa position est donc assez neutre, hors du champ des chercheurs ou des entreprises.

 Selon la CNIL, l’IA n’est pas une technologie, mais une science qui regroupe diverses techniques informatiques. Voir le chapitre définitions.


   SOMMAIRE

 Parc de Johan Miro

Des Définitions 

L’I A comme Mémoire Artificielle

L’IA comme rédacteur de textes

L’IA Générative

Les Modèles de fondation (FM).

Les Modèles d’ Action (LAM).

Le cerveau humain

La grande révolution économique

L’IA et Cadre Légistatif

Références

 

 

 Des Définitions :

A-Selon  la CNIL, l ’intelligence artificielle est un procédé logique et automatisé reposant généralement sur des algorithmes et en mesure de réaliser des tâches bien définies.

B-Pour le Parlement européen, constitue une intelligence artificielle tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Plus précisément, la Commission européenne considère que l’IA regroupe :

 Illustration : parc de Johan Miro      .

 

(1)             L’apprentissage automatique (machine learning en anglais) est un champ d’étude de l’intelligence artificielle qui vise à donner aux machines la capacité d’« apprendre » à partir de données, via des modèles mathématiques. Plus précisément, il s’agit du procédé par lequel les informations pertinentes sont tirées d’un ensemble de données d’entraînement.
Le but de cette phase est l’obtention des 
paramètres d’un modèle qui atteindront les meilleures performances, notamment lors de la réalisation de la tâche attribuée au modèle. Une fois l’apprentissage réalisé, le modèle pourra ensuite être déployé en production.

 

(2)           L’estimation ou inférence bayésienne s’appuie sur un théorème énoncé par le mathématicien Thomas Bayes. Ce théorème donne une méthode pour calculer la probabilité d’un phénomène grâce à la connaissance de certaines informations. L’estimation bayésienne est donc la méthode qui s’appuie sur ce raisonnement.
Exemple : sachant d’une part que mes chaussures sont peu adhérentes, et d’autre part qu’il a plu, le risque de glisser lors de mon trajet au travail ce matin est élevé.

 

 

  L’I A comme Mémoire Artificielle.

Les applications en IA s’appuient sur des bases de données souvent gigantesques.

C’est le cas des moteurs de recherche enrichis par l’IA.

Ils ont à leur portée les milliards de sites Internet existants et libres d’accès.

En plus, ils sont dotés de raisonnement linguistique. Ils sont donc aptes à repérer dans une requête les mots clés nécessaires à la réponse à fournir. Mais leurs algorithmes ne vont plus se contenter de lister les pages consultées, ils vont sélectionner les éléments de réponse qui y sont contenus.

Ces éléments, assemblés, vont être fournis à l’utilisateur sous une forme qui apparait comme « intelligente ».

En général, les sites consultés sont référencés en fin de réponse.

C’est pour cela que je désigne ce type de système comme des processus de « Mémoires Artificielles », tant ils se rapprochent du comportement d’une personne extrêmement savante, du type de certains autistes dont la mémoire absorbe et restitue tout ce qu’elle a emmagasiné.

La Mémoire Artificielle est déjà un assistant formidable pour les chercheurs et pour certains praticiens. Le diagnostic médical assisté par IA n’est pas autre chose. On ne peut parler d’Intelligence. Le système ne comprend pas une goutte des réponses fournies, mais il donne une vue quasi exhaustive de tous les symptômes décrits dans les bases de données médicales auxquelles il a accès.

 

 

  L’IA comme rédacteur de textes.

A ce propos Luc de Brabandere , célèbre ingénieur et philosophe, écrivait en fin 2023 : « CHAT GPT écrit comme il calcule, quoiqu’il calcule très bien, il écrit tout aussi mal. ». Ce qui veut dire que l’écriture fournie par un système d’IA n’est pas le résultat de la pensée, mais un résultat statistique : le mot, la phrase la plus probable est utilisée. On peut aussi craindre « la phrase la plus acceptable » par les maîtres du système.

 Dans ce chapitre on peut classer les outils de traduction : ceux existants se voyent renforcés par l'ajout des possibilités offertes par l'IA.
En plus, des outils de dialogue interactifs entre locuteurs oraux de langues différentes apparaissent. Mais leur efficacité pratique reste encore à prouver.

  L’IA Générative

 Une définition :

L'intelligence artificielle générative (IA générative) est un type d'IA capable d’apprendre ( Machine learning), de créer de nouveaux contenus ou développements, notamment des conversations, des histoires, des images, des vidéos et de la musique.

L’IA générative est donc aussi un système capable de prendre des décisions.

 Penseur de Rodin et IA
Ainsi les technologies d'IA génératives tentent d'imiter l'intelligence humaine dans des tâches informatiques non traditionnelles telles que la reconnaissance d'images, le traitement du langage naturel (NLP) et la traduction.
L'IA générative est un développement de l'intelligence artificielle.

Elle est capable d’apprendre le langage humain, les langages de programmation, l'art, la chimie, la biologie ou tout autre sujet complexe. Pour ce faire elle réutilise les données d'entraînement qu’on lui a soumise et ce pour résoudre de nouveaux problèmes. Par exemple, elle peut apprendre le vocabulaire anglais et ensuite créer un poème à partir des mots qu'elle traite.

Elle peut améliorer et combiner des photos, remasteriser des enregistrements, conduire un véhicule en tenant compte des multiples informations fournies par des capteurs.
Une entreprise peut utiliser l'IA générative à diverses fins, telles que les chatbots, la création multimédia ainsi que le développement de variantes de produits.

 

Comme toutes les intelligences artificielles, l'IA générative fonctionne en utilisant des modèles de « machine learning », de très grands modèles pré-entraînés sur de vastes quantités de données.

  Les Modèles de fondation (FM).

Les modèles de fondation (FM) (1) sont des modèles de « Machine Learning » entraînés sur un large éventail de données généralisées et non étiquetées. Ils sont capables d'effectuer une grande variété de tâches générales.

Les FM sont le résultat des dernières avancées d'une technologie qui évolue depuis des décennies. En général, un FM utilise des modèles et des relations appris pour prédire le prochain élément d'une séquence.

Par exemple, lors de la génération d'images, le modèle analyse l'image et crée une version plus nette et plus clairement définie de l'image. De même, dans le cas du texte, le modèle prédit le mot suivant dans une chaîne de texte en fonction des mots précédents et de leur contexte. Il sélectionne ensuite le mot suivant à l'aide de techniques de distribution de probabilité.

 

Formés sur des ensembles très importants de données, les modèles de fondation (FM) sont comme de grands réseaux neuronaux, dits « deep learning » qui ont changé la façon dont les spécialistes des données abordent le machine learning (ML). Plutôt que de développer l'intelligence artificielle (IA) à partir de zéro, les spécialistes des données utilisent un modèle de fondation comme point de départ pour développer des modèles de machine learning qui alimentent les nouvelles applications plus rapidement et de manière plus rentable.
Le terme « modèle de fondation» a été inventé par des chercheurs pour décrire des modèles de machine learning formés sur un large éventail de données généralisées et non étiquetées et capables d'effectuer une grande variété de tâches générales telles que la compréhension du langage, la génération de texte et d'images et la conversation en langage naturel.

En quoi les modèles de fondation sont-ils si particuliers ?

Une fonctionnalité essentielle des modèles de fondation est leur adaptabilité. Ces modèles peuvent effectuer un large éventail de tâches disparates avec un haut degré de précision en fonction des instructions de saisie. Certaines tâches incluent le traitement du langage naturel (NLP), la réponse aux questions et la classification des images. La taille et la nature polyvalente des FM les différencient des modèles ML traditionnels, qui exécutent généralement des tâches spécifiques, telles que l'analyse du texte en fonction des sentiments, la classification des images et la prévision des tendances.

On peut utiliser des modèles de fondation comme modèles de base pour développer des applications en aval plus spécialisées. Ces modèles sont l'aboutissement de plus d'une décennie de travail qui leur a permis d'augmenter en taille et en complexité.

Par exemple, BERT, est l'un des premiers modèles de fondation, il a été publié en 2018. BERT, acronyme anglais de « Bidirectional Encoder Representations from Transformers », est un modèle de langage développé par Google. Ce modèle a permis d'améliorer significativement les performances en traitement automatique des langues.  Il a été formé à l'aide de 340 millions de paramètres et d'un jeu de données d'entraînement de 16 Go. En 2023, cinq ans plus tard seulement, l’entreprise US « OpenAI » a formé son « GPT-4 » (3) en utilisant 170 billions de paramètres et un jeu de données de formation de 45 Go. Selon OpenAI, la puissance de calcul requise pour la modélisation des fondations a doublé tous les 3,4 mois depuis 2012. En 2013, les FM, tels que les grands modèles de langage (LLM) Claude 2 et Llama 2, et le modèle Diffusion stable texte-image de Stability AI, peuvent exécuter d'emblée une série de tâches couvrant plusieurs domaines, comme la rédaction d'articles de blog, la génération d'images, la résolution de problèmes mathématiques, le dialogue et la réponse à des questions sur la base d'un document

 

(3)            GPT  = Generative Pre trained Transformer
ChatGPT = dialogue interactif sous forme de « chatbot» entre l’utilisateur et le système d’IA GPT développé par OpenAI.

 

  Les Modèles d’Action (LAM).

 

C’est une évolution des FM (modèles de fondation).
Les « Large Action Models » LAM. Ils permettent de prendre des actions et d’apprendre sur base de la répétition de ces actions. Ils sont intéressants car ils permettent de refaire une série d’actions sur base de la répétition de cette série d’actions par leur modèle.

Ils peuvent agir tant dans un univers virtuel (actions sur un PC par exemple) que dans un univers réel via des connections à des objets

Par exemple, sur un simple appel par le nom d’un fichier, en prendre une copie temporaire de sécurité, mettre à jour ses propriétés, puis l’ouvrir, en modifier la date de dernière version, et positionner le curseur en début de texte.

Dans un monde réel, sont appelés à répéter sur commande ce que l’humain réalise dans telle ou telle circonstance donnée.

Cela existe déjà en 2023 : « Rabbit OS », une couche logicielle qui se rajoute à des applications web classiques et qui « apprend » suivant les comportements de l’utilisateur.
Ils peuvent par exemple doter un robot laveur de vitres de manière telle que celui-ci réplique tout le circuit et les manipulations effectuées par l’humain pour un immeuble donné, y compris des situations inattendues : fenêtre ouverte, volet extérieur non levé, etc.

Mieux, ils peuvent agir et réagir avec autonomie dans des contextes dangereux : incendies, milieux radioactifs ou exposés à des rayonnements cosmiques.

Comme ces sortes d’IA ont un caractère agissant et une mobilité dans un univers réel, il sera évident de s’assurer qu’ils comprennent bien ce que l’humain veut  leur faire faire. On voit aussi toutes les dérives que cela pourrait entrainer.

 

Les modèles d’action révolutionnent notre environnement.

 

En très peu de temps, (2012 à 2015) des applications nouvelles se présentent :

On a parlé de multimédia :

Des anciens films, des anciens enregistrements de TV, peuvent être rapidement corrigés, rafrîchis,  et malheureusement aussi corigés ou modifiés.

Des systèmes de vidéosurveillance qui existaient déjà disposent maintenant d’outils d’analyse sophistiqués basés sur L’IA.

Les jeux olympiques de Paris en juillet 2014 en voient une application sur une ptrès large échalle. Toutes les images captées par des milliers de caméras sont analysées afin de repérer tout mouvement de foule ou d’objet caractérisé comme « suspect ». Chaque séquence suspecte est alors isolée, datée et géographiquement située aux fins d’être soumise aux contrôleurs…encore humains 😊. La reconnaissance faciale serait possible. Appliquée déjà en Chine.

 

Les outils classiques de correction ou manipulation des photos et vidéos S24 vont se simplifier considérablement. Un « Photoshop » à portée de tous s’est annoncé en avril 2024 : Samsung annonçait à cette date son Galaxy S24 doté de la fonction « AI Photo Assist »

 

ChatGPT4 annonce aussi à cette date un outil qui permet d’imiter la voix de n’importe quelle personne, pourvu que ce soit dans la même langue. Mais cette société est conscient des grands dangers que cette application porte en elle côté sécurité.

Sa diffusion reste encore restreinte. Elle ouvre encore une nouvelle porte aux cybercriminels !

 

  Le cerveau humain sera-t-il dès lors inutile à brève échéance ?

 

L’IA a une capacité de gestion des données infiniment plus large et rapide que le celle du cerveau humain.
Il n’en reste pas moins que l’IA n’a aucune conscience de ce qu’il réalise.
Sa créativité reste dépendante de son apprentissage, et comme toute application informatique, elle contient des « bugs » qui ne sont détectés que par le hasard des circonstances.

Les applications de l’IA sont dépendantes de la connexion à de très gros systèmes, de plus en plus puissants et de mémoires de plus en plus phénoménales.
Ce point est développé au chapitre "Révolution économique".

Les Systèmes IA vont-ils remplacer les humains ?

Dans un article intéressant écrit par les professeurs Bruno Colmant et Nicolas van Zeebroek en janvier 2024, ces derniers affirment que ce fait est incontestable et va dans le prolongement de ce qu’a déjà fait l’informatique. Une grande partie de la main d’œuvre industrielle est amenée à disparaitre. L’autre partie sera consacrée soit à la conception de nouveaux systèmes, soit à alimenter en données nouvelles les bases de données sur lesquelles s’appuient les systèmes d’IA. En effet, un système IA peut apprendre par lui-même à enrichir ses données et son expérience dans le ou les domaines pour lesquels il a été conçu. Exemple de domaine : les cancers des voies digestives en Amérique du Nord. Mais il ne va pas passer de lui-même au domaine des cancers du cerveau dans le même périmètre géographique.

Et pour passer à une autre région géographique, une nouvelle logique et de nouvelles données doivent être disponibles.

De plus, les résultats proposés par un système et surtout les actions significatives qui en découlent doivent être validées par un être humain. 
Imagine-t-on un système décidant par lui-même d’interrompre le traitement d’un cancer du côlon jugé par lui en phase irréversible ?

 

 
  La grande révolution économique.

Des auteurs attirent l’attention sur le fait que trop de revenus des Etats sont encore basés sur les revenus du travail. Or de moins en moins de gens travailleront ; donc il faut trouver des ressources parmi les bénéficiaires de l’automatisation galopante de la société ! Sans quoi comment assurer la survie des chômeurs et la retraite des gens ?
Ce sont là de grandes questions politiques à résoudre le plus rapidement possible.

Une autre révolution économique se précise en fin 2013. Elle est d'ordre technologique. Le succès des applications IA a entrainé une demande accrue de cartes de type graphique à haute performance, spécialité de la firme NVIDIA. Il y a un mouvement double : du côté de l'usage des modèles , leur augmentation monte en flèche. Il y a des efforts pour augmenter la puissance des serveurs d'IA et il y a des efforts pour optimiser les recherches lancées par les utilisateurs.
Mais du côté des dévelopements de modèles, de leur mise au point et de leur entraînement, les besoins en puissance informatique devienent colossaux, au point de nécessiiter la création de nouveaux et gigantesques "Data Center" de la part des acteurs  comme Microsoft, OpenAI et autres.
Caractéristique : ce n'est plus la capacité mémoire qui est une limite, c'est la puissance informatique. Et qui dit puissance, dit consommation en ressorces énergétiques et matériaux rares. La course est lancée...où s'arrêtera-t-elle ?  
                                                                                                       
Data Center ArtiqueAutre interrogation : y aura-t-il usage des ordinateurs quantiques pour la conception ou la gestion des applications en IA ?
On sait leur énorme potentiel en la matière, mais aussi leur coût et leur impact énergétique dû à la nécessité de fonctionnement du coeur à des températures proches du zéro absolu.

Bref, ces faits vont en plus à l’encontre de la recherche d’économies d’énergie.  
Il faut voir aussi que plus ces Méga-Centres sont utilisés dans les pratiques industrielles et administratives, plus ceux-ci sont dépendants de la bonne gestion et  maintenance des systèmes d'IA et de leurs réseaux informatiques et de leur alimentation énergétique.
Cette inter-dépendance devient un facteur économique non négligeable. Il met l'Europe en situation difficile de ce point de vue.

                                                                            La photo : Data Center géant prévu par Google en Artique.

    L'IA et un Cadre Législatif.

 
L’énorme puissance d’information, mais aussi de désinformation qui se révèle avec les applications de l’IA n’échappe pas aux sociologues, ni aux politologues.

C’est ainsi qu’en première mondiale, le 15 mars 2024, le Parlement Européen a voté, à l’unanimité de ses membres, l’IA Act.
Il s’agit d’un puissant cadre légal destiné à enrayer les dérives des applications de l’IA, et de favoriser, par ce fait même, l’éclosion d’une industrie européenne mise tant soit peu en mesure de lutter contre des faux en tous genres.
Il est par exemple interdit de diffuser des images crées ou modifiées par IA sans que mention explicite en soit faite.

On ne manquera pas de signaler ici l'énorme puissance que L'IA apporte ou peut apporterau biaisage de l'information.
Par exemple, les principaux outils d'IA sont détenus par des sociétés américaines (Les GAFA 's)  ou chinoises.
Qui peut garantir que les algorithmes de recherche ne soient  pas biaisés en faveur de thèses défendues par les patrons de ces  sociétés ? Personne. Mais en plus, aucun cadre législatif particulier n'interdit encore de telles pratiques.



  Références.

"Homme versus Machine, l'IA démystifiée" par Geertrui Mieke De Ketelaere.

https://www.cnil.fr/fr/intelligence-artificielle/intelligence-artificielle-de-quoi-parle-t-on

https://aws.amazon.com/fr/what-is/generative-ai/
https://Wikipedia.org

https://datascientest.com/intelligence-artificielle-definition#:~:text=Une%20intelligence%20artificielle%20ou%20IA%2C%20est%20un%20programme,artificielle%20a%20%C3%A9t%C3%A9%20acc%C3%A9l%C3%A9r%C3%A9%20par%20le%20big%20data.


Articles « Digital demain » de Roald Sieberath, professeur et président de « Digital Wallonia ».

 

   Dernières nouvelles.

En avril 2024, le groupe META de M. Zickelberg  annonce la disponibilité de tous ses propres outils basés sur l'IA.

Flèche retour sommaire
Retour au sommaire