Geopolintel

Il était une fois l’Intelligence Artificielle

mercredi 14 juin 2023

Le mathématicien et cryptologue Alan Turing, a crée un test visant à mesurer la capacité d’une intelligence artificielle à imiter une conversation humaine.
Le but est de fournir des réponses crédibles comparé à celles qu’un humain donnerait.
Actuellement, des chatbots sont capables de tromper les êtres humains.

Remplacer l’homme par la machine est un vieux rêve du pouvoir.
Fusionner la machine avec l’homme est une réalité, c’est ce que l’on appelle l’homme augmenté.
Nos rythmes de travail ont augmenté avec l’utilisation de l’informatique.
Demain la machine dictera notre vie et sera capable de réguler nos émotions.

En 2015, 1 000 experts en robotique et en intelligence artificielle ont dénoncé les dangers de l’intelligence artificielle militaire et des armes autonomes et des robots tueurs.

Le but ultime sera de transférer la conscience d’un individu dans un support informatique, on pourra télécharger son esprit, l’homme sera numérisable.

Le Human Brain Project est un projet scientifique pour 2024 qui simulera le fonctionnement du cerveau humain grâce à un superordinateur, dans le but de développer de nouvelles thérapies médicales plus efficaces sur les maladies neurologiques.

L’intelligence artificielle Définition de l’intelligence artificielle

En général, l’IA – intelligence artificielle – peut être définie comme une branche de l’informatique axée sur la création de machines intelligentes qui pensent et réagissent comme les humains.

Mais le concept d’Intelligence Artificielle est très large, et, dans la littérature, il existe de nombreuses définitions qui tentent d’expliquer ce qu’est l’IA.

Pour systématiser les nombreuses descriptions ont pensé Stuart Russel et Peter Norvig, en les identifiant et en les classant en quatre catégories :

– les systèmes qui pensent comme les humains ;

– les systèmes qui pensent rationnellement ;

– les systèmes qui agissent comme des êtres humains ;

– les systèmes qui agissent rationnellement.

Selon les auteurs, ces catégories coïncident avec différentes phases de l’évolution historique de l’I.A., depuis les années 1950 jusqu’à aujourd’hui.

Jerry Kaplan, dans son livre « Artificial Intelligence. What Everyone Needs to Know », est d’accord avec la multiplicité des définitions qui tournent autour de l’IA depuis ses débuts, mais note un élément qui les unit toutes : « créer des programmes informatiques ou des machines capables de comportements que nous considérerions comme intelligents s’ils étaient adoptés par des êtres humains. »
Types d’intelligence artificielle

Selon la classification européenne, il existe deux types d’intelligence artificielle : l’intelligence logicielle et l’intelligence embarquée.

Par logiciel, on entend :

– les assistants virtuels : ce sont des logiciels qui, en interprétant le langage naturel, peuvent converser avec les humains. Les objectifs peuvent être multiples, allant de la fourniture d’informations à l’exécution de certaines fonctions ;

– les logiciels d’analyse d’images : principalement utilisés dans les secteurs de la sécurité, de la médecine, du biomédical et de l’aérospatiale ;

– moteurs de recherche : programmes auxquels on peut accéder à partir de sites appropriés pour localiser des informations susceptibles d’intéresser l’utilisateur ;

– les systèmes de reconnaissance vocale et faciale : logiciels qui utilisent des données biométriques pour la reconnaissance.

L’intelligence embarquée, quant à elle, comprend :

– les robots : dispositifs mécaniques et électroniques programmables qui peuvent être utilisés pour remplacer les humains dans l’exécution de tâches répétitives ou dangereuses ;

– les véhicules autonomes : capables d’égaler automatiquement les principales capacités de transport d’une voiture traditionnelle ;

– les drones : aéronefs télécommandés capables de détecter des informations ;

– Internet des objets (IoT) : réseau d’objets capables de communiquer et équipés de technologies d’identification.

AI Story
L’histoire
Les années 1950
Le test de Turing

L’histoire de l’intelligence artificielle ne commence pas avec l’invention du terme, mais une décennie plus tôt, grâce aux expériences du mathématicien Alan Turing.

En 1950, Turing écrit un article intitulé « Computing machinery and intelligence » dans le but d’aborder la question de l’IA, à l’époque peu connue au point de ne même pas avoir de nom. Le terme « intelligence artificielle » ne naîtra, en fait, que six ans plus tard.

Dans le but d’analyser l’intelligence artificielle et l’intelligence humaine, on crée le « Test de Turing » ou « Jeu d’imitation » : le test consiste en trois participants dont l’un, à un moment donné, est remplacé par une machine, à l’insu des deux autres. Le but est de voir si les participants « humains » peuvent se rendre compte qu’ils ont affaire à une machine.

John McCarthy et l’intelligence artificielle

Bien que les bases de l’IA aient déjà été posées par Alan Turing, ce n’est qu’avec John McCarthy que ce domaine de recherche porte enfin un nom : « intelligence artificielle ».

Il l’utilise pour la première fois lors d’une conférence sur le sujet tenue à Dartmouth en 1956, au cours de laquelle émerge le besoin d’un nom qui différencie l’IA de la cybernétique déjà connue.

Un document intitulé « Dartmouth proposal » est produit dans lequel, pour la première fois, le terme « intelligence artificielle » est utilisé.

L’après-Dartmouth

La conférence de Dartmouth suscite l’intérêt et l’enthousiasme pour ce nouveau domaine de recherche et de nombreuses personnes investissent le champ et étudient le sujet.

Parmi elles, Arthur Samuel, un informaticien américain, qui a créé en 1959 le « jeu de dames« , un programme conçu pour s’auto-apprendre au point de surpasser les capacités des humains.

Analysant les mouvements possibles à chaque instant de la partie, il est capable de fonder ses décisions sur un grand nombre de variables et d’informations, ce qui le rend meilleur que les autres joueurs.

Mais ce n’est pas la seule contribution d’Arthur Samuel à l’intelligence artificielle : pour donner un nom à ses inventions, il a également inventé le terme « machine learning ».

Les années 1960
Le Machine Learning

Le machine learning est historiquement né en 1943, par Warren McCullock et Walter Pitts, qui ont remarqué comment le cerveau envoyait des signaux numériques et, précisément, binaires (Kaplan, 2017).

Frank Rosenblatt, un psychologue, reprend les conclusions des deux chercheurs en les mettant en œuvre et en créant le Perceptron, un dispositif électronique capable de montrer des capacités d’apprentissage.

La première vague d’enthousiasme est toutefois suivie d’une vague de blocage, au cours de laquelle la recherche s’arrête et les investissements chutent. Pour que le domaine de recherche redevienne intéressant, il faut attendre les années 80 et les réseaux neuronaux non linéaires.

Les années 1970
Systèmes experts

Avec les années 70 arrivent les systèmes experts, nés dans le but de remplacer « artificiellement » une personne experte dans un domaine particulier.

L’intelligence artificielle, en effet, peut détecter des solutions spécifiques à un problème, sans avoir à consulter une personne experte dans le domaine.

Mais comment fonctionnent les systèmes experts ?

Ils sont composés de trois sections :

la knowledge base : une knowledge base dans laquelle se trouvent toutes les informations dont le système a besoin pour résoudre un problème ;
le moteur d’inférence : des informations plus spécifiques liées au fonctionnement de la knowledge base ;

3. interface utilisateur : c’est grâce à elle que l’interaction entre le programme et l’homme peut avoir lieu.

Les années 1980
Systèmes experts de deuxième génération

Avec les années 1970, la production de mini-ordinateurs augmente, et ils commencent à être présents dans de nombreuses entreprises. Dans les années 1970, la production de mini-ordinateurs commence à augmenter et de nombreuses entreprises commencent à en produire.

Cette période voit l’émergence des systèmes experts de deuxième génération, qui se distinguent des systèmes de programmation en ce que « L’approche commune de la programmation exigeait que le programmeur soit lui-même un expert dans le domaine de compétence du programme, et qu’il soit toujours disponible pour apporter des modifications […]. En revanche, le concept derrière les systèmes experts était de représenter explicitement les connaissances du champ d’application, en les rendant disponibles pour l’analyse et la modification. »
Les hivers de l’IA

En 1984, nous avons la naissance d’un nouveau terme : « hiver de l’IA ». Le nom indique déjà qu’il s’agit d’une période de refroidissement, au cours de laquelle les investissements et la recherche dans ce domaine sont en baisse.

Voici quelques exemples :

– milieu des années 1960 : les investissements dans l’IA sont stoppés par les États-Unis suite à une perte de confiance dans le domaine de la recherche ;

– 1987 : l’agence gouvernementale du ministère de la défense américain (DARPA), gèle les investissements en évinçant l’IA des domaines reconnus comme prometteurs.

Cependant, comme chaque saison, les hivers se terminent et, avec les années 90, de nouvelles innovations et de nouveaux investissements arrivent, posant les bases du futur de l’Intelligence Artificielle.

1990’s
Deep Blue

Nous sommes en 1996 et une partie d’échecs se déroule à Philadelphie. L’un des deux joueurs est le champion du monde Garri Kimovič Kasparov, connu pour être le plus jeune à avoir remporté le titre, à 22 ans et 210 jours.

Jusque là, rien de spécial, sauf que l’autre joueur « Deep Blue » est un ordinateur, conçu par IBM pour jouer aux échecs.

Le défi est remporté par Kasparov mais la revanche ne tarde pas à arriver : l’année suivante en effet Deep Blue, après une mise à jour, est capable de vaincre le champion du monde, remportant la victoire.

Le projet original remonte à la décennie précédente, en 1985, lorsque l’étudiant Feng-hsiung Hsu conçoit pour sa thèse une machine à jouer aux échecs, appelée ChipTest.

En 1989, ce projet est rejoint par Murray Campbell, son camarade de classe, et d’autres informaticiens, dont Joe Hoane, Jerry Brody et CJ Tan.

Le joueur d’échecs ouvre la voie à un large éventail de domaines d’utilisation possibles : les recherches ont en effet permis aux développeurs de comprendre comment concevoir un ordinateur pour résoudre des problèmes complexes en utilisant des connaissances approfondies visant à analyser un nombre croissant de solutions possibles.

Une telle victoire révolutionnaire génère inévitablement aussi de nombreuses critiques sur ce que signifie et ce qu’implique la suprématie de l’homme sur la machine.

On tente également de minimiser l’événement, en se concentrant principalement sur « le rôle du superordinateur conçu pour cette tâche, plutôt que sur les techniques sophistiquées utilisées par l’équipe de programmeurs » (Kaplan, 2017).

IA faible et IA forte

Déjà connu des spécialistes, le débat entre l’IA faible et l’IA forte s’enflamme davantage dans les années 1990.

L’esprit humain commence à être considéré comme quelque chose de programmable et donc remplaçable par une machine.

Voyons ensemble les caractéristiques de l’IA faible et de l’IA forte et les principales différences.

IA fable

L’I.A. faible – L’intelligence artificielle simule le fonctionnement de certaines fonctions cognitives humaines et est liée à l’accomplissement d’une tâche spécifique (Russel et Norvig, 2003) ;

Mais le but n’est pas d’égaler et de dépasser l’intelligence humaine, mais plutôt d’agir comme un sujet intelligent, sans qu’il importe de savoir s’il l’est vraiment.

La machine en effet n’est pas capable de penser de manière autonome, restant liée à la présence de l’homme.

IA forte

Selon John Searle, philosophe du langage et de l’esprit, « l’ordinateur ne serait pas seulement, dans l’étude de l’esprit, un outil ; plutôt, un ordinateur correctement programmé est vraiment un esprit ».

L’I.A. – Intelligence Artificielle Forte, en effet, émule de manière plus complète le fonctionnement de l’esprit humain, résultant autonome et capable d’agir comme un être humain (Russel et Norvig, 2003).

La technologie utilisée est celle des systèmes experts dont nous avons parlé dans le chapitre des années 1980.

L’intelligence artificielle aujourd’hui - Une question d’éthique

La définition des limites que l’intelligence artificielle doit respecter a toujours fait l’objet d’un débat public.

La crainte qu’elle remplace l’homme, que la technologie se rebelle et autres scénarios apocalyptiques constituent la trame de nombreux films sur le sujet qui conduisent l’Intelligence Artificielle à être vue comme quelque chose à craindre.

Pour dicter des marges à la dimension éthique de l’IA, l’Union européenne est intervenue en publiant en 2019 le Code d’éthique contenant des lignes directrices sur l’utilisation et le développement des systèmes d’intelligence artificielle.

Le document place l’humain au centre et définit l’objectif de l’utilisation de l’IA comme étant d’accroître le bien-être et de garantir la liberté.

Les principaux points du code sont les suivants :

– le contrôle et la surveillance de l’homme : L’Intelligence Artificielle doit être utilisée au profit de la vie humaine. Par conséquent, seuls les systèmes qui protègent les droits fondamentaux et permettent une gestion et une surveillance humaines totales peuvent être développés ;

– Sécurité : la sécurité ne doit jamais être mise en danger, à n’importe quel stade du cycle de vie du système ;

– Vie privée : en cas d’utilisation de données personnelles, les personnes concernées doivent être informées, dans le plus grand respect de la législation européenne sur la vie privée ;

– Traçabilité : Toutes les données utilisées doivent être tracées et documentées ;

– la non-discrimination : Les systèmes d’IA doivent garantir l’accessibilité à tous et le respect de la diversité ;

– Changement environnemental : L’IA doit favoriser un changement climatique positif ;

– Responsabilité : des mécanismes de responsabilité liés aux algorithmes utilisés doivent être adoptés dans l’utilisation des données, dans le but de minimiser tout impact négatif.

L’IA et l’approche statistique
Le machine learning - qu’est-ce que c’est ?

Comme il est déjà apparu dans le chapitre sur l’histoire de l’intelligence artificielle, le machine learning est né en 1943, même si ce n’est que dans les années 80 qu’il est devenu un domaine de recherche faisant autorité grâce au développement des premiers réseaux neuronaux non linéaires.

Mais qu’est-ce que le machine learning ? Depuis l’aube de l’IA, les chercheurs ont compris l’importance de la capacité d’apprentissage et la manière dont celle-ci doit être « enseignée » aux nouvelles technologies.

Mais l’apprentissage ne résulte pas seulement de l’étude et du raisonnement, mais aussi de l’expérience, de la pratique et de la formation. « Dire que quelque chose a été appris ne signifie pas seulement que cette chose a été saisie et stockée, comme c’est le cas pour les données dans une base de données – elle doit être représentée d’une manière qui peut être mise à profit » (Kaplan, 2017).

En fait, le concept va au-delà de la simple collecte et de l’analyse de données que l’on peut faire remonter aux statistiques, en utilisant des techniques de calcul qui imitent le cerveau humain et ses processus.

Le machine learning s’appuie sur le big data et, plutôt que de faire des hypothèses, permet au système d’apprendre à partir de celui-ci.

Réseaux neuronaux

L’une des approches de le machine learning consiste à utiliser les réseaux neuronaux, qui sont des modèles informatiques composés de « neurones » qui, comme leur nom l’indique, s’inspirent des neurones biologiques.

Suivant cette approche, les éléments fondamentaux des systèmes de machine learning sont :

– Les réseaux neuronaux : qui connectent les différents neurones ;

– Neurones : modèles qui tentent de détecter les aspects les plus importants du fonctionnement des neurones ;

– Modèle d’apprentissage : l’organisation des réseaux, visant l’exécution d’une tâche.
Apprentissage supervisé, non supervisé et par renforcement

L’apprentissage peut également être de différents types :

– L’apprentissage supervisé : son but est d’instruire un système pour le rendre « capable » de traiter des prédictions automatiquement ;

– L’apprentissage non supervisé : il fournit au système quelques entrées qui seront organisées et classées dans le but de raisonner sur elles, afin de faire des prédictions sur les entrées suivantes ;

– Apprentissage par renforcement : il vise à réaliser des agents autonomes et à les rendre capables de choisir les actions à effectuer pour atteindre certains objectifs, par l’interaction avec l’environnement.

Données, informations, connaissances

Pour mieux comprendre le vaste domaine du machine learning, il est important de mieux définir ce que sont les données, en quoi elles diffèrent des informations et des connaissances.

Que sont les données ? Elles sont une représentation objective (et donc non interprétée) de la réalité analysée.

Mais le processus ne s’arrête pas là : une fois détectée, il est nécessaire de donner une interprétation. Une signification est attribuée à celles dont on dispose, passant ainsi de la donnée à l’information.

Pour que cette information devienne une connaissance, une autre étape est nécessaire : choisir comment l’utiliser et, sur la base de ce qui ressort, prendre des décisions.

Données structurées et non structurées

Comme nous l’avons vu dans le paragraphe précédent, une collecte correcte des données est fondamentale pour parvenir à l’information et ensuite à la connaissance.

Il en existe deux types :

– Les données structurées : ce sont celles organisées en schémas et tableaux et stockées dans des bases de données ;

– Les données non structurées : elles n’ont pas de schéma et ne disposent donc pas d’un modèle prédéfini. Les images, l’audio et la vidéo sont quelques exemples de données non structurées ;

– Données semi-structurées : c’est un mélange des deux types présentés précédemment.

Modèles avec approche statistique

Les modèles statistiques traditionnels sont des modèles de machine learning, utilisés jusqu’au début des années 2000. Ils sont basés sur une quantité réduite d’échantillon de données sur lesquelles ils font des hypothèses générées à partir des périodes de demande passées. De tels modèles, pour trouver une solution, préfèrent une quantité réduite de données, répétables et linéaires, dans des contextes où les relations entre elles s’avèrent relativement stables.

Jusqu’au début du XXIe siècle, ces modèles étaient la méthodologie la plus utilisée pour les prévisions à moyen et à long terme, et c’est à ce moment-là que les choses commencent à changer.

La gestion d’une petite quantité de données commence à ne plus être suffisante et le besoin de nouvelles techniques de prévision se fait sentir.

Conclusion : L’IA dans la vie quotidienne

Après avoir exposé ce qu’est l’intelligence artificielle, nous avons analysé toutes les étapes qui, à partir des années 1950, ont fait la grandeur de l’IA.

Cet excursus historique nous a permis de comprendre à quel point l’intelligence artificielle fait partie intégrante de notre quotidien et comment l’avancée des progrès technologiques a permis à l’IA d’être de plus en plus présente dans notre vie de tous les jours.

Le Parlement européen a réalisé une analyse des principaux domaines dans lesquels l’intelligence artificielle et la vie quotidienne se croisent, permettant à la technologie de nous côtoyer de plus en plus :

– Les achats en ligne et la publicité : L’IA, comme nous l’avons vu dans les paragraphes précédents, est également utilisée pour faire des prédictions futures, sur la base de données collectées précédemment. Et cela s’applique également aux suggestions de produits, faites en fonction des achats, des intentions de recherche, des comportements en ligne, et plus encore.

– Recherches en ligne : comme pour les achats, les moteurs de recherche utilisent les données collectées pour « apprendre » ce qui intéresse l’utilisateur et proposer des résultats qui s’en rapprochent ;

– Les assistants virtuels : dans le but de fournir des réponses aux utilisateurs, ils répondent aux questions de manière personnalisée ;

– La traduction automatique : Les logiciels d’IA génèrent automatiquement des traductions de texte, de vidéo et d’audio. L’exemple le plus courant est celui des sous-titres générés automatiquement par YouTube ;

– Infrastructures intelligentes : des outils technologiques à l’intérieur des maisons intelligentes qui apprennent les comportements de ceux qui y vivent, à l’utilisation de l’IA pour améliorer la viabilité des villes ;

– Cybersécurité : utilisation de l’intelligence artificielle pour reconnaître et bloquer les cybermenaces, en tirant des enseignements des attaques précédentes et de la manière de les reconnaître ;

– L’intelligence artificielle dans la lutte contre le COVID19 : l’IA dans la lutte contre la pandémie a été utilisée de diverses manières, de la surveillance des entrées restreintes à la détection de la température, en passant par des applications plus spécifiques dans le système de santé, comme la reconnaissance des infections à partir des tomodensitogrammes des poumons ;

– La lutte contre la désinformation : une aide précieuse pour reconnaître les « fake news », en surveillant et en analysant le contenu social, en identifiant les expressions suspectes ou alarmantes, dans le but de reconnaître les sources faisant autorité.

L’intelligence artificielle n’est pas seulement présente dans notre routine personnelle, mais aussi dans notre routine professionnelle. En effet, de plus en plus d’entreprises utilisent l’IA pour offrir de meilleurs services aux clients et augmenter la productivité des employés.

Un exemple est le knowwledge management, ou gestion des connaissances de l’entreprise, qui peut être mise en œuvre avec des systèmes d’intelligence artificielle ayant une approche statistique, pour permettre aux utilisateurs de trouver plus rapidement les informations qu’ils recherchent dans la base de données de l’entreprise.

Une chose est désormais certaine : L’IA est présente dans tant d’aspects de notre vie quotidienne, augmentant notre sécurité et nous permettant d’avoir un soutien dans de nombreuses activités.

Nous ne savons pas ce que l’avenir nous réserve, mais ce qui est certain, c’est que l’intelligence artificielle ne cessera pas son expansion et, comme nous l’avons vu en retraçant l’histoire de son évolution, celle-ci est plus rapide qu’il n’y paraît.

Sources :

Jerry Kaplan, Intelligenza artificiale. Guida al futuro prossimo, 2017

https://www.europarl.europa.eu/news...

https://it.wikipedia.org/wiki/Elabo...

https://www.bucap.it/news/approfond...

https://sviluppomanageriale.it/supp...

Pigro AI

—  0 commentaires  —

© Geopolintel 2009-2023 - site réalisé avec SPIP - l'actualité Geopolintel avec RSS Suivre la vie du site