Éducation nationale françaiseEnseignement scientifiqueTerminale générale21 min de lecture

Lintelligence artificielle

Une version article du chapitre pour comprendre l'essentiel rapidement, vérifier si le niveau correspond, puis basculer vers Wilo pour la pratique guidée et le suivi.

Lecture

4 chapitres

Un parcours éditorialisé et navigable.

Pratique

12 questions

Quiz et cartes mémoire à ouvrir après la lecture.

Objectif

Terminale générale

Format rapide pour vérifier si le chapitre correspond.

Chapitre 1

Introduction à l'Intelligence Artificielle

Définition et histoire de l'IA

L'Intelligence Artificielle (IA) est un domaine de l'informatique qui vise à créer des machines capables de simuler l'intelligence humaine. Cela inclut la capacité de raisonner, d'apprendre, de comprendre le langage, de percevoir et de résoudre des problèmes.

Il existe deux grandes catégories d'IA :

  • IA Faible (ou Étroite) : Conçue pour une tâche spécifique (ex: jouer aux échecs, reconnaître des visages). La plupart des IA actuelles sont des IA faibles.
  • IA Forte (ou Générale) : Une IA hypothétique qui posséderait une intelligence comparable à celle d'un être humain pour n'importe quelle tâche cognitive. Elle pourrait comprendre, apprendre et appliquer l'intelligence à un large éventail de problèmes, comme le ferait un humain.

Origines et étapes clés : L'idée de machines pensantes remonte à l'Antiquité, mais le concept moderne d'IA est né après la Seconde Guerre Mondiale.

  • 1950 : Alan Turing publie "Computing Machinery and Intelligence", introduisant le Test de Turing. Ce test propose une méthode pour déterminer si une machine peut exhiber un comportement intelligent indiscernable de celui d'un être humain. Si un interrogateur ne peut pas faire la différence entre les réponses d'un humain et celles d'une machine lors d'une conversation textuelle, alors la machine est considérée comme ayant réussi le test.
  • 1956 : Conférence de Dartmouth, où le terme "Intelligence Artificielle" est officiellement inventé par John McCarthy. C'est le véritable acte de naissance du domaine de l'IA.
  • Années 1960-1970 : Premiers programmes d'IA (résolution de problèmes, jeux). Période d'optimisme, mais aussi de "l'hiver de l'IA" en raison des limites technologiques et des attentes irréalistes.
  • Années 1980 : Développement des systèmes experts, qui encodent les connaissances d'experts humains sous forme de règles "si... alors...".
  • Années 1990-2000 : Montée en puissance du Machine Learning (apprentissage automatique), avec l'amélioration des algorithmes et la disponibilité croissante des données. Deep Blue bat Garry Kasparov aux échecs en 1997.
  • Années 2010 à aujourd'hui : Explosion du Deep Learning (apprentissage profond) grâce à l'augmentation de la puissance de calcul (GPUs) et l'accès à d'énormes volumes de données (Big Data). AlphaGo bat le champion du monde de Go en 2016. Développement des assistants vocaux, voitures autonomes, etc.

Les différents types d'IA

Au-delà de la distinction faible/forte, on peut classer l'IA selon l'approche adoptée pour simuler l'intelligence :

  • IA Symbolique (ou Basée sur des règles) :

    • Principe : Elle repose sur la manipulation de symboles et de règles logiques, souvent définies par des experts humains. L'IA "raisonne" en suivant des chaînes de déductions logiques.
    • Fonctionnement : Les connaissances sont représentées explicitement sous forme de faits et de règles. Par exemple, "SI il pleut ALORS prendre un parapluie".
    • Avantages : Explicabilité des décisions (on peut retracer le raisonnement), utile pour des problèmes bien définis avec des connaissances claires.
    • Inconvénients : Difficile à adapter à des problèmes complexes ou des domaines où les règles sont floues ou trop nombreuses. Elle ne "apprend" pas vraiment de nouvelles règles par elle-même.
    • Exemples : Systèmes experts, certains planificateurs.
  • IA Connexionniste (ou Basée sur les données) :

    • Principe : Elle s'inspire du fonctionnement du cerveau humain, avec des réseaux de "neurones" qui traitent l'information. L'IA apprend à partir d'exemples et de données.
    • Fonctionnement : Les réseaux de neurones ajustent leurs connexions (poids) en fonction des données d'entrée pour produire la sortie désirée. L'apprentissage est statistique.
    • Avantages : Excellente pour la reconnaissance de motifs (images, sons, texte), capable de découvrir des relations complexes dans les données sans programmation explicite des règles.
    • Inconvénients : Souvent une "boîte noire" (difficile d'expliquer pourquoi une décision a été prise), nécessite beaucoup de données et de puissance de calcul.
    • Exemples : Machine Learning, Deep Learning (reconnaissance faciale, traduction automatique).
  • IA Hybride :

    • Principe : Combine les avantages de l'IA symbolique et de l'IA connexionniste. L'objectif est d'utiliser la force de chaque approche pour compenser les faiblesses de l'autre.
    • Fonctionnement : Peut utiliser l'IA symbolique pour la planification ou le raisonnement de haut niveau, et l'IA connexionniste pour la perception ou l'apprentissage de bas niveau.
    • Avantages : Potentiellement plus robuste et adaptable, capable de combiner la logique et l'apprentissage par les données.
    • Inconvénients : Plus complexe à concevoir et à mettre en œuvre.
    • Exemples : Certains systèmes de robots autonomes qui planifient leurs mouvements (symbolique) et perçoivent leur environnement (connexionniste).

Domaines d'application de l'IA

L'IA est déjà omniprésente et transforme de nombreux secteurs :

  • Santé :

    • Diagnostic médical : Analyse d'images médicales (radiographies, IRM) pour détecter des anomalies (tumeurs, maladies).
    • Découverte de médicaments : Accélérer la recherche de nouvelles molécules en simulant leurs interactions.
    • Médecine personnalisée : Adapter les traitements aux caractéristiques génétiques et au profil de chaque patient.
    • Robotique chirurgicale : Assister les chirurgiens dans des opérations de haute précision.
  • Transports :

    • Voitures autonomes : Perception de l'environnement (caméras, radars, lidars), planification d'itinéraire, prise de décision en temps réel.
    • Gestion du trafic : Optimisation des feux de signalisation, prédiction des embouteillages.
    • Logistique : Optimisation des itinéraires de livraison, gestion des flottes de véhicules.
  • Industrie :

    • Maintenance prédictive : Prévoir les pannes de machines avant qu'elles ne surviennent pour planifier les interventions.
    • Robotique industrielle : Robots collaboratifs (cobots) qui travaillent aux côtés des humains pour des tâches d'assemblage ou de contrôle qualité.
    • Contrôle qualité : Inspection visuelle automatisée des produits pour détecter les défauts.
    • Optimisation des processus : Améliorer l'efficacité de la production.
  • Vie quotidienne :

    • Assistants vocaux : Siri, Google Assistant, Alexa... Compréhension du langage naturel et exécution de commandes.
    • Recommandation de contenu : Films sur Netflix, produits sur Amazon, musiques sur Spotify... Personnalisation des suggestions.
    • Traduction automatique : Google Traduction, DeepL.
    • Reconnaissance faciale : Déverrouillage de smartphones, surveillance.
    • Filtres anti-spam : Détection des courriers indésirables.
    • Chatbots : Service client automatisé.

Chapitre 2

Apprentissage Automatique (Machine Learning)

Principes de base du Machine Learning

L'apprentissage automatique (Machine Learning - ML) est une branche de l'IA qui permet aux systèmes d'apprendre à partir de données, sans être explicitement programmés pour chaque tâche. Au lieu de donner des règles spécifiques, on fournit au système des exemples, et il découvre lui-même les motifs et les relations.

Les trois piliers du Machine Learning sont :

  1. Données d'apprentissage : C'est la matière première. Il s'agit de grands ensembles de données (images, textes, chiffres, sons...) que l'algorithme va analyser pour "apprendre". La qualité et la quantité des données sont cruciales.
    • Exemple : Des milliers de photos d'animaux étiquetées ("chien", "chat", "oiseau").
  2. Algorithmes d'apprentissage : Ce sont les méthodes mathématiques et statistiques utilisées pour apprendre des données. L'algorithme cherche des motifs, des corrélations ou des structures dans les données.
    • Exemple : Un algorithme de classification qui cherche à distinguer les caractéristiques d'un chien de celles d'un chat.
  3. Modèle prédictif : C'est le résultat de l'apprentissage. Une fois entraîné, l'algorithme produit un "modèle" qui peut être utilisé pour faire des prédictions ou prendre des décisions sur de nouvelles données.
    • Exemple : Le modèle, une fois entraîné, peut prendre une nouvelle photo d'animal et prédire s'il s'agit d'un chien ou d'un chat.

Le processus d'apprentissage implique généralement :

  • Entraînement : L'algorithme est "nourri" avec les données d'apprentissage et ajuste ses paramètres pour minimiser les erreurs.
  • Validation/Test : Pour évaluer la performance du modèle, on utilise des données qu'il n'a jamais vues. Cela permet de vérifier sa capacité à généraliser.

Apprentissage supervisé

L'apprentissage supervisé est le type d'apprentissage automatique le plus courant. Il est utilisé lorsque l'on dispose de données d'apprentissage étiquetées, c'est-à-dire que pour chaque entrée, on connaît déjà la sortie ou la "bonne réponse" associée. L'objectif est d'apprendre une fonction qui mappe les entrées aux sorties.

Il existe deux grandes catégories de problèmes résolus par l'apprentissage supervisé :

  1. Classification :

    • Objectif : Prédire une catégorie discrète (une étiquette).
    • Fonctionnement : L'algorithme apprend à attribuer une classe ou une catégorie à une nouvelle donnée en se basant sur les exemples étiquetés.
    • Exemples :
      • Reconnaissance d'images : Classifier une image comme "chien", "chat" ou "oiseau".
      • Détection de spam : Classer un e-mail comme "spam" ou "non-spam".
      • Diagnostic médical : Classer un patient comme "malade" ou "sain" en fonction de symptômes.
    • Algorithmes courants : K-plus proches voisins (KNN), Machines à vecteurs de support (SVM), Forêts aléatoires, Réseaux de neurones.
  2. Régression :

    • Objectif : Prédire une valeur continue (un nombre).
    • Fonctionnement : L'algorithme apprend à estimer une valeur numérique en se basant sur les exemples étiquetés.
    • Exemples :
      • Prédiction du prix d'une maison en fonction de sa taille, de son emplacement, du nombre de chambres, etc.
      • Prédiction de la température de demain.
      • Estimation du temps de trajet en fonction des conditions de circulation.
    • Algorithmes courants : Régression linéaire, Régression polynomiale, Arbres de décision.

Apprentissage non supervisé

L'apprentissage non supervisé est utilisé lorsque les données d'apprentissage ne sont pas étiquetées. L'objectif est de trouver des structures cachées, des motifs ou des relations au sein des données elles-mêmes, sans connaissance préalable des résultats attendus.

Il existe plusieurs types de problèmes résolus par l'apprentissage non supervisé :

  1. Clustering (Regroupement) :

    • Objectif : Regrouper des points de données similaires en clusters (grappes ou groupes). L'algorithme identifie des groupes naturels dans les données.
    • Fonctionnement : Les données au sein d'un même cluster sont plus similaires entre elles qu'aux données d'autres clusters.
    • Exemples :
      • Segmentation client : Regrouper les clients d'une entreprise en fonction de leurs comportements d'achat pour cibler des campagnes marketing.
      • Détection d'anomalies : Isoler des points de données qui ne correspondent à aucun cluster connu (ex: fraudes bancaires).
      • Organisation de documents : Regrouper des articles d'actualité par sujet sans connaître les sujets à l'avance.
    • Algorithmes courants : K-Means, DBSCAN, Aggrégatif.
  2. Réduction de dimensionnalité :

    • Objectif : Réduire le nombre de caractéristiques (dimensions) d'un ensemble de données tout en conservant l'information la plus pertinente. C'est utile pour visualiser des données complexes ou pour préparer des données pour d'autres algorithmes.
    • Fonctionnement : L'algorithme trouve une représentation plus compacte des données.
    • Exemples :
      • Compresser des images en réduisant le nombre de couleurs.
      • Simplifier un ensemble de données avec des centaines de caractéristiques pour mieux le comprendre.
    • Algorithmes courants : Analyse en Composantes Principales (PCA), t-SNE.

Apprentissage par renforcement

L'apprentissage par renforcement est une approche différente de l'apprentissage automatique, inspirée de la psychologie comportementale. Un agent apprend à prendre des décisions dans un environnement interactif pour maximiser une récompense cumulée. Il n'y a pas de données d'apprentissage étiquetées au départ ; l'agent apprend par essais et erreurs.

  • Agent : L'entité qui prend des décisions (ex: un robot, un programme qui joue à un jeu).
  • Environnement : Le monde dans lequel l'agent évolue et interagit (ex: un plateau de jeu, le monde réel pour un robot).
  • Récompense : Un signal numérique positif ou négatif que l'environnement donne à l'agent en fonction de ses actions. L'agent cherche à maximiser cette récompense sur le long terme.
  • Exploration/Exploitation : L'agent doit trouver un équilibre entre :
    • Exploration : Essayer de nouvelles actions pour découvrir de meilleures récompenses.
    • Exploitation : Utiliser les actions qui ont déjà prouvé leur efficacité pour obtenir des récompenses connues.

Fonctionnement :

  1. L'agent observe l'état actuel de l'environnement.
  2. Il choisit une action à effectuer.
  3. L'environnement passe à un nouvel état et donne une récompense à l'agent.
  4. L'agent utilise cette récompense pour ajuster sa stratégie (sa "politique") afin de choisir de meilleures actions à l'avenir.

Exemples :

  • Jeux : Alphago Zero (Go), AlphaStar (StarCraft II), systèmes qui battent des champions humains. L'agent apprend les meilleures stratégies en jouant des millions de parties contre lui-même.
  • Robotique : Apprentissage de la marche pour des robots humanoïdes, manipulation d'objets. Le robot est récompensé s'il atteint son objectif ou s'il effectue un mouvement correct.
  • Voitures autonomes : L'agent (le véhicule) apprend à conduire en évitant les collisions (récompense négative) et en atteignant sa destination (récompense positive).
  • Gestion de ressources : Optimisation de la consommation d'énergie dans des centres de données.

L'apprentissage par renforcement est particulièrement puissant pour les tâches de prise de décision séquentielles où les actions passées influencent les récompenses futures.

Chapitre 3

Réseaux de Neurones et Deep Learning

Fonctionnement des réseaux de neurones

Les réseaux de neurones artificiels (RNA) sont des modèles de calcul inspirés par la structure et le fonctionnement du cerveau humain. Ils sont au cœur de l'IA connexionniste et du Deep Learning.

Un réseau de neurones est composé de plusieurs éléments fondamentaux :

  1. Neurone artificiel (ou perceptron) : C'est l'unité de base d'un réseau. Il reçoit des entrées, effectue un calcul et produit une sortie.

    • Chaque neurone reçoit plusieurs entrées (x1,x2,...,xnx_1, x_2, ..., x_n).
    • Chaque entrée est multipliée par un poids (w1,w2,...,wnw_1, w_2, ..., w_n), qui représente l'importance de cette entrée.
    • Les produits sont sommés : i=1nwixi\sum_{i=1}^{n} w_i x_i.
    • Un biais (bb) est ajouté à cette somme : z=i=1nwixi+bz = \sum_{i=1}^{n} w_i x_i + b. Le biais permet d'ajuster l'activation du neurone indépendamment des entrées.
    • Le résultat zz est ensuite passé à travers une fonction d'activation (ex: sigmoïde, ReLU) qui introduit de la non-linéarité et produit la sortie du neurone.

    Sortie=f(i=1nwixi+b)\text{Sortie} = f\left(\sum_{i=1}^{n} w_i x_i + b\right)

    ff est la fonction d'activation.

  2. Couches : Les neurones sont organisés en couches.

    • Couche d'entrée : Reçoit les données brutes (pixels d'une image, mots d'une phrase, etc.).
    • Couches cachées : Ce sont les couches intermédiaires où la majeure partie du traitement et de l'apprentissage a lieu. Un réseau peut avoir une ou plusieurs couches cachées. Plus il y en a, plus le réseau est "profond".
    • Couche de sortie : Produit le résultat final du réseau (ex: la classe prédite, la valeur numérique, etc.).
  3. Poids et biais : Ce sont les paramètres du réseau que l'algorithme d'apprentissage ajuste. L'apprentissage consiste à trouver les valeurs optimales de ces poids et biais pour que le réseau puisse faire des prédictions précises.

    • Le processus d'ajustement des poids et biais se fait généralement par un algorithme appelé rétropropagation du gradient (backpropagation). Il calcule l'erreur du réseau et propage cette erreur en arrière pour ajuster les poids et biais.

Principes du Deep Learning

Le Deep Learning (apprentissage profond) est une sous-catégorie du Machine Learning qui utilise des réseaux de neurones profonds, c'est-à-dire des réseaux avec un grand nombre de couches cachées (parfois des centaines).

Les raisons de l'explosion du Deep Learning ces dernières années sont multiples :

  1. Réseaux de neurones profonds : La capacité d'empiler de nombreuses couches permet aux réseaux d'apprendre des représentations hiérarchiques et de plus en plus abstraites des données.
    • Par exemple, pour une image, les premières couches peuvent détecter des bords, les couches intermédiaires des formes (nez, yeux), et les dernières couches des objets entiers (visage).
  2. Big Data : Les réseaux profonds nécessitent d'énormes quantités de données pour être entraînés efficacement. L'explosion des données numériques (images, vidéos, textes) a fourni cette matière première. Plus il y a de données, meilleure est la performance des modèles de Deep Learning.
  3. Puissance de calcul : L'entraînement de réseaux profonds est très gourmand en calcul. L'avènement des GPU (Graphics Processing Units), initialement conçus pour les jeux vidéo, a fourni la puissance de calcul nécessaire pour entraîner ces modèles en un temps raisonnable.

Le Deep Learning a surpassé les performances des méthodes traditionnelles d'IA dans de nombreux domaines, notamment la vision par ordinateur, le traitement du langage naturel et la reconnaissance vocale.

Types de réseaux de neurones profonds

Différentes architectures de réseaux de neurones profonds sont conçues pour des types de données et des problèmes spécifiques :

  1. Réseaux de Neurones Convolutifs (Convolutional Neural Networks - CNN) :

    • Spécialité : Particulièrement efficaces pour le traitement des données ayant une structure de grille, comme les images et les vidéos.
    • Principe : Ils utilisent des "filtres" ou "noyaux de convolution" pour détecter des motifs locaux (bords, textures, formes) dans différentes parties de l'image. Ces filtres sont appris automatiquement.
    • Couches clés : Couches de convolution, couches de pooling (pour réduire la dimensionnalité), couches entièrement connectées.
    • Applications :
      • Vision par ordinateur : Reconnaissance d'objets, détection de visages, segmentation d'images, véhicules autonomes.
      • Diagnostic médical à partir d'images (radiographies, IRM).
  2. Réseaux de Neurones Récurrents (Recurrent Neural Networks - RNN) :

    • Spécialité : Conçus pour traiter les données séquentielles, où l'ordre des éléments est important, comme le texte, la parole ou les séries temporelles.
    • Principe : Les RNN ont une "mémoire" interne. L'information de l'étape précédente est transmise à l'étape actuelle, ce qui leur permet de comprendre le contexte.
    • Variantes populaires : LSTM (Long Short-Term Memory) et GRU (Gated Recurrent Unit) qui résolvent le problème de la "disparition du gradient" dans les RNN simples, leur permettant de retenir des informations sur de plus longues séquences.
    • Applications :
      • Traitement du langage naturel (NLP) : Traduction automatique, résumé de texte, reconnaissance vocale, analyse de sentiment, chatbots.
      • Prédiction de séries temporelles (météo, cours de la bourse).

D'autres architectures existent, comme les Transformers, qui ont révolutionné le NLP (modèles comme GPT-3/4, BERT) grâce à leur mécanisme d'attention permettant de traiter les dépendances à longue portée dans les séquences de manière très efficace.

Chapitre 4

Enjeux éthiques et sociétaux de l'IA

Biais et discrimination

L'un des défis majeurs de l'IA est le risque de perpétuer, voire d'amplifier, les biais et la discrimination existants dans la société.

  • Biais dans les données : Les modèles d'IA apprennent à partir des données qu'on leur fournit. Si ces données sont biaisées, le modèle reproduira et amplifiera ces biais.
    • Exemple : Un système de reconnaissance faciale entraîné principalement sur des visages d'hommes blancs aura des performances médiocres pour identifier des femmes ou des personnes de couleur.
    • Exemple : Un algorithme de recrutement entraîné sur des données historiques où les hommes occupaient majoritairement certains postes pourrait automatiquement défavoriser les candidatures féminines pour ces mêmes postes.
  • Conséquences sur les décisions : Les décisions prises par des IA biaisées peuvent avoir des conséquences graves et injustes dans des domaines sensibles :
    • Justice pénale : Algorithmes prédisant la récidive qui surévaluent le risque pour certaines minorités.
    • Crédit et assurances : Refus de prêts ou primes plus élevées basés sur des critères discriminatoires implicites.
    • Santé : Diagnostics moins précis pour certains groupes démographiques.
  • Équité et justice : Il est crucial de développer des IA plus équitables et justes. Cela implique :
    • La collecte de données diverses et représentatives.
    • Le développement d'algorithmes de détection et de correction des biais.
    • Une évaluation rigoureuse des modèles avant leur déploiement.

Transparence et explicabilité

De nombreux modèles d'IA, en particulier les réseaux de neurones profonds, sont souvent considérés comme des "boîtes noires". Il est difficile de comprendre comment ils arrivent à leurs décisions.

  • Boîte noire de l'IA : Cela signifie que même les développeurs ne peuvent pas toujours expliquer pourquoi un modèle a pris une décision spécifique. Les calculs sont trop complexes et les interactions entre les neurones trop nombreuses.
  • IA explicable (XAI - Explainable AI) : C'est un domaine de recherche qui vise à développer des méthodes pour rendre les modèles d'IA plus compréhensibles pour les humains. L'objectif n'est pas seulement de savoir ce qu'un modèle prédit, mais pourquoi il le prédit.
    • Techniques XAI : Visualisation des activations des neurones, identification des caractéristiques les plus importantes pour une décision, simplification des modèles complexes par des modèles plus simples.
  • Confiance et acceptation : L'explicabilité est essentielle pour :
    • Gagner la confiance des utilisateurs et des régulateurs. Comment faire confiance à un diagnostic médical si on ne comprend pas la logique derrière ?
    • Corriger les erreurs et les biais des modèles.
    • Assurer la conformité réglementaire (ex: RGPD qui peut exiger une explication des décisions automatisées).

Impact sur l'emploi et la société

L'IA et l'automatisation transforment le marché du travail et la société dans son ensemble.

  • Automatisation des tâches : L'IA est capable d'automatiser des tâches répétitives, prévisibles et même certaines tâches cognitives.
    • Menace : Perte d'emplois dans certains secteurs (manufacture, transport, saisie de données, service client).
    • Opportunité : Création de nouveaux emplois liés au développement, au déploiement et à la maintenance de l'IA, ainsi qu'à des rôles nécessitant des compétences humaines uniques (créativité, pensée critique, relations interpersonnelles).
  • Nouvelles compétences requises : Le marché du travail évoluera, exigeant des travailleurs qu'ils développent de nouvelles compétences :
    • Compétences techniques : Programmation, analyse de données, compréhension de l'IA.
    • Compétences humaines ("soft skills") : Créativité, résolution de problèmes complexes, intelligence émotionnelle, adaptabilité.
    • L'apprentissage tout au long de la vie deviendra encore plus crucial.
  • Réglementation et gouvernance de l'IA : Face à ces bouleversements, les gouvernements et les organisations internationales sont appelés à :
    • Établir des cadres éthiques et légaux pour le développement et l'utilisation de l'IA (ex: loi européenne sur l'IA).
    • Mettre en place des politiques d'éducation et de reconversion professionnelle.
    • Réfléchir à de nouveaux modèles sociaux et économiques.

Sécurité et vie privée

L'IA, par sa capacité à traiter d'énormes volumes de données, pose des défis majeurs en matière de sécurité et de protection de la vie privée.

  • Protection des données personnelles :
    • Les modèles d'IA nécessitent souvent des données personnelles pour fonctionner (ex: données de santé, comportement d'achat).
    • Le Règlement Général sur la Protection des Données (RGPD) en Europe impose des règles strictes sur la collecte, le traitement et le stockage de ces données, y compris le droit à l'oubli et à l'explication des décisions automatisées.
    • Risque de fuite de données ou d'utilisation abusive des informations personnelles si elles ne sont pas correctement sécurisées.
  • Cyberattaques : L'IA peut être une cible ou un outil dans les cyberattaques.
    • Attaques contre l'IA : Des pirates peuvent essayer de "tromper" un modèle d'IA (ex: en modifiant légèrement une image pour qu'un système de reconnaissance faciale ne détecte plus un visage).
    • IA pour la cyberdéfense : L'IA peut aussi être utilisée pour détecter les menaces, analyser les vulnérabilités et automatiser les réponses aux attaques.
    • IA pour la cyberattaque : L'IA peut orchestrer des attaques plus sophistiquées (phishing personnalisé, création de faux contenus).
  • Utilisation malveillante de l'IA :
    • Deepfakes : Création de vidéos ou d'enregistrements audio ultra-réalistes et trompeurs, pouvant être utilisés pour la désinformation, l'extorsion ou l'atteinte à la réputation.
    • Surveillance de masse : Utilisation de la reconnaissance faciale ou de l'analyse de données pour une surveillance intrusive des citoyens.
    • Armes autonomes : Systèmes d'armes capables de sélectionner et d'engager des cibles sans intervention humaine, soulevant de graves questions éthiques et géopolitiques.

La gouvernance et la régulation de l'IA sont essentielles pour maximiser ses bénéfices tout en minimisant ses risques.

Après la lecture

Passe à la pratique avec deux blocs bien visibles

Une fois le cours lu, ouvre soit le quiz pour vérifier la compréhension, soit les flashcards pour mémoriser les idées importantes. Les deux s'ouvrent dans une fenêtre dédiée.

Quiz + Flashcards

Suite naturelle

Tu veux aller plus loin que l'article ?

Retrouve le même chapitre dans Wilo avec la suite des questions, la répétition espacée, les corrigés complets et une progression suivie dans le temps.