L’IA comporte de nombreux termes. Nous avons un glossaire pour tout ce que vous devez savoir

L’IA comporte de nombreux termes. Nous avons un glossaire pour tout ce que vous devez savoir

GPU ? TPU ? LLM ? Tout le vocabulaire important de l’IA à connaître

Nous pouvons gagner une commission sur les liens sur cette page.
Lancer le diaporama
Lancer le diaporama
Le logo OpenAI est affiché au Mobile World Congress à Barcelone, en Espagne.
Le logo OpenAI est affiché au Mobile World Congress à Barcelone, en Espagne.
Image: Joan Cros/NurPhoto (Getty Images)

Lorsque les personnes qui ne connaissent pas l’IA imaginent intelligence artificielle, ils peuvent imaginer le blockbuster de Will Smith Moi, Robot, le thriller de science-fiction Ex-Machina, ou le film de Disney Maison intelligente — des scénarios cauchemardesques dans lesquels des robots intelligents prennent le contrôle de leurs homologues humains, provoquant leur perte.

Publicité

Les technologies d’IA générative actuelles ne sont pas encore tout à fait toutes puissantes. Bien sûr, elles peuvent être capables de semer la désinformation pour perturber les élections ou partage de secrets commerciaux. Mais la technologie en est encore à ses débuts et Les chatbots commettent encore de grosses erreurs.

Cependant, la nouveauté de la technologie fait également entrer en jeu de nouveaux termes. Qu’est-ce qu’un semi-conducteur, au fait ? En quoi l’IA générative est-elle différente de tous les autres types d’intelligence artificielle ? Et devriez-vous vraiment connaître les nuances entre un GPU, un CPU et un TPU ?

Si vous souhaitez vous tenir au courant du nouveau jargon utilisé par le secteur, Quartz vous propose un guide des termes de base.

Publicité
Diapositive précédente
Diapositive suivante

2 / 16

Qu’est-ce que l’IA générative ?

Qu’est-ce que l’IA générative ?

Jensen Huang se tient devant un écran sur lequel est écrit IA générative et un dessin d’un diagramme
Jensen Huang, PDG de Nvidia.
Photo: Justin Sullivan (Getty Images)

Commençons par les bases pour un rappel. L’intelligence artificielle générative est une catégorie d’IA qui utilise des données pour créer du contenu original. En revanche, L’IA classique ne pouvait offrir que des prédictions basé sur des entrées de données, et pas de réponses nouvelles et uniques utilisant l’apprentissage machine. Mais IA générative utilisations “apprentissage profond« une forme d’apprentissage automatique qui utilise des réseaux neuronaux artificiels (logiciels) ressemblant au cerveau humain, afin que les ordinateurs puissent effectuer des analyses de type humain.

Publicité

L’IA générative ne tire pas de réponses de nulle part. Elle génère des réponses en fonction des données sur lesquelles elle est entraînée, qui peuvent inclure du texte, de la vidéo, de l’audio et des lignes de code. Imaginez, par exemple, que vous vous réveillez d’un coma, les yeux bandés, et que tout ce dont vous vous souvenez, ce sont 10 articles de Wikipédia. Toutes vos conversations avec une autre personne sur ce que vous savez sont basées sur ces 10 articles de Wikipédia. C’est un peu comme ça, sauf que l’IA générative utilise des millions d’articles de ce type et bien d’autres encore.

Publicité
Diapositive précédente
Diapositive suivante

3 / 16

Qu’est-ce qu’un chatbot ?

Qu’est-ce qu’un chatbot ?

Image de l'article intitulé L’IA comporte de nombreux termes. Nous avons un glossaire pour tout ce que vous devez savoir
Image: CFOTO/Future (Getty Images)

Les chatbots IA sont des programmes informatiques qui générer des conversations de type humain avec les utilisateurs, en donnant des réponses uniques et originales à leurs requêtes. Les chatbots ont été popularisés par ChatGPT d’OpenAI, et depuis lors, un groupe d’autres ont fait leur apparition : Google Gemini, Microsoft CoPilot, et Einstein de Salesforce en tête, entre autres.

Publicité

Les chatbots ne génèrent pas seulement des réponses textuelles — ils peuvent également créer des sites Web, des visualisations de données, aider au codage, créer des images et analyser des documents. Certes, les chatbots IA ne sont pas encore infaillibles. ils ont déjà fait beaucoup d’erreurs. Mais à mesure que la technologie de l’IA progresse rapidement, la qualité de ces chatbots augmentera également.

Publicité
Diapositive précédente
Diapositive suivante

4 / 16

Qu’est-ce qu’un Large Language Model (LLM) ?

Qu’est-ce qu’un Large Language Model (LLM) ?

Google Gemini.
Google Gemini.
Photo: NurPhoto/Contributor (Getty Images)

Les grands modèles linguistiques (LLM) sont un type d’intelligence artificielle générative. Ils sont formés sur de grandes quantités de données et de textes, notamment d’articles de presse et des livres électroniques, comprendre et générer du contenu, y compris du langage naturel texte. En gros, ils sont entraînés sur une tonne de texte afin qu’ils puissent prédire quel mot vient suivant. Prenez cette explication de Google :

« Si vous commenciez à saisir la phrase « Mary a donné un coup de pied dans un… », un modèle de langage entraîné sur suffisamment de données pourrait prédire « Mary a donné un coup de pied dans un ballon ». Sans entraînement suffisant, il pourrait ne produire qu’un « objet rond » ou uniquement sa couleur « jaune ». — L’explication de Google

Publicité

Les chatbots populaires tels que ChatGPT d’OpenAI et Gemini de Google, qui ont des capacités telles que la synthèse et la traduction de texte, sont des exemples de LLM.

Publicité
Diapositive précédente
Diapositive suivante

5 / 16

Qu’est-ce qu’un semi-conducteur ?

Qu’est-ce qu’un semi-conducteur ?

gros plan d’une main gantée tenant une puce électronique
Un semi-conducteur est également appelé micropuce.
Photo: Wong Yu Liang (Getty Images)

Non, ce n’est pas un conducteur de 18 roues. Semi-conducteurs, également connu sous le nom de puces IA, sont utilisés dans les circuits électriques d’appareils tels que les téléphones et les ordinateurs. Les appareils électroniques n’existeraient pas sans les semi-conducteurs, qui sont fabriqués à partir d’éléments purs comme le silicium ou de composés comme l’arséniure de gallium, pour conduire l’électricité. Le nom « semi » vient du fait que le matériau peut conduire plus d’électricité qu’un isolant, mais moins d’électricité qu’un conducteur pur comme le cuivre.

Publicité

La plus grande fonderie de semi-conducteurs au monde, Taiwan Semiconductor Manufacturing Company (TSMC), fabrique un On estime que 90 % des puces avancées dans le monde et compte parmi ses clients les meilleurs concepteurs de puces Nvidia et Advanced MicroDevices (AMD).

Même si Les semi-conducteurs ont été inventés aux États-Unis, elle produit désormais environ 10 % des puces du monde, sans inclure les puces avancées nécessaires aux modèles d’IA plus grands. Le président Joe Biden a signé le CHIPS and Science Act en 2022 pour ramener la fabrication de puces électroniques aux États-Unis, et l’administration Biden a déjà investi des milliards dans des entreprises de semi-conducteurs notamment Intel et TSMC construire des usines dans tout le pays. Une partie de cet effort consiste également à contrer les avancées de la Chine dans la fabrication de puces et le développement de l’IA.

Publicité
Diapositive précédente
Diapositive suivante

6 / 16

Que sont les GPU et les CPU ?

Que sont les GPU et les CPU ?

illustration d’un processeur dans une carte mère d’ordinateur avec d’autres commutateurs
Unité de traitement principale (CPU) de la carte mère.
Photo: Narumon Bowonkitwanchai (Getty Images)

Un GPU est une unité de traitement graphique, une puce avancée (ou semi-conducteur) qui alimente les grands modèles de langage derrière les chatbots IA comme ChatGPT. C’était traditionnellement utilisé pour créer des jeux vidéo avec des visuels de meilleure qualité.

Publicité

Alors informaticien ukraino-canadien, Alex Krizhevsky, a montré comment l’utilisation d’un GPU pouvait alimenter des modèles d’apprentissage en profondeur beaucoup plus rapidement qu’un processeur — une unité centrale de traitement ou le matériel principal qui alimente les ordinateurs.

Les processeurs sont le « cerveau » d’un ordinateur, exécuter des instructions pour que cet ordinateur fonctionne. Un CPU est un processeur, lequel lit et interprète les instructions du logiciel pour contrôler les fonctions de l’ordinateur. Mais un GPU est un accélérateur, un pièce de matériel conçue pour faire avancer une fonction spécifique d’un processeur.

Nvidia est le principal concepteur de GPU, avec ses puces H100 et H200 utilisées dans les centres de données des grandes entreprises technologiques pour alimenter les logiciels d’IA. D’autres entreprises cherchent à concurrencer les accélérateurs de Nvidia, notamment Intel avec son accélérateur Gaudi 3 et le GPU Azure Maia 100 de Microsoft.

Publicité
Diapositive précédente
Diapositive suivante

7 / 16

Qu’est-ce qu’un TPU ?

Qu’est-ce qu’un TPU ?

Une vidéo de Google explique les tenants et aboutissants de son TPU.
Une vidéo de Google explique les tenants et aboutissants de son TPU.
Capture d'écran: Google (Autre)

TPU signifie « unité de traitement tensoriel ». Les puces de Google, contrairement à celles de Microsoft et de Nvidia, sont des TPU : des puces conçues sur mesure et spécialement conçues pour entraîner de grands modèles d’IA (alors que les GPU ont été initialement conçus pour les jeux, et non pour l’IA).

Publicité

Alors que les processeurs sont des processeurs à usage général et que les GPU sont des processeurs supplémentaires qui exécutent des tâches haut de gamme, Les TPU sont des accélérateurs conçus sur mesure pour exécuter des services d’IA — les rendant d’autant plus puissants.

Publicité
Diapositive précédente
Diapositive suivante

8 / 16

Qu’est-ce qu’une hallucination ?

Qu’est-ce qu’une hallucination ?

La réponse générée par l’IA à la question « Que peut offrir l’IA à l’humanité ? » d’OpenAI « ChatGPT » est visible sur l’écran d’un ordinateur portable
ChatGPT d’OpenAI
Illustration: Leon Neal (Getty Images)

Comme mentionné précédemment, les chatbots IA sont capables d’effectuer de nombreuses tâches, mais ils commettent également de nombreuses erreurs. Lorsque des LLM comme ChatGPT inventer des informations fausses ou insensées, ça s’appelle une hallucination.

Publicité

Les chatbots ont des « hallucinations » lorsqu’ils ne disposent pas des données d’entraînement nécessaires pour répondre à une question, mais génèrent néanmoins une réponse qui ressemble à un fait. Les hallucinations peuvent être causées par différents facteurs tels que des données d’entraînement inexactes ou biaisées et un surapprentissage, c’est-à-dire lorsqu’un l’algorithme ne peut pas faire de prédictions ou de conclusions à partir d’autres données que celles sur lesquelles il a été formé.

Les hallucinations sont actuellement l’un des plus gros problèmes des modèles d’IA générative, et elles sont pas vraiment facile à résoudre pour. Étant donné que les modèles d’IA sont entraînés sur des ensembles de données massifs, il peut être difficile de trouver des problèmes spécifiques dans les données. Parfois, les données utilisées pour entraîner les modèles d’IA sont de toute faute, car elles vient d’endroits comme Reddit. Bien que les modèles d’IA soient formés à ne pas répondre aux questions auxquelles ils ne connaissent pas la réponse, ils ne refusent parfois pas ces questions et génèrent plutôt des réponses inexactes.

Publicité
Diapositive précédente
Diapositive suivante

9 / 16

Qu’est-ce que la formation ?

Qu’est-ce que la formation ?

un petit robot marche sur un petit tapis roulant sur un bureau avec un ordinateur portable et un notebook
Illustration: Westend61 (Getty Images)

La formation est le processus consistant à apprendre à un modèle d’IA comment faire des prédictions. Dans cette phase, un modèle d’IA est alimenté en données pour apprendre à effectuer une ou plusieurs tâches spécifiques et passe par des essais et des erreurs jusqu’à ce qu’il commence à produire les résultats souhaités.

Publicité
Diapositive précédente
Diapositive suivante

10 / 16

Qu’est-ce que l’inférence ?

Qu’est-ce que l’inférence ?

illustration d’un cerveau bleu néon dans un tunnel avec d’autres traces de lumière bleue et de code
Image: Yuichiro Chino (Getty Images)

L’inférence intervient après l’entraînement et constitue le processus par lequel un modèle d’IA entraîné fait des prédictions à partir de nouvelles données. Par exemple, une voiture autonome peut être entraînée à reconnaître un panneau d’arrêt sur une route spécifique. Grâce à l’inférence, la voiture autonome serait capable de reconnaître un panneau d’arrêt sur n’importe quelle route.

Publicité
Diapositive précédente
Diapositive suivante

11 / 16

Qu’est-ce que la génération augmentée par récupération (RAG) ?

Qu’est-ce que la génération augmentée par récupération (RAG) ?

illustration d’étoiles jaillissant d’un cerveau sur l’écran d’un ordinateur portable sur un fond vert menthe
Illustration: Malte Mueller (Getty Images)

La génération augmentée par récupération, ou RAG, est une technique de traitement du langage naturel (TAL) utilisée pour améliorer la précision des modèles d’IA génératifs. Avec RAG, les modèles de langage génératifs de grande taille sont combinés à des systèmes de recherche d’informations (comme des bases de données et des pages Web), ce qui permet aux modèles de référencer des connaissances en dehors de leurs données de formation d’origine et donc de fournir des réponses plus à jour.

Publicité

Le terme a été inventé dans un Article 2020 par un groupe de chercheurs de Facebook, de l’University College de Londres et de l’Université de New York.

Publicité
Diapositive précédente
Diapositive suivante

Que sont les jetons ?

lettres noires mélangées, s’élevant sur un fond blanc, il y a des traînées sous les lettres pour illustrer qu’elles se déplacent vers le haut
Illustration: carloscastilla (Getty Images)

Les données textuelles sont divisées en unités plus petites, appelées jetons, pour être traitées par des modèles d’IA. Les jetons peuvent aller d’une simple lettre à une phrase entière.

Publicité
Diapositive précédente
Diapositive suivante

13 / 16

Que sont les paramètres ?

Que sont les paramètres ?

illustration numérique d’un cerveau géométrique blanc entouré de points et de lignes colorés pour montrer les connexions
Illustration: da-kuk (Getty Images)

Les paramètres sont les variables qu’un modèle apprend à partir des données d’entraînement qui guident sa capacité à faire des prédictions. Au cours du processus d’entraînement, un modèle ajuste ses paramètres pour combler l’écart entre ce qu’il prédit et le résultat souhaité. Par conséquent, le modèle apprend à faire des prédictions précises sur de nouvelles données.

Publicité
Diapositive précédente
Diapositive suivante

14 / 16

Qu’est-ce qu’un AI PC ?

Qu’est-ce qu’un AI PC ?

Vue de dessus des mains d’un homme d’affaires en train de taper sur un ordinateur portable, hologramme cérébral IA, puce avec circuit imprimé numérique et engrenages
Illustration: ismagilov (Getty Images)

Un AI PC est un ordinateur personnel qui peut gérer des tâches d’IA et d’apprentissage machine. Ils sont construits avec un CPU, un GPU et un NPU qui ont capacités spécifiques de l’IA. Une NPU, ou unité de traitement neuronal, est une puce spécialisée dans l’exécution de tâches basées sur l’IA et l’apprentissage machine sur l’ordinateur sans avoir à envoyer ces données à traiter dans le cloud.

Publicité
Diapositive précédente
Diapositive suivante

15 / 16

Qu’est-ce qu’une unité de traitement neuronal (NPU) ?

Qu’est-ce qu’une unité de traitement neuronal (NPU) ?

illustration d’un circuit électronique avec une grosse puce verte au milieu avec « AI » écrit en lettres fuchsia
Illustration: Jonathan Kitchen (Getty Images)

Une unité de traitement neuronal (NPU) peut exécuter des tâches d’intelligence artificielle et d’apprentissage automatique directement sur un appareil, tel qu’un PC AI, ce qui signifie que les données n’ont pas besoin d’être envoyées vers le cloud pour être traitées.

Publicité

Ce contenu a été traduit automatiquement à partir du texte original. De légères différences résultant de la traduction automatique peuvent apparaître. Pour la version originale, cliquez ici.

Publicité