Qu’est-ce que l’IA ? Un guide complet sur l'intelligence artificielle

Publié: 2024-05-07

Malgré tout le battage médiatique récent, l’intelligence artificielle (IA) n’a rien de nouveau. En fait, il est antérieur de plusieurs décennies au World Wide Web. Même si l’émergence soudaine et rapide de l’IA générative a retenu toute l’attention (et c’est probablement la raison pour laquelle vous lisez cet article), vous avez sûrement rencontré l’IA directement et indirectement depuis de nombreuses années.

Cet aperçu de haut niveau de l'IA présentera les différentes manières dont elle peut fonctionner, ce qu'elle peut et ne peut pas faire, ainsi que ses implications pour le présent et l'avenir des entreprises et de la société. Nous soulignerons également le lien avec la grammaire : cela fait partie de la façon dont nous aidons les gens à écrire depuis plus d'une décennie.

Table des matières

  • L'IA expliquée
  • Comment fonctionne l'IA
  • Histoire de l'IA
  • Applications de l'IA
  • Avantages de l'IA
  • Limites de l'IA
  • Conclusion

L'intelligence artificielle expliquée

L'intelligence artificielle est une technologie qui simule la façon dont l'esprit humain apprend et fonctionne.

L’IA est différente des programmes informatiques standards dans la mesure où elle peut résoudre des problèmes à l’aide d’algorithmes ou d’un raisonnement logique. De plus, dans la plupart des applications actuelles, il peut apprendre et s’adapter sans intervention humaine. Les principaux aspects du domaine de l'IA comprennent l'apprentissage automatique (ML), le traitement du langage naturel (NLP) et les réseaux de neurones.

Comment fonctionne l'intelligence artificielle

Un modèle est une instance spécifique de l’IA. Par exemple, ChatGPT 3.5 et ChatGPT 4 sont deux modèles d'IA. Pour comprendre les principaux éléments constitutifs de l’IA, nous nous concentrerons sur différentes approches conceptuelles pour créer un modèle.

IA basée sur des règles ou systèmes experts

Le cadre le plus simple est ce qu'on appelle les systèmes basés sur des règles ou experts : les gens écrivent des instructions spécifiques sous une forme de logique qu'un algorithme peut comprendre. L'arborescence téléphonique typique du support client fonctionne de cette manière : il lui est demandé de donner une certaine réponse à une entrée qui correspond à certains paramètres. L'algorithme PageRank fondamental de Google est un autre exemple, mais beaucoup plus sophistiqué.

Apprentissage automatique

Aujourd’hui, la plupart des IA utilisent une approche appelée apprentissage automatique. Plutôt que de recevoir un ensemble d’instructions codées en dur, le modèle apprend lui-même les règles à partir d’un large (ou énorme) assortiment de contenus : modèles, relations et autres dynamiques. Ce processus est souvent appelé formation du modèle. Il est également possible de combiner règles et ML, et nous discuterons plus tard des avantages relatifs de chacun.

Il existe quatre catégories principales de ML : l’apprentissage supervisé, non supervisé, semi-supervisé et auto-supervisé.

1 L'apprentissage supervisé utilise des données annotées ou structurées pour indiquer à la machine ce qu'elle doit apprendre. Cette approche repose sur des ensembles de données étiquetés, où le résultat souhaité est déjà connu, permettant au modèle d'apprendre la relation entre les entrées et les sorties.

2 L'apprentissage non supervisé ne comporte pas d'instructions explicites. La machine doit donc donner un sens à ce qu'elle voit par elle-même, puis faire des prédictions. Ce type d'apprentissage est utilisé pour trouver des modèles cachés ou des structures intrinsèques dans les données d'entrée.

3 L'apprentissage semi-supervisé est une approche hybride dans laquelle le modèle est formé sur une petite quantité de données étiquetées complétée par une grande quantité de données non étiquetées. Cette méthode exploite les avantages de l’apprentissage supervisé et non supervisé, améliorant ainsi l’efficacité et la précision de l’apprentissage lorsque les données étiquetées sont rares.

4 L'apprentissage auto-supervisé est une approche dans laquelle le modèle génère ses propres étiquettes à partir des données d'entrée. Il est particulièrement utile dans les scénarios où les données étiquetées sont limitées ou indisponibles. Le modèle utilise une partie des données d'entrée pour prédire d'autres parties, créant ainsi ses propres signaux supervisés.

L'apprentissage ne doit pas nécessairement s'arrêter à la formation initiale. Grâce à l'apprentissage par renforcement, le modèle s'améliore continuellement en fonction des commentaires sur la qualité de sa sortie. Cette évaluation peut être effectuée par des humains, mais il existe également de nombreuses techniques et algorithmes d’apprentissage par renforcement automatisé.

Une fois le modèle formé, il est prêt à être utilisé. Une entrée est exécutée dans le modèle et donne une sortie, qu'il s'agisse d'une réponse à une question, de la classification d'une image, du dessin d'un graphique, etc. Certaines IA (en particulier les modèles basés sur des règles) sont déterministes, ce qui signifie qu'une entrée donnée mènera toujours à un certain résultat. Cependant, la plupart des modèles modernes sont probabilistes, introduisant un certain degré d'aléatoire, ce qui explique pourquoi si vous saisissez deux fois exactement la même question dans ChatGPT, il est peu probable que vous obteniez la même réponse.

En savoir plus sur l'apprentissage automatique

Réseaux de neurones et apprentissage profond

OK, mais concrètement, commentfonctionnel’IA ? C’est là que les choses deviennent très rapidement très techniques. Nous nous concentrerons sur l'approche qui se cache derrière bon nombre des innovations les plus spectaculaires en matière d'IA d'aujourd'hui, les réseaux de neurones.

Ces représentations simplifiées des neurones d'un cerveau commencent par faire des suppositions aléatoires, comparent ces suppositions avec les réponses correctes et effectuent de petits ajustements encore et encore pour améliorer continuellement leur précision.

Les réseaux de neurones sont composés de couches. En « bas » se trouve l’entrée, en haut se trouve la sortie, et entre les deux se trouvent les couches dites cachées. De bas en haut, les capacités deviennent de plus en plus abstraites. Par exemple, dans un système de reconnaissance d’images, les couches inférieures peuvent reconnaître des couleurs ou des bords, tandis que les couches supérieures perçoivent des objets spécifiques.

Lorsque les réseaux de neurones comportent plusieurs couches cachées, on parle d’apprentissage profond. Les réseaux de neurones profonds d’aujourd’hui comportent généralement de nombreuses couches, et il existe souvent des sous-couches dotées de fonctions spécifiques. Les améliorations de la puissance de traitement ont déclenché une explosion de l’innovation.

En savoir plus sur l'apprentissage profond

Traitement du langage naturel

Lorsque les ordinateurs cherchent à comprendre la façon dont les humains écrivent et parlent, on parle alors de traitement du langage naturel. Alors qu'une vérification orthographique de base met simplement en évidence les mots qui ne correspondent pas à son dictionnaire, Grammarly utilise la PNL pour comprendre votre écriture et faire des suggestions adaptées au contexte.

Au cours de la dernière décennie, la PNL a connu une révolution, dont vous avez sûrement fait l'expérience dans les domaines de la traduction automatique, de la génération de texte et de la transcription automatique. Des techniques telles que l'augmentation de l'attention (ce que le modèle peut « garder à l'esprit » à un moment donné, plutôt que de simplement traiter mot par mot) et des modèles pré-entraînés (afin qu'ils n'aient pas à réapprendre comment fonctionne le langage humain à partir de scratch) ont permis aux machines de comprendre et de ressembler aux humains dans de nombreux contextes.

En savoir plus sur le traitement du langage naturel

IA générative

L'IA générative est un sous-ensemble de l'intelligence artificielle capable de produire de nouveaux contenus, tels que du texte, des images, de la musique et même du code, sur la base de ses données d'entraînement.

Contrairement aux systèmes d’IA traditionnels, conçus pour des tâches ou des analyses de données spécifiques, les modèles d’IA génératifs sont capables de générer des résultats originaux qui imitent souvent le travail créé par l’homme. Ces modèles, basés sur des réseaux neuronaux profonds, permettent de deviner des modèles, des styles ou une logique à partir d'ensembles de données étendus. Ils exploitent ensuite ces connaissances pour créer un nouveau contenu unique qui n’existait pas auparavant.

L’utilisation de l’IA générative couvre divers domaines, notamment le divertissement, l’art, la littérature et le développement de logiciels. Cela démontre la polyvalence de l’IA et ses capacités croissantes.

A revoir : l’IA peut être basée sur des règles ou du ML. L’apprentissage automatique peut être supervisé ou non et s’améliore au fil du temps grâce à l’apprentissage par renforcement. De nombreux modèles d'IA actuels sont des réseaux de neurones qui utilisent l'apprentissage profond à travers de nombreuses couches. Le traitement du langage naturel est une brillante réussite pour les réseaux de neurones profonds, et les modèles qui créent du texte, des images, du code, etc. sont appelés IA générative.

En savoir plus sur l'IA générative

Histoire de l'IA

Nous fournirons ici un bref aperçu de l’histoire de l’IA. Par souci de brièveté et pour nous concentrer uniquement sur le calendrier de développement, nous ne mentionnerons pas les personnes à l'origine de ces innovations.

Années 1950-1980 : GOFAI printemps, puis hiver

Le termeintelligence artificiellea été inventé en 1956. La même année, le premier logiciel d’IA opérationnel a prouvé avec succès divers théorèmes mathématiques, dont l’un était « plus élégant » que la preuve proposée par l’auteur original.

Le premier réseau de neurones a été construit en 1967, mais la plupart des recherches sur l’IA à cette époque reposaient sur la représentation symbolique et la logique pour simuler l’esprit rationnel. (Vous rencontrerez peut-être l'acronyme ironique GOFAI, qui signifiebonne vieille IA.) Cependant, une combinaison d'attentes non satisfaites et de puissance de calcul limitée a conduit à ce que l'on appelle l'hiver de l'IA, où le financement et la recherche ont ralenti dans le Années 1970 et au-delà.

Dans les années 80, les systèmes experts (les modèles d'IA basés sur des règles dont nous avons parlé plus tôt) sont devenus populaires et ont eu un impact pratique sur de nombreuses entreprises. En parallèle, les chercheurs se sont tournés vers les réseaux de neurones et ont développé des techniques pour les faire s'entraîner eux-mêmes.

Années 1990-2000 : omniprésente mais sous-estimée

Avec plus de puissance de traitement et des ensembles de données plus volumineux, dans les années 1990, l’apprentissage automatique est devenu pratique à l’échelle appliquée, et l’IA a franchi de nombreuses étapes. En dehors du cinéma, le premier succès largement connu de l’intelligence artificielle a probablement eu lieu lorsque Deep Blue a battu Garry Kasparov aux échecs en 1997. Peu de temps après, le premier programme de reconnaissance vocale grand public, Dragon, est devenu disponible pour Windows.

Malgré ces progrès, pas plus tard que dans la première décennie de ce siècle, de nombreux chercheurs et entreprises dissimulaient leurs produits et projets d’IA sous d’autres termes parce qu’ils avaient encore une connotation de battage publicitaire excessif. L’ironie est que ces mêmes systèmes, qui alimentent tout, des filtres anti-spam aux Roombas, ont en réalité apporté la valeur pratique de l’IA appliquée à la vie quotidienne.

Années 2010 à aujourd’hui : l’IA se généralise

Dans les années 2010, l’IA a entamé un essor qui se poursuit encore aujourd’hui. Plutôt qu’une seule avancée, un certain nombre de facteurs ont convergé :

  • GPU : Malgré leur appellation d'unité de traitement graphique,ces puces s'avèrent très efficaces pour entraîner des réseaux de neurones profonds. L’évolution vers l’utilisation des GPU a accéléré à la fois la vitesse et la portée pratique de la création de nouveaux modèles.
  • Avancées de la recherche : les nouvelles formes et applications des réseaux neuronaux ont permis de faire de grands progrès dans la capacité des ordinateurs à comprendre et à restituer du texte et des images.
  • Big data : à ce stade, Internet existe depuis suffisamment longtemps pour que ses milliards d’utilisateurs génèrent des quantités insondables de contenu dont les modèles peuvent tirer des leçons.
  • Cloud computing : les plates-formes à la demande d'Amazon, Google, Microsoft et d'autres ont grandement simplifié l'obtention de la puissance de calcul nécessaire au développement de modèles d'IA.

Les innovations qui ont été soit nouvellement créées, soit radicalement remaniées au cours de cette période incluent Google Translate, des assistants virtuels comme Siri et des moteurs de recommandation sur des services comme Netflix et Spotify, sans parler de nombreux impacts importants mais moins visibles sur des secteurs tels que la santé, l'industrie manufacturière et même la défense. .

Alors pourquoi la frénésie autour de l’IA a-t-elle augmenté de plusieurs crans une fois que l’IA générative est entrée en scène ? La grande différence est que des modèles comme ChatGPT et DALL-E peuvent interpréter et répondre à presque n'importe quelle entrée, plutôt que d'être limités à un certain domaine. Cela signifie que toute personne disposant d’une connexion Internet peut interagir directement avec un modèle d’IA sans aucune formation particulière et que l’IA peut être utilisée à des fins spécifiques beaucoup plus rapidement que la création d’un nouveau modèle à partir de zéro.

L’avenir : AGI et ASI

Malgré toutes ses capacités, ce que nous voyons aujourd’hui est connu comme une IAétroiteoufaible.Cela signifie une technologie qui couvre une partie, mais pas la totalité, de l’intelligence humaine. Une machine qui égale les capacités de notre cerveau serait appeléeIA forte, ouintelligence générale artificielle (AGI). Une fois que l’IA dépasse l’intelligence humaine, on parle alors de superintelligence artificielle (ASI).

A quelle distance sommes-nous de l’AGI ? C'est à deviner. Même ceux qui sont profondément impliqués dans ce domaine ont à maintes reprises largement sous-estimé le rythme de l’innovation.

Applications et exemples d'IA

Ce ne sont là que quelques-unes des nombreuses façons dont l’IA apparaît aujourd’hui dans les applications du monde réel.

Aider les humains à mieux faire les choses.Nous pensons que Grammarly est un excellent exemple ici : vous avez les idées, le sens de ce que vous essayez de dire et la connaissance du public. Nous vous suggérons des moyens de rendre votre message plus clair et d'améliorer ses chances d'être bien reçu. Découvrez comment Grammarly utilise l'IA générative pour améliorer la communication.

Travaillez plus intelligemment avec Grammarly
Le partenaire d'écriture IA pour tous ceux qui ont du travail à faire

Accompagner les personnes handicapées.Les technologies telles que la synthèse vocale et la synthèse vocale changent la donne pour les personnes souffrant de déficiences sensorielles, telles que l'audition ou la vision. Ils leur permettent d’accéder à des contenus en direct et enregistrés auparavant inaccessibles, afin de pouvoir s’intéresser davantage à la richesse du monde sans compter sur quelqu’un pour leur servir d’yeux ou d’oreilles.

Systèmes autonomes.L'IA peut combiner la perception et la prédiction pour faire beaucoup de choses plus efficacement et même en toute sécurité, depuis les voitures autonomes jusqu'aux systèmes d'arrosage qui ne fonctionnent pas lorsqu'il est sur le point de pleuvoir. Waymo, la société de voitures autonomes lancée par Google, rapporte environ 85 % d'accidents corporels en moins que si les humains avaient parcouru la même distance.

Recommandations.Les modèles d'IA analysent le comportement et les données démographiques des utilisateurs pour faire des suppositions très éclairées sur des éléments tels que la prochaine émission de télévision ou le type d'eau gazeuse que vous voudrez peut-être essayer.

Traitement audiovisuel.Les exemples incluent la reconnaissance vocale à partir d'un assistant virtuel, la perception automatique des péages basée sur le traitement des images de plaques d'immatriculation et le filtrage du bruit visuel et audio d'un enregistrement ou d'un flux.

IA de pointe.Cela place la puissance de l’IA directement dans les appareils du monde réel, plutôt que dans un centre de données. Ceux-ci ont tendance à être concentrés au laser sur une tâche spécifique pour un traitement rapide et à faible consommation d'énergie. Les exemples incluent Face ID sur un iPhone et les thermostats intelligents.

Avantages et bénéfices de l'IA

Traitement à grande échelle.Imaginez si une personne réelle devait évaluer chaque transaction par carte de crédit pour déceler une fraude ou saisir chaque numéro de chaque formulaire fiscal envoyé à l'IRS. L’IA peut juger ou classer beaucoup plus rapidement, et souvent mieux, que les humains.

Détection et prédiction de modèles.L’IA commence à surpasser les humains dans sa capacité à détecter le cancer ; dans un cas, il a battu les professionnels de 13 %. Il est également très efficace pour détecter les situations qui s'écartent d'un modèle reconnu, par exemple pour détecter des défauts dans des bases de données. Ce pouvoir de recherche de modèles rend l’IA particulièrement utile pour les prévisions, depuis les prévisions météorologiques jusqu’aux mouvements boursiers.

De nouvelles idées.Depuis le tout premier modèle, l’IA a trouvé des réponses et des approches à toutes sortes de problèmes qu’aucun humain n’a jamais pu résoudre. Les exemples modernes vont de la conception de chaussures à une nouvelle loi de la physique.

Médecine accélérée.Des vaccins contre la COVID-19 à la détection de la maladie d’Alzheimer, l’IA aide les chercheurs à développer plus rapidement des diagnostics et des traitements.

Vigilance.L'IA ne se fatigue jamais. Tant qu'il est correctement conçu et qu'il dispose de suffisamment d'électricité et de puissance de traitement, il peut surveiller en permanence de grands volumes de données. C’est un contributeur majeur à la baisse du taux d’accidents des véhicules autonomes.

Inconvénients et limites de l'IA

Hallucinations.L’IA générative peut inventer des choses. Parce qu’une grande partie de ce que disent ces modèles est plausible, beaucoup de gens ne pensent pas à le vérifier. Un exemple récent de ce problème est survenu lorsque Michael Cohen, un ancien avocat, a envoyé à son propre avocat des citations d'affaires juridiques entièrement fabriquées par l'IA générative de Google, alors connue sous le nom de Bard (aujourd'hui Gemini).

Deepfakes.Si les hallucinations sont accidentelles, les deepfakes sont intentionnels. Des acteurs malveillants (ou, plus innocemment, des farceurs) peuvent utiliser l’IA générative pour créer des images, des vidéos, de l’audio ou du texte qui semblent si proches de la réalité que de nombreuses personnes ne peuvent pas faire la différence.

Concurrence avec les emplois humains.De nombreuses personnes occupant des postes tels que la rédaction et le service client considèrent l’IA générative comme une menace réelle. Fortune fait état de milliers d’emplois perdus à cause de l’IA, ce qui, selon elle, est « certainement sous-estimé ».

Difficile de savoir pourquoi il est arrivé à une conclusion particulière.Avec les réseaux de neurones, vous ne pouvez pas savoir exactement pourquoi ou comment ils donnent un résultat particulier : cela ne peut pas être directement rattaché à une certaine partie du corpus de formation, par exemple. Dans des secteurs hautement réglementés, comme la santé ou la finance, certaines IA sont construites en partie ou entièrement avec des algorithmes basés sur des règles que les humains peuvent évaluer.

Consommation d'énergie.C'est difficile à mesurer directement, mais une étude estime que la génération d'une seule image, comme avec DALL-E, utilise presque la même quantité d'énergie qu'un cycle de chargement d'un smartphone, ce qui peut s'accumuler considérablement avec le temps.

Conclusion

L’IA est à la fois ancienne et très récente. Bien que ce domaine existe depuis près de 70 ans, ce n’est qu’au cours de la dernière décennie, et surtout au cours des dernières années, que beaucoup d’entre nous ont pris pleinement conscience de sa puissance et de son potentiel. Grâce à des innovations telles que les réseaux neuronaux, l’apprentissage profond, le traitement du langage naturel et l’IA générative, des outils qui auraient ressemblé à de la science-fiction il n’y a pas si longtemps sont désormais facilement disponibles et font une grande différence dans le monde. Vous voulez essayer quelque chose de concret dès maintenant ? Inscrivez-vous à Grammarly et découvrez comment l'IA peut fonctionner pour vous.