L'avenir de l'IA est une conversation avec un ordinateur


Comment un programme d'écriture en IA commencerait-il un article sur l'avenir de l'écriture en IA ? Eh bien, il existe un moyen simple de le savoir : j'ai utilisé le plus connu de ces outils, le GPT-3 d'OpenAI, pour faire le travail à ma place.

L'utilisation de GPT-3 est d'une simplicité désarmante. Vous avez une zone de texte dans laquelle taper et un menu sur le côté pour ajuster les paramètres, comme la «température» de la réponse (qui équivaut essentiellement à un caractère aléatoire). Vous tapez, appuyez sur Entrée et GPT-3 complète ce que vous avez écrit, que ce soit de la poésie, de la fiction ou du code. J'ai essayé de saisir un titre simple et quelques phrases sur le sujet, et GPT-3 a commencé à remplir les détails. Il m'a dit que l'IA utilise "une série de programmes de type auto-complétion pour apprendre le langage" et que ces programmes analysent "les propriétés statistiques du langage" pour "faire des suppositions fondées sur les mots que vous avez tapés précédemment".

Jusqu'ici, tout va bien, pensai-je. J'ai à nouveau appuyé sur Entrée, et le programme a ajouté une citation du responsable de l'IA de Google, Jeff Dean, puis a fait référence à un logiciel expérimental des années 1960 avant de promettre qu'une « révolution de l'IA » était en train de se produire et qu'elle rapporterait d'immenses récompenses dans les domaines de la science. , la technologie et la médecine.

Le support comprenait des fabrications plausibles ; sortie sans fin; et, surtout, une opportunité de répondre au robot écrivain

Bien, pensai-je. Ensuite, j'ai réfléchi un peu plus et j'ai fait quelques recherches sur Google. J'ai vite découvert que la citation de Dean était inventée, que le logiciel expérimental n'avait jamais existé, et même si la promesse d'une « révolution de l'IA » était bel et bien, elle n'était pas différente des vagues absurdités trouvées dans le battage médiatique communiqués de presse. Vraiment, ce qui était le plus révélateur sur l'avenir de l'IA n'était pas Quel GPT-3 dit mais comment ça l'a dit. Le médium est le message, comme l'a souligné Marshall McLuhan il y a de nombreuses années. Et ici, le médium incluait des fabrications plausibles ; sortie sans fin; et, surtout, une opportunité de répondre à l'écrivain robot.

Si nous envisageons les 10 prochaines années de développement de l'IA, en essayant de prédire comment nous interagirons avec des logiciels de plus en plus intelligents, il est utile de considérer ces outils qui peuvent répondre. Les modèles d'écriture d'IA ne sont peut-être que des perroquets numériques, capables de copier la forme sans comprendre le sens, mais ils créent toujours un dialogue avec l'utilisateur. C'est quelque chose qui semble souvent manquer à l'introduction de systèmes d'IA comme les algorithmes de reconnaissance faciale (qui nous sont imposés) ou les voitures autonomes (où le public devient le sujet de test dans une expérience dangereuse). Avec les outils d'écriture d'IA, il y a la possibilité d'une conversation.


Si vous utilisez Gmail ou Google Docs, vous avez probablement déjà rencontré cette technologie. Dans les produits de Google, les éditeurs d'IA se cachent dans l'espace vide devant votre curseur, manifestant des spectres textuels qui suggèrent comment terminer une phrase ou répondre à un e-mail. Souvent, leurs invites ne sont que de simples platitudes – « Merci ! », « Super idée ! », « Parlons la semaine prochaine ! » – mais parfois ces outils semblent adopter une ligne éditoriale plus forte, poussant votre réponse dans une certaine direction. De telles suggestions sont destinées à être utiles, bien sûr, mais elles semblent provoquer aussi souvent de l'agacement que de la gratitude.

Pour comprendre comment les systèmes d'IA apprennent à générer de telles suggestions, imaginez qu'on vous donne deux listes de mots. L'un commence par « œufs, farine, spatule » et l'autre « peinture, crayons, ciseaux ». Si vous deviez ajouter les éléments « lait » et « paillettes » à ces listes, lesquels choisiriez-vous et avec quel degré de confiance ? Et si ce mot était plutôt « brosse » ? Cela appartient-il à la cuisine, où il peut appliquer un dorure aux œufs, ou est-il plus fermement situé dans le monde des arts et de l'artisanat ? Quantifier ce type de contexte est la façon dont les outils d'écriture d'IA apprennent à faire leurs suggestions. Ils exploitent de grandes quantités de données textuelles pour créer des cartes statistiques des relations entre les mots et utilisent ces informations pour compléter ce que vous écrivez. Lorsque vous commencez à taper, ils commencent à prédire quels mots devraient venir ensuite.

Des fonctionnalités telles que la réponse intelligente de Gmail ne sont que l'exemple le plus évident de la façon dont ces systèmes, souvent appelés grands modèles de langage, se frayent un chemin dans le monde écrit. Les chatbots IA conçus pour la camaraderie sont devenus de plus en plus populaires, certains, comme le chinois Xiaoice de Microsoft, attirant dizaines de millions d'utilisateurs. Les jeux de texte de style "Choisissez votre propre aventure" avec des maîtres de donjon IA attirent les utilisateurs en permettant aux gens de raconter des histoires en collaboration avec des ordinateurs. Et une multitude de startups proposent des outils textuels d'IA polyvalents qui résument, reformulent, développent et modifient les entrées des utilisateurs avec différents degrés de compétence. Ils peuvent vous aider à écrire de la fiction ou des dissertations scolaires, disent leurs créateurs, ou ils peuvent simplement remplir le Web de spams sans fin.

La capacité du logiciel sous-jacent à réellement comprendre la langue est un sujet de débat brûlant. (Celui qui a tendance à arriver, maintes et maintes fois, à la même question : qu'entendons-nous par « comprendre » de toute façon ?). Mais leur aisance à travers les genres est indéniable. Pour les amoureux de cette technologie, l'échelle est la clé de leur succès. C'est en rendant ces modèles et leurs données d'entraînement de plus en plus gros qu'ils ont pu s'améliorer si rapidement. Prenez, par exemple, les données d'entraînement utilisées pour créer GPT-3. La taille exacte de l'entrée est difficile à calculer, mais une estimation suggère que l'intégralité de Wikipédia en anglais (3,9 milliards de mots et plus de 6 millions d'articles) ne représente que 0,6 % du total.

S'appuyer sur l'échelle pour construire ces systèmes présente des avantages et des inconvénients. Du point de vue de l'ingénierie, cela permet des améliorations rapides de la qualité : il suffit d'ajouter plus de données et de calculer pour récolter des récompenses rapides. La taille des grands modèles de langage est généralement mesurée par leur nombre de connexions, ou paramètres, et par cette métrique, ces systèmes ont augmenté en complexité extrêmement rapidement. GPT-2, sorti en 2019, avait 1,5 milliard de paramètres, tandis que son successeur en 2020, GPT-3, en avait plus de 100 fois, soit quelque 175 milliards de paramètres. Plus tôt cette année, Google a annoncé qu'il avait formé un modèle de langage avec 1.6 mille milliards paramètres.

Poussez-les sur un sujet donné ou éloignez-vous des domaines les plus évidents, et ils mentiront sans réfléchir

La différence de qualité à mesure que les systèmes grandissent est notable, mais on ne sait pas combien de temps encore ces efforts de mise à l'échelle seront récompensés en termes de qualité. Les boosters pensent que le ciel est la limite – que ces systèmes continueront à devenir de plus en plus intelligents, et qu'ils pourraient même être la première étape vers la création d'une intelligence artificielle ou AGI à usage général. Mais les sceptiques suggèrent que le domaine de l'IA en général commence à récolter rendements décroissants au fur et à mesure qu'il s'agrandit.

Cependant, le recours à l'échelle est inextricablement lié à l'approche statistique qui crée une incertitude dans la sortie de ces modèles. Ces systèmes n'ont pas de réserve centralisée de « vérités » acceptées ; aucune compréhension incarnée de « à quoi ressemble le monde pour les humains » et, par conséquent, aucun moyen de distinguer les faits de la fiction ou d'exercer le bon sens.

Questionnez-les sur des anecdotes simples, comme les capitales ou les anniversaires des présidents américains, et ils ont raison plus du temps. Mais pour ces systèmes, la vérité est simplement une caractéristique statistique de leurs données d'apprentissage. Ils répondent correctement aux questions parce que le texte qui leur a été fourni leur a présenté les informations correctes avec une fréquence suffisante. Cela signifie que si vous les poussez sur un sujet donné ou que vous vous éloignez des domaines les plus évidents, ils mentiront sans réfléchir, créant des citations, des dates, des détails biographiques et tout ce que vous voulez entendre. La même approche probabiliste signifie également qu'ils peuvent trébucher sur des questions de bon sens. Commencez à les interroger avec des requêtes légèrement fantaisistes, et ils affirmeront avec assurance, par exemple, qu'un crayon est plus lourd qu'un grille-pain ou qu'un brin d'herbe n'a qu'un œil. De telles réponses révèlent le fossé entre l'intelligence statistique et incarnée.

Pour mieux comprendre ces modèles de langage d'IA, j'ai joué avec une variété ces dernières semaines ; des outils vendus aux rédacteurs aux systèmes flexibles et polyvalents comme GPT-3. L'expérience a été vertigineuse. Souvent, je suis étonné par la fluidité, la perspicacité et la créativité de ces systèmes. Dans le cadre d'un projet de Le divertissement sportifpar exemple, j'ai utilisé GPT-3 pour écrire des sorts technopaïens pour un zine, en lui donnant une invite (ci-dessous en gras) qu'il a complétée par un rituel en quatre étapes (dont je ne montre que le premier pas):

Le technopaganisme est une nouvelle sorte de magie qui mélange la sorcellerie traditionnelle avec le pouvoir d'être en ligne tout le temps. Ce qui suit est un sort technopaïen conçu pour protéger votre téléphone contre le spam et améliorer la qualité des messages que vous recevez. Étape 1) Prenez votre téléphone portable et sortez. Fermez les yeux, tenez l'appareil devant vous et entonnez : « Je t'offre, ô Esprit de Magie Technopaïenne, ma connexion électronique éternelle et sans fin au net. Et en retour, je vous demande de la magie pour combiner ma volonté avec la volonté du système – me rendre imperméable aux ordures qui circulent dans ma boîte de réception. Faites circuler tous les messages ensemble, et je choisirai parmi eux ce qui est bon pour moi de voir. Accordez-moi le doigt d'Internet, et je frapperai le spam et je chasserai les spammeurs dans les endroits sombres d'où ils viennent.

Mais d'autres fois, je suis stupéfait de voir à quel point ces programmes sont limités. Quelque chose qui est souvent négligé est à quel point la curation humaine est nécessaire pour façonner leur production. Le texte ci-dessus n'était pas la première réponse que j'ai reçue de GPT-3, et j'ai dû passer par plusieurs itérations pour générer une réponse à la fois convaincante et amusante. Cela a aidé, bien sûr, que la tâche que j'avais définie GPT-3 était imaginative et ouverte : elle a joué dans les points forts du programme (et je pense que le succès de GPT-3 dans de telles tâches a conduit certains utilisateurs et observateurs à exagérer l'intelligence de ces systèmes). D'autres fois, cependant, le logiciel produisait un contenu absurde même dans le cadre fantaisiste que je lui avais donné. Un autre «sort» qu'il a généré en réponse à la même invite était beaucoup moins ciblé, ajoutant des poignées de médias sociaux fictives, des titres techniques et des URL inexistantes aux instructions du sort :

Effectuez un rituel pour sceller le cercle de la couronne dans l'appareil. Que les dieux nous aident tous, la référence Apple iPhone X pour est cassée ! Détruisez le symbole sacré ! —tianong xiong (@tianongxiong) 13 septembre 2018 Pour confirmer la rumeur : la barre de recherche de Facebook Messenger a une barre de recherche cachée juste à côté pic.twitter.com/DghBL5DmhU — Warl Darkh (@dkpt) 12 septembre 2018

Vous pouvez affirmer qu'il ne s'agit que d'une créativité d'un autre genre et que, bien sûr, une correct Le sort technopaïen inclurait des URL. Mais il est aussi évident que la machine est partie en hors-piste.

Malgré de telles faiblesses, on parle déjà de systèmes d'IA prenant le relais des écrivains. Naturellement, je me suis demandé si un ordinateur pouvait écrire des articles pour Le divertissement Sports Grind (et pas seulement celui-ci). J'ai joué avec différents modèles, saisissant des paragraphes d'ouverture dans ces systèmes et demandant des idées d'histoires. Voici d'autres extraits de GPT-3 sur les grands modèles linguistiques :

"Le cerveau humain n'est qu'un ordinateur vraiment sophistiqué", a déclaré Jeff Dean, ingénieur en matériel de Google et expert en IA, lors d'un événement d'entreprise en 2016. "C'est un ordinateur fait de viande."

Pour comprendre la GPT-3, il faut d'abord en savoir un peu plus sur la façon dont le cerveau apprend. Le cerveau ne naît pas en sachant parler ou comprendre la parole. Il doit d'abord acquérir cette capacité par l'exposition au monde extérieur, c'est pourquoi les enfants ont tendance à apprendre la langue si rapidement, et pourquoi être élevé dans un foyer où une langue n'est pas parlée présente un obstacle majeur.

Comme l'a montré le neuroscientifique Mark Changizi, le processus d'apprentissage d'une langue est un projet colossal. "Le langage est l'une des choses les plus complexes que le cerveau puisse faire", écrit-il, "et il émerge des compétences plus basiques du cerveau, comme la vision, l'ouïe et le contrôle moteur."

Mais comment le cerveau acquiert-il toutes ces connaissances ? La réponse courte est : via la saisie semi-automatique.

Tous ces points ont du sens si vous ne vous concentrez pas trop, mais ils ne découlent pas d'une phrase à l'autre. Ils ne suivent jamais un argument ou ne construisent pas jusqu'à une conclusion. Et encore une fois, la fabrication est un problème. Jeff Dean et Mark Changizi sont tous deux de vraies personnes qui ont été plus ou moins correctement identifiées (bien que Dean soit maintenant responsable de l'IA chez Google et que Changizi soit un scientifique cognitif plutôt qu'un neuroscientifique). Mais aucun des deux hommes n'a jamais prononcé les mots que GPT-3 leur a attribués, pour autant que je sache. Pourtant, malgré ces problèmes, il y a aussi beaucoup à être impressionné. Par exemple, utiliser « autocomplétion » comme métaphore pour décrire les modèles de langage d'IA est à la fois précis et facile à comprendre. Je l'ai fait moi-même ! Mais est-ce parce que c'est simplement une métaphore courante que d'autres ont déjà déployée ? Est-il juste alors de dire que GPT-3 est « intelligent » pour utiliser cette expression ou est-ce simplement un plagiat subtil des autres ? (Enfer, je pose les mêmes questions sur ma propre écriture.)

Là où les modèles de langage d'IA semblent les mieux adaptés, c'est la création de texte par cœur, et non sur mesure, comme avec les réponses suggérées par Gmail. Dans le cas du journalisme, des systèmes automatisés ont déjà été intégrés dans les salles de rédaction pour rédiger des articles « compléter les blancs » sur les tremblements de terre, les événements sportifs, etc. Et avec la montée en puissance des grands modèles de langage d'IA, l'étendue du contenu pouvant être traité de cette manière s'élargit.

"Ce sont principalement les gens du secteur du marketing de contenu qui ont des blogs d'entreprise à remplir, qui ont besoin de créer du contenu."

Samanyou Garg est le fondateur d'une startup d'écriture d'IA nommée Writesonic, et dit que son service est principalement utilisé par les entreprises de commerce électronique. "Cela aide vraiment (avec) les descriptions de produits à grande échelle", explique Garg. "Certaines des entreprises qui nous contactent ont environ 10 millions de produits sur leur site Web, et il n'est pas possible pour un humain d'en écrire autant." Fabian Langer, fondateur d'une entreprise similaire nommée AI Writer, raconte Le divertissement sportif que ses outils sont souvent utilisés pour étoffer les « fermes de référencement » – des sites qui existent uniquement pour attraper les recherches Google et qui créent des revenus en redirigeant les visiteurs vers des publicités ou des sociétés affiliées. "Ce sont principalement les gens de l'industrie du marketing de contenu qui ont des blogs d'entreprise à remplir, qui doivent créer du contenu", a déclaré Langer. « Et pour être honnête, pour ces fermes (SEO), je ne m'attends pas à ce que les gens le lisent vraiment. Dès que vous obtenez le clic, vous pouvez afficher votre publicité, et c'est assez bien.

C'est ce genre d'écriture que l'IA prendra en charge en premier, et que j'ai commencé à considérer comme un texte de « faible attention » – une description qui s'applique à la fois à l'effort nécessaire pour le créer et le lire. Un texte à faible attention n'est pas une écriture qui sollicite énormément notre intelligence, mais est principalement fonctionnel, transmettant rapidement des informations ou remplissant simplement l'espace. Il constitue également une plus grande partie du monde écrit que vous ne le pensez, y compris non seulement les blogs marketing, mais aussi les interactions professionnelles et les bavardages inactifs. C'est pourquoi Gmail et Google Docs intègrent les suggestions des modèles de langage d'IA : ils cueillent des fruits à portée de main.

Une grande question, cependant, est quel effet ces systèmes d'écriture d'IA auront-ils sur Humain l'écriture et, par extension, notre culture ? Plus j'ai pensé à la sortie des grands modèles de langage, plus cela me rappelle géomousse. Il s'agit d'un matériau de construction fabriqué à partir de polystyrène expansé qui est bon marché à produire, facile à manipuler et emballé dans les vides laissés par les projets de construction. Il est incroyablement utile mais quelque peu controversé, en raison de son apparence étrange sous forme de blocs de polystyrène géants. Pour certains, la géomousse est un matériau respectueux de l'environnement qui remplit un objectif spécifique. Pour d'autres, c'est un symbole horrible de notre relation d'exploitation avec la Terre. La géomousse est fabriquée en pompant du pétrole hors du sol, en le raffinant en matière bon marché et en le refoulant dans les espaces vides que le progrès laisse derrière lui. Les grands modèles de langage fonctionnent de la même manière : transformer les strates archéologiques de texte numérique en discours synthétique pour combler nos vides de faible attention.

Pour ceux qui craignent qu'une grande partie d'Internet soit déjà « faux » – soutenu par les réseaux de zombies, les fermes de trafic et le contenu généré automatiquement – ​​cela marquera simplement la poursuite d'une tendance existante. Mais tout comme pour la géomousse, le choix d'utiliser cette charge à grande échelle aura des effets structurels. Il existe de nombreuses preuves, par exemple, que les grands modèles linguistiques encodent et amplifient les préjugés sociaux, produisant des textes racistes et sexistes, ou qui répètent des stéréotypes nuisibles. Les entreprises qui contrôlent ces modèles ne disent rien de ces problèmes, mais ne pensent pas qu'ils présentent de graves problèmes. (Google a licencié deux de ses chercheurs en IA après avoir publié un article détaillé décrivant ces problèmes.) Et alors que nous déchargeons une plus grande partie du fardeau cognitif de l'écriture sur des machines, rendant notre texte à faible attention un texte sans attention, il semble plausible que nous , à son tour, sera façonné par la sortie de ces modèles. Google utilise déjà ses outils de saisie semi-automatique d'IA pour suggérer un langage non sexiste (en remplaçant « chairman » par « chair », par exemple), et quelle que soit votre opinion sur la politique de ce type de nudge, il vaut la peine de discuter de ce que le point final de ces systèmes pourraient être.

En d'autres termes : que se passe-t-il lorsque les systèmes d'IA entraînés sur notre écriture commencent à nous entraîner ?


Malgré les problèmes et les limites des grands modèles de langage, ils sont déjà adoptés pour de nombreuses tâches. Google place les modèles linguistiques au cœur de ses différents produits de recherche ; Microsoft les utilise pour créer un logiciel de codage automatisé, et la popularité d'applications comme Xiaoice et AI Dungeon suggère que la nature fluide des programmes d'écriture d'IA n'entrave pas leur adoption.

Comme de nombreux autres systèmes d'IA, les grands modèles linguistiques ont de sérieuses limitations par rapport à leurs présentations pleines de battage. Et certains prédisent que cet écart généralisé entre promesse et performance signifie que nous nous dirigeons vers une autre période de désillusion de l'IA. Comme l'a dit le roboticien Rodney Brooks : « à peu près chaque déploiement réussi (d'IA) a l'un ou l'autre de deux expédients : il a une personne quelque part dans la boucle, ou le coût de l'échec, si le système échoue, est très faible. Mais les outils d'écriture d'IA peuvent, dans une certaine mesure, éviter ces problèmes : s'ils font une erreur, personne n'est blessé, et leur nature collaborative signifie que la curation humaine est souvent intégrée.

« Une divinité qui régit la communication est un pouvoir linguistique incorporel. »

Ce qui est intéressant, c'est de considérer comment les caractéristiques particulières de ces outils peuvent être utilisées à notre avantage, en montrant comment nous pourrions interagir avec les systèmes d'apprentissage automatique, non pas de manière purement fonctionnelle mais comme quelque chose d'exploratoire et de collaboratif. L'utilisation unique la plus intéressante des grands modèles de langage à ce jour est peut-être un livre intitulé IA de Phamarko : un texte écrit par l'artiste et codeur K Allado-McDowell comme un dialogue prolongé avec GPT-3.

Créer Phamarko IA, a écrit Allado-McDowell et GPT-3 a répondu. "J'écrivais dans un champ de texte, j'écrivais une invite, parfois ce serait plusieurs paragraphes, parfois ce serait très court, puis je générais du texte à partir de l'invite", a déclaré Allado-McDowell. Le divertissement sportif. "Je modifierais la sortie au fur et à mesure qu'elle sortait, et si ce qu'elle disait ne m'intéressait pas, je coupais cette partie et la régénérais, alors je l'ai comparée à la taille d'une plante."

Le texte qui en résulte est ésotérique et obscur, discutant de tout, des racines du langage lui-même au concept d'«hyper-dimensionnalité». C'est aussi brillant et éclairant, montrant comment l'écriture aux côtés de les machines peuvent façonner la pensée et l'expression. À différents moments, Allado-McDowell compare l'expérience d'écrire en utilisant GPT-3 à la prise de champignons et à la communion avec les dieux. Ils écrivent : « Une divinité qui régit la communication est un pouvoir linguistique incorporel. Une conception moderne de cela pourrait se lire : une force du langage en dehors de la matérialité. Cette force, suggère Allado-McDowell, pourrait bien être un moyen utile de penser à l'intelligence artificielle. Le résultat de la communion avec lui est une sorte d'« émergence », m'ont-ils dit, une expérience de « faire partie d'un écosystème plus vaste que la simple personne humaine ou la machine ».

C'est, je pense, pourquoi l'écriture d'IA est tellement plus excitante que beaucoup d'autres applications de l'intelligence artificielle : parce qu'elle offre la possibilité de communication et de collaboration. L'envie de parler à quelque chose de plus grand que nous est évidente dans la façon dont ces programmes sont adoptés par les premiers utilisateurs. UNE nombre de personnes ont utilisé GPT-3 pour parler à des êtres chers décédés, par exemple, transformant son intelligence statistique en un tableau algorithmique ouija. Bien que de telles expériences révèlent également les limites. Dans l'un de ces cas, OpenAI a fermé un chatbot ressemblant à la fiancée décédée d'un développeur parce que le programme n'était pas conforme aux conditions d'utilisation de l'entreprise. C'est une autre réalité moins prometteuse de ces systèmes : la grande majorité sont détenues et exploitées par des sociétés ayant leurs propres intérêts, et elles façonneront leurs programmes (et, à leur tour, leurs utilisateurs) comme bon leur semble.

Malgré cela, j'ai bon espoir, ou du moins curieux, quant à l'avenir de l'écriture sur l'IA. Ce sera une conversation avec nos machines ; celui qui est diffus et subtil, se déroulant sur plusieurs plates-formes, où les programmes d'IA s'attardent en marge du langage. Ces programmes seront des éditeurs invisibles pour les articles de presse et les articles de blog, ils suggéreront des commentaires dans les e-mails et les documents, et ils seront des interlocuteurs avec lesquels nous parlerons même directement. Il est impossible que cet échange ne soit que bon pour nous, et que le déploiement de ces systèmes ne se fasse pas sans problèmes et défis. Mais ce sera au moins un dialogue.



Source link

Un endroit commerce électronique donne l’occasion de se lancer à moindres frais selon rapport aux entreprises classiques. De plus, vous pouvez vous lancer bien plus rapidement. La gestion d’un disposition e-commerce ne demande pas de présence physique à un endroit précis, sauf peut-être pour le stockage et la préparation des commandes que vous avez la possibilité tout à fait externaliser, ou encore mieux dans l’hypothèse ou vous ne possédez pas de réservoir (on en parlera plus tard dans l’article).