{"id":12191,"date":"2022-05-18T11:48:02","date_gmt":"2022-05-18T11:48:02","guid":{"rendered":"https:\/\/projectsofar.info\/aisuperior\/?post_type=blog&#038;p=12191"},"modified":"2024-12-25T23:19:55","modified_gmt":"2024-12-25T23:19:55","slug":"transformers-in-natural-language-process","status":"publish","type":"blog","link":"https:\/\/aisuperior.com\/fr\/blog\/transformers-in-natural-language-process\/","title":{"rendered":"Transformer les transformateurs\u00a0: la famille GPT et autres tendances en mati\u00e8re d&#039;IA et de traitement du langage naturel"},"content":{"rendered":"<p>Au moins quatre projets open source de traitement du langage naturel qui exploitent d&#039;\u00e9normes r\u00e9seaux de neurones d\u00e9fient actuellement le seul grand projet commercial de PNL : GPT-3 de\u00a0<a href=\"https:\/\/openai.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">OpenAI<\/a>.<\/p>\n<p>Les initiatives open source visent \u00e0 d\u00e9mocratiser l\u2019IA et \u00e0 acc\u00e9l\u00e9rer son \u00e9volution. Tous ces projets sont bas\u00e9s sur\u00a0<strong>transformateurs<\/strong>: un type particulier de r\u00e9seaux de neurones qui se sont r\u00e9v\u00e9l\u00e9s les plus efficaces pour travailler avec les structures du langage humain.<\/p>\n<p>Que sont les transformateurs et pourquoi les \u00e9volutions r\u00e9centes de leur paysage sont-elles si importantes ?<\/p>\n<h2 class=\"wp-block-heading\">Que sont les transformateurs dans le traitement du langage naturel ?<\/h2>\n<p>Sur leur long chemin vers le succ\u00e8s, les chercheurs ont essay\u00e9 diff\u00e9rents r\u00e9seaux de neurones pour le traitement du langage naturel. Enfin, ils sont arriv\u00e9s avec attention \u00e0 deux mod\u00e8les bas\u00e9s soit sur des r\u00e9seaux de neurones convolutifs (CNN), soit sur des r\u00e9seaux de neurones r\u00e9currents (RNN).<\/p>\n<p>Sur un exemple de t\u00e2che de traduction, la diff\u00e9rence entre les deux est la suivante. Bien que les deux types prennent en compte ce qu\u2019ils ont appris sur une phrase donn\u00e9e en traduisant les mots pr\u00e9c\u00e9dents, ils passeraient au mot suivant de la rang\u00e9e en utilisant des approches diff\u00e9rentes.<\/p>\n<p>Un CNN traiterait chaque mot de la phrase dans des fils parall\u00e8les, tandis qu&#039;un RNN attentif veillerait \u00e0 pond\u00e9rer chaque mot pr\u00e9c\u00e9dent de la phrase en fonction de son influence sur la signification du mot suivant, traitant ainsi les mots les uns apr\u00e8s les autres. Un CNN ne r\u00e9sout pas parfaitement le probl\u00e8me de trouver le sens correct de chaque mot mais peut fonctionner plus rapidement ; un RNN produit des r\u00e9sultats plus corrects mais fonctionne lentement.<\/p>\n<p>En un mot, un transformateur est une combinaison des deux. Il utilise la technique de l\u2019attention \u00e9valuant l\u2019influence mutuelle des mots d\u2019une phrase les uns sur les autres. D&#039;autre part, cela fonctionne plus rapidement gr\u00e2ce aux multiples \u00ab threads \u00bb : des paires de soi-disant encodeurs et d\u00e9codeurs qui aident \u00e0 apprendre, \u00e0 appliquer ce qui a \u00e9t\u00e9 appris et \u00e0 propager les connaissances obtenues \u00e0 l&#039;it\u00e9ration suivante.<\/p>\n<h2 class=\"wp-block-heading\">Que peuvent faire les transformateurs ?<\/h2>\n<p>Outre la traduction, les transformateurs peuvent pr\u00e9dire quel mot utiliser ensuite dans une phrase, g\u00e9n\u00e9rant ainsi des phrases enti\u00e8res d&#039;un discours d&#039;apparence humaine.<\/p>\n<p>Cela nous permet de les utiliser \u00e0 diverses fins.<\/p>\n<p>Les capacit\u00e9s de cr\u00e9ation de contenu de Transformers peuvent \u00eatre utilis\u00e9es pour concevoir de meilleurs chatbots, r\u00e9diger du contenu Web et lib\u00e9rer les mains du personnel d&#039;assistance technique. Le dernier cas d&#039;utilisation est associ\u00e9 aux comp\u00e9tences des transformateurs en mati\u00e8re de recherche d&#039;informations qui promettent un large \u00e9ventail d&#039;applications dans la vie r\u00e9elle.<\/p>\n<p>Outre les langages purement humains, certains transformateurs sont capables de g\u00e9rer des langages de programmation et m\u00eame de cr\u00e9er des scripts pour d&#039;autres mod\u00e8les d&#039;apprentissage profond. Les comp\u00e9tences en codage et la capacit\u00e9 de comprendre la parole humaine permettent aux transformateurs de devenir des d\u00e9veloppeurs front-end. Ils peuvent \u00eatre inform\u00e9s de la m\u00eame mani\u00e8re qu\u2019un d\u00e9veloppeur humain et proposer une mise en page Web.<\/p>\n<p>Dans le cadre d&#039;une autre exp\u00e9rience, des transformateurs ont \u00e9t\u00e9 int\u00e9gr\u00e9s \u00e0 Excel et ont r\u00e9ussi \u00e0 remplir les cellules vides d&#039;une feuille de calcul en pr\u00e9disant des valeurs bas\u00e9es sur les donn\u00e9es existantes dans la m\u00eame feuille de calcul. Cela nous permettrait de remplacer les fonctions Excel volumineuses par une seule formule de transformateur qui imite le comportement de tout un algorithme.<\/p>\n<p>\u00c0 l\u2019avenir, les transformateurs pourraient remplacer les ing\u00e9nieurs d\u2019exploitation du d\u00e9veloppement humain, car ils doivent \u00eatre capables de configurer eux-m\u00eames les syst\u00e8mes et de fournir les infrastructures.<\/p>\n<p>On dirait wow ! En fait, 2022 a apport\u00e9 quelques mises \u00e0 jour inspirantes dans le domaine.<\/p>\n<h2 class=\"wp-block-heading\">Performances des transformateurs et ressources requises<\/h2>\n<p>Imiter l\u2019art humain du traitement du langage est devenu un cas tr\u00e8s comp\u00e9titif.<\/p>\n<p>Mesurer le succ\u00e8s n\u2019est pas une chose \u00e9vidente. En effet, le gagnant est le plus rapide et le plus pr\u00e9cis. Mais vous pouvez atteindre une vitesse et une pr\u00e9cision \u00e9lev\u00e9es gr\u00e2ce \u00e0 une combinaison de deux facteurs principaux\u00a0:<\/p>\n<ul>\n<li>Votre architecture de r\u00e9seau neuronal\u00a0; bien que l&#039;architecture du transformateur domine actuellement\u00a0;<\/li>\n<li>Le nombre de param\u00e8tres dans votre r\u00e9seau neuronal.<\/li>\n<\/ul>\n<p>Avec ce dernier, on comprend le nombre de\u00a0<em>Connexions<\/em>\u00a0entre les n\u0153uds d&#039;un r\u00e9seau. Ce nombre n\u2019a pas n\u00e9cessairement une relation lin\u00e9aire avec le nombre de n\u0153uds, qui correspondrait \u00e0 la taille du r\u00e9seau.<\/p>\n<p>Plus important encore, pour les entreprises, les groupes de recherche et les individus, les principaux facteurs qui influencent la r\u00e9ussite de leur enfant sont \u2013 apparemment \u2013 la taille de l&#039;investissement dont ils disposent, la taille des donn\u00e9es de formation et l&#039;acc\u00e8s au talent humain pour d\u00e9velopper le mod\u00e8le.<\/p>\n<h2 class=\"wp-block-heading\">Les projets d&#039;IA les plus puissants au monde<\/h2>\n<p>Compte tenu des facteurs mentionn\u00e9s ci-dessus, regardons qui m\u00e8ne la comp\u00e9tition en mati\u00e8re d&#039;IA.<\/p>\n<h2 class=\"wp-block-heading\">GPT-3<\/h2>\n<p>OpenAI\u00a0<a href=\"https:\/\/openai.com\/api\/\" target=\"_blank\" rel=\"noreferrer noopener\">GPT-3<\/a>\u00a0(Generative Pre-Trained Transformer) \u00e9tait autrefois le leader de la course. Il contient 175 milliards de param\u00e8tres et peut apprendre seul de nouvelles t\u00e2ches li\u00e9es au langage. Il peut faire plus que simplement traduire : l\u2019une de ses applications importantes consiste \u00e0 r\u00e9pondre aux questions et \u00e0 classer les informations.<\/p>\n<p>Il a \u00e9t\u00e9 form\u00e9 sur 570 Go de donn\u00e9es propres provenant de 45 To de donn\u00e9es organis\u00e9es, ce qui est beaucoup. Son principal inconv\u00e9nient est qu\u2019OpenAI ne permet un acc\u00e8s libre ni au mod\u00e8le pour l\u2019utiliser, ni \u00e0 son code pour l\u2019enrichir. Il propose uniquement une API commerciale pour obtenir les r\u00e9sultats du mod\u00e8le. Par cons\u00e9quent, seuls les chercheurs d&#039;OpenAI peuvent y contribuer.<\/p>\n<p>Comme beaucoup d\u2019autres, GPT-3 \u00ab parle \u00bb uniquement l\u2019anglais.<\/p>\n<h2 class=\"wp-block-heading\">Wu Dao 2.0.<\/h2>\n<p>D&#039;un point de vue quantitatif, Wu Dao 2.0. bat GPT-3 car il a \u00e9t\u00e9 form\u00e9 sur 1,2 To de donn\u00e9es texte chinoises, 2,5 To de chinois\u00a0<em>graphique<\/em>\u00a0donn\u00e9es et 1,2 To de donn\u00e9es texte en anglais. Il comporte \u00e9galement 1,75 billion de param\u00e8tres, soit 10 fois plus que GPT-3.<\/p>\n<p>Wu Dao 2.0. peut travailler dans diff\u00e9rents modes multim\u00e9dias et m\u00eame cr\u00e9er des structures 3D. Il a \u00e9t\u00e9 annonc\u00e9 que l&#039;open source n&#039;est toujours pas arriv\u00e9 sur GitHub pour une raison quelconque.<\/p>\n<h2 class=\"wp-block-heading\">M\u00e9taseq\/OPT-175B<\/h2>\n<p>Meta, anciennement connu sous le nom de Facebook, a souvent \u00e9t\u00e9 confront\u00e9 \u00e0 des accusations de dissimulation d&#039;importants r\u00e9sultats de recherche auxquels l&#039;humanit\u00e9 aurait pu contribuer. Leur r\u00e9cente tentative de rendre les mod\u00e8les de transformateurs plus disponibles pourrait les aider \u00e0 r\u00e9parer leur r\u00e9putation ruin\u00e9e.<\/p>\n<p>Comme son nom l\u2019indique, le transformateur poss\u00e8de 175 milliards de param\u00e8tres. Il a \u00e9t\u00e9 cr\u00e9\u00e9 comme une copie de GPT-3, pour correspondre \u00e0 ses performances et \u00e0 ses capacit\u00e9s.<\/p>\n<p>Un autre avantage de Metaseq est que\u00a0<a href=\"https:\/\/github.com\/facebookresearch\/metaseq\" target=\"_blank\" rel=\"noreferrer noopener\">son d\u00e9p\u00f4t GitHub<\/a>\u00a0h\u00e9berge des mod\u00e8les avec moins de param\u00e8tres, permettant aux scientifiques de les affiner uniquement pour des t\u00e2ches sp\u00e9cifiques et d&#039;\u00e9viter les co\u00fbts \u00e9lev\u00e9s de maintenance et de formation associ\u00e9s aux mod\u00e8les de transformateurs plus gros.<\/p>\n<p>Cependant, il n&#039;est pas enti\u00e8rement open source : l&#039;acc\u00e8s est limit\u00e9 aux groupes de recherche et doit \u00eatre demand\u00e9 par eux et approuv\u00e9 par Meta au cas par cas.<\/p>\n<h2 class=\"wp-block-heading\">Ouvrir GPT-X<\/h2>\n<p>Il est toujours dommage qu&#039;un projet scientifique naisse par peur de passer \u00e0 c\u00f4t\u00e9 et non parce qu&#039;il y a juste assez d&#039;inspiration pour le r\u00e9aliser. C&#039;est le cas du\u00a0<a href=\"https:\/\/tu-dresden.de\/tu-dresden\/newsportal\/news\/projektstart-open-gpt-x?set_language=en\" target=\"_blank\" rel=\"noreferrer noopener\">Projet GPT-X<\/a>: il est d\u00e9velopp\u00e9 en Europe et pr\u00e9sent\u00e9 comme une r\u00e9ponse au GPT-3 et un outil pour \u00e9tablir la \u00ab souverainet\u00e9 num\u00e9rique \u00bb de l&#039;Europe. L&#039;Institut allemand Frauenhofer est le principal moteur de son d\u00e9veloppement, soutenu par ses partenaires de coop\u00e9ration de longue date issus du monde industriel et universitaire allemand et europ\u00e9en.<\/p>\n<p>GPT-X a d\u00e9marr\u00e9 r\u00e9cemment et il n&#039;y a pas beaucoup d&#039;informations sur ses progr\u00e8s.<\/p>\n<h2 class=\"wp-block-heading\">GPT-J et GPT-NEO<\/h2>\n<p><a href=\"https:\/\/www.eleuther.ai\/\" target=\"_blank\" rel=\"noreferrer noopener\">\u00c9leuther IA<\/a>\u00a0est un groupe de recherche ind\u00e9pendant qui poursuit l\u2019objectif de d\u00e9mocratisation de l\u2019IA. Ils proposent deux mod\u00e8les plus petits : GPT-X avec 60 milliards de param\u00e8tres et GPT-NEO avec seulement 6 milliards. Curieusement, GPT-X surpasse GPT-3 dans les t\u00e2ches de codage et est tout aussi performant en mati\u00e8re de narration, de r\u00e9cup\u00e9ration d&#039;informations et de traduction, ce qui en fait une machine parfaite pour les chatbots.<\/p>\n<h2 class=\"wp-block-heading\">Transformateur de commutateur Google<\/h2>\n<p>Il a \u00e9t\u00e9 difficile de d\u00e9cider quels noms devraient figurer sur cette liste et lesquels ne devraient pas figurer sur cette liste, mais Google m\u00e9rite certainement d&#039;\u00eatre mentionn\u00e9, au moins pour deux raisons.<\/p>\n<p>La premi\u00e8re est que le g\u00e9ant de l\u2019Internet a rendu son transformateur open source.<\/p>\n<p>La seconde est que le\u00a0<a href=\"https:\/\/arxiv.org\/pdf\/2101.03961.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">Transformateur de commutation<\/a>\u00a0a re\u00e7u une nouvelle architecture. Il poss\u00e8de des r\u00e9seaux de neurones imbriqu\u00e9s dans les couches de son r\u00e9seau de neurones principal. Cela permet d\u2019augmenter ses performances sans augmenter la puissance de calcul n\u00e9cessaire.<\/p>\n<p>Le Switch Transformer contient 1 600 milliards de param\u00e8tres. N\u00e9anmoins, cela ne lui a pas encore permis de renverser GPT-3 en termes de pr\u00e9cision et de flexibilit\u00e9 ; tr\u00e8s probablement, en raison de la moindre \u00e9tendue de la formation du Switch Transformer.<\/p>\n<h2 class=\"wp-block-heading\">Conclusion<\/h2>\n<p>D\u2019ailleurs, la formation est un enjeu pressant dans le domaine : les chercheurs ont d\u00e9j\u00e0 utilis\u00e9 tous les textes anglais disponibles dans ce monde ! Ils devront probablement suivre l&#039;exemple de Wu Dao et passer bient\u00f4t \u00e0 d&#039;autres langues.<\/p>\n<p>Un autre probl\u00e8me est celui que le Switch Transformer a d\u00e9j\u00e0 r\u00e9solu : plus de param\u00e8tres r\u00e9seau avec moins de calculs. Le fonctionnement des r\u00e9seaux de neurones provoque des \u00e9missions de dioxyde de carbone en grande quantit\u00e9. Par cons\u00e9quent, l\u2019am\u00e9lioration des performances doit rester l\u2019objectif principal non seulement pour des raisons commerciales, mais aussi pour des raisons environnementales.<\/p>\n<p>Et cela devient possible gr\u00e2ce aux projets open source : ils fournissent \u00e0 ce domaine de recherche de nouveaux cerveaux (humains), de nouvelles connaissances et id\u00e9es.<\/p>\n<p>L\u2019IA et le traitement du langage naturel doivent s\u2019inspirer de la pratique. Chez AI Superior, nous suivons les mises \u00e0 jour et sommes impatients de mettre en \u0153uvre les r\u00e9sultats des projets open source pour nos clients de l&#039;industrie et leurs besoins. Nous vous invitons \u00e0 tirer parti de notre expertise en mati\u00e8re d&#039;IA et de traitement du langage naturel pour tout cas d&#039;utilisation, des boutiques en ligne et des \u00e9tudes de marketing au soutien des industries d&#039;ing\u00e9nierie.<\/p>","protected":false},"excerpt":{"rendered":"<p>At least four open-source natural language processing projects that exploit enormous neural networks are currently challenging the only big commercial NLP project: GPT-3 of\u00a0OpenAI. The open-source initiatives aim to democratise AI and boost its evolution. All of those projects are based on\u00a0transformers: a special type of neural networks that have proven to be the most [&hellip;]<\/p>\n","protected":false},"featured_media":12192,"template":"","meta":{"_acf_changed":false,"inline_featured_image":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"default","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}}},"categories":[8],"class_list":["post-12191","blog","type-blog","status-publish","has-post-thumbnail","hentry","category-ai","blog_category-ai"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The GPT Family And Other Trends In AI and NLP<\/title>\n<meta name=\"description\" content=\"Explore the importance of transformers in NLP and their applications, and learn about the leading AI projects in the world of machine learning.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/aisuperior.com\/fr\/blog\/transformers-in-natural-language-process\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The GPT Family And Other Trends In AI and NLP\" \/>\n<meta property=\"og:description\" content=\"Explore the importance of transformers in NLP and their applications, and learn about the leading AI projects in the world of machine learning.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/aisuperior.com\/fr\/blog\/transformers-in-natural-language-process\/\" \/>\n<meta property=\"og:site_name\" content=\"aisuperior\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/aisuperior\" \/>\n<meta property=\"article:modified_time\" content=\"2024-12-25T23:19:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/aisuperior.com\/wp-content\/uploads\/2023\/09\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:site\" content=\"@aisuperior\" \/>\n<meta name=\"twitter:label1\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data1\" content=\"7 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/\",\"url\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/\",\"name\":\"The GPT Family And Other Trends In AI and NLP\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/aisuperior.com\\\/wp-content\\\/uploads\\\/2023\\\/09\\\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg\",\"datePublished\":\"2022-05-18T11:48:02+00:00\",\"dateModified\":\"2024-12-25T23:19:55+00:00\",\"description\":\"Explore the importance of transformers in NLP and their applications, and learn about the leading AI projects in the world of machine learning.\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/#primaryimage\",\"url\":\"https:\\\/\\\/aisuperior.com\\\/wp-content\\\/uploads\\\/2023\\\/09\\\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg\",\"contentUrl\":\"https:\\\/\\\/aisuperior.com\\\/wp-content\\\/uploads\\\/2023\\\/09\\\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg\",\"width\":1024,\"height\":576},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/transformers-in-natural-language-process\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/aisuperior.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Blogs\",\"item\":\"https:\\\/\\\/aisuperior.com\\\/blog\\\/\"},{\"@type\":\"ListItem\",\"position\":3,\"name\":\"Transforming The Transformers: The GPT Family And Other Trends In AI and Natural Language Processing\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#website\",\"url\":\"https:\\\/\\\/aisuperior.com\\\/\",\"name\":\"aisuperior\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/aisuperior.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#organization\",\"name\":\"aisuperior\",\"url\":\"https:\\\/\\\/aisuperior.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/aisuperior.com\\\/wp-content\\\/uploads\\\/2026\\\/02\\\/logo-1.png.webp\",\"contentUrl\":\"https:\\\/\\\/aisuperior.com\\\/wp-content\\\/uploads\\\/2026\\\/02\\\/logo-1.png.webp\",\"width\":320,\"height\":59,\"caption\":\"aisuperior\"},\"image\":{\"@id\":\"https:\\\/\\\/aisuperior.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/www.facebook.com\\\/aisuperior\",\"https:\\\/\\\/x.com\\\/aisuperior\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/ai-superior\",\"https:\\\/\\\/www.instagram.com\\\/ai_superior\\\/\"]}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La famille GPT et autres tendances en mati\u00e8re d&#039;IA et de PNL","description":"Explorez l&#039;importance des transformateurs dans la PNL et leurs applications, et d\u00e9couvrez les principaux projets d&#039;IA dans le monde de l&#039;apprentissage automatique.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/aisuperior.com\/fr\/blog\/transformers-in-natural-language-process\/","og_locale":"fr_FR","og_type":"article","og_title":"The GPT Family And Other Trends In AI and NLP","og_description":"Explore the importance of transformers in NLP and their applications, and learn about the leading AI projects in the world of machine learning.","og_url":"https:\/\/aisuperior.com\/fr\/blog\/transformers-in-natural-language-process\/","og_site_name":"aisuperior","article_publisher":"https:\/\/www.facebook.com\/aisuperior","article_modified_time":"2024-12-25T23:19:55+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/aisuperior.com\/wp-content\/uploads\/2023\/09\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_site":"@aisuperior","twitter_misc":{"Dur\u00e9e de lecture estim\u00e9e":"7 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/","url":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/","name":"La famille GPT et autres tendances en mati\u00e8re d&#039;IA et de PNL","isPartOf":{"@id":"https:\/\/aisuperior.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/#primaryimage"},"image":{"@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/#primaryimage"},"thumbnailUrl":"https:\/\/aisuperior.com\/wp-content\/uploads\/2023\/09\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg","datePublished":"2022-05-18T11:48:02+00:00","dateModified":"2024-12-25T23:19:55+00:00","description":"Explorez l&#039;importance des transformateurs dans la PNL et leurs applications, et d\u00e9couvrez les principaux projets d&#039;IA dans le monde de l&#039;apprentissage automatique.","breadcrumb":{"@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/#primaryimage","url":"https:\/\/aisuperior.com\/wp-content\/uploads\/2023\/09\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg","contentUrl":"https:\/\/aisuperior.com\/wp-content\/uploads\/2023\/09\/Photo-by-Arseny-Togulev-on-Unsplash-1024x576-1.jpg","width":1024,"height":576},{"@type":"BreadcrumbList","@id":"https:\/\/aisuperior.com\/blog\/transformers-in-natural-language-process\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/aisuperior.com\/"},{"@type":"ListItem","position":2,"name":"Blogs","item":"https:\/\/aisuperior.com\/blog\/"},{"@type":"ListItem","position":3,"name":"Transforming The Transformers: The GPT Family And Other Trends In AI and Natural Language Processing"}]},{"@type":"WebSite","@id":"https:\/\/aisuperior.com\/#website","url":"https:\/\/aisuperior.com\/","name":"aisuperior","description":"","publisher":{"@id":"https:\/\/aisuperior.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/aisuperior.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/aisuperior.com\/#organization","name":"aisuperior","url":"https:\/\/aisuperior.com\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/aisuperior.com\/#\/schema\/logo\/image\/","url":"https:\/\/aisuperior.com\/wp-content\/uploads\/2026\/02\/logo-1.png.webp","contentUrl":"https:\/\/aisuperior.com\/wp-content\/uploads\/2026\/02\/logo-1.png.webp","width":320,"height":59,"caption":"aisuperior"},"image":{"@id":"https:\/\/aisuperior.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/aisuperior","https:\/\/x.com\/aisuperior","https:\/\/www.linkedin.com\/company\/ai-superior","https:\/\/www.instagram.com\/ai_superior\/"]}]}},"_links":{"self":[{"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/blog\/12191","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/types\/blog"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/media\/12192"}],"wp:attachment":[{"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/media?parent=12191"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aisuperior.com\/fr\/wp-json\/wp\/v2\/categories?post=12191"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}