Avant-propos dâElvis
Bienvenue au onziĂšme numĂ©ro de la lettre dâinformation consacrĂ©e au NLP. \
Quelques mises Ă jour sur la lettre dâinformation sur le NLP et sur dair.ai : \
-
Nous avons publiĂ© un jeu de donnĂ©es qui peuvent ĂȘtre utilisĂ©es pour la recherche dâĂ©motions basĂ©e sur des textes. Le rĂ©pertoire comprend un notebook) qui montre comment fine-tuner les modĂšles BERT prĂ©-entraĂźnĂ©s pour la tĂąche de classification des Ă©motions. Plus rĂ©cemment, un modĂšle a Ă©tĂ© fine-tuneĂ© sur notre jeu de donnĂ©es et hĂ©bergĂ© sur HuggingFace, permettant une intĂ©gration simple Ă une pipeline de NLP.
-
Nous avons rĂ©cemment tenu notre toute premiĂšre sĂ©ance de lecture de dâarticles. Plus de 124 personnes se sont inscrites et une grande partie de ce groupe a participĂ© Ă lâĂ©vĂ©nement Ă distance. La premiĂšre discussion a portĂ© sur le document du T5. Nous organisons une deuxiĂšme session oĂč nous aurons une discussion approfondie sur le document. Pour en savoir plus sur les prochains Ă©vĂ©nements, rejoignez notre groupe Meetup, ou participez Ă la discussion dans notre groupe Slack.
Publications đ
OpenAIâs Jukebox
Le dernier travail dĂ©voilĂ© par OpenAI sâappelle Jukebox et est essentiellement une architecture de rĂ©seau neuronal entraĂźnĂ© pour gĂ©nĂ©rer de la musique (Ă partir de zĂ©ro) dans divers genres et styles artistiques. Le modĂšle, basĂ© sur une approche de quantification appelĂ©e VQ-VAE, est alimentĂ© par le genre, lâartiste et les paroles et produit un nouvel Ă©chantillon audio. LâidĂ©e est de traiter et de compresser de longues entrĂ©es audio brutes via un auto-encodeur Ă plusieurs niveaux et de rĂ©duire la dimensionnalitĂ© tout en prĂ©servant les informations musicales essentielles. Par la suite, des transformers sont utilisĂ©s pour gĂ©nĂ©rer des codes qui sont ensuite reconstruits en audio brut via le dĂ©codeur VQ-VAE. Plus de dĂ©tails sur ce travail est disponible sur le blog dâOpenAI ou dans lâarticle complet.
HybridQA : A Dataset of Multi-Hop Question Answering over
JusquâĂ prĂ©sent, la plupart des jeux de donnĂ©es rĂ©pondant aux questions portent sur des informations homogĂšnes. HybridQA est un jeu de donnĂ©es de rĂ©ponse aux questions Ă grande Ă©chelle destinĂ© Ă encourager la recherche et les mĂ©thodes qui nĂ©cessitent un raisonnement sur des informations hĂ©tĂ©rogĂšnes. Lâensemble de donnĂ©es se compose dâun tableau WikipĂ©dia structurĂ© et dâinformations non structurĂ©es sous la forme dâentitĂ©s se liant Ă des corpus de forme libre. Les auteurs introduisent Ă©galement deux baselines permettant de souligner les avantages de travailler avec des informations hĂ©tĂ©rogĂšnes par rapport Ă lâutilisation dâinformations homogĂšnes. Cependant, ils soulignent que les rĂ©sultats sont loin derriĂšre la performance humaine et que cela nĂ©cessite des systĂšmes dâassurance qualitĂ© qui peuvent mieux raisonner sur des informations hĂ©tĂ©rogĂšnes.
Un chatbot open-source de pointe
Facebook AI a construit et a mis en open source Blender, un modĂšle basĂ© sur lâIA quâils appellent le plus grand chatbot Ă domaine ouvert. Suite au succĂšs de Meena (un rĂ©cent systĂšme dâIA conversationnelle proposĂ© par Google), ils ont proposĂ© un modĂšle qui mĂ©lange les compĂ©tences conversationnelles comme lâempathie et la personnalitĂ© afin dâamĂ©liorer la qualitĂ© de la conversation gĂ©nĂ©rĂ©e. Le modĂšle a Ă©tĂ© entraĂźnĂ© Ă lâaide dâun modĂšle basĂ© sur un transformer (jusquâĂ 9,4 milliards de paramĂštres) sur environ 1,5 milliard dâĂ©chantillons dâentraĂźnement. Il a ensuite Ă©tĂ© fine-tunĂ© Ă lâaide dâun jeu de donnĂ©es (Blended Skill Talk) qui vise Ă fournir les traits souhaitables identifiĂ©s qui pourraient amĂ©liorer les capacitĂ©s conversationnelles du modĂšle. Les auteurs affirment que le modĂšle est capable de gĂ©nĂ©rer des rĂ©ponses que les Ă©valuateurs humains ont jugĂ©es plus humaines que celles gĂ©nĂ©rĂ©es par Meena.
TLDR : rĂ©sumĂ© extrĂȘme dâarticles scientifiques
Ce document propose une approche, y compris un jeu de donnĂ©es (SCITLDR), pour la nouvelle tĂąche de gĂ©nĂ©ration de TLDR dâarticles scientifiques.
TLDR Ă©tant les initiales de « too long ; didnât read » en anglais. Ce sigle est utilisĂ© pour indiquer que ce qui suit est un rĂ©sumĂ© du texte trop long.
Dans ce travail, les TLDR sont dĂ©finis comme une alternative et un rĂ©sumĂ© compact de lâarticle scientifique. Les TLDR, comme le suggĂšrent les auteurs, peuvent servir de moyen de comprendre rapidement le sujet dâun article et Ă©ventuellement aider le lecteur Ă dĂ©cider sâil veut continuer Ă lire lâarticle. Pour la tĂąche finale, un modĂšle basĂ© sur BART avec un fine-tuning multitĂąche (incluant la gĂ©nĂ©ration de titres et la gĂ©nĂ©ration de TLDR) a Ă©tĂ© utilisĂ©.
WT5 ?! Entraßnement des modÚles de texte à texte pour expliquer leurs prévisions
Un nouveau travail appelĂ© WT5 (abrĂ©viation de âWhy, T5 ?â) fine-tune un modĂšle T5 de Google pour produire des explications aux prĂ©visions quâil fait. Cela peut aider Ă mieux comprendre pourquoi un modĂšle fait certaines prĂ©dictions. Le modĂšle est alimentĂ© par des exemples avec des explications cibles et des labels cibles. Le texte dâentrĂ©e, qui comprend un prĂ©fixe de tĂąche (par exemple, sentiment) et le texte rĂ©el peuvent Ă©galement ĂȘtre prĂ©cĂ©dĂ©s dâune Ă©tiquette âexplainâ (voir lâexemple dans la figure ci-dessous). Cela permet un apprentissage semi-supervisĂ© oĂč des donnĂ©es entiĂšrement Ă©tiquetĂ©es sont fournies au modĂšle et oĂč seuls des exemples limitĂ©s ont les balises dâexplication. Les auteurs font Ă©tat de rĂ©sultats quantitatifs et qualitatifs dĂ©montrant que leur approche permet dâobtenir des rĂ©sultats de pointe sur les ensembles de donnĂ©es dâexplicabilitĂ©, y compris la capacitĂ© Ă obtenir de bons rĂ©sultats dans les donnĂ©es hors domaine. Ce travail prĂ©sente un modĂšle de base intĂ©ressant qui peut ĂȘtre utilisĂ© pour mieux comprendre les prĂ©dictions des modĂšles basĂ©s sur le texte mais, comme le soulignent les auteurs, lâapproche nâest quâune amĂ©lioration superficielle de lâinterprĂ©tabilitĂ© et quâil est possible de lâamĂ©liorer.
Narang et al. (2020)
Outils et jeux de donnĂ©es âïž
NVIDIAâs Medical Imaging Framework
MONAI est un framework dâIA en imagerie mĂ©dicale destinĂ© Ă soutenir le dĂ©veloppement scientifique dans le domaine des soins de santĂ©. Comme indiquĂ© dans les notes de publication, MONAI vise Ă fournir une bibliothĂšque conviviale et optimisĂ©e pour le traitement des donnĂ©es relatives aux soins de santĂ©. Comme dâautres bibliothĂšques, elle fournit Ă©galement des outils de traitement et de transformation des donnĂ©es spĂ©cifiques Ă un domaine, des modĂšles de rĂ©seaux neuronaux couramment utilisĂ©s dans lâespace, y compris lâaccĂšs Ă des mĂ©thodes dâĂ©valuation et la possibilitĂ© de reproduire les rĂ©sultats.
Un Ă©mulateur Python pour Game Boy
PyBoy est un outil construit en Python capable de gĂ©rer une interface Game Boy. Il comprend aussi une enveloppe expĂ©rimentale pour entraĂźner un agent basĂ© sur lâIA qui interagit avec le jeu.
Jupyter Notebooks en PDF
Avez-vous dĂ©jĂ voulu convertir vos notebooks en format PDF ? Cette extension de Jupyter Ă©crite par Tim Head vous permet de produire des PDF Ă partir de vos ordinateurs portables avec le moins dâexigences possible en termes de plugins et permet de joindre les ordinateurs portables au PDF pour la reproductibilitĂ©.
Sur la mise en place de systĂšmes dâIA conversationnelle plus rĂ©alistes
La librairie Transformers comprend maintenant DialoGPT. DialoGPT est un modĂšle de gĂ©nĂ©ration de rĂ©ponse conversationnelle neuronale Ă grande Ă©chelle proposĂ© par Microsoft. Il diffĂšre des modĂšles prĂ©cĂ©dents qui dĂ©pendent de donnĂ©es textuelles gĂ©nĂ©rales telles que WikipĂ©dia et les articles de presse, car il utilise des quantitĂ©s massives de conversations extraites des commentaires de Reddit. DialoGPT est basĂ© sur le modĂšle de langage autorĂ©gressif basĂ© sur le GPT et vise Ă fournir un prĂ©-entraĂźnement Ă grande Ă©chelle pour la gĂ©nĂ©ration de rĂ©ponses et de permettre ainsi une IA conversationnelle plus reprĂ©sentative de lâinteraction humaine.
TorchServe et [TorchElastic for Kubernetes], nouvelles librairies PyTorch pour servir et entraĂźner des modĂšles Ă lâĂ©chelle
TorchServe est une librairie open-source qui permet aux dĂ©veloppeurs dâentraĂźner leurs modĂšles tout en visant Ă rĂ©duire les frictions dans le processus. Lâoutil est construit sur PyTorch et permet aux dĂ©veloppeurs de dĂ©ployer leurs modĂšles en tant que travaux en utilisant AWS. Torchserve est conçu comme la maniĂšre canonique de servir les modĂšles entraĂźnĂ©s en fournissant des fonctionnalitĂ©s telles que le dĂ©ploiement sĂ©curisĂ©, des API dâinfĂ©rence, les mesures en temps rĂ©el du service dâinfĂ©rence, et une gestion facile des modĂšles.
MLSUM : Le corpus multilingue de résumés
Pour encourager et renforcer la recherche multilingue en NLP, des chercheurs de ReciTAL et du CNRS ont rĂ©cemment proposĂ© un corpus de rĂ©sumĂ©s multilingues. Lâensemble de donnĂ©es a Ă©tĂ© obtenu Ă partir de journaux et contient environ 1,5 million dâarticles en français, allemand, espagnol, russe et turc.
Made with ML
Au cas oĂč vous lâauriez manquĂ©, Goku Mohandas a construit un site web appelĂ© « Made with ML » qui vise Ă fournir un outil pour dĂ©couvrir des projets ML pertinents et intĂ©ressants. Il sâagit dâune plateforme qui permet aux crĂ©ateurs de partager leurs projets avec la communautĂ©. Une rĂ©cente mise Ă jour du site web comprend une section qui fournit des sujets soigneusement sĂ©lectionnĂ©s qui peuvent aider les utilisateurs Ă trouver rapidement des projets pertinents.
Articles et Blog âïž
Quelles sont les nouveautés pour les Transformers lors de la conférence ICLR 2020 ?
Lâune des plus importantes confĂ©rences sur lâapprentissage automatique, lâICLR, a dĂ» se tenir virtuellement cette annĂ©e en raison des restrictions de voyage imposĂ©es par les pays du monde entier.
Voici quelques articles présentés lors de cette conférence.
Cet [article] (https://towardsdatascience.com/whats-new-for-transformers-at-the-iclr-2020-conference-4285a4294792) rĂ©sume certains des travaux relatifs aux Transformers qui comprennent des rĂ©visions architecturales (par exemple ALBERT, Reformer et Transformer-XH), de nouvelles procĂ©dures dâapprentissage (par exemple ELECTRA et Pretrained Encyclopedia) et lâamĂ©lioration dâautres domaines tels que la recherche Ă grande Ă©chelle, la gĂ©nĂ©ration de texte et les reprĂ©sentations visuelles et linguistiques. Un document fournit une analyse dĂ©taillĂ©e dĂ©crivant les aspects communs des couches dâauto-attention et convolutionnelles, avec des rĂ©sultats intĂ©ressants suggĂ©rant que les architectures de Transformers sont une gĂ©nĂ©ralisation potentielle des CNN.
Si vous souhaitez en savoir plus sur dâautres travaux publiĂ©s dans le cadre de la CIRL cette annĂ©e, vous pouvez consulter le site Papers with Code website.
Enfin, lâICLR vient de mettre en libre accĂšs toutes les confĂ©rences.
AI Economist : AmĂ©liorer lâĂ©galitĂ© et la productivitĂ© grĂące Ă des politiques fiscales axĂ©es sur lâIA
Un groupe de chercheurs a proposĂ© un framework dâapprentissage par renforcement (AI Economist) qui vise Ă apprendre les politiques fiscales dynamiques uniquement par la simulation et les solutions basĂ©es sur des donnĂ©es. Certaines des amĂ©liorations obtenues par lâAI Economist montrent des rĂ©sultats et des calendriers prometteurs qui pourraient dĂ©boucher sur un cadre susceptible dâamĂ©liorer les rĂ©sultats sociaux et lâĂ©tat des inĂ©galitĂ©s Ă©conomiques.
Sur lâapport de capacitĂ©s de raisonnement de bon sens aux systĂšmes dâIA
Lâune des capacitĂ©s qui font dĂ©faut dans de nombreux systĂšmes dâIA actuels est le raisonnement de bon sens. Cet article prĂ©sente un bref historique de ce problĂšme et explique comment les chercheurs commencent Ă progresser dans ce domaine. Un bon nombre des efforts rĂ©cents comprennent la crĂ©ation de bases de connaissances pour entraĂźner un rĂ©seau neuronal (en particulier des modĂšles de langage) afin dâapprendre plus rapidement et plus efficacement sur le monde. Cela peut ĂȘtre considĂ©rĂ© comme un effort pour combiner le raisonnement symbolique avec les rĂ©seaux de neurones afin de traiter les problĂšmes de couverture et de bruitage des modĂšles.
COMETâââBosselut et al. (2019)
Un examen des principaux critÚres de référence du NLP
Quâest-ce que le NLP peut faire de mieux que les humains et oĂč y a-t-il encore des possibilitĂ©s dâamĂ©lioration ? Dans un rĂ©cent billet de blog, Manuel Tonneau examine les performances du modĂšle par rapport au benchmark GLUE, en identifiant les tĂąches oĂč les systĂšmes de NLP excellent dĂ©jĂ et celles oĂč les humains ont encore une longueur dâavance. Les rĂ©fĂ©rences SuperGLUE et XTREME sont Ă©galement prĂ©sentĂ©es comme une initiative visant Ă placer la barre plus haut et Ă motiver davantage la recherche sur de nouvelles tĂąches et de nouveaux langages.
Serveur dâinfĂ©rence Triton (TensorRT) pour les modĂšles de Transformers
Dans ce billet de blog les auteurs utilisent le serveur dâinfĂ©rence Triton (TensorRT) de NVIDIA pour hĂ©berger les modĂšles et expĂ©rimenter avec diffĂ©rentes configurations afin de fournir des rĂ©sultats comparables entre les modĂšles desservis par TensorFlow et PyTorch. Le rapport comprend les rĂ©sultats obtenus sur les diffĂ©rents aspects du modĂšle de service, tels que la latence avec concurrence, le dĂ©bit avec concurrence, et dâautres configurations impliquant la taille des batchs et la longueur de la sĂ©quence. De nombreux aspects du service de modĂšle sont manquants dans le rapport mais les auteurs sont intĂ©ressĂ©s par des tests avec le versionnement de modĂšle et diffĂ©rentes tĂąches telles que la dĂ©tection dâobjets. Ces guides fournissent les meilleures pratiques et techniques dâĂ©valuation des modĂšles qui sont utiles aux personnes qui mettent leurs modĂšles en production.
Latence et dĂ©bit pour diffĂ©rents modĂšles âââsource
Un guide en Keras pour les couches récurrentes
Cet article dâAmit Chaudhary fournit une explication visuelle des couches rĂ©currentes disponibles dans Keras et de lâeffet de divers arguments sur lâentrĂ©e et la sortie. Cela vise Ă fournir une meilleure comprĂ©hension de la façon dâinteragir avec les couches RNN de Keras lors de la prĂ©paration et du traitement des donnĂ©es. Un tutoriel utile pour les dĂ©butants intĂ©ressĂ©s par le langage de modĂ©lisation avec les modĂšles RNN.
Education đ
Livre dâapprentissage approfondi pour le cloud, le mobile et les pĂ©riphĂ©riques
Si vous ĂȘtes intĂ©ressĂ© par lâutilisation de vos modĂšles dâapprentissage approfondi dans le cloud, les tĂ©lĂ©phones mobiles et les pĂ©riphĂ©riques, voici un livre Ă©crit par Anirudh Koul, Siddha Ganju et Meher Kasam. Le livre sâintitule âPractical Deep Learning Book for Cloud, Mobile & Edgeâ et traite de sujets allant du fine-tuning et du dĂ©ploiement de vos modĂšles de vision par ordinateur Ă une introduction de plus de 40 Ă©tudes de cas de lâindustrie, en passant par lâutilisation de lâapprentissage par transfert pour entraĂźner rapidement les modĂšles.
Cours de ML
- Stanford a mis Ă disposition un ensemble de vidĂ©os du cours de ML enseignĂ© par Andrew Ng. Ce cours fournit un contenu qui pourrait ĂȘtre utile aux Ă©tudiants qui se lancent dans le monde de lâapprentissage automatique.
- Alors que nous mettons en production des systĂšmes de ML et de NLP pour une utilisation dans le monde rĂ©el, il devient crucial de construire des systĂšmes plus fiables et prĂ©servant la vie privĂ©e. Ce cours couvre les sujets de lâapprentissage machine fiable.
- Thomas Wolf a enregistrĂ© une vidĂ©o qui explique les tendances rĂ©centes et les sujets futurs de lâapprentissage par transfert pour le NLP.
Cours sur les GAN
Cette confĂ©rence vidĂ©o de Pieter Abbeel donne un aperçu complet des GAN qui sont utilisĂ©s aujourdâhui pour toutes sortes dâapplications crĂ©atives, de la production dâimages rĂ©alistes Ă la peinture numĂ©rique. Cette confĂ©rence fait partie du cours Deep Unsupervised Learning actuellement dispensĂ© Ă lâuniversitĂ© de Berkley. Voir le plan de la confĂ©rence ci-dessous.
Calcul diffĂ©rentiel pour lâapprentissage approfondi
AurĂ©lien Geron partage un notebook qui vise Ă introduire les concepts de base du calcul diffĂ©rentiel tels que les dĂ©rivĂ©es, les dĂ©rivĂ©es partielles et les gradients. Ces sujets sont tous importants dans le domaine de lâapprentissage profond et AurĂ©lien GĂ©ron rĂ©sume les concepts ainsi que les mises en Ćuvre, y compris des visualisations faciles Ă comprendre pour guider lâapprenant. Il recommande Ă©galement de consulter un autre notebook sur lâautodiffĂ©renciation.
Mentions spĂ©ciales âïž
- Andrej Karpathy partage certains des dĂ©veloppements rĂ©cents chez Tesla afin dâaboutir Ă une conduite autonome complĂšte. Les sujets abordĂ©s comprennent la modĂ©lisation des HydraNets, les moteurs de donnĂ©es, les mesures dâĂ©valuation et la maniĂšre dâeffectuer efficacement des infĂ©rences sur ces modĂšles de rĂ©seaux neuronaux Ă grande Ă©chelle.
- Il sâagit dâun dĂ©pĂŽt prĂ©parĂ© par MLT contenant une liste dâoutils interactifs pour lâapprentissage automatique, lâapprentissage approfondi et les mathĂ©matiques.
- Un rĂ©cent document vise Ă fournir un aperçu concis des coĂ»ts associĂ©s Ă lâentraĂźnement de grands modĂšles de NLP et la maniĂšre de calculer ces coĂ»ts.
- Springer a mis Ă disposition gratuitement des centaines de livres dont les titres vont des mathĂ©matiques Ă lâapprentissage approfondi. Cet article rĂ©sume certains des livres relatifs Ă lâapprentissage machine qui peuvent ĂȘtre tĂ©lĂ©chargĂ©s gratuitement.
- Kra-Mania est une application simple de question-rĂ©ponse construite avec Haystack en utilisant un jeu de donnĂ©es dâassurance qualitĂ© ouvert construit Ă partir de lâexposition Seinfeld. Ce tutoriel montre Ă quel point il est facile de construire des pipelines dâassurance qualitĂ© avec la librairie. Et ce lien vous emmĂšne Ă lâapplication de dĂ©monstration.
- LâexplicabilitĂ© est le processus par lequel les chercheurs visent Ă mieux comprendre les rĂ©seaux neuronaux profonds. Ce document fournit un âguide de terrainâ sur lâexplicabilitĂ© de lâapprentissage profond pour les non-initiĂ©s.
- Voici une petite enquĂȘte dĂ©crivant les travaux rĂ©cents sur lâaugmentation des donnĂ©es, qui est devenue un domaine dâĂ©tude populaire en ML et en NLP.
- Dans la newsletter précédente, nous avons présenté Longformer, une variante du Transformer qui améliore les performances de diverses tùches de NLP, en particulier pour les documents longs. Dans cette vidéo, Yannic Kilcher explique la nouveauté proposée dans ce travail.
Vous pouvez retrouver la précédente newsletter ici
Si vous avez des jeux de données, des projets, des articles de blog, des tutoriels ou des documents que vous souhaitez partager dans la prochaine édition de la newletter, vous pouvez utiliser ce formulaire.
Abonnez-vous pour recevoir les prochains numéros dans votre boßte mail.