Avant-propos dâElvis
Bienvenue au sixiĂšme numĂ©ro de la lettre dâinformation consacrĂ©e au NLP. Merci pour votre soutien et pour avoir pris le temps de lire les derniĂšres nouvelles sur le ML et le NLP. Ce numĂ©ro traite de sujets allant de lâextension du modĂšle Transformer au ralentissement de la publication en ML, en passant par une sĂ©rie de livres et de lancements de projets en ML et en NLP.
Quelques mises Ă jour sur la lettre dâinformation sur le NLP et sur dair.ai.
Nous avons traduit la lettre dâinformation dans dâautres langues telles que le portugais brĂ©silien, le chinois, lâarabe, lâespagnol, entre autres. Merci aux personnes qui ont aidĂ© Ă la traduction. Vous pouvez Ă©galement contribuer ici.
Il y a un mois, nous avons officiellement lancĂ© notre nouveau site web. Vous pouvez consulter notre organisation GitHub pour plus dâinformations sur dair.ai et ses projets. Si vous souhaitez voir comment dâautres personnes contribuent dĂ©jĂ Ă dair.ai ou si vous souhaitez contribuer Ă la dĂ©mocratisation de la recherche, de lâĂ©ducation et des technologies en matiĂšre dâintelligence artificielle, consultez notre section sur les questions dâactualitĂ©.
Publications đ
Une introduction Ă la BERTologie : Ce que nous savons sur le fonctionnement de BERT
Les modĂšles basĂ©s sur le Transformer se sont avĂ©rĂ©s efficaces pour aborder diffĂ©rents types de tĂąches de NLP allant de la classification de sĂ©quences Ă la rĂ©ponse aux questions. Lâun de ces modĂšles, appelĂ© BERT (Devlin et al. 2019), est largement utilisĂ© mais comme dâautres modĂšles qui utilisent des rĂ©seaux de neurones profonds, nous savons trĂšs peu de choses sur leur fonctionnement interne. Un nouvel article intitulĂ© â A Primer in BERTology: What we know about how BERT works â vise Ă rĂ©pondre Ă certaines des interrogations portant sur les raisons pour lesquelles BERT est performant dans un si grand nombre de tĂąches de NLP. Parmi les sujets abordĂ©s dans cet article, on trouve le type de connaissances acquises par BERT ainsi que leur reprĂ©sentation, la maniĂšre dont ces connaissances sont acquises et les autres mĂ©thodes utilisĂ©es par les chercheurs pour les amĂ©liorer.
Explorer les limites de lâapprentissage par transfert avec un Transformer de texte Ă texte
Google AI a rĂ©cemment publiĂ© une mĂ©thode qui rassemble tous les enseignements et les amĂ©liorations tirĂ©s des modĂšles de NLP basĂ©s sur lâapprentissage par transfert. Les auteurs lâont appelĂ© Text-to-Text Transfer Transformer (T5). Ce travail propose que la plupart des tĂąches de NLP puissent ĂȘtre formulĂ©es dans un format texte-texte, suggĂ©rant que les entrĂ©es et les sorties sont des textes. Les auteurs affirment que ce â cadre fournit un objectif dâentraĂźnement cohĂ©rent Ă la fois pour le prĂ©-entraĂźnement et le fine-tuningâ.
Le T5 est essentiellement un Transformer encoder-decoder qui applique diverses amĂ©liorations, en particulier aux composantes dâattention qui composent le modĂšle. Le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ© sur un ensemble de donnĂ©es rĂ©cemment publiĂ©, le Colossal Clean Crawled Corpus et a Ă©tĂ© appliquĂ© sur SOTA sur des tĂąches de NLP telles que le rĂ©sumĂ©, la rĂ©ponse aux questions et la classification de textes.
12 en 1 : Apprentissage multitùche de la représentation de la vision et des langues
La recherche actuelle utilise des tĂąches et des ensembles de donnĂ©es indĂ©pendants pour effectuer des recherches sur la vision et le langage mĂȘme lorsque les âcompĂ©tences de comprĂ©hension du langage fondĂ©es sur la visionâ requises pour effectuer ces tĂąches se chevauchent. Une nouvelle publication (qui sera prĂ©sentĂ©e Ă la CVPR) propose une approche multitĂąche Ă grande Ă©chelle pour mieux modĂ©liser et entraĂźner conjointement les tĂąches de vision et du langage afin de gĂ©nĂ©rer un modĂšle de vision et de langue plus gĂ©nĂ©rique. Le modĂšle rĂ©duit la taille des paramĂštres et fonctionne bien pour des tĂąches telles que la recherche dâimages basĂ©e sur des lĂ©gendes et la rĂ©ponse visuelle Ă des questions.
BERT peut voir Ă lâextĂ©rieur de la boĂźte : Sur la transfĂ©rabilitĂ© intermodale des reprĂ©sentations textuelles
Les chercheurs et collaborateurs de reciTAL ont publiĂ© un article qui vise Ă rĂ©pondre Ă la question de savoir si un modĂšle BERT peut produire des reprĂ©sentations qui se gĂ©nĂ©ralisent Ă dâautres modalitĂ©s que le texte, comme par exemple la vision. Ils proposent un modĂšle appelĂ© BERT-gen qui exploite des reprĂ©sentations mono ou multimodales et qui obtient de meilleurs rĂ©sultats sur les ensembles de donnĂ©es de gĂ©nĂ©ration de questions visuelles.
CrĂ©ativitĂ© et sociĂ©tĂ© đš
La prochaine décennie en IA : quatre étapes vers une intelligence artificielle robuste
Gary Marcus a rĂ©cemment publiĂ© un article dans lequel il explique une sĂ©rie de mesures que nous devrions prendre selon lui afin de construire des systĂšmes dâIA plus robustes. LâidĂ©e centrale dans ce papier est de se concentrer sur la construction de systĂšmes hybrides et axĂ©s sur la connaissance, guidĂ©s par des modĂšles cognitifs, plutĂŽt que de se concentrer sur la construction de systĂšmes plus importants qui nĂ©cessitent plus de donnĂ©es et de puissance de calcul.
10 technologies de pointe pour 2020
La revue technologique du MIT a publiĂ© une liste des 10 percĂ©es quâelle a identifiĂ©es et qui feront la diffĂ©rence dans la rĂ©solution de problĂšmes susceptibles de changer notre façon de vivre et de travailler. La liste - sans ordre particulier - comprend lâinternet non piratable, la mĂ©decine hyper-personnalisĂ©e, lâargent numĂ©rique, les mĂ©dicaments anti-Ăąge, les molĂ©cules dĂ©couvertes par lâIA, les mĂ©ga-constellations de satellites, la suprĂ©matie quantique, lâIA minuscule, la confidentialitĂ© diffĂ©rentielle et lâattribution du climat.
Il est temps de repenser le processus de publication en ML
Yoshua Bengio a rĂ©cemment fait part de ses prĂ©occupations concernant les cycles rapides des publications du ML. La principale est quâen raison de la rapiditĂ© de la publication, beaucoup dâarticles publiĂ©s contiennent des erreurs et sont juste incrĂ©mentiels. A contrario, ceux sur lesquels plus de temps est consacrĂ© afin dâen assurer la rigueur, semble disparaĂźtre. De plus, ce sont les Ă©tudiants qui doivent faire face aux consĂ©quences nĂ©gatives de cette pression et de ce stress. Pour remĂ©dier Ă cette situation, Bengio parle de ses actions pour aider Ă ralentir le processus de publication des recherches pour le bien de la science.
Outils et jeux de donnĂ©es âïž
Mise en Ćuvre du rĂ©seau PointerGenerator dans AllenNLP
Les rĂ©seaux « Pointer-Generator » visent Ă augmenter les modĂšles dâattention utilisĂ©s pour amĂ©liorer la synthĂšse abstraite. Si vous souhaitez utiliser cette technique en utilisant AllenNLP, Kundan Krishna a dĂ©veloppĂ© une librairie qui vous permet dâexĂ©cuter un modĂšle prĂ©-entraĂźnĂ© (fourni) ou dâentraĂźner votre propre modĂšle.
Questions/réponses pour différentes langues
Avec la prolifĂ©ration des modĂšles de Transformer et leur efficacitĂ© pour les tĂąches de NLP, des efforts impressionnants ont Ă©tĂ© dĂ©ployĂ©s pour publier diffĂ©rents types de jeux de donnĂ©es dans diffĂ©rentes langues. Par exemple, Sebastian Ruder a partagĂ© une liste de jeux de donnĂ©es qui peuvent ĂȘtre utilisĂ©s pour des tĂąches de rĂ©ponses aux questions dans diffĂ©rentes langues : DuReader, KorQuAD, SberQuAD, FQuAD, Arabic-SQuAD, SQuAD-it et Spanish SQuAD.
PyTorch Lightning
PyTorch Lightning est un outil qui vous permet de rĂ©aliser un entraĂźnement abstrait qui nĂ©cessiterait lâutilisation de GPU/TPU dâune prĂ©cision de 16 bits. PyTorch Lightning permet dâentraĂźner des modĂšles sur des plusieurs GPU et TPU sans avoir besoin de changer votre code PyTorch actuel.
Graph Neural Networks dans TensorFlow 2
Une Ă©quipe de recherche de Microsoft publie une librairie qui donne accĂšs aux implĂ©mentations de nombreuses architectures de rĂ©seaux neuronaux en graphes (GNN). Cette librairie est basĂ©e sur TensorFlow 2 et fournit Ă©galement des modules de manipulation de donnĂ©es qui peuvent ĂȘtre directement utilisĂ©s dans des boucles dâentrainement/Ă©valuation.
PrĂ©-entraĂźnement de SmallBERTa - Un petit modĂšle pour sâentraĂźner sur un petit jeu de donnĂ©es
Avez-vous dĂ©jĂ voulu entraĂźner votre propre modĂšle linguistique Ă partir de zĂ©ro mais nâavez pas eu assez de ressources pour le faire ? Si câest le cas, Aditya Malte vous propose un notebook qui vous apprend Ă entrainer un modĂšle linguistique Ă partir de zĂ©ro avec un ensemble de donnĂ©es plus restreint.
Ethique en IA đš
Pourquoi les visages ne disent pas toujours la vérité sur les sentiments
Depuis un certain temps, de nombreux chercheurs et entreprises ont tentĂ© de construire des modĂšles dâIA qui comprennent et peuvent reconnaĂźtre les Ă©motions dans un contexte textuel ou visuel. Un nouvel article relance le dĂ©bat sur le fait que les techniques dâIA qui visent Ă reconnaĂźtre les Ă©motions Ă partir des images de visages ne le font pas correctement. Lâargument principal, soulevĂ© par des psychologues, est quâil nâexiste aucune preuve dâexpressions universelles pouvant ĂȘtre utilisĂ©es pour la dĂ©tection dâĂ©motions basĂ©es uniquement sur des images de visages. Il faudrait quâun modĂšle comprenne mieux par exemple les traits de personnalitĂ© ou encore les mouvements du corps, afin de se rapprocher rĂ©ellement dâune dĂ©tection plus prĂ©cise des Ă©motions affichĂ©es par les humains.
Differential Privacy and Federated Learning Explained
Lâune des considĂ©rations Ă©thiques Ă prendre en compte lors de la construction de systĂšmes dâIA est la garantie du respect de la vie privĂ©e. Actuellement, cela peut ĂȘtre rĂ©alisĂ© de deux maniĂšres, soit en utilisant une intimitĂ© diffĂ©rentielle, soit par un apprentissage fĂ©dĂ©rĂ©. Si vous voulez en savoir plus sur ces sujets, Jordan Harrod nous fournit une excellente introduction dans cette vidĂ©o qui comprend Ă©galement une session de pratique avec lâutilisation dâun notebook.
Articles et Blog âïž
Plongée dans le Reformer
Madison May a Ă©crit un nouvel article sur son blog consacrĂ© au Reformer, proposĂ© par Google AI. Nous avons Ă©galement prĂ©sentĂ© le Reformer dans un prĂ©cĂ©dent numĂ©ro de la newsletter. Pour une explication en français, vous pouvez consulter lâillustration suivante.
Une plateforme de blogging gratuite
fastpages vous permet de crĂ©er automatiquement et gratuitement un blog en utilisant les pages GitHub. Cette solution simplifie le processus de publication dâun blog et prend Ă©galement en charge lâutilisation de documents Word et de notebook Jupyter.
Conseils pour un entretien chez Google
Pablo Castro, de lâĂ©quipe Google Brain, a publiĂ© un article sur son blog mettant en avant une liste de conseils pour les personnes intĂ©ressĂ©es par un entretien dâembauche chez Google. Parmi les sujets abordĂ©s figurent des conseils sur la façon de se prĂ©parer Ă lâentretien, sur ce Ă quoi il faut sâattendre pendant lâentretien et sur ce qui se passe aprĂšs lâentretien.
Les Transformers sont des Graph Neural Networks
Les rĂ©seaux neuronaux de graphes (GNN) et les Transformers se sont avĂ©rĂ©s efficaces pour diffĂ©rentes tĂąches de NLP. Pour mieux comprendre le fonctionnement interne de ces approches et leurs relations, Chaitanya Joshi a Ă©crit un article expliquant la connexion entre les GNN et les Transformers, ainsi que les diffĂ©rentes façons dont ces mĂ©thodes peuvent ĂȘtre combinĂ©es dans une sorte de modĂšle hybride.
CNNs et Equivariance
Fabian Fuchs et Ed Wagstaff discutent de lâimportance de lâĂ©quivariance et de la maniĂšre dont les CNN la font respecter. Le concept dâĂ©quivariance est dâabord dĂ©fini, puis discutĂ© dans le contexte de CNN appliquĂ©s Ă la traduction.
Lâauto-apprentissage avec les images
Lâauto-apprentissage a Ă©tĂ© beaucoup Ă©voquĂ© dans les prĂ©cĂ©dents numĂ©ros de la newsletter en raison du rĂŽle quâil a jouĂ© dans les techniques modernes de modĂ©lisation des langues. Ce billet de Jonathan Whitaker fournit une explication de lâauto-apprentissage dans le contexte des images. Si le sujet vous intĂ©resse, Amit Chaudhary a Ă©galement Ă©crit un article dĂ©crivant le concept de maniĂšre visuelle.
Education đ
Stanford CS330: Deep Multi-Task et Meta-Learning
Stanford a rĂ©cemment publiĂ© une playlist vidĂ©o YouTube sur son nouveau cours consacrĂ© Ă lâapprentissage multi-tĂąches et au mĂ©ta-apprentissage. Parmi les sujets abordĂ©s, citons le mĂ©ta-apprentissage bayĂ©sien, le lifelong apprentissage, une introduction Ă lâapprentissage par renforcement, etcâŠ
Notebooks PyTorch
dair.ai publie une sĂ©rie de notebook qui visent Ă vous faire dĂ©couvrir les rĂ©seaux neuronaux profonds Ă lâaide de PyTorch. Il sâagit dâun travail en cours et certains sujets dâactualitĂ© comprennent la façon de mettre en Ćuvre un modĂšle de rĂ©gression logistique Ă partir de zĂ©ro et la façon de programmer un NN ou un RNN Ă partir de zĂ©ro. Les notebooks sont Ă©galement disponibles dans le dĂ©pĂŽt GitHub.
Le livre de fastai book (Ă©bauche)
Jeremy Howard et Sylvain Gugger ont publiĂ© une liste complĂšte de notebooks (non terminĂ©s) en vue de leur prochain cours qui prĂ©sentera des concepts de deep learning et diffĂ©rentes mĂ©thodes dâutilisation de PyTorch et la librairie fastai.
Cours gratuits sur la datascience
Au cas oĂč vous lâauriez manquĂ©, Kaggle propose une sĂ©rie de petits cours gratuits sur les outils de datascience. Certains de ces cours comprennent, entre autres, lâexplication de lâapprentissage machine, une introduction Ă lâapprentissage machine et Ă Python, la visualisation de donnĂ©es, lâingĂ©nierie des fonctionnalitĂ©s et lâapprentissage approfondi.
Un autre cours de datascience en ligne propose un programme, des diapositives et des notebooks sur lâanalyse exploratoire des donnĂ©es, lâinterprĂ©tation des modĂšles ou encore le NLP.
8 créateurs et contributeurs parlent de leurs librairies PyTorch
nepture.ai a publiĂ© un vaste article qui contient des discussions dĂ©taillĂ©es avec les principaux crĂ©ateurs et contributeurs de PyTorch (parcours, philosophie du projet, outils qui lâentourent, etcâŠ).
Visualisation des modĂšles adaptatifs dâattention rĂ©duite
Sasha Rush partage un notebook qui explique et montre les dĂ©tails techniques sur la maniĂšre de produire des sorties softmax sparses. Il aborde Ă©galement la façon dâinduire la sparcitĂ© dans la composante dâattention dâun modĂšle de Transformer, ce qui aide Ă produire une probabilitĂ© nulle pour les mots non pertinents dans un contexte donnĂ©, amĂ©liorant ainsi la performance et lâinterprĂ©tabilitĂ©.
Mentions spĂ©ciales âïž
Conor Bell a codĂ© un script python qui vous permet de visualiser et de prĂ©parer facilement un jeu de donnĂ©es pouvant ĂȘtre utilisĂ© pour un modĂšle StyleGAN.
Manu Romero a contribuĂ© au fine-tuning dâun modĂšle POS pour lâespagnol. Le modĂšle est sur la librairie Transfomers dâHugging Face. Il sera intĂ©ressant de voir cet effort dans dâautres langues.
Ce répertoire Github contient une longue liste de documents rédigés sur BERT qui abordent différents problÚmes tels que la compression de modÚles, les domaines spécifiques, le multi-modÚle, la génération, les tùches en aval, etc.
Connor Shorten a publiĂ© une courte vidĂ©o de 15 minutes expliquant un framework Ă aborder pour rĂ©duire lâeffet des âraccourcisâ dans lâauto-apprentissage de la reprĂ©sentation. Câest important car, sâil nâest pas bien fait, le modĂšle peut ne pas apprendre des reprĂ©sentations sĂ©mantiques utiles et se rĂ©vĂ©ler potentiellement inefficace dans un contexte dâapprentissage par transfert.
Sebastian Ruder a publiĂ© un nouveau numĂ©ro de sa newsletter qui met en lumiĂšre des sujets et des ressources allant dâanalyses dâarticles sur le NLP et le ML de 2019 Ă des diapositives sur lâapprentissage par transfert et des Ă©lĂ©ments essentiels sur le deep learning. Vous pouvez le consulter ici.
Vous pouvez retrouver la précédente newsletter ici
Si vous avez des jeux de données, des projets, des articles de blog, des tutoriels ou des documents que vous souhaitez partager dans la prochaine édition de la newletter, vous pouvez utiliser ce formulaire.
Abonnez-vous pour recevoir les prochains numéros dans votre boßte mail.
Abonnez-vous pour recevoir les prochains numéros dans votre boßte mail.