LoĂŻck BOURDOIS bio photo

LoĂŻck BOURDOIS

Data Scientist working at the Bordeaux Population Health Research Centre of INSERM University of Bordeaux.

Avant-propos d’Elvis

Bienvenue au sixiĂšme numĂ©ro de la lettre d’information consacrĂ©e au NLP. Merci pour votre soutien et pour avoir pris le temps de lire les derniĂšres nouvelles sur le ML et le NLP. Ce numĂ©ro traite de sujets allant de l’extension du modĂšle Transformer au ralentissement de la publication en ML, en passant par une sĂ©rie de livres et de lancements de projets en ML et en NLP.


Quelques mises à jour sur la lettre d’information sur le NLP et sur dair.ai.


Nous avons traduit la lettre d’information dans d’autres langues telles que le portugais brĂ©silien, le chinois, l’arabe, l’espagnol, entre autres. Merci aux personnes qui ont aidĂ© Ă  la traduction. Vous pouvez Ă©galement contribuer ici.


Il y a un mois, nous avons officiellement lancĂ© notre nouveau site web. Vous pouvez consulter notre organisation GitHub pour plus d’informations sur dair.ai et ses projets. Si vous souhaitez voir comment d’autres personnes contribuent dĂ©jĂ  Ă  dair.ai ou si vous souhaitez contribuer Ă  la dĂ©mocratisation de la recherche, de l’éducation et des technologies en matiĂšre d’intelligence artificielle, consultez notre section sur les questions d’actualitĂ©.

Publications 📙

Une introduction Ă  la BERTologie : Ce que nous savons sur le fonctionnement de BERT


Les modĂšles basĂ©s sur le Transformer se sont avĂ©rĂ©s efficaces pour aborder diffĂ©rents types de tĂąches de NLP allant de la classification de sĂ©quences Ă  la rĂ©ponse aux questions. L’un de ces modĂšles, appelĂ© BERT (Devlin et al. 2019), est largement utilisĂ© mais comme d’autres modĂšles qui utilisent des rĂ©seaux de neurones profonds, nous savons trĂšs peu de choses sur leur fonctionnement interne. Un nouvel article intitulĂ© “ A Primer in BERTology: What we know about how BERT works “ vise Ă  rĂ©pondre Ă  certaines des interrogations portant sur les raisons pour lesquelles BERT est performant dans un si grand nombre de tĂąches de NLP. Parmi les sujets abordĂ©s dans cet article, on trouve le type de connaissances acquises par BERT ainsi que leur reprĂ©sentation, la maniĂšre dont ces connaissances sont acquises et les autres mĂ©thodes utilisĂ©es par les chercheurs pour les amĂ©liorer.


Explorer les limites de l’apprentissage par transfert avec un Transformer de texte à texte


Google AI a rĂ©cemment publiĂ© une mĂ©thode qui rassemble tous les enseignements et les amĂ©liorations tirĂ©s des modĂšles de NLP basĂ©s sur l’apprentissage par transfert. Les auteurs l’ont appelĂ© Text-to-Text Transfer Transformer (T5). Ce travail propose que la plupart des tĂąches de NLP puissent ĂȘtre formulĂ©es dans un format texte-texte, suggĂ©rant que les entrĂ©es et les sorties sont des textes. Les auteurs affirment que ce “ cadre fournit un objectif d’entraĂźnement cohĂ©rent Ă  la fois pour le prĂ©-entraĂźnement et le fine-tuning”. Le T5 est essentiellement un Transformer encoder-decoder qui applique diverses amĂ©liorations, en particulier aux composantes d’attention qui composent le modĂšle. Le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ© sur un ensemble de donnĂ©es rĂ©cemment publiĂ©, le Colossal Clean Crawled Corpus et a Ă©tĂ© appliquĂ© sur SOTA sur des tĂąches de NLP telles que le rĂ©sumĂ©, la rĂ©ponse aux questions et la classification de textes.


(Raffel et al. 2020)


12 en 1 : Apprentissage multitùche de la représentation de la vision et des langues


La recherche actuelle utilise des tĂąches et des ensembles de donnĂ©es indĂ©pendants pour effectuer des recherches sur la vision et le langage mĂȘme lorsque les “compĂ©tences de comprĂ©hension du langage fondĂ©es sur la vision” requises pour effectuer ces tĂąches se chevauchent. Une nouvelle publication (qui sera prĂ©sentĂ©e Ă  la CVPR) propose une approche multitĂąche Ă  grande Ă©chelle pour mieux modĂ©liser et entraĂźner conjointement les tĂąches de vision et du langage afin de gĂ©nĂ©rer un modĂšle de vision et de langue plus gĂ©nĂ©rique. Le modĂšle rĂ©duit la taille des paramĂštres et fonctionne bien pour des tĂąches telles que la recherche d’images basĂ©e sur des lĂ©gendes et la rĂ©ponse visuelle Ă  des questions.

(Lu et al. 2020)


BERT peut voir Ă  l’extĂ©rieur de la boĂźte : Sur la transfĂ©rabilitĂ© intermodale des reprĂ©sentations textuelles


Les chercheurs et collaborateurs de reciTAL ont publiĂ© un article qui vise Ă  rĂ©pondre Ă  la question de savoir si un modĂšle BERT peut produire des reprĂ©sentations qui se gĂ©nĂ©ralisent Ă  d’autres modalitĂ©s que le texte, comme par exemple la vision. Ils proposent un modĂšle appelĂ© BERT-gen qui exploite des reprĂ©sentations mono ou multimodales et qui obtient de meilleurs rĂ©sultats sur les ensembles de donnĂ©es de gĂ©nĂ©ration de questions visuelles.


(Scialom et al. 2020)

CrĂ©ativitĂ© et sociĂ©tĂ© 🎹

La prochaine décennie en IA : quatre étapes vers une intelligence artificielle robuste


Gary Marcus a rĂ©cemment publiĂ© un article dans lequel il explique une sĂ©rie de mesures que nous devrions prendre selon lui afin de construire des systĂšmes d’IA plus robustes. L’idĂ©e centrale dans ce papier est de se concentrer sur la construction de systĂšmes hybrides et axĂ©s sur la connaissance, guidĂ©s par des modĂšles cognitifs, plutĂŽt que de se concentrer sur la construction de systĂšmes plus importants qui nĂ©cessitent plus de donnĂ©es et de puissance de calcul.


10 technologies de pointe pour 2020


La revue technologique du MIT a publiĂ© une liste des 10 percĂ©es qu’elle a identifiĂ©es et qui feront la diffĂ©rence dans la rĂ©solution de problĂšmes susceptibles de changer notre façon de vivre et de travailler. La liste - sans ordre particulier - comprend l’internet non piratable, la mĂ©decine hyper-personnalisĂ©e, l’argent numĂ©rique, les mĂ©dicaments anti-Ăąge, les molĂ©cules dĂ©couvertes par l’IA, les mĂ©ga-constellations de satellites, la suprĂ©matie quantique, l’IA minuscule, la confidentialitĂ© diffĂ©rentielle et l’attribution du climat.


Il est temps de repenser le processus de publication en ML


Yoshua Bengio a rĂ©cemment fait part de ses prĂ©occupations concernant les cycles rapides des publications du ML. La principale est qu’en raison de la rapiditĂ© de la publication, beaucoup d’articles publiĂ©s contiennent des erreurs et sont juste incrĂ©mentiels. A contrario, ceux sur lesquels plus de temps est consacrĂ© afin d’en assurer la rigueur, semble disparaĂźtre. De plus, ce sont les Ă©tudiants qui doivent faire face aux consĂ©quences nĂ©gatives de cette pression et de ce stress. Pour remĂ©dier Ă  cette situation, Bengio parle de ses actions pour aider Ă  ralentir le processus de publication des recherches pour le bien de la science.

Outils et jeux de donnĂ©es ⚙

Mise en Ɠuvre du rĂ©seau PointerGenerator dans AllenNLP


Les rĂ©seaux « Pointer-Generator » visent Ă  augmenter les modĂšles d’attention utilisĂ©s pour amĂ©liorer la synthĂšse abstraite. Si vous souhaitez utiliser cette technique en utilisant AllenNLP, Kundan Krishna a dĂ©veloppĂ© une librairie qui vous permet d’exĂ©cuter un modĂšle prĂ©-entraĂźnĂ© (fourni) ou d’entraĂźner votre propre modĂšle.


Questions/réponses pour différentes langues


Avec la prolifĂ©ration des modĂšles de Transformer et leur efficacitĂ© pour les tĂąches de NLP, des efforts impressionnants ont Ă©tĂ© dĂ©ployĂ©s pour publier diffĂ©rents types de jeux de donnĂ©es dans diffĂ©rentes langues. Par exemple, Sebastian Ruder a partagĂ© une liste de jeux de donnĂ©es qui peuvent ĂȘtre utilisĂ©s pour des tĂąches de rĂ©ponses aux questions dans diffĂ©rentes langues : DuReader, KorQuAD, SberQuAD, FQuAD, Arabic-SQuAD, SQuAD-it et Spanish SQuAD.


PyTorch Lightning


PyTorch Lightning est un outil qui vous permet de rĂ©aliser un entraĂźnement abstrait qui nĂ©cessiterait l’utilisation de GPU/TPU d’une prĂ©cision de 16 bits. PyTorch Lightning permet d’entraĂźner des modĂšles sur des plusieurs GPU et TPU sans avoir besoin de changer votre code PyTorch actuel.


Graph Neural Networks dans TensorFlow 2


Une Ă©quipe de recherche de Microsoft publie une librairie qui donne accĂšs aux implĂ©mentations de nombreuses architectures de rĂ©seaux neuronaux en graphes (GNN). Cette librairie est basĂ©e sur TensorFlow 2 et fournit Ă©galement des modules de manipulation de donnĂ©es qui peuvent ĂȘtre directement utilisĂ©s dans des boucles d’entrainement/Ă©valuation.


PrĂ©-entraĂźnement de SmallBERTa - Un petit modĂšle pour s’entraĂźner sur un petit jeu de donnĂ©es


Avez-vous dĂ©jĂ  voulu entraĂźner votre propre modĂšle linguistique Ă  partir de zĂ©ro mais n’avez pas eu assez de ressources pour le faire ? Si c’est le cas, Aditya Malte vous propose un notebook qui vous apprend Ă  entrainer un modĂšle linguistique Ă  partir de zĂ©ro avec un ensemble de donnĂ©es plus restreint.

Ethique en IA 🚹

Pourquoi les visages ne disent pas toujours la vérité sur les sentiments


Depuis un certain temps, de nombreux chercheurs et entreprises ont tentĂ© de construire des modĂšles d’IA qui comprennent et peuvent reconnaĂźtre les Ă©motions dans un contexte textuel ou visuel. Un nouvel article relance le dĂ©bat sur le fait que les techniques d’IA qui visent Ă  reconnaĂźtre les Ă©motions Ă  partir des images de visages ne le font pas correctement. L’argument principal, soulevĂ© par des psychologues, est qu’il n’existe aucune preuve d’expressions universelles pouvant ĂȘtre utilisĂ©es pour la dĂ©tection d’émotions basĂ©es uniquement sur des images de visages. Il faudrait qu’un modĂšle comprenne mieux par exemple les traits de personnalitĂ© ou encore les mouvements du corps, afin de se rapprocher rĂ©ellement d’une dĂ©tection plus prĂ©cise des Ă©motions affichĂ©es par les humains.


Differential Privacy and Federated Learning Explained


L’une des considĂ©rations Ă©thiques Ă  prendre en compte lors de la construction de systĂšmes d’IA est la garantie du respect de la vie privĂ©e. Actuellement, cela peut ĂȘtre rĂ©alisĂ© de deux maniĂšres, soit en utilisant une intimitĂ© diffĂ©rentielle, soit par un apprentissage fĂ©dĂ©rĂ©. Si vous voulez en savoir plus sur ces sujets, Jordan Harrod nous fournit une excellente introduction dans cette vidĂ©o qui comprend Ă©galement une session de pratique avec l’utilisation d’un notebook.

Articles et Blog ✍

Plongée dans le Reformer


Madison May a Ă©crit un nouvel article sur son blog consacrĂ© au Reformer, proposĂ© par Google AI. Nous avons Ă©galement prĂ©sentĂ© le Reformer dans un prĂ©cĂ©dent numĂ©ro de la newsletter. Pour une explication en français, vous pouvez consulter l’illustration suivante.


Une plateforme de blogging gratuite


fastpages vous permet de crĂ©er automatiquement et gratuitement un blog en utilisant les pages GitHub. Cette solution simplifie le processus de publication d’un blog et prend Ă©galement en charge l’utilisation de documents Word et de notebook Jupyter.


Conseils pour un entretien chez Google


Pablo Castro, de l’équipe Google Brain, a publiĂ© un article sur son blog mettant en avant une liste de conseils pour les personnes intĂ©ressĂ©es par un entretien d’embauche chez Google. Parmi les sujets abordĂ©s figurent des conseils sur la façon de se prĂ©parer Ă  l’entretien, sur ce Ă  quoi il faut s’attendre pendant l’entretien et sur ce qui se passe aprĂšs l’entretien.


Les Transformers sont des Graph Neural Networks


Les rĂ©seaux neuronaux de graphes (GNN) et les Transformers se sont avĂ©rĂ©s efficaces pour diffĂ©rentes tĂąches de NLP. Pour mieux comprendre le fonctionnement interne de ces approches et leurs relations, Chaitanya Joshi a Ă©crit un article expliquant la connexion entre les GNN et les Transformers, ainsi que les diffĂ©rentes façons dont ces mĂ©thodes peuvent ĂȘtre combinĂ©es dans une sorte de modĂšle hybride.


CNNs et Equivariance


Fabian Fuchs et Ed Wagstaff discutent de l’importance de l’équivariance et de la maniĂšre dont les CNN la font respecter. Le concept d’équivariance est d’abord dĂ©fini, puis discutĂ© dans le contexte de CNN appliquĂ©s Ă  la traduction.


L’auto-apprentissage avec les images


L’auto-apprentissage a Ă©tĂ© beaucoup Ă©voquĂ© dans les prĂ©cĂ©dents numĂ©ros de la newsletter en raison du rĂŽle qu’il a jouĂ© dans les techniques modernes de modĂ©lisation des langues. Ce billet de Jonathan Whitaker fournit une explication de l’auto-apprentissage dans le contexte des images. Si le sujet vous intĂ©resse, Amit Chaudhary a Ă©galement Ă©crit un article dĂ©crivant le concept de maniĂšre visuelle.

Education 🎓

Stanford CS330: Deep Multi-Task et Meta-Learning


Stanford a rĂ©cemment publiĂ© une playlist vidĂ©o YouTube sur son nouveau cours consacrĂ© Ă  l’apprentissage multi-tĂąches et au mĂ©ta-apprentissage. Parmi les sujets abordĂ©s, citons le mĂ©ta-apprentissage bayĂ©sien, le lifelong apprentissage, une introduction Ă  l’apprentissage par renforcement, etc



Notebooks PyTorch


dair.ai publie une sĂ©rie de notebook qui visent Ă  vous faire dĂ©couvrir les rĂ©seaux neuronaux profonds Ă  l’aide de PyTorch. Il s’agit d’un travail en cours et certains sujets d’actualitĂ© comprennent la façon de mettre en Ɠuvre un modĂšle de rĂ©gression logistique Ă  partir de zĂ©ro et la façon de programmer un NN ou un RNN Ă  partir de zĂ©ro. Les notebooks sont Ă©galement disponibles dans le dĂ©pĂŽt GitHub.


Le livre de fastai book (Ă©bauche)


Jeremy Howard et Sylvain Gugger ont publiĂ© une liste complĂšte de notebooks (non terminĂ©s) en vue de leur prochain cours qui prĂ©sentera des concepts de deep learning et diffĂ©rentes mĂ©thodes d’utilisation de PyTorch et la librairie fastai.


Cours gratuits sur la datascience


Au cas oĂč vous l’auriez manquĂ©, Kaggle propose une sĂ©rie de petits cours gratuits sur les outils de datascience. Certains de ces cours comprennent, entre autres, l’explication de l’apprentissage machine, une introduction Ă  l’apprentissage machine et Ă  Python, la visualisation de donnĂ©es, l’ingĂ©nierie des fonctionnalitĂ©s et l’apprentissage approfondi.


Un autre cours de datascience en ligne propose un programme, des diapositives et des notebooks sur l’analyse exploratoire des donnĂ©es, l’interprĂ©tation des modĂšles ou encore le NLP.


8 créateurs et contributeurs parlent de leurs librairies PyTorch


nepture.ai a publiĂ© un vaste article qui contient des discussions dĂ©taillĂ©es avec les principaux crĂ©ateurs et contributeurs de PyTorch (parcours, philosophie du projet, outils qui l’entourent, etc
).


Visualisation des modĂšles adaptatifs d’attention rĂ©duite


Sasha Rush partage un notebook qui explique et montre les dĂ©tails techniques sur la maniĂšre de produire des sorties softmax sparses. Il aborde Ă©galement la façon d’induire la sparcitĂ© dans la composante d’attention d’un modĂšle de Transformer, ce qui aide Ă  produire une probabilitĂ© nulle pour les mots non pertinents dans un contexte donnĂ©, amĂ©liorant ainsi la performance et l’interprĂ©tabilitĂ©.


Mentions spĂ©ciales ⭐

Conor Bell a codĂ© un script python qui vous permet de visualiser et de prĂ©parer facilement un jeu de donnĂ©es pouvant ĂȘtre utilisĂ© pour un modĂšle StyleGAN.


Manu Romero a contribuĂ© au fine-tuning d’un modĂšle POS pour l’espagnol. Le modĂšle est sur la librairie Transfomers d’Hugging Face. Il sera intĂ©ressant de voir cet effort dans d’autres langues.


Ce répertoire Github contient une longue liste de documents rédigés sur BERT qui abordent différents problÚmes tels que la compression de modÚles, les domaines spécifiques, le multi-modÚle, la génération, les tùches en aval, etc.


Connor Shorten a publiĂ© une courte vidĂ©o de 15 minutes expliquant un framework Ă  aborder pour rĂ©duire l’effet des “raccourcis” dans l’auto-apprentissage de la reprĂ©sentation. C’est important car, s’il n’est pas bien fait, le modĂšle peut ne pas apprendre des reprĂ©sentations sĂ©mantiques utiles et se rĂ©vĂ©ler potentiellement inefficace dans un contexte d’apprentissage par transfert.


Sebastian Ruder a publiĂ© un nouveau numĂ©ro de sa newsletter qui met en lumiĂšre des sujets et des ressources allant d’analyses d’articles sur le NLP et le ML de 2019 Ă  des diapositives sur l’apprentissage par transfert et des Ă©lĂ©ments essentiels sur le deep learning. Vous pouvez le consulter ici.


Vous pouvez retrouver la précédente newsletter ici


Si vous avez des jeux de données, des projets, des articles de blog, des tutoriels ou des documents que vous souhaitez partager dans la prochaine édition de la newletter, vous pouvez utiliser ce formulaire.


Abonnez-vous pour recevoir les prochains numéros dans votre boßte mail.


Abonnez-vous pour recevoir les prochains numéros dans votre boßte mail.