
AllenNLP
AllenNLP est une bibliothèque open-source robuste pour la recherche en traitement du langage naturel (NLP), construite sur PyTorch par AI2. Elle propose des out...
BERT est un modèle NLP révolutionnaire de Google qui utilise des Transformers bidirectionnels pour permettre aux machines de comprendre le langage de façon contextuelle, alimentant des applications d’IA avancées.
BERT, qui signifie Bidirectional Encoder Representations from Transformers, est un cadre open source d’apprentissage automatique pour le traitement du langage naturel (NLP). Développé par les chercheurs de Google AI Language et introduit en 2018, BERT a considérablement fait progresser le NLP en permettant aux machines de comprendre le langage de manière plus humaine.
Au cœur de BERT, il aide les ordinateurs à interpréter le sens du langage ambigu ou dépendant du contexte dans un texte en tenant compte des mots environnants dans une phrase—à la fois avant et après le mot cible. Cette approche bidirectionnelle permet à BERT de saisir toutes les nuances du langage, le rendant très efficace pour une grande variété de tâches NLP.
Avant BERT, la plupart des modèles de langage traitaient le texte de manière unidirectionnelle (soit de gauche à droite, soit de droite à gauche), ce qui limitait leur capacité à capturer le contexte.
Les modèles antérieurs comme Word2Vec et GloVe généraient des embeddings de mots sans contexte, attribuant un seul vecteur à chaque mot, quel que soit le contexte. Cette approche était peu efficace avec des mots polysémiques (par exemple « bank » comme institution financière ou rive de rivière).
En 2017, l’architecture Transformer a été introduite dans l’article « Attention Is All You Need ». Les Transformers sont des modèles d’apprentissage profond qui utilisent l’auto-attention, leur permettant de pondérer dynamiquement l’importance de chaque partie de l’entrée.
Les Transformers ont révolutionné le NLP en traitant tous les mots d’une phrase simultanément, permettant un entraînement à plus grande échelle.
Les chercheurs de Google se sont appuyés sur l’architecture Transformer pour développer BERT, présenté dans l’article de 2018 « BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding ». L’innovation de BERT réside dans l’application d’un entraînement bidirectionnel, prenant en compte à la fois le contexte gauche et droit.
BERT a été pré-entraîné sur l’ensemble de Wikipedia en anglais (2,5 milliards de mots) et BookCorpus (800 millions de mots), lui conférant une compréhension approfondie des motifs, de la syntaxe et de la sémantique.
BERT est une pile d’encodeurs de l’architecture Transformer (utilise uniquement l’encodeur, pas le décodeur). Il se compose de plusieurs couches (12 ou 24 blocs Transformer), chacune avec auto-attention et réseaux neuronaux à propagation avant.
BERT utilise la tokenisation WordPiece, divisant les mots en sous-unités pour gérer les mots rares ou hors-vocabulaire.
Chaque jeton d’entrée est représenté par la somme de trois embeddings :
Cela aide BERT à comprendre à la fois la structure et la sémantique.
L’auto-attention permet à BERT de pondérer l’importance de chaque jeton par rapport à tous les autres dans la séquence, capturant ainsi les dépendances quelle que soit leur distance.
Par exemple, dans « The bank raised its interest rates », l’auto-attention aide BERT à relier « bank » à « interest rates », comprenant « bank » comme institution financière.
L’entraînement bidirectionnel de BERT lui permet de capturer le contexte dans les deux directions. Cela s’effectue via deux objectifs d’entraînement :
Dans le MLM, BERT sélectionne aléatoirement 15 % des jetons pour un remplacement possible :
[MASK]
Cette stratégie encourage une compréhension plus profonde du langage.
Exemple :
[MASK]
jumps over the lazy [MASK]
. »Le NSP aide BERT à comprendre les relations entre phrases.
Exemples :
Après le pré-entraînement, BERT est affiné pour des tâches NLP spécifiques en ajoutant des couches de sortie. L’affinage nécessite moins de données et de calcul que l’entraînement depuis zéro.
BERT alimente de nombreuses tâches NLP, atteignant souvent des résultats de pointe.
BERT peut classer le sentiment (ex : avis positifs/négatifs) avec subtilité.
BERT comprend les questions et fournit des réponses selon le contexte.
La NER identifie et classe les entités clés (noms, organisations, dates).
Bien que non conçu pour la traduction, la compréhension profonde de BERT aide la traduction combiné à d’autres modèles.
BERT peut générer des résumés concis en identifiant les concepts clés.
BERT prédit des mots ou séquences masqués, aidant à la génération de texte.
En 2019, Google a commencé à utiliser BERT pour améliorer ses algorithmes de recherche, comprenant le contexte et l’intention derrière les requêtes.
Exemple :
BERT alimente les chatbots, améliorant la compréhension des requêtes utilisateur.
Des modèles spécialisés comme BioBERT traitent les textes biomédicaux.
Les professionnels du droit utilisent BERT pour analyser et résumer des textes juridiques.
Plusieurs adaptations de BERT existent pour l’efficacité ou des domaines spécifiques :
La compréhension contextuelle de BERT alimente de nombreuses applications IA :
BERT a grandement amélioré la qualité des chatbots et de l’automatisation IA.
Exemples :
BERT permet l’automatisation IA du traitement de gros volumes de texte sans intervention humaine.
Cas d’utilisation :
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Auteurs : Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
Présente l’architecture de BERT et son efficacité sur de nombreux benchmarks, permettant l’apprentissage conditionné sur le contexte gauche et droit.
Lire la suite
Multi-Task Bidirectional Transformer Representations for Irony Detection
Auteurs : Chiyu Zhang, Muhammad Abdul-Mageed
Applique BERT à la détection de l’ironie, utilisant l’apprentissage multitâche et le pré-entraînement pour l’adaptation au domaine. Atteint un score macro F1 de 82,4.
Lire la suite
Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from Transformers by Self-supervised Learning of Sketch Gestalt
Auteurs : Hangyu Lin, Yanwei Fu, Yu-Gang Jiang, Xiangyang Xue
Présente Sketch-BERT pour la reconnaissance et la recherche de croquis, utilisant l’auto-apprentissage et de nouveaux réseaux d’embedding.
Lire la suite
Transferring BERT Capabilities from High-Resource to Low-Resource Languages Using Vocabulary Matching
Auteur : Piotr Rybak
Propose le vocabulaire couplé pour adapter BERT aux langues peu dotées en ressources, démocratisant la technologie NLP.
Lire la suite
BERT (Bidirectional Encoder Representations from Transformers) est un cadre open source d’apprentissage automatique pour le traitement du langage naturel, développé par Google AI en 2018. Il permet aux machines de comprendre le langage de façon contextuelle en prenant en compte le contexte des deux côtés d’un mot grâce à l’architecture Transformer.
Contrairement aux modèles unidirectionnels précédents, BERT traite le texte de manière bidirectionnelle, ce qui lui permet de capturer le contexte complet d’un mot en regardant à la fois les mots précédents et suivants. Cela entraîne une compréhension plus profonde des nuances du langage et améliore les performances sur les tâches NLP.
BERT est largement utilisé pour l’analyse de sentiments, la réponse à des questions, la reconnaissance d’entités nommées, la traduction de texte, la synthèse de texte, la génération de texte, et pour améliorer les chatbots et systèmes d’automatisation IA.
Les variantes populaires de BERT incluent DistilBERT (une version plus légère), TinyBERT (optimisé pour la vitesse et la taille), RoBERTa (avec un pré-entraînement optimisé), BioBERT (pour le texte biomédical) et des modèles spécifiques comme PatentBERT et SciBERT.
BERT est pré-entraîné en utilisant le Masked Language Modeling (MLM), où des mots aléatoires sont masqués puis prédits, et le Next Sentence Prediction (NSP), où le modèle apprend la relation entre des paires de phrases. Après le pré-entraînement, il est affiné sur des tâches NLP spécifiques avec des couches supplémentaires.
BERT a grandement amélioré la compréhension contextuelle des chatbots et outils d’automatisation IA, permettant des réponses plus précises, un meilleur support client et un traitement documentaire optimisé avec un minimum d’intervention humaine.
Chatbots intelligents et outils d’IA sous un même toit. Connectez des blocs intuitifs pour transformer vos idées en Flows automatisés.
AllenNLP est une bibliothèque open-source robuste pour la recherche en traitement du langage naturel (NLP), construite sur PyTorch par AI2. Elle propose des out...
Natural Language Toolkit (NLTK) est une suite complète de bibliothèques et de programmes Python pour le traitement du langage naturel (NLP) symbolique et statis...
Découvrez les coûts associés à l'entraînement et au déploiement des grands modèles de langage (LLM) comme GPT-3 et GPT-4, incluant les dépenses en calcul, énerg...