
NLTK
Natural Language Toolkit (NLTK) is een uitgebreide suite van Python-bibliotheken en programma's voor symbolische en statistische natuurlijke taalverwerking (NLP...
BERT is een baanbrekend NLP-model van Google dat bidirectionele Transformers gebruikt om machines taal contextueel te laten begrijpen en geavanceerde AI-toepassingen mogelijk te maken.
BERT, wat staat voor Bidirectional Encoder Representations from Transformers, is een open-source machine learning framework voor natuurlijke taalverwerking (NLP). Ontwikkeld door onderzoekers van Google AI Language en geïntroduceerd in 2018, heeft BERT NLP aanzienlijk vooruit geholpen door machines taal meer als mensen te laten begrijpen.
In de kern helpt BERT computers de betekenis van dubbelzinnige of contextafhankelijke taal in tekst te interpreteren door rekening te houden met omliggende woorden in een zin—zowel vóór als na het doelwoord. Deze bidirectionele benadering stelt BERT in staat de volledige nuance van taal te vatten, waardoor het zeer effectief is voor een breed scala aan NLP-taken.
Voor BERT verwerkten de meeste taalmodellen tekst op een unidirectionele manier (ofwel van links naar rechts of van rechts naar links), wat hun vermogen om context te vatten beperkte.
Eerdere modellen zoals Word2Vec en GloVe genereerden contextvrije woordrepresentaties, waarbij elk woord een enkele vector kreeg ongeacht de context. Deze aanpak had moeite met polysemische woorden (bijv. “bank” als financiële instelling versus rivierbank).
In 2017 werd de Transformer-architectuur geïntroduceerd in het artikel “Attention Is All You Need.” Transformers zijn deep learning modellen die zelf-attentie gebruiken, waardoor ze het belang van elk deel van de input dynamisch kunnen wegen.
Transformers hebben NLP gerevolutioneerd door alle woorden in een zin gelijktijdig te verwerken, waardoor training op grotere schaal mogelijk werd.
Google-onderzoekers bouwden voort op de Transformer-architectuur om BERT te ontwikkelen, geïntroduceerd in het 2018-paper “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.” De innovatie van BERT was het toepassen van bidirectionele training, waarbij zowel links- als rechts-context wordt overwogen.
BERT werd voorgetraind op de gehele Engelse Wikipedia (2,5 miljard woorden) en BookCorpus (800 miljoen woorden), waardoor het een diep begrip van patronen, syntaxis en semantiek kreeg.
BERT is een encoderstack van de Transformer-architectuur (gebruikt alleen de encoder, niet de decoder). Het bestaat uit meerdere lagen (12 of 24 Transformer-blokken), elk met zelf-attentie en feedforward neurale netwerken.
BERT gebruikt WordPiece-tokenisatie, waarbij woorden worden opgesplitst in subwoord-eenheden om zeldzame of onbekende woorden te kunnen verwerken.
Elke input-token wordt weergegeven door de som van drie embeddings:
Deze helpen BERT zowel structuur als semantiek te begrijpen.
Zelf-attentie stelt BERT in staat het belang van elke token ten opzichte van alle andere in de reeks te wegen, waardoor afhankelijkheden ongeacht hun afstand worden vastgelegd.
Bijvoorbeeld, in “De bank verhoogde haar rentevoeten,” helpt zelf-attentie BERT “bank” te koppelen aan “rentevoeten,” waardoor het “bank” als financiële instelling begrijpt.
Bidirectionele training stelt BERT in staat context uit beide richtingen te vatten. Dit wordt bereikt door twee trainingsdoelen:
Bij MLM selecteert BERT willekeurig 15% van de tokens voor mogelijke vervanging:
[MASK]
Deze strategie stimuleert een dieper taalbegrip.
Voorbeeld:
[MASK]
springt over de luie [MASK]
.”NSP helpt BERT relaties tussen zinnen te begrijpen.
Voorbeelden:
Na de pretraining wordt BERT fijn afgestemd voor specifieke NLP-taken door outputlagen toe te voegen. Fijn-afstemming vereist minder data en rekenkracht dan het trainen vanaf nul.
BERT ondersteunt veel NLP-taken en behaalt vaak de beste resultaten.
BERT kan sentiment (bijv. positieve/negatieve reviews) met nuance classificeren.
BERT begrijpt vragen en geeft antwoorden vanuit de context.
NER identificeert en classificeert belangrijke entiteiten (namen, organisaties, datums).
Hoewel BERT niet specifiek is ontworpen voor vertaling, helpt het diepe taalbegrip bij vertalen in combinatie met andere modellen.
BERT kan beknopte samenvattingen genereren door kernbegrippen te identificeren.
BERT voorspelt gemaskeerde woorden of sequenties en helpt zo bij tekstgeneratie.
In 2019 begon Google BERT te gebruiken om zoekalgoritmen te verbeteren, zodat context en intentie van zoekopdrachten beter worden begrepen.
Voorbeeld:
BERT drijft chatbots aan en verbetert het begrip van gebruikersinvoer.
Gespecialiseerde BERT-modellen zoals BioBERT verwerken biomedische teksten.
Juridische professionals gebruiken BERT om juridische teksten te analyseren en samen te vatten.
Er bestaan verschillende BERT-aanpassingen voor efficiëntie of specifieke domeinen:
Het contextuele begrip van BERT drijft talloze AI-toepassingen aan:
BERT heeft de kwaliteit van chatbots en AI-automatisering sterk verbeterd.
Voorbeelden:
BERT maakt AI-automatisering mogelijk voor het verwerken van grote hoeveelheden tekst zonder menselijke tussenkomst.
Toepassingen:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Auteurs: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
Introduceert de BERT-architectuur en effectiviteit op meerdere benchmarks, waardoor gezamenlijke conditionering op zowel links- als rechts-context mogelijk wordt.
Lees meer
Multi-Task Bidirectional Transformer Representations for Irony Detection
Auteurs: Chiyu Zhang, Muhammad Abdul-Mageed
Past BERT toe voor ironiedetectie, gebruikmakend van multitask learning en pretraining voor domeinadaptatie. Behaalt een macro F1-score van 82,4.
Lees meer
Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from Transformers by Self-supervised Learning of Sketch Gestalt
Auteurs: Hangyu Lin, Yanwei Fu, Yu-Gang Jiang, Xiangyang Xue
Introduceert Sketch-BERT voor schetsherkenning en -opvraging, met zelfgestuurde learning en nieuwe embeddingnetwerken.
Lees meer
Transferring BERT Capabilities from High-Resource to Low-Resource Languages Using Vocabulary Matching
Auteur: Piotr Rybak
Stelt vocabulairematching voor om BERT aan te passen voor talen met weinig bronnen, waardoor NLP-technologie wordt gedemocratiseerd.
Lees meer
BERT (Bidirectional Encoder Representations from Transformers) is een open-source machine learning framework voor natuurlijke taalverwerking, ontwikkeld door Google AI in 2018. Het stelt machines in staat taal contextueel te begrijpen door de context van beide kanten van een woord te overwegen met behulp van de Transformer-architectuur.
In tegenstelling tot eerdere unidirectionele modellen verwerkt BERT tekst bidirectioneel, waardoor het de volledige context van een woord kan vatten door zowel voorafgaande als volgende woorden te bekijken. Dit resulteert in een diepgaander begrip van taalnuances, wat de prestaties bij NLP-taken verbetert.
BERT wordt veel gebruikt voor sentimentanalyse, vraagbeantwoording, named entity recognition, taalvertaling, tekstsamenvatting, tekstgeneratie en het verbeteren van AI-chatbots en automatiseringssystemen.
Populaire BERT-varianten zijn onder andere DistilBERT (een lichtere versie), TinyBERT (geoptimaliseerd voor snelheid en omvang), RoBERTa (met geoptimaliseerde pretraining), BioBERT (voor biomedische teksten) en domeinspecifieke modellen zoals PatentBERT en SciBERT.
BERT wordt voorgetraind met behulp van Masked Language Modeling (MLM), waarbij willekeurige woorden worden gemaskeerd en voorspeld, en Next Sentence Prediction (NSP), waarbij het model de relatie tussen zinnen leert. Na de pretraining wordt het fijn afgestemd voor specifieke NLP-taken met extra lagen.
BERT heeft het contextuele begrip van AI-chatbots en automatiseringstools sterk verbeterd, waardoor nauwkeurigere antwoorden, betere klantenondersteuning en verbeterde documentverwerking met minimale menselijke tussenkomst mogelijk zijn.
Slimme Chatbots en AI-tools onder één dak. Verbind intuïtieve blokken om je ideeën om te zetten in geautomatiseerde Flows.
Natural Language Toolkit (NLTK) is een uitgebreide suite van Python-bibliotheken en programma's voor symbolische en statistische natuurlijke taalverwerking (NLP...
AllenNLP is een robuuste open-source bibliotheek voor NLP-onderzoek, gebouwd op PyTorch door AI2. Het biedt modulaire, uitbreidbare tools, voorgetrainde modelle...
Begrip van Natuurlijke Taal (NLU) is een subveld van AI dat zich richt op het in staat stellen van machines om menselijke taal contextueel te begrijpen en te in...