
NLTK
Natural Language Toolkit (NLTK) är en omfattande svit av Python-bibliotek och program för symbolisk och statistisk språkteknologi (NLP). Verktyget används fliti...
BERT är en banbrytande NLP-modell från Google som använder bidirektionella Transformers för att ge maskiner möjlighet att förstå språk kontextuellt och driver avancerade AI-applikationer.
BERT, som står för Bidirectional Encoder Representations from Transformers, är ett öppen källkod-maskininlärningsramverk för naturlig språkbehandling (NLP). Det utvecklades av forskare vid Google AI Language och introducerades 2018, och har avsevärt förbättrat NLP genom att ge maskiner möjlighet att förstå språk mer som människor gör.
BERT hjälper datorer att tolka betydelsen av tvetydigt eller kontextberoende språk i text genom att ta hänsyn till omgivande ord i en mening—både före och efter målordet. Denna bidirektionella metod gör att BERT kan fånga språkets fulla nyanser, vilket gör den mycket effektiv för en mängd olika NLP-uppgifter.
Före BERT bearbetade de flesta språkmodeller text på ett enkelriktat sätt (antingen från vänster till höger eller höger till vänster), vilket begränsade deras förmåga att fånga sammanhang.
Tidigare modeller som Word2Vec och GloVe genererade kontextfria ordinbäddningar och tilldelade varje ord en enda vektor oavsett sammanhang. Denna metod hade svårt med flertydiga ord (t.ex. “bank” som finansiell institution eller flodbank).
År 2017 introducerades Transformer-arkitekturen i artikeln “Attention Is All You Need”. Transformers är djupa inlärningsmodeller som använder självuppmärksamhet, vilket gör att de dynamiskt kan väga betydelsen av varje del av indata.
Transformers revolutionerade NLP genom att bearbeta alla ord i en mening samtidigt, vilket möjliggjorde storskalig träning.
Googles forskare byggde vidare på Transformer-arkitekturen för att utveckla BERT, som introducerades i artikeln “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding” 2018. BERT:s innovation var att tillämpa bidirektionell träning, där både vänster och höger kontext beaktas.
BERT förtränades på hela engelskspråkiga Wikipedia (2,5 miljarder ord) och BookCorpus (800 miljoner ord), vilket gav modellen en djup förståelse för mönster, syntax och semantik.
BERT är en encoder-stack av Transformer-arkitekturen (använder endast encodern, inte decodern). Den består av flera lager (12 eller 24 Transformer-block), vardera med självuppmärksamhet och framåtmatade neurala nätverk.
BERT använder WordPiece-tokenisering och delar upp ord i delordsenheter för att hantera ovanliga eller okända ord.
Varje indatatoken representeras som summan av tre inbäddningar:
Dessa hjälper BERT att förstå både struktur och semantik.
Självuppmärksamhet gör att BERT kan väga vikten av varje token i förhållande till alla andra i sekvensen och fånga beroenden oavsett avstånd.
Till exempel, i “The bank raised its interest rates” hjälper självuppmärksamheten BERT att koppla “bank” till “interest rates” och förstå “bank” som en finansiell institution.
BERT:s bidirektionella träning gör det möjligt att fånga sammanhang från båda håll. Detta uppnås genom två träningsmål:
Vid MLM väljer BERT slumpmässigt ut 15 % av tokens för möjlig ersättning:
[MASK]
Denna strategi uppmuntrar djupare språkförståelse.
Exempel:
[MASK]
jumps over the lazy [MASK]
.”NSP hjälper BERT att förstå relationer mellan meningar.
Exempel:
Efter förträning finjusteras BERT för specifika NLP-uppgifter genom att lägga till utgångslager. Finjustering kräver mindre data och beräkningskraft än träning från grunden.
BERT driver många NLP-uppgifter och levererar ofta toppresultat.
BERT kan klassificera sentiment (t.ex. positiva/negativa recensioner) med stor nyans.
BERT förstår frågor och ger svar utifrån sammanhang.
NER identifierar och klassificerar nyckelentiteter (namn, organisationer, datum).
Även om BERT inte är utformad för översättning, bidrar dess djupa språkförståelse till översättning i kombination med andra modeller.
BERT kan generera koncisa sammanfattningar genom att identifiera nyckelkoncept.
BERT förutsäger maskerade ord eller sekvenser och hjälper till med textgenerering.
2019 började Google använda BERT för att förbättra sökalgoritmer och förstå sammanhang och avsikt bakom sökfrågor.
Exempel:
BERT driver chattbottar och förbättrar förståelsen av användarens inmatning.
Specialiserade BERT-modeller som BioBERT bearbetar biomedicinska texter.
Juridiska experter använder BERT för att analysera och sammanfatta juridiska texter.
Flera BERT-anpassningar finns för effektivitet eller specifika domäner:
BERT:s kontextuella förståelse driver många AI-applikationer:
BERT har avsevärt förbättrat kvaliteten på chattbottar och AI-automatisering.
Exempel:
BERT möjliggör AI-automatisering för att bearbeta stora textmängder utan mänsklig inblandning.
Användningsområden:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Författare: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
Introducerar BERT:s arkitektur och effektivitet på flera benchmarktester, vilket möjliggör gemensam kontext från både vänster och höger.
Läs mer
Multi-Task Bidirectional Transformer Representations for Irony Detection
Författare: Chiyu Zhang, Muhammad Abdul-Mageed
Tillämpning av BERT på ironidetektion med hjälp av multitask learning och förträning för domänanpassning. Uppnår 82,4 i makro-F1-score.
Läs mer
Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from Transformers by Self-supervised Learning of Sketch Gestalt
Författare: Hangyu Lin, Yanwei Fu, Yu-Gang Jiang, Xiangyang Xue
Introducerar Sketch-BERT för skissigenkänning och -återvinning med självövervakad inlärning och nya inbäddningsnätverk.
Läs mer
Transferring BERT Capabilities from High-Resource to Low-Resource Languages Using Vocabulary Matching
Författare: Piotr Rybak
Föreslår vokabulärmatchning för att anpassa BERT för lågresursspråk och demokratisera NLP-teknologi.
Läs mer
BERT (Bidirectional Encoder Representations from Transformers) är ett öppen källkod-maskininlärningsramverk för naturlig språkbehandling, utvecklat av Google AI 2018. Det gör det möjligt för maskiner att förstå språk kontextuellt genom att beakta sammanhanget från båda sidor av ett ord med hjälp av Transformer-arkitekturen.
Till skillnad från tidigare enkelriktade modeller bearbetar BERT text bidirektionellt, vilket gör att den kan fånga det fullständiga sammanhanget av ett ord genom att titta på både föregående och efterföljande ord. Detta ger en djupare förståelse av språkliga nyanser och förbättrar prestandan i olika NLP-uppgifter.
BERT används i stor utsträckning för sentimentsanalys, frågehantering, namngiven enhetsigenkänning, maskinöversättning, textsammanfattning, textgenerering samt för att förbättra AI-chattbottar och automatiseringssystem.
Populära BERT-varianter inkluderar DistilBERT (en lättare version), TinyBERT (optimerad för hastighet och storlek), RoBERTa (med optimerad förträning), BioBERT (för biomedicinsk text) och domänspecifika modeller som PatentBERT och SciBERT.
BERT förtränas med Masked Language Modeling (MLM), där slumpmässiga ord maskeras och förutsägs, samt Next Sentence Prediction (NSP), där modellen lär sig relationen mellan meningspar. Efter förträningen finjusteras den för specifika NLP-uppgifter med ytterligare lager.
BERT har avsevärt förbättrat den kontextuella förståelsen hos AI-chattbottar och automatiseringsverktyg, vilket möjliggör mer exakta svar, bättre kundsupport och effektivare dokumenthantering med minimalt mänskligt ingripande.
Smarta chattbottar och AI-verktyg under ett och samma tak. Koppla samman intuitiva block för att förvandla dina idéer till automatiserade Flows.
Natural Language Toolkit (NLTK) är en omfattande svit av Python-bibliotek och program för symbolisk och statistisk språkteknologi (NLP). Verktyget används fliti...
Perplexity AI är en avancerad AI-driven sökmotor och konversationstjänst som använder NLP och maskininlärning för att leverera precisa, kontextuella svar med kä...
Naturlig språkbearbetning (NLP) är ett delområde inom artificiell intelligens (AI) som gör det möjligt för datorer att förstå, tolka och generera mänskligt språ...