AllenNLP
AllenNLP je robustná open-source knižnica pre výskum spracovania prirodzeného jazyka (NLP), postavená na PyTorch od AI2. Ponúka modulárne, rozšíriteľné nástroje...
BERT je prelomový NLP model od Google, ktorý využíva bidirekcionálne Transformery, aby umožnil strojom kontextuálne pochopiť jazyk a poháňa pokročilé AI aplikácie.
BERT, čo znamená Bidirectional Encoder Representations from Transformers, je open-source framework strojového učenia pre spracovanie prirodzeného jazyka (NLP). Vyvinutý výskumníkmi z Google AI Language a predstavený v roku 2018, BERT výrazne posunul NLP tým, že umožňuje strojom rozumieť jazyku podobne ako ľudia.
V jadre BERT pomáha počítačom interpretovať význam nejednoznačného alebo kontextovo závislého jazyka v texte zohľadnením okolitých slov vo vete — pred aj po cieľovom slove. Tento obojsmerný prístup umožňuje BERT-u zachytiť plné nuansy jazyka, vďaka čomu je veľmi efektívny pre široké spektrum NLP úloh.
Pred BERT-om väčšina jazykových modelov spracovávala text jednosmerne (buď zľava doprava, alebo sprava doľava), čo obmedzovalo ich schopnosť zachytiť kontext.
Predošlé modely ako Word2Vec a GloVe generovali kontextovo nezávislé vektorové reprezentácie slov, pričom každému slovu priraďovali jeden vektor bez ohľadu na kontext. Tento prístup mal problémy s viacvýznamovými slovami (napr. „banka“ ako finančná inštitúcia vs. breh rieky).
V roku 2017 bola predstavená architektúra Transformer v článku „Attention Is All You Need“. Transformery sú hlboké modely učenia, ktoré využívajú self-attention, čo im umožňuje dynamicky určovať dôležitosť každej časti vstupu.
Transformery spôsobili revolúciu v NLP tým, že spracovávajú všetky slová vo vete súčasne, čo umožňuje rozsiahlejšie trénovanie.
Výskumníci z Google postavili na architektúre Transformer a vyvinuli BERT, predstavený v roku 2018 v článku „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.“ Inováciou BERT-u bolo použitie obojsmerného trénovania, teda zohľadňovanie kontextu zľava aj sprava.
BERT bol pretrénovaný na celej anglickej Wikipédii (2,5 miliardy slov) a BookCorpus (800 miliónov slov), čo mu poskytlo hlboké porozumenie vzorom, syntaxe a sémantiky.
BERT je encoderová časť architektúry Transformer (využíva len encoder, nie decoder). Skladá sa z viacerých vrstiev (12 alebo 24 Transformer blokov), z ktorých každý obsahuje self-attention a dopredné neurónové siete.
BERT používa WordPiece tokenizáciu, ktorá rozdeľuje slová na podslovné jednotky, aby zvládol zriedkavé alebo neznáme slová.
Každý vstupný token je reprezentovaný súčtom troch embeddingov:
Tieto embeddingy pomáhajú BERT-u pochopiť štruktúru aj význam.
Self-attention umožňuje BERT-u určiť dôležitosť každého tokenu voči všetkým ostatným v sekvencii a zachytiť závislosti bez ohľadu na ich vzdialenosť.
Napríklad vo vete „Banka zvýšila úrokové sadzby“ self-attention pomáha BERT-u prepojiť „banka“ s „úrokové sadzby“ a správne pochopiť „banka“ ako finančnú inštitúciu.
Obojsmerné trénovanie BERT-u mu umožňuje zachytiť kontext z oboch smerov. Je realizované dvomi trénovacími cieľmi:
Pri MLM BERT náhodne vyberie 15 % tokenov na prípadnú zámenu:
[MASK]
Táto stratégia vedie k hlbšiemu porozumeniu jazyka.
Príklad:
[MASK]
jumps over the lazy [MASK]
.“NSP pomáha BERT-u pochopiť vzťahy medzi vetami.
Príklady:
Po pretrénovaní sa BERT dolaďuje pre konkrétne NLP úlohy pridaním výstupných vrstiev. Doladenie vyžaduje menej dát a výpočtov ako trénovanie od nuly.
BERT poháňa mnohé NLP úlohy a často dosahuje najlepšie výsledky.
BERT dokáže klasifikovať sentiment (napr. pozitívne/negatívne recenzie) s veľkou jemnosťou.
BERT rozumie otázkam a poskytuje odpovede na základe kontextu.
NER identifikuje a klasifikuje kľúčové entity (mená, organizácie, dátumy).
Aj keď nie je špeciálne navrhnutý pre preklad, hlboké porozumenie jazyka v BERT-e napomáha prekladu v kombinácii s inými modelmi.
BERT vie generovať stručné zhrnutia identifikovaním kľúčových konceptov.
BERT predpovedá chýbajúce slová alebo sekvencie, čím pomáha pri generovaní textu.
V roku 2019 začal Google používať BERT na zlepšenie vyhľadávacích algoritmov, aby lepšie chápal kontext a zámer dotazov.
Príklad:
BERT poháňa chatboty a zlepšuje pochopenie používateľských vstupov.
Špecializované modely ako BioBERT spracúvajú biomedicínske texty.
Právnici využívajú BERT na analýzu a sumarizáciu právnych textov.
Existuje viacero adaptácií BERT-u pre efektivitu alebo špecifické domény:
Kontextové porozumenie BERT-u poháňa mnohé AI aplikácie:
BERT výrazne zlepšil kvalitu chatbotov a AI automatizácie.
Príklady:
BERT umožňuje AI automatizáciu pri spracovaní veľkého objemu textu bez zásahu človeka.
Príklady:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Autori: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
Predstavuje architektúru BERT-u a jeho efektívnosť na viacerých benchmarkoch, umožňuje spoločné podmieňovanie zľava aj sprava.
Viac info
Multi-Task Bidirectional Transformer Representations for Irony Detection
Autori: Chiyu Zhang, Muhammad Abdul-Mageed
Aplikuje BERT na detekciu irónie, využíva multitask learning a pretrénovanie na adaptáciu do domén. Dosahuje 82,4 macro F1 skóre.
Viac info
Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from Transformers by Self-supervised Learning of Sketch Gestalt
Autori: Hangyu Lin, Yanwei Fu, Yu-Gang Jiang, Xiangyang Xue
Predstavuje Sketch-BERT na rozpoznávanie a vyhľadávanie skíc, využíva self-supervised learning a nové embedding siete.
Viac info
Transferring BERT Capabilities from High-Resource to Low-Resource Languages Using Vocabulary Matching
Autor: Piotr Rybak
Navrhuje zladenie slovnej zásoby na adaptáciu BERT-u pre jazyky s nedostatkom dát, čím demokratizuje NLP technológie.
Viac info
BERT (Bidirectional Encoder Representations from Transformers) je open-source framework strojového učenia pre spracovanie prirodzeného jazyka, ktorý vyvinula spoločnosť Google AI v roku 2018. Umožňuje strojom kontextuálne porozumieť jazyku zohľadnením kontextu z oboch strán slova vďaka architektúre Transformer.
Na rozdiel od predošlých jednosmerných modelov BERT spracováva text obojsmerne, čo mu umožňuje zachytiť úplný kontext slova z predchádzajúcich aj nasledujúcich slov. Výsledkom je hlbšie pochopenie nuáns jazyka a lepší výkon pri NLP úlohách.
BERT sa široko využíva na analýzu sentimentu, zodpovedanie otázok, rozpoznávanie pomenovaných entít, preklad textu, sumarizáciu textu, generovanie textu a vylepšovanie AI chatbotov a automatizačných systémov.
Populárne varianty BERT-u zahŕňajú DistilBERT (odľahčená verzia), TinyBERT (optimalizovaný pre rýchlosť a veľkosť), RoBERTa (s optimalizovaným pretrénovaním), BioBERT (pre biomedicínske texty) a doménovo špecifické modely ako PatentBERT a SciBERT.
BERT je pretrénovaný metódou Masked Language Modeling (MLM), kde sú náhodne zamaskované slová a následne predpovedané, a Next Sentence Prediction (NSP), kde sa model učí vzťah medzi dvojicami viet. Po pretrénovaní je ďalej doladený na konkrétne NLP úlohy s pridanými vrstvami.
BERT výrazne zlepšil kontextové porozumenie AI chatbotov a automatizačných nástrojov, čo umožňuje presnejšie odpovede, lepšiu zákaznícku podporu a efektívnejšie spracovanie dokumentov s minimálnym zásahom človeka.
Inteligentní chatboti a AI nástroje pod jednou strechou. Spojte intuitívne bloky a premeňte svoje nápady na automatizované Flows.
AllenNLP je robustná open-source knižnica pre výskum spracovania prirodzeného jazyka (NLP), postavená na PyTorch od AI2. Ponúka modulárne, rozšíriteľné nástroje...
Porozumenie prirodzenému jazyku (NLU) je podpole AI zamerané na umožnenie strojom kontextovo chápať a interpretovať ľudský jazyk, presahujúc základné spracovani...
Perplexity AI je pokročilý vyhľadávací nástroj poháňaný umelou inteligenciou a konverzačný nástroj, ktorý využíva NLP a strojové učenie na poskytovanie presných...