AllenNLP
AllenNLP je robustní open-source knihovna pro výzkum zpracování přirozeného jazyka (NLP), postavená na PyTorch týmem AI2. Nabízí modulární, rozšiřitelné nástroj...
BERT je průlomový NLP model od Googlu, který využívá obousměrné Transformery pro kontextové porozumění jazyku stroji a umožňuje pokročilé AI aplikace.
BERT, což znamená Bidirectional Encoder Representations from Transformers, je open-source rámec strojového učení pro zpracování přirozeného jazyka (NLP). Vyvinutý výzkumníky z Google AI Language a představený v roce 2018, BERT významně posunul NLP tím, že umožnil strojům chápat jazyk podobně jako člověk.
BERT pomáhá počítačům interpretovat význam nejednoznačného nebo kontextově závislého jazyka v textu tím, že bere v úvahu okolní slova ve větě – jak před, tak za cílovým slovem. Tento obousměrný přístup umožňuje BERTu zachytit plnou nuanci jazyka a činí jej velmi efektivním pro širokou škálu NLP úloh.
Před BERTem většina jazykových modelů zpracovávala text jednosměrně (buď zleva doprava, nebo zprava doleva), což omezovalo jejich schopnost zachytit kontext.
Starší modely jako Word2Vec a GloVe generovaly kontextově nezávislé vektorové reprezentace slov, přidělující každému slovu jeden vektor bez ohledu na kontext. Tento přístup měl potíže s vícevýznamovými slovy (např. „banka“ jako finanční instituce vs. říční břeh).
V roce 2017 byla v článku „Attention Is All You Need“ představena architektura Transformer. Transformery jsou hluboké neuronové modely využívající self-attention, což jim umožňuje dynamicky zohledňovat význam jednotlivých částí vstupu.
Transformery způsobily revoluci v NLP tím, že zpracovávají všechna slova ve větě současně, což umožňuje trénovat na větších datech.
Výzkumníci Googlu postavili BERT na architektuře Transformer a představili jej v roce 2018 v článku „BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding“. Inovací BERTu bylo použití obousměrného trénování, kde je zohledněn kontext z obou stran.
BERT byl předtrénován na celé anglické Wikipedii (2,5 miliardy slov) a BookCorpus (800 milionů slov), což mu poskytlo hluboké porozumění vzorcům, syntaxi a sémantice.
BERT je zásobník kodérů architektury Transformer (používá pouze kodér, nikoliv dekodér). Skládá se z několika vrstev (12 nebo 24 bloků Transformeru), z nichž každý obsahuje self-attention a dopředné neuronové sítě.
BERT používá WordPiece tokenizaci, která rozděluje slova na podslova a zvládá tak vzácná/slova mimo slovník.
Každý vstupní token je reprezentován součtem tří embeddingů:
Tyto vrstvy umožňují BERTu chápat jak strukturu, tak sémantiku.
Self-attention umožňuje BERTu přiřazovat různou důležitost jednotlivým tokenům v sekvenci bez ohledu na jejich vzdálenost.
Například ve větě „Banka zvýšila úrokové sazby“ pomáhá self-attention BERTu spojit „banka“ s „úrokové sazby“ a pochopit „banka“ jako finanční instituci.
Obousměrné trénování BERTu mu umožňuje zachytit kontext z obou směrů. To je dosaženo pomocí dvou trénovacích úloh:
Při MLM BERT náhodně vybere 15 % tokenů k možné nahrazení:
[MASK]
Tato strategie podporuje hlubší porozumění jazyku.
Příklad:
[MASK]
jumps over the lazy [MASK]
.“NSP pomáhá BERTu chápat vztahy mezi větami.
Příklady:
Po předtrénování je BERT dále doladěn pro specifické NLP úlohy přidáním výstupních vrstev. Doladění vyžaduje méně dat a výpočetního výkonu než trénování od nuly.
BERT pohání řadu NLP úloh a často dosahuje špičkových výsledků.
BERT dokáže s jemností klasifikovat sentiment (např. pozitivní/negativní recenze).
BERT rozumí otázkám a nachází odpovědi v kontextu.
NER identifikuje a klasifikuje klíčové entity (jména, organizace, data).
I když BERT není přímo určen pro překlad, jeho hluboké porozumění jazyku pomáhá při překladu v kombinaci s dalšími modely.
BERT dokáže generovat stručné shrnutí vyhledáním klíčových konceptů.
BERT předpovídá maskovaná slova nebo sekvence, čímž se využívá pro generování textu.
V roce 2019 začal Google využívat BERT pro vylepšení vyhledávacích algoritmů, aby lépe rozuměl kontextu a záměru dotazů.
Příklad:
BERT pohání chatboty a vylepšuje porozumění uživatelským vstupům.
Specializované modely jako BioBERT zpracovávají biomedicínské texty.
Právníci využívají BERT pro analýzu a shrnutí právních textů.
Existuje několik adaptací BERTu pro efektivitu nebo konkrétní domény:
BERTovo kontextové porozumění pohání mnoho AI aplikací:
BERT výrazně zlepšil kvalitu chatbotů a AI automatizace.
Příklady:
BERT umožňuje AI automatizaci pro zpracování velkých objemů textu bez zásahu člověka.
Využití:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Autoři: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
Představuje architekturu BERTu a jeho efektivitu na více benchmarcích, umožňuje společné podmínění na levém i pravém kontextu.
Více zde
Multi-Task Bidirectional Transformer Representations for Irony Detection
Autoři: Chiyu Zhang, Muhammad Abdul-Mageed
Aplikuje BERT pro detekci ironie, využívá multitask learning a pretrénování pro doménovou adaptaci. Dosahuje 82,4 makro F1 skóre.
Více zde
Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from Transformers by Self-supervised Learning of Sketch Gestalt
Autoři: Hangyu Lin, Yanwei Fu, Yu-Gang Jiang, Xiangyang Xue
Představuje Sketch-BERT pro rozpoznávání a vyhledávání skic, využívá self-supervised učení a nové embeddingové sítě.
Více zde
Transferring BERT Capabilities from High-Resource to Low-Resource Languages Using Vocabulary Matching
Autor: Piotr Rybak
Navrhuje slovníkové mapování pro adaptaci BERTu na málo zastoupené jazyky a demokratizaci NLP technologií.
Více zde
BERT (Bidirectional Encoder Representations from Transformers) je open-source rámec strojového učení pro zpracování přirozeného jazyka, vyvinutý Google AI v roce 2018. Umožňuje strojům kontextově porozumět jazyku tím, že bere v úvahu kontext z obou stran slova pomocí architektury Transformer.
Na rozdíl od předchozích jednosměrných modelů zpracovává BERT text obousměrně, což mu umožňuje zachytit celý kontext slova pohledem na předchozí i následující slova. Výsledkem je hlubší porozumění jazykovým nuancím a lepší výkon v NLP úlohách.
BERT se široce používá pro analýzu sentimentu, odpovídání na otázky, rozpoznávání pojmenovaných entit, strojový překlad, sumarizaci textu, generování textu a vylepšování AI chatbotů a automatizačních systémů.
Populární varianty BERTu zahrnují DistilBERT (odlehčená verze), TinyBERT (optimalizovaný pro rychlost a velikost), RoBERTa (s optimalizovaným pretrénováním), BioBERT (pro biomedicínské texty) a doménově specifické modely jako PatentBERT a SciBERT.
BERT je předtrénován pomocí Masked Language Modeling (MLM), kde jsou náhodná slova maskována a model je má předpovědět, a Next Sentence Prediction (NSP), kde se model učí vztahy mezi dvojicemi vět. Po předtrénování se BERT dále doladí pro konkrétní NLP úlohy s dalšími vrstvami.
BERT výrazně zlepšil kontextové porozumění AI chatbotů a automatizačních nástrojů, což umožňuje přesnější odpovědi, lepší zákaznickou podporu a efektivnější zpracování dokumentů s minimálním zásahem člověka.
Chytří chatboti a AI nástroje na jednom místě. Spojujte intuitivní bloky a proměňte své nápady v automatizované Flows.
AllenNLP je robustní open-source knihovna pro výzkum zpracování přirozeného jazyka (NLP), postavená na PyTorch týmem AI2. Nabízí modulární, rozšiřitelné nástroj...
Zpracování přirozeného jazyka (NLP) umožňuje počítačům porozumět, interpretovat a generovat lidský jazyk s využitím počítačové lingvistiky, strojového učení a h...
Perplexity AI je pokročilý vyhledávač poháněný umělou inteligencí a konverzační nástroj, který využívá NLP a strojové učení k poskytování přesných, kontextových...