Anthropicova dohoda o autorských právech ve výši 1,5 miliardy dolarů navždy mění AI

Anthropicova dohoda o autorských právech ve výši 1,5 miliardy dolarů navždy mění AI

AI Copyright Legal Regulation

Úvod

Průmysl umělé inteligence právě zažil zásadní otřes. Anthropic, společnost stojící za Claude, jedním z nejpokročilejších AI asistentů dneška, čelí přelomové dohodě o autorských právech ve výši 1,5 miliardy dolarů – největší v historii. Nejde o drobný právní nezdar nebo rutinní vyrovnání; znamená to zásadní zúčtování s tím, jak společnosti AI získávaly trénovací data, a vyvolává to klíčové otázky o budoucnosti vývoje AI. Dohoda odhaluje, že Anthropic záměrně stahoval pirátské knihy z nelegálních zdrojů jako Library Genesis, aby trénoval své modely, přičemž se domníval, že tato praxe spadá pod ochranu fair use. Soud tuto argumentaci rozhodně zamítl a konstatoval, že použití Anthropic bylo “ze své podstaty a nenapravitelně porušující”. Toto rozhodnutí bude rezonovat celým odvětvím AI, donutí společnosti přehodnotit své strategie získávání dat a pravděpodobně přetvoří ekonomiku budování základních modelů. Pochopení této dohody je klíčové pro každého, kdo se zajímá o AI, autorské právo, obchodní strategii nebo budoucnost technologií.

Thumbnail for Vysvětlení dohody Anthropic o autorských právech

Co je porušení autorských práv v kontextu trénování AI?

Porušení autorských práv nastává tehdy, když někdo použije autorské dílo bez povolení způsobem, který porušuje výlučná práva držitele autorských práv. V tradičním kontextu to může znamenat kopírování písně, rozmnožování knihy nebo distribuci filmu bez souhlasu. Aplikace autorského práva na trénovací data umělé inteligence však představuje nové a složité výzvy, které soudy teprve začínají komplexně řešit. Společnosti AI při trénování svých modelů potřebují obrovské datasety obsahující texty, obrázky, kód i další kreativní díla. Historicky některé společnosti argumentovaly, že použití chráněného materiálu pro trénovací účely je “fair use” – právní doktrína, která umožňuje omezené používání chráněného materiálu bez povolení pro účely jako kritika, komentář, vzdělávání nebo výzkum. Případ Anthropic tuto interpretaci zásadně zpochybňuje tím, že stanovuje, že stahování pirátských knih za účelem trénování komerčních AI modelů není fair use bez ohledu na úmysly společnosti nebo transformační charakter výsledného modelu.

Rozdíl mezi legálním získáváním dat a porušením autorských práv spočívá v několika faktorech. Za prvé, zdroj dat je zásadní. Pokud společnost knihy zakoupí, získá licenci na obsah nebo použije veřejně dostupný materiál s řádným uvedením zdroje, pohybuje se v mezích zákona. Pokud však záměrně získává materiál z pirátských úložišť – webů, které nelegálně šíří chráněná díla – dostává se na území porušení práv. Za druhé, účel a povaha použití jsou součástí analýzy fair use. Zatímco trénování AI modelu se může jevit jako transformační užití, soud v případě Anthropic rozhodl, že použití pirátského materiálu pro komerční účely s cílem vytvořit ziskový produkt se zásadně liší od vzdělávacích či výzkumných využití. Třetím faktorem je dopad na trh s původním dílem. Když Anthropic trénoval Claude na pirátských knihách bez kompenzace autorům či vydavatelům, potenciálně snížil tržní hodnotu těchto děl i motivaci pro legální licencování. Tyto faktory společně vytvořily přesvědčivý případ proti obraně Anthropic na základě fair use.

Proč argumenty fair use u Anthropic selhaly

Pojem fair use je dlouhodobě základním kamenem autorského práva, který má vyvažovat práva tvůrců se zájmem veřejnosti na přístupu a navazování na kreativní díla. Fair use umožňuje omezenou reprodukci chráněného materiálu pro účely jako kritika, komentář, zpravodajství, výuka, stipendium a výzkum. Mnoho AI společností, včetně Anthropic, původně věřilo, že trénování AI modelů na chráněném materiálu spadá do této chráněné kategorie, zejména pokud výsledný model nereprodukuje původní díla doslova. Analýza soudu v rámci dohody Anthropic však ukazuje, proč tento argument v kontextu záměrně získaného pirátského materiálu zásadně selhává.

Soud aplikoval čtyřfaktorový test fair use stanovený autorským právem. Prvním faktorem je účel a povaha užití. Zatímco trénování AI může působit transformačně – převádí text na matematické reprezentace a váhy modelu – soud zdůraznil, že užití Anthropic bylo výslovně komerční. Anthropic neprováděl akademický výzkum ani netvořil vzdělávací materiály; budoval komerční produkt zaměřený na generování zisku. Druhým faktorem je povaha chráněného díla. Knihy, zejména vydaná díla, mají silnou ochranu autorských práv, protože představují významnou kreativní i ekonomickou investici. Třetím faktorem je rozsah převzaté části původního díla. Anthropic nepoužil úryvky; stáhl celé knihy z pirátských zdrojů a zahrnul kompletní díla do trénovacích datasetů. Čtvrtým a často rozhodujícím faktorem je dopad na trh s původním dílem. Používáním pirátských knih bez kompenzace Anthropic snížil motivaci pro legální licencování a potenciálně i tržní hodnotu těchto děl.

Co činilo případ Anthropic zvláště závažným, byla úmyslnost jejich jednání. Nešlo o neúmyslné porušení nebo šedou zónu, kdy společnost mohla rozumně věřit, že jedná legálně. Interní důkazy ukázaly, že Anthropic vědomě získával materiál z pirátských webů, přičemž si byl vědom jejich nelegálnosti. Přijal vědomě podnikatelské rozhodnutí použít zdarma pirátský materiál namísto legálního licencování obsahu. Tato úmyslnost posílila případ proti nim a pravděpodobně ovlivnila i ostrou rétoriku soudu, který jejich použití popsal jako “ze své podstaty a nenapravitelně porušující”. Dohoda v podstatě stanovuje, že žádná míra transformačního užití nemůže vyvážit zásadní problém úmyslného použití pirátského materiálu pro komerční účely.

Rozsah získávání dat Anthropic: přes 500 000 knih

Pochopení rozsahu porušení autorských práv společností Anthropic vyžaduje vnímat samotnou velikost jejich snah o získávání dat. Dokumenty k dohodě odhalily, že Anthropic stáhl přes 500 000 knih z pirátských zdrojů k trénování svých modelů Claude. Nešlo o drobný přehlédnutý případ nebo náhodné zařazení chráněného materiálu; šlo o systematické, rozsáhlé úsilí o vytvoření trénovacích datasetů za použití nelegálních zdrojů. Číslo 500 000 je ohromující, vezmeme-li v úvahu, že každá kniha představuje kreativní dílo, intelektuální vlastnictví a ekonomickou hodnotu. Nešlo o zapomenutá či nevydaná díla; mnohé byly současné, komerčně hodnotné knihy od velkých vydavatelů a autorů, kteří jsou na prodejích závislí.

Samotný proces odhalení tohoto porušení byl pozoruhodný. Žalobci provedli 20 výslechů, prostudovali stovky tisíc stránek dokumentace a analyzovali minimálně tři terabajty trénovacích dat. Nešlo jen o nalezení pár pirátských souborů; vyžadovalo to rozsáhlou forenzní analýzu, aby bylo možné vystopovat datasety Anthropic zpět k nelegálním zdrojům. Analýza metadat byla klíčová – zkoumáním digitálních otisků a charakteristik dat mohli vyšetřovatelé jednoznačně spojit trénovací datasety Anthropic s pirátskými repozitáři jako Library Genesis a Pirate Library Mirror. Tyto technické důkazy znemožnily Anthropic tvrdit nevědomost nebo argumentovat, že neznali zdroj svých dat.

Struktura dohody odráží rozsah porušení prostřednictvím odstupňovaného systému plateb. Základní částka vyrovnání 1,5 miliardy dolarů představuje minimum, vypočítané na základě potvrzených 500 000 děl. Dohoda však obsahuje zásadní ustanovení: pokud konečný seznam děl překročí 500 000 knih, musí Anthropic zaplatit dalších 3 000 dolarů za každé dílo nad tento limit. To znamená, že pokud vyšetřovatelé nakonec určí 600 000 porušených děl, Anthropic bude dlužit dalších 300 milionů dolarů. Tato struktura motivuje k důkladnému vyšetření a zajišťuje, že výše vyrovnání skutečně odráží skutečný rozsah porušení. Úroky, které mohou do doby konečné platby dosáhnout přes 126 milionů dolarů, dále navyšují celkové náklady jednání Anthropic.

Struktura dohody: Jak musí Anthropic platit

Finanční struktura dohody Anthropic odhaluje odhodlání soudu uložit smysluplné důsledky a zároveň zohlednit pokračující životaschopnost společnosti. Dohoda není jednorázová platba, ale je rozložena do několika plateb v čase s konkrétními termíny a úroky. Tento přístup slouží několika účelům: umožňuje Anthropic platit bez okamžitého bankrotu, umožňuje kumulaci úroků kompenzujících žalobcům časovou hodnotu peněz a vytváří trvalý finanční tlak, který podtrhuje závažnost rozsudku.

Plán plateb začíná částkou 300 milionů dolarů splatnou do pěti pracovních dnů od předběžného schválení soudem. Tato okamžitá platba prokazuje závazek Anthropic a poskytuje počáteční kompenzaci třídě žalobců. Dalších 300 milionů je splatných do pěti pracovních dnů od konečného schválení soudem, což dále urychluje harmonogram odškodnění. Zbývající platby jsou rozloženy do delšího období: 450 milionů dolarů plus úroky je splatných do 12 měsíců od předběžného schválení a dalších 450 milionů plus úroky do 24 měsíců. Úroková složka je významná – v době konečné platby Anthropic mohou úroky dosáhnout přibližně 126,4 milionu dolarů, čímž celková hodnota dohody přesáhne 1,6 miliardy.

Pro kontext: vyrovnání představuje čtyřnásobek zákonných škod (750 dolarů za dílo), které by mohla porota přiznat, a 15násobek částky (200 dolarů za dílo), pokud by Anthropic úspěšně argumentoval nevědomé porušení. Tento multiplikátor odráží názor soudu, že jednání Anthropic bylo úmyslné a vědomé, nikoli náhodné. Dohoda je uzavřena v kontextu nedávného financování Anthropic ve výši 13 miliard dolarů v rámci Series F při valuaci 183 miliard dolarů. Ačkoliv je částka 1,5 miliardy značná, představuje zhruba 11,5 % jejich nedávného financování, což investoři zřejmě do ocenění započítali. To naznačuje, že velcí investoři v AI začínají riziko autorskoprávních sporů a dohod chápat jako součást podnikání v AI.

Pohled FlowHunt: Řízení compliance v AI workflow

Jak společnosti v oblasti AI procházejí stále složitějším právním a regulačním prostředím, stává se klíčovým řízení workflow s ohledem na compliance. FlowHunt vnímá, že dohoda Anthropic představuje zásadní moment pro odvětví, který vyžaduje nové přístupy ke správě dat, zdrojům obsahu a praxi trénování modelů. Organizace budující AI systémy nyní musí zavést přísné procesy, které zajistí, že veškerá trénovací data jsou získána legálně, řádně licencována a řádně zdokumentována pro účely compliance.

Dohoda vytváří okamžité praktické výzvy pro AI společnosti. Musí provést audit svých existujících datasetů na přítomnost pirátského či nelegálně licencovaného materiálu, zavést nové procesy pro získávání dat, které upřednostňují licencované zdroje, a udržovat detailní dokumentaci o původu dat. Automatizační schopnosti FlowHunt mohou tyto compliance workflow zefektivnit vytvořením systematických procesů pro validaci dat, ověřování zdrojů a dokumentaci licencí. Namísto spoléhání na ruční kontroly náchylné k chybám a nekonzistenci mohou organizace implementovat automatizované workflow, které kontrolují zdroje dat vůči známým pirátským repozitářům, ověřují licenční dohody a včas identifikují potenciální compliance problémy.

Navíc FlowHunt umožňuje organizacím budovat transparentní auditní stopy pro jejich trénovací procesy AI. Když regulátoři, investoři nebo právní týmy potřebují rozumět tomu, jak byl model trénován a odkud pocházela jeho data, je nezbytná komplexní dokumentace. Automatizací dokumentace a sledování zdrojů dat, licenčních smluv a compliance kontrol pomáhá FlowHunt organizacím prokázat, že podnikly rozumné kroky k zajištění souladu se zákonem. Tento proaktivní přístup nejen snižuje právní rizika, ale také buduje důvěru u stakeholderů, kteří čím dál více dbají na etické a právní základy AI systémů.

Širší dopady: Jak tato dohoda mění vývoj AI

Dohoda Anthropic je mnohem víc než jen právní problém jedné společnosti; signalizuje zásadní posun v tom, jak bude AI odvětví fungovat do budoucna. Tento precedent ovlivní, jak AI společnosti přistupují ke získávání dat, jak investoři hodnotí AI startupy a jak regulátoři přemýšlí o ochraně autorských práv v éře AI. Dohoda v podstatě stanovuje, že mentalita “rychle jednej a porušuj pravidla”, která charakterizovala raný vývoj AI, již není při porušování autorských práv možná.

Za prvé, dohoda urychlí posun od pirátských datových zdrojů k licencovanému obsahu. Společnosti jako OpenAI, Google, Meta a další, které se mohly spoléhat na podobné strategie, nyní čelí jasnému právnímu riziku. New York Times aktuálně žaluje OpenAI za podobné porušení autorských práv a tato dohoda Anthropic pravděpodobně ovlivní i tento a další případy. Výsledkem bude zvýšená poptávka po licencovaných datasetech, což zvýší ceny za hodnotný obsah. Vydavatelé, mediální domy a tvůrci obsahu zjistí, že jejich duševní vlastnictví je pro AI společnosti čím dál cennější. To představuje významný posun v tržní dynamice – místo volného přístupu k pirátskému materiálu budou AI společnosti muset vyjednávat licenční smlouvy a platit za práva k obsahu.

Za druhé, dohoda zvýší náklady na trénování základních modelů. Když společnosti musí obsah licencovat a ne jen používat pirátské zdroje, ekonomika vývoje AI se dramaticky změní. Trénování velkého jazykového modelu vyžaduje obrovské množství dat a licence v takovém měřítku budou drahé. Toto zvýšení nákladů se pravděpodobně promítne do vyšších cen AI služeb pro koncové uživatele nebo sníží ziskovost AI společností. Menší startupy, které nemají kapitál na licencování velkých datasetů, budou mít stále větší problém konkurovat dobře financovaným hráčům. To může vést ke konsolidaci v AI průmyslu, kdy trh ovládne menší počet dobře kapitálově vybavených firem.

Za třetí, dohoda povede ke zvýšení investic do infrastruktury pro správu dat a compliance. AI společnosti budou muset implementovat robustní systémy pro sledování původu dat, ověřování licenčních smluv a zajištění souladu s autorským právem. To vytváří příležitosti pro firmy nabízející řešení v oblasti governance, compliance a auditů. Organizace budou muset investovat do nástrojů a procesů, které jim pomohou řídit nejen technické, ale i právní a etické aspekty vývoje AI. To znamená určité zrání AI odvětví, které se od čistě výkonnostního zaměření přesouvá k holistickému přístupu zahrnujícímu i právní, etické a compliance aspekty.

Jak dohoda omezuje budoucí použití pirátského materiálu u Anthropic

Ačkoliv je finanční dohoda značná, omezení budoucího použití chráněného materiálu může mít pro Anthropic ještě zásadnější důsledky. Dohoda obsahuje tři klíčová omezení rozsahu uvolnění odpovědnosti, které Anthropic získává. Porozumění těmto omezením ukazuje, že dohoda není pouze finanční transakcí, ale komplexním přestrukturováním toho, jak může Anthropic do budoucna fungovat.

Za prvé, uvolnění se vztahuje pouze na minulé nároky a výslovně se nevztahuje na budoucí reprodukci, distribuci nebo tvorbu odvozených děl. To znamená, že pokud by Anthropic i nadále používal pirátský materiál nebo se dopustil podobného porušení autorských práv v budoucnu, čelí novým žalobám a dalším závazkům. Dohoda neposkytuje blanketní imunitu; pokrývá pouze konkrétní porušení, k nimž došlo v minulosti. Toto omezení vytváří trvalé právní riziko pro Anthropic, pokud zásadně nezmění své praktiky získávání dat.

Za druhé, dohoda se vůbec nevztahuje na nároky na výstup. To je obzvláště důležité omezení, které mnozí přehlížejí. I když Anthropic trénoval Claude na pirátských knihách, dohoda nebrání držitelům práv žalovat v případě, že by výstupy Claude reprodukovaly chráněný text téměř doslova. Představte si, že uživatel požádá Claude o text a Claude vytvoří výstup, který se blíží pasážím z jedné z pirátských knih použitých při trénování. Držitel autorských práv může Anthropic za tento výstup žalovat s odůvodněním, že model reprodukuje jeho dílo. To znamená trvalé riziko, které přesahuje fázi trénování až do samotného provozu modelu.

Za třetí, dohoda uvolňuje nároky pouze na díla uvedená v konkrétním seznamu děl. Pokud držitel autorských práv vlastní více děl a pouze jedno je na seznamu, má stále právo žalovat za porušení ostatních děl. Dohoda je tedy úzce zaměřena pouze na knihy identifikované během vyšetřování. Pokud by se později zjistilo, že Anthropic použil i jiné pirátské knihy, které nejsou na aktuálním seznamu, mohou tito držitelé práv uplatnit samostatné nároky. Tato struktura motivuje k důkladnému vyšetřování a brání Anthropic v používání dohody jako štítu proti všem nárokům z autorských práv.

Požadavek na zničení dat: Prevence budoucího zneužití

Jedním z nejvýznamnějších praktických požadavků dohody je, že Anthropic musí zničit všechny pirátské soubory knih do 30 dnů od konečného rozsudku. Tento požadavek slouží více účelům: zabrání Anthropic v dalším používání pirátského materiálu, demonstruje odhodlání soudu zastavit porušování a vytváří jasný a ověřitelný termín pro splnění povinnosti. Požadavek na zničení však rovněž poukazuje na důležité omezení právních prostředků v kontextu AI.

Anthropic musí zničit pirátské soubory, ale nemusí zničit ani přetrénovat Claude. Toto rozlišení je zásadní, protože přetrénování velkého jazykového modelu od začátku by bylo mimořádně drahé a časově náročné, potenciálně by stálo miliardy dolarů a vyžadovalo měsíce výpočetních zdrojů. Vynucení zničení Claude by Anthropic fakticky zlikvidovalo, což soud zřejmě považoval za příliš přísný trest. Dohoda se tedy zaměřuje na prevenci budoucího zneužití pirátského materiálu, přičemž Anthropic umožňuje nadále provozovat model, který už byl natrénován.

To vytváří zajímavou právní a etickou situaci. Claude byl trénován na pirátských knihách a tato trénovací data jsou nyní obsažena v jeho vahách a parametrech. Nelze jednoduše “odnaučit” model konkrétní části trénovacích dat. Znalosti získané z těchto knih zůstávají součástí schopností Claude. Dohoda však brání Anthropic v tom, aby použil stejné pirátské soubory k trénování nových modelů nebo k dalšímu přístupu k původnímu materiálu. Jde o pragmatický kompromis mezi odpovědností Anthropic za porušení a snahou vyhnout se tak přísnému postihu, že by společnost byla zcela zničena.

Požadavek na zničení vytváří i compliance výzvy. Anthropic musí prokázat, že všechny kopie pirátských souborů byly zničeny a neexistují žádné záložní nebo sekundární kopie. To vyžaduje komplexní správu dat a patrně i ověření třetí stranou. Dohoda pravděpodobně zahrnuje ustanovení o auditu a ověření, aby bylo zajištěno, že Anthropic skutečně splní požadavek na zničení a pouze o něm netvrdí, že byl splněn, zatímco by si data nechali.

Kdo dostane vyplaceno: Distribuce prostředků z dohody

Prostředky z dohody budou rozděleny “všem oprávněným nebo zákonným držitelům autorských práv na výlučné právo rozmnožovat kopie knih ve verzích LibGen nebo Palei stažených společností Anthropic.” Toto znění je důležité, protože znamená, že prostředky půjdou skutečným držitelům práv – autorům, vydavatelům a dalším oprávněným osobám – nikoliv do obecných fondů nebo státu. Samotný proces distribuce bude pravděpodobně složitý a bude vyžadovat identifikaci všech držitelů práv k více než 500 000 knih a určení odpovídající kompenzace pro každého.

Distribuční mechanismus patrně zahrne proces uplatňování nároků, kdy držitelé autorských práv předloží dokumentaci prokazující vlastnictví konkrétních děl, která byla zařazena do trénovacích dat Anthropic. Tento proces může trvat roky, protože administrátoři budou řešit tisíce až miliony nároků. Někteří držitelé práv budou snadno identifikovatelní – velcí vydavatelé s jasnou evidencí publikací. U jiných, zejména u starších děl, samovydaných knih nebo děl s několikanásobnou změnou vlastnictví, to bude složitější. Dohoda musí řešit i to, jak naložit s nevyzvednutými prostředky a co dělat, pokud držitele práv nelze dohledat.

Tato struktura rovněž vyvolává otázky ohledně hodnoty jednotlivých děl. Má například bestseller dostat stejnou kompenzaci jako okrajový akademický text? Má se kompenzace odvíjet od tržní hodnoty díla, počtu použití při trénování nebo jiného kritéria? Dokumenty k dohodě pravděpodobně obsahují vodítka k těmto otázkám, ačkoli konkrétní distribuční vzorec nemusí být veřejný. Jasné je, že dohoda představuje významný transfer bohatství od Anthropic ke kreativní komunitě a uznává, že držitelé práv mají nárok na kompenzaci, pokud je jejich dílo použito k trénování komerčních AI modelů.

Precedens: Jak to ovlivní ostatní AI společnosti

Dohoda Anthropic bude rezonovat celým AI odvětvím a ovlivní, jak ostatní společnosti přistupují ke získávání dat a vyhodnocují své právní riziko. Několik dalších velkých AI společností v současnosti čelí sporům ohledně autorských práv a tato dohoda pravděpodobně ovlivní i tyto případy. New York Times žaluje OpenAI za porušení autorských práv s podobnými tvrzeními o použití chráněného obsahu bez povolení k trénování modelů. Dohoda Anthropic stanovuje, že soudy nepřijmou argumenty fair use, pokud společnosti úmyslně používají pirátský materiál ke komerčním účelům, což významně posiluje pozici New York Times.

Mimo probíhající spory dohoda ovlivní i strategická rozhodnutí AI společností ohledně získávání dat. Společnosti, které doposud používaly pirátská nebo sporně získaná data, budou pod tlakem provést audit svých praktik a případně se dohodnout mimosoudně, aby předešly ještě vyšším postihům. Investoři v AI budou požadovat záruky, že trénovací data jsou legálně získána, a pravděpodobně budou vyžadovat formální prohlášení o původu dat. To zvýší nároky na due diligence při investování do AI a může zpomalit investiční kola, protože investoři provedou důkladnější šetření datových praktik.

Dohoda rovněž stanovuje precedent pro výpočty škod. Dohoda ve výši 1,5 miliardy dolarů za 500 000 děl znamená přibližně 3 000 dolarů za dílo, což je podstatně více než zákonné škody. To nastavuje očekávání pro budoucí dohody a rozsudky. Pokud jiné společnosti čelí podobným sporům, měly by očekávat podobné škody, což jasně vymezuje finanční riziko porušování autorských práv. Tato ekonomická realita pravděpodobně přiměje společnosti k využívání legálních zdrojů dat, i když jsou dražší než pirátské alternativy.

Ekonomika trénování AI: Jak licencování změní průmysl

Dohoda Anthropic zásadně mění ekonomiku trénování velkých jazykových modelů. Dříve mohly společnosti zdarma získat obrovská trénovací data používáním pirátských zdrojů. To jim dávalo významnou cenovou výhodu oproti firmám, které data licencovaly legálně. Dohoda tuto výhodu ruší tím, že pirátské zdroje nejsou životaschopnou možností. V budoucnu budou AI společnosti muset obsah licencovat, což výrazně zvýší náklady na trénování modelů.

Vezměte v úvahu rozsah dat potřebných k trénování velkého jazykového modelu. Modely jako Claude, GPT-4 a další jsou trénovány na stovkách miliard tokenů textových dat. Pokud společnosti budou muset tato data licencovat namísto volného přístupu, licenční náklady mohou snadno vystoupat na stovky milionů až miliardy dolarů. To zásadně změní konkurenční prostředí. Dobře kapitálově vybavené firmy s přístupem k významnému financování si mohou licencování dovolit, zatímco menší startup

Často kladené otázky

O čem je dohoda Anthropic ohledně autorských práv?

Anthropic, společnost stojící za Claude AI, čelí dohodě o vyrovnání ve výši 1,5 miliardy dolarů za stahování a používání pirátských knih z webů jako Library Genesis k trénování jejich AI modelů bez povolení. Soud rozhodl, že toto nebylo fair use, což z něj činí největší dohodu o autorských právech v historii.

Porušil Anthropic autorská práva úmyslně?

Ano, Anthropic úmyslně stahoval pirátské knihy z nelegálních zdrojů, ale věřil, že jejich použití spadá pod fair use podle autorského práva. Soud s tím nesouhlasil a rozhodl, že jejich použití bylo 'ze své podstaty a nenapravitelně porušující' bez legitimní obrany fair use.

Co tato dohoda znamená pro ostatní AI společnosti?

Tato dohoda vytváří významný precedent, že AI společnosti nemohou používat pirátská data pro trénování modelů a odvolávat se na fair use. Ostatní společnosti jako OpenAI (která je žalována deníkem New York Times) pravděpodobně čelí podobným právním výzvám, což donutí odvětví používat licencované datové zdroje a platit za obsahová práva.

Bude muset Anthropic zničit Claude?

Ne, Anthropic nemusí Claude zničit ani přetrénovat. Musí však zničit pirátské soubory knih do 30 dnů od konečného rozsudku. Dohoda omezuje budoucí použití pirátského materiálu a zahrnuje ustanovení pro nároky na výstupy, pokud by Claude reprodukoval chráněný text doslova.

Jak to ovlivní ceny AI modelů?

Jakmile AI společnosti přejdou na licencované datové zdroje a budou muset platit za práva k obsahu, náklady na trénování modelů významně vzrostou. To pravděpodobně povede ke zvýšení cen AI služeb a zvýšení hodnoty pro poskytovatele licencovaného obsahu, jako jsou mediální společnosti, vydavatelé nebo platformy s uživatelským obsahem.

Arshia je inženýr AI pracovních postupů ve FlowHunt. Sxa0vzděláním vxa0oboru informatiky a vášní pro umělou inteligenci se specializuje na vytváření efektivních workflow, které integrují AI nástroje do každodenních úkolů a zvyšují tak produktivitu i kreativitu.

Arshia Kahani
Arshia Kahani
Inženýr AI pracovních postupů

Automatizujte své AI workflow v souladu s předpisy

FlowHunt vám pomůže spravovat generování obsahu AI a datové workflow při zajištění souladu s autorskými a právními požadavky.

Zjistit více

Bitva o doložku AGI mezi OpenAI a Microsoftem
Bitva o doložku AGI mezi OpenAI a Microsoftem

Bitva o doložku AGI mezi OpenAI a Microsoftem

OpenAI a Microsoft jsou uvězněni v bitvě o vysoké sázky ohledně doložky AGI ve své partnerské smlouvě. Toto sporné ustanovení by mohlo omezit přístup Microsoftu...

6 min čtení
OpenAI Microsoft +8
Zabíjí AI ekonomiku? Zpráva Anthropic o adopci umělé inteligence
Zabíjí AI ekonomiku? Zpráva Anthropic o adopci umělé inteligence

Zabíjí AI ekonomiku? Zpráva Anthropic o adopci umělé inteligence

Prozkoumejte zjištění ze zprávy Anthropic AI o tom, jak se umělá inteligence šíří rychleji než elektřina, PC a internet, a co to znamená pro pracovní místa, mzd...

16 min čtení
AI Economy +3