
Bătălia pentru Clauza AGI dintre OpenAI și Microsoft
OpenAI și Microsoft sunt implicate într-o dispută de mare amploare privind clauza AGI din acordul lor de parteneriat. Această prevedere controversată ar putea l...

Descoperă acordul istoric de 1,5 miliarde de dolari privind drepturile de autor împotriva Anthropic, implicațiile sale pentru practicile de antrenare AI și modul în care acesta modelează viitorul întregii industrii.
Industria inteligenței artificiale tocmai a trecut printr-o schimbare majoră. Anthropic, compania din spatele Claude, unul dintre cei mai avansați asistenți AI disponibili astăzi, se confruntă cu un acord istoric de 1,5 miliarde de dolari pentru încălcarea drepturilor de autor — cel mai mare din istorie. Nu este vorba de o simplă problemă legală sau de un acord de rutină; acest moment reprezintă o reevaluare fundamentală a modului în care companiile AI achiziționează date de antrenament și ridică întrebări critice despre viitorul dezvoltării AI. Acordul arată că Anthropic a descărcat deliberat cărți piratate din surse ilegale precum Library Genesis pentru a-și antrena modelele, crezând că această practică este protejată de regimul de folosință echitabilă. Instanța a respins decisiv acest argument, hotărând că folosirea de către Anthropic a fost „în mod inerent și iremediabil încălcătoare”. Această decizie va avea efecte de undă în întreaga industrie AI, forțând companiile să-și regândească strategiile de achiziție de date și, posibil, să remodeleze economia construirii de modele fundamentale. Înțelegerea acestui acord este esențială pentru oricine este interesat de AI, drepturi de autor, strategie de afaceri sau viitorul tehnologiei.
Încălcarea drepturilor de autor apare atunci când cineva folosește o operă creativă fără permisiune, într-un mod care încalcă drepturile exclusive ale titularului drepturilor. În contexte tradiționale, aceasta poate însemna copierea unei melodii, reproducerea unei cărți sau distribuirea unui film fără autorizație. Totuși, aplicarea legii drepturilor de autor la datele de antrenament pentru inteligența artificială ridică provocări noi și complexe, pe care instanțele abia încep să le abordeze în mod cuprinzător. Când companiile AI își antrenează modelele, au nevoie de seturi enorme de date care conțin texte, imagini, cod și alte opere creative. În trecut, unele companii au susținut că utilizarea materialului protejat de drepturi de autor în scopuri de antrenament se încadrează la „folosință echitabilă” — un concept legal care permite utilizarea limitată a materialului protejat fără permisiune pentru critici, comentarii, educație sau cercetare. Cazul Anthropic contestă fundamental această interpretare, stabilind că descărcarea de cărți piratate special pentru a antrena modele AI comerciale nu constituie folosință echitabilă, indiferent de intențiile companiei sau de natura transformatoare a modelului rezultat.
Distincția dintre achiziția legală de date și încălcarea drepturilor de autor se bazează pe mai mulți factori. În primul rând, sursa datelor contează foarte mult. Dacă o companie cumpără cărți, licențiază conținut sau folosește material public disponibil cu atribut corespunzător, operează în limitele legii. Dacă, însă, obține în mod deliberat materiale din depozite piratate — site-uri care distribuie ilegal opere protejate — intră pe teritoriul încălcării. În al doilea rând, scopul și natura utilizării influențează analiza folosinței echitabile. Deși antrenarea unui model AI poate părea o utilizare transformatoare, instanța în cazul Anthropic a decis că utilizarea materialului piratat în scop comercial pentru a construi un produs profitabil diferă fundamental de utilizările educaționale sau de cercetare. În al treilea rând, efectul asupra pieței operei originale contează. Atunci când Anthropic a antrenat Claude pe cărți piratate fără a compensa autorii sau editorii, a redus potențial valoarea de piață a acelor opere și stimulentul pentru licențiere legitimă. Acești factori au dus la o decizie covârșitoare împotriva apărării Anthropic bazate pe folosință echitabilă.
Conceptul de folosință echitabilă este de mult timp o piatră de temelie a legii drepturilor de autor, conceput să echilibreze drepturile creatorilor cu interesul publicului de a avea acces la opere creative și de a construi pe baza lor. Folosința echitabilă permite reproducerea limitată a materialului protejat în scopuri precum critică, comentariu, știri, educație sau cercetare. Multe companii AI, inclusiv Anthropic, au considerat inițial că antrenarea modelelor AI pe materiale protejate de drepturi de autor se încadrează în această categorie, în special dacă modelul rezultat nu reproduce textual operele originale. Totuși, analiza instanței în acordul Anthropic arată de ce acest argument nu funcționează în contextul folosirii deliberate a materialului piratat.
Instanța a aplicat testul celor patru factori de folosință echitabilă prevăzut de lege. Primul factor analizează scopul și natura utilizării. Deși antrenarea AI ar putea părea transformatoare — convertirea textului în reprezentări matematice și parametri ai modelului — instanța a subliniat că utilizarea Anthropic a fost explicit comercială. Anthropic nu făcea cercetare academică sau materiale educaționale, ci construia un produs comercial destinat să genereze venituri. Al doilea factor vizează natura operei protejate. Cărțile, în special operele publicate, beneficiază de protecție puternică a drepturilor de autor, pentru că implică investiții creative și economice considerabile. Al treilea factor analizează cât de mult din opera originală a fost folosit. Anthropic nu a folosit fragmente sau extrase; a descărcat cărți întregi din surse piratate, încorporând opere complete în datele de antrenament. Al patrulea și adesea cel mai decisiv factor privește efectul asupra pieței operei originale. Folosind cărți piratate fără compensație, Anthropic a redus stimulentul pentru licențiere legitimă și potențial valoarea de piață a acelor opere.
Ceea ce a făcut cazul Anthropic deosebit de grav a fost caracterul deliberat al acțiunilor. Nu a fost o încălcare accidentală sau o zonă gri unde compania ar fi putut crede rezonabil că acționează legal. Dovezi interne au arătat că Anthropic a obținut conștient materiale de pe site-uri piratate, știind că sunt ilegale. Au luat o decizie de afaceri calculată să folosească materiale gratuite, piratate, în loc să licențieze conținut în mod legitim. Această intenționalitate a întărit cazul împotriva lor și probabil a influențat limbajul dur al instanței, care a descris utilizarea ca fiind „în mod inerent și iremediabil încălcătoare”. Practic, acordul stabilește că nicio utilizare transformatoare nu poate justifica folosirea deliberată de materiale piratate în scopuri comerciale.
Pentru a înțelege amploarea încălcării drepturilor de autor de către Anthropic, trebuie conștientizată dimensiunea uriașă a eforturilor de achiziție a datelor. Documentele acordului arată că Anthropic a descărcat peste 500.000 de cărți din surse piratate pentru a-și antrena modelele Claude. Nu este vorba de o scăpare minoră sau de includerea accidentală a unor materiale protejate; a fost o acțiune sistematică, la scară largă, de construire a seturilor de date folosind surse ilegale. Numărul de 500.000 este impresionant dacă ne gândim că fiecare carte reprezintă muncă creativă, proprietate intelectuală și valoare economică. Nu erau opere obscure sau ieșite din uz; multe erau cărți contemporane, cu valoare comercială ridicată, de la edituri și autori importanți care depind de vânzări.
Procesul de descoperire care a evidențiat această încălcare a fost el însuși remarcabil. Reclamanții au efectuat 20 de depoziții, au analizat sute de mii de pagini de documente și au inspectat cel puțin trei terabytes de date de antrenament. Nu a fost vorba de găsirea câtorva fișiere piratate; a fost nevoie de o analiză criminalistică extinsă pentru a urmări datele Anthropic până la sursele lor ilegale. Analiza metadatelor a fost esențială — examinând amprentele digitale și caracteristicile datelor, anchetatorii au putut lega în mod cert seturile de date de antrenament Anthropic de depozite piratate precum Library Genesis și Pirate Library Mirror. Aceste dovezi tehnice au făcut imposibil ca Anthropic să invoce necunoașterea sursei datelor lor.
Structura acordului reflectă amploarea încălcării printr-un sistem de plată pe niveluri. Valoarea de bază a acordului, de 1,5 miliarde de dolari, este calculată pentru cele 500.000 de opere confirmate. Dar acordul include o prevedere crucială: dacă lista finală a operelor depășește 500.000 de cărți, Anthropic trebuie să plătească 3.000 de dolari suplimentar pentru fiecare lucrare peste acest prag. Asta înseamnă că, dacă anchetatorii identifică în final 600.000 de opere încălcate, Anthropic va datora încă 300 de milioane de dolari. Această structură stimulează o investigație temeinică și asigură că suma reflectă adevărata amploare a încălcării. Dobânzile, care pot ajunge la peste 126 de milioane de dolari până la plata finală, cresc și mai mult costul total al acțiunilor Anthropic.
Structura financiară a acordului cu Anthropic arată hotărârea instanței de a impune consecințe semnificative, dar și de a recunoaște viabilitatea continuă a companiei. Plata nu se face într-o singură tranșă, imediat; este structurată în mai multe plăți, cu termene și acumulare de dobândă. Acest mod de plată are mai multe scopuri: permite Anthropic să plătească fără a intra imediat în faliment, permite acumularea de dobândă care compensează reclamanții pentru valoarea banilor în timp și creează presiune financiară continuă, subliniind gravitatea hotărârii.
Programul de plată începe cu 300 de milioane de dolari plătiți în cinci zile lucrătoare de la aprobarea preliminară a acordului de către instanță. Această plată imediată demonstrează angajamentul Anthropic și oferă compensare inițială clasei reclamante. Încă 300 de milioane de dolari sunt datorate în cinci zile lucrătoare după aprobarea finală a acordului. Plățile rămase sunt structurate pe o perioadă mai lungă: 450 de milioane de dolari plus dobândă în termen de 12 luni de la aprobarea preliminară și încă 450 de milioane plus dobândă în termen de 24 de luni. Componenta de dobândă este semnificativă — până la plata finală, dobânda poate ajunge la aproximativ 126,4 milioane de dolari, ducând valoarea totală a acordului la peste 1,6 miliarde.
Pentru a pune aceste sume în context, acordul reprezintă de patru ori valoarea despăgubirilor statutare (750 de dolari per operă) pe care un juriu le-ar putea acorda și de 15 ori valoarea (200 de dolari per operă) dacă Anthropic ar fi reușit să demonstreze încălcare neintenționată. Acest multiplu reflectă opinia instanței că acțiunile Anthropic au fost voită și deliberată, nu accidentală. Acordul vine pe fondul recentei runde de finanțare Serie F de 13 miliarde de dolari la o evaluare de 183 de miliarde pentru Anthropic. Deși 1,5 miliarde de dolari este o sumă substanțială, reprezintă doar aproximativ 11,5% din finanțarea recentă — investitorii au luat în calcul acest risc în evaluare. Aceasta sugerează că investitorii majori din AI încep să includă riscul litigiilor privind drepturile de autor ca un cost de operare în industrie.
Pe măsură ce companiile AI navighează într-un peisaj legal și de reglementare tot mai complex, importanța gestionării fluxurilor de lucru cu respectarea cerințelor legale devine esențială. FlowHunt recunoaște că acordul Anthropic reprezintă un moment de cotitură pentru industrie, ce impune noi abordări pentru guvernanța datelor, sursa conținutului și practicile de antrenare a modelelor. Organizațiile care construiesc sisteme AI trebuie să implementeze procese riguroase pentru a se asigura că toate datele de antrenament sunt obținute legal, licențiate și documentate pentru respectarea reglementărilor.
Acordul creează provocări practice imediate pentru companiile AI. Acestea trebuie să-și auditeze seturile de date existente pentru a identifica materialele piratate sau nelicențiate, să implementeze noi procese de achiziție de date care să favorizeze sursele licențiate și să mențină documentație detaliată a provenienței datelor. Capacitățile de automatizare ale FlowHunt pot eficientiza aceste fluxuri de lucru de conformitate, creând procese sistematice pentru validarea datelor, verificarea surselor și documentarea licențierii. În loc să se bazeze pe verificări manuale, predispuse la erori și inconsistențe, organizațiile pot implementa fluxuri automatizate care verifică sursele de date în raport cu depozite piratate cunoscute, validează acordurile de licențiere și semnalează potențiale probleme de conformitate înainte ca acestea să devină litigii.
În plus, FlowHunt permite organizațiilor să construiască trasee de audit transparente pentru procesele lor de antrenament AI. Când autoritățile, investitorii sau echipele juridice trebuie să înțeleagă cum a fost antrenat un model și de unde provine datele sale, documentația completă devine esențială. Prin automatizarea documentării și a urmăririi surselor de date, acordurilor de licențiere și verificărilor de conformitate, FlowHunt ajută organizațiile să demonstreze că au făcut eforturi rezonabile pentru a asigura respectarea legii. Această abordare proactivă nu doar reduce riscul legal, ci și crește încrederea partenerilor și clienților, tot mai preocupați de etica și legalitatea sistemelor AI.
Acordul Anthropic reprezintă mult mai mult decât problema legală a unei singure companii; semnalează o schimbare fundamentală în modul în care va funcționa industria AI în viitor. Acest precedent va influența modul în care alte companii AI abordează achiziția de date, cum investitorii evaluează startup-urile AI și cum reglementatorii privesc protecția drepturilor de autor în era AI. Practic, acordul stabilește că mentalitatea „acționează rapid și strică lucruri” nu mai este valabilă când vine vorba de încălcarea drepturilor de autor.
În primul rând, acordul va accelera trecerea de la surse piratate de date la conținut licențiat. Companii precum OpenAI, Google, Meta și altele, care s-ar putea să fi folosit strategii similare de achiziție de date, se confruntă acum cu riscuri legale clare. New York Times dă în judecată OpenAI pentru încălcări similare ale drepturilor de autor, iar acest acord Anthropic va influența probabil acel caz și altele. Ca urmare, vom vedea o creștere a cererii pentru seturi de date licențiate, ceea ce va duce la creșterea prețurilor pentru conținut valoros. Editorii, organizațiile media și creatorii de conținut vor descoperi că proprietatea lor intelectuală devine tot mai valoroasă pe măsură ce companiile AI concurează pentru surse legitime de date. Este o schimbare semnificativă în dinamica pieței: în loc ca firmele AI să folosească materiale piratate, vor trebui să negocieze acorduri de licențiere și să plătească drepturi de conținut.
În al doilea rând, acordul va crește costul antrenării modelelor fundamentale. Când companiile trebuie să licențieze conținutul, nu să folosească surse piratate, economia dezvoltării AI se schimbă dramatic. Antrenarea unui model lingvistic mare necesită cantități uriașe de date, iar licențierea la scară va fi costisitoare. Această creștere de costuri se va reflecta probabil în prețuri mai mari pentru serviciile AI sau va reduce profitabilitatea companiilor AI. Startup-urile mici, fără capital suficient pentru a licenția seturi mari de date, vor avea tot mai greu de concurat cu jucătorii bine finanțați care își permit costurile de licențiere. Acest lucru poate duce la consolidare în industrie, unde un număr limitat de companii mari domină piața.
În al treilea rând, acordul va stimula investițiile în guvernanța datelor și infrastructura de conformitate. Companiile AI vor trebui să implementeze sisteme solide pentru urmărirea provenienței datelor, verificarea licențelor și asigurarea respectării legii drepturilor de autor. Acest lucru creează oportunități pentru companiile care furnizează soluții de guvernanță, conformitate și audit de date. Organizațiile vor trebui să investească în instrumente și procese care să le ajute să gestioneze dimensiunile legale și etice ale dezvoltării AI, nu doar pe cele tehnice. Este o maturizare a industriei AI, orientându-se de la accentul exclusiv pe performanța modelelor către o abordare holistică, ce include și considerente juridice, etice și de conformitate.
Deși acordul financiar este substanțial, restricțiile privind utilizarea viitoare a materialului protejat ar putea avea consecințe și mai importante pentru Anthropic. Acordul conține trei limitări esențiale asupra eliberării de răspundere pe care o primește Anthropic. Înțelegerea acestor restricții arată că acordul nu este doar o tranzacție financiară, ci o restructurare profundă a modului în care Anthropic poate opera de acum înainte.
În primul rând, eliberarea se aplică doar cererilor din trecut și nu se extinde la nicio cerere pentru reproducerea, distribuirea sau crearea de opere derivate în viitor. Astfel, dacă Anthropic continuă să folosească materiale piratate sau să încalce drepturi de autor în viitor, se va confrunta cu noi procese și răspundere suplimentară. Acordul nu oferă imunitate generală; acoperă doar încălcările identificate în trecut. Această restricție creează o vulnerabilitate juridică continuă pentru Anthropic dacă nu își schimbă fundamental practicile de achiziție a datelor.
În al doilea rând, acordul nu acoperă deloc cererile privind rezultatele (output). Această restricție este foarte importantă și adesea trecută cu vederea. Chiar dacă Anthropic a antrenat Claude pe cărți piratate, acordul nu împiedică deținătorii de drepturi să dea în judecată dacă ieșirile lui Claude reproduc aproape textual fragmente protejate. De exemplu, dacă un utilizator cere lui Claude să scrie ceva și modelul generează text ce se potrivește aproape exact cu pasaje din cărțile piratate folosite la antrenament, titularul drepturilor ar putea da în judecată Anthropic pentru acest output. Astfel, riscul de răspundere continuă dincolo de faza de antrenare, în utilizarea operațională a modelului.
În al treilea rând, eliberarea acoperă doar operele de pe lista specifică a acordului. Dacă un titular de drepturi deține mai multe opere, dar doar una se află pe lista acordului, păstrează dreptul de a acționa pentru celelalte opere. Prin urmare, acordul este strict limitat la cărțile identificate în timpul cercetării. Dacă ulterior se descoperă că Anthropic a folosit și alte cărți piratate neincluse în listă, deținătorii pot formula cereri separate. Această structură stimulează investigația detaliată și împiedică Anthropic să folosească acordul ca scut împotriva tuturor pretențiilor de încălcare a drepturilor de autor.
Una dintre cele mai importante cerințe practice din acord este ca Anthropic să distrugă toate fișierele cu cărți piratate în termen de 30 de zile de la hotărârea finală. Această cerință are mai multe scopuri: împiedică Anthropic să continue să folosească materiale piratate, demonstrează hotărârea instanței de a opri încălcarea și impune un termen clar și verificabil pentru respectarea deciziei. Totuși, obligația de distrugere evidențiază și o limitare importantă a remediilor juridice în contextul AI.
Anthropic trebuie să distrugă fișierele piratate, dar nu trebuie să distrugă sau să reantreneze Claude. Această distincție este esențială, deoarece reantrenarea unui model lingvistic mare de la zero ar fi extrem de costisitoare și de durată, posibil de ordinul miliardelor de dolari și al lunilor de resurse computaționale. Forțarea Anthropic să distrugă Claude ar însemna, practic, închiderea companiei — o sancțiune considerată excesivă de către instanță. În schimb, acordul se concentrează pe prevenirea utilizării viitoare a materialului piratat, permițând Anthropic să continue să funcționeze cu modelul deja antrenat.
Acest lucru creează o situație juridică și etică interesantă. Claude a fost antrenat pe cărți piratate, iar acele date rămân încorporate în greutățile și parametrii modelului. Nu poți pur și simplu „dezînvăța” un model de anumite părți din datele de antrenament. Informațiile derivate din acele cărți piratate vor rămâne parte din capacitățile lui Claude. Totuși, acordul împiedică Anthropic să folosească aceleași fișiere piratate pentru a antrena modele noi sau să continue accesarea materialului original. Este un compromis pragmatic între tragerea la răspundere a Anthropic și evitarea unei sancțiuni care ar distruge complet compania.
Cerința de distrugere implică și provocări de conformitate. Anthropic trebuie să demonstreze că a distrus toate copiile fișierelor piratate și că nu mai există backup-uri sau copii secundare. Acest lucru necesită practici riguroase de gestionare a datelor și, posibil, verificare din partea unor terți. Probabil că acordul conține prevederi pentru audit și verificare, menite să asigure respectarea efectivă a cerinței, nu doar declararea ei formală.
Fondurile din acord vor fi distribuite „tuturor deținătorilor de drepturi legale sau de beneficiu privind dreptul exclusiv de a reproduce copii ale cărții în versiunile de pe LibGen sau Palei descărcate de Anthropic.” Această formulare este importantă pentru că înseamnă că banii ajung la titularii efectivi ai drepturilor de autor — autori, editori și alți deținători de drepturi — nu la un fond general sau către stat. Procesul de distribuire va fi probabil complex, necesitând identificarea tuturor titularilor pentru cele peste 500.000 de cărți și stabilirea compensațiilor corespunzătoare pentru fiecare.
Mecanismul de distribuție va implica, cel mai probabil, un proces de revendicare în care deținătorii de drepturi prezintă documente care atestă proprietatea asupra operelor incluse în datele de antrenament Anthropic. Acest proces ar putea dura ani de zile, administratorii având de procesat mii sau milioane de cereri. Unii deținători vor fi ușor de identificat — edituri mari, cu evidențe clare. În alte cazuri, identificarea va fi dificilă, mai ales pentru opere vechi, autori independenți sau unde drepturile s-au transferat de mai multe ori. Acordul va trebui să prevadă ce se întâmplă cu fondurile nerevendicate sau dacă nu pot fi găsiți deținătorii.
Structura de distribuție ridică și întrebări privind valoarea diferitelor opere. Ar trebui ca un roman bestseller să primească aceeași compensație ca un text academic obscur? Ar trebui compensația să depindă de valoarea de piață, de numărul de utilizări la antrenament sau de alt criteriu? Probabil că documentele acordului conțin reguli privind aceste aspecte, deși formula exactă de distribuție nu va fi publică. Cert este că acordul reprezintă un transfer semnificativ de valoare de la Anthropic către comunitatea creativă, recunoscând că titularii de drepturi merită compensații atunci când munca lor este folosită pentru antrenarea de modele AI comerciale.
Acordul Anthropic va avea implicații în întreaga industrie AI, influențând modul în care alte companii abordează achiziția de date și modul în care își gestionează expunerea legală. Mai multe companii AI importante se confruntă în prezent cu litigii privind drepturile de autor, iar acest acord va influența probabil acele cazuri. New York Times dă în judecată OpenAI pentru încălcări similare, suspectând practici de folosire a conținutului protejat fără permisiune pentru antrenarea modelelor. Acordul Anthropic stabilește că instanțele nu vor accepta argumentele privind folosința echitabilă atunci când companiile folosesc deliberat materiale piratate în scop comercial, ceea ce întărește semnificativ cazul New York Times.
Dincolo de litigiile în desfășurare, acordul va influența deciziile strategice privind achiziția de date. Companiile care au folosit date piratate sau cu proveniență incertă vor fi presate să-și auditeze practicile și, eventual, să încheie acorduri amiabile pentru a evita sancțiuni mai mari. Investitorii vor cere asigurări că datele folosite la antrenare sunt legal obținute și vor impune probabil declarații și garanții privind proveniența. Aceasta va duce la creșterea cerințelor de due diligence în investiții AI și ar putea încetini runde de finanțare, pe măsură ce investitorii investighează mai amănunțit practicile privind datele.
Acordul stabilește și un precedent privind calculul despăgubirilor. Suma de 1,5 miliarde de dolari pentru 500.000 de opere înseamnă aproximativ 3.000 de dolari per operă, mult peste despăgubirile statutare. Acest lucru setează așteptările pentru acorduri și hotărâri viitoare. Dacă alte companii vor fi acționate în justiție pentru practici similare, trebuie să se aștepte la despăgubiri de același ordin de mărime, ceea ce va clarifica expunerea financiară. Această realitate economică va determina companiile să folosească surse legitime, chiar dacă acestea sunt mai scumpe decât alternativele piratate.
Acordul Anthropic schimbă fundamental economia antrenării modelelor lingvistice mari. În trecut, companiile puteau accesa cantități enorme de date gratuit, folosind surse piratate. Acest lucru le dădea un avantaj față de companiile care licențiau conținutul în mod legitim. Acordul elimină acest avantaj, stabilind că sursele piratate nu sunt o opțiune viabilă. De acum înainte, companiile AI vor trebui să licențieze conținutul, ceea ce va crește semnificativ costul antrenării modelelor.
Gândește-te la scara datelor necesare pentru antrenarea unui model lingvistic mare. Modele precum Claude, GPT-4 și altele sunt antrenate pe sute de miliarde de tokeni text. Dacă firmele trebuie să licențieze aceste date, costurile pot ajunge cu ușurință la sute de
Anthropic, compania din spatele Claude AI, se confruntă cu un acord de 1,5 miliarde de dolari pentru descărcarea și folosirea de cărți piratate de pe site-uri precum Library Genesis pentru a-și antrena modelele AI fără permisiune. Instanța a decis că aceasta nu reprezintă folosință echitabilă, fiind cel mai mare acord privind drepturile de autor din istorie.
Da, Anthropic a descărcat intenționat cărți piratate din surse ilegale, dar a considerat că folosirea lor se încadrează la folosință echitabilă conform legii drepturilor de autor. Instanța a fost de altă părere, hotărând că această utilizare este 'în mod inerent și iremediabil încălcătoare', fără o apărare legitimă de tip folosință echitabilă.
Acest acord stabilește un precedent major: companiile AI nu pot folosi surse piratate pentru antrenarea modelelor și să revendice folosință echitabilă. Alte companii, precum OpenAI (acționată în instanță de New York Times), se vor confrunta probabil cu provocări legale similare, forțând industria să adopte surse de date licențiate și să plătească drepturi de conținut.
Nu, Anthropic nu trebuie să distrugă sau să reantreneze Claude. Totuși, trebuie să distrugă fișierele cu cărțile piratate în termen de 30 de zile de la hotărârea finală. Acordul restricționează folosirea viitoare a materialului piratat și include prevederi pentru situațiile în care Claude reproduce textual conținut protejat de drepturi de autor.
Pe măsură ce companiile AI trec la surse de date licențiate și trebuie să plătească pentru drepturile de conținut, costurile de antrenare a modelelor vor crește semnificativ. Acest lucru va duce probabil la prețuri mai mari pentru serviciile AI și la o valoare crescută pentru furnizorii de conținut licențiat, cum ar fi organizațiile media, editorii și platformele de conținut generat de utilizatori.
Arshia este Inginer de Fluxuri AI la FlowHunt. Cu o pregătire în informatică și o pasiune pentru inteligența artificială, el este specializat în crearea de fluxuri eficiente care integrează instrumente AI în sarcinile de zi cu zi, sporind productivitatea și creativitatea.
FlowHunt te ajută să gestionezi generarea de conținut AI și fluxurile de date asigurând respectarea cerințelor legale și a drepturilor de autor.
OpenAI și Microsoft sunt implicate într-o dispută de mare amploare privind clauza AGI din acordul lor de parteneriat. Această prevedere controversată ar putea l...
Explorează Ghidul KPMG pentru Riscurile și Controlul Inteligenței Artificiale—un cadru practic care ajută organizațiile să gestioneze riscurile AI în mod etic, ...
Explorați îngrijorările cofondatorului Anthropic, Jack Clark, despre siguranța AI, conștientizarea situațională în modelele lingvistice mari și peisajul de regl...
Consimțământ Cookie
Folosim cookie-uri pentru a vă îmbunătăți experiența de navigare și a analiza traficul nostru. See our privacy policy.


