David Sacks vádjai az Anthropic ellen: Az AI szabályozás és a startup ökoszisztéma vitája

okt 17, 2025 | Tech

David Sacks, a Fehér Ház mesterséges intelligencia „cárja” és ismert kockázati tőke-befektető, nemrégiben élesen bírálta az Anthropic nevű AI vállalatot. A vádak szerint az Anthropic egy „fejlett szabályozási elfoglalási stratégiát” folytat, amely félelemkeltésre épül, és ezáltal károsítja az amerikai startup ökoszisztémát.

A vádak háttere: Szabályozási stratégia és félelemkeltés

Sacks egy X-en (korábbi Twitter) megjelent posztjában azt állította, hogy az Anthropic „elsősorban felelős” az állami szintű szabályozási őrületért, amely hátrányosan érinti a feltörekvő technológiai vállalkozásokat. A kritika középpontjában az áll, hogy az Anthropic hogyan viszonyul az Egyesült Államok mesterséges intelligenciára vonatkozó törvényhozásához.

Anthropic válasza: Együttműködés és eltérő nézőpontok

Az Anthropic társalapítója, Jack Clark a Bloombergnek adott nyilatkozatában „zavarónak” nevezte Sacks támadását. Clark hangsúlyozta, hogy cégük számos területen „nagyon összhangban áll” a Biden-kormányzattal, ugyanakkor bizonyos kérdésekben „kissé eltérő nézeteket” vallanak. Ezeket a nézeteket mindig „tényalapú, tartalmas módon” képviselik.

Clark szerint furcsa, hogy mások nem teszik ugyanezt, ami szerinte inkább tükrözi az ország jelenlegi történelmi helyzetét, mintsem konkrét szakmai vitát.

A vita központjában: Kaliforniai Átláthatósági Törvény (SB53)

A konfliktus egyik fő oka az Anthropic támogatása a Kaliforniai Szenátus által elfogadott SB53 törvénynek. Ez a mérföldkőnek számító jogszabály átláthatósági követelményeket és bejelentővédelmi intézkedéseket ír elő az AI fejlesztők számára. A törvényt Gavin Newsom kormányzó írta alá 2023 szeptemberének végén, és 2026-ban lép hatályba.

A Bloomberg megjegyzi, hogy az Anthropic volt az egyetlen jelentős AI cég, amely nyíltan támogatta ezt a jogszabályt; míg például az OpenAI csak a törvény elfogadása után jelezte, hogy „elfogadhatónak tartja” azt.

Miért támogatta az Anthropic az SB53-at?

Clark elmondta, hogy cégük azért állt ki a kaliforniai törvény mellett, mert a szövetségi törvényhozók nem tudtak előrelépést elérni országos szinten. Egy egységes szövetségi szabvány lenne ideálisabb, de – mint fogalmazott – „a szövetségi kormányzat nem híres arról, hogy gyorsan haladna nagyobb politikai csomagokkal”.

Az Anthropic már korábban javasolt egy saját átláthatósági keretrendszert is, amelyet akár mintaként lehetne használni a szövetségi jogalkotáshoz. Clark X-en kifejtette, hogy egyszerű szabályokkal és bizonyos küszöbértékekkel, amelyek megvédik a startupokat, előnyös lehetne „az egész ökoszisztéma számára”.

A nyitottság előnyei a mesterséges intelligencia fejlesztésében

Clark szerint a legfejlettebb AI fejlesztések profitálhatnak abból, ha nagyobb átláthatóságot biztosítanak:

„Ez olyan lenne, mintha címkéket helyeznénk el az általunk használt AI termékeken – minden más termék esetében van ilyen címke: legyen szó élelmiszerről, gyógyszerről vagy repülőgépről. Miért ne lenne ez így az AI esetében is?”

A cél egy felelősségteljes innováció ösztönzése volt – miközben elkerülnék azt a fajta „reaktív, korlátozó szabályozási megközelítést”, amely sajnálatos módon megtörtént például a nukleáris ipar esetében.

Kitekintés: Mit jelent mindez a jövőre nézve?

A vita rávilágít arra a komplex kihívásra, amelyet a mesterséges intelligencia gyors fejlődése jelent mind technológiai vállalkozásoknak, mind pedig szabályozó hatóságoknak. Az olyan szereplők közötti nézetkülönbségek, mint David Sacks és Jack Clark között jól mutatják, hogy milyen nehéz megtalálni az egyensúlyt a biztonságos szabályozás és az innováció ösztönzése között.

A kaliforniai SB53 törvény példája pedig azt jelzi, hogy egyes államok már léptek előre abban, hogy átláthatósági követelményeket vezessenek be – még akkor is, ha ez nem minden piaci szereplő számára ideális megoldás.

Összegzés

  • David Sacks bírálja az Anthropicot szabályozási félelemkeltés miatt.
  • Anthropic támogatja Kalifornia SB53 törvényét átláthatósági és bejelentővédelmi intézkedésekkel.
  • A vita rávilágít arra a feszültségre, amely a gyors AI fejlődés és annak szabályozása között fennáll.
  • Az átláthatóságot elősegítő intézkedések célja a felelős innováció ösztönzése és a startupok védelme.
  • A jövőben várhatóan további viták és jogszabályi kezdeményezések lesznek ezen a területen.

Forrás: https://the-decoder.com/trumps-ai-advisor-accuses-anthropic-of-regulatory-capture/

Microdrama fogyasztás növekedése a közösségi média platformokon – Ampere Analysis jelentése

A rövid, maximum 10 perces, forgatókönyv alapján készült microdrama tartalmak iránti érdeklődés folyamatosan növekszik a közösségi média felületein. Ezt támasztja alá az Egyesült Királyságban működő kutatócég, az Ampere Analysis legfrissebb felmérése, amely szerint az...

Bloom Energy: Megbízható, környezetbarát energiatermelés az AI és adatközpontok korában

Az AI és adatközpontok növekedése új kihívásokat jelent az energiaellátásban. Az egyre nagyobb energiaigények gyakran túlterhelik a hálózatokat, ami kiszámíthatatlan áramszünetekhez vezethet. Ebben a helyzetben kulcsfontosságúvá válik a folyamatos, stabil...

Enshittification: Miért romlanak el a platformok és mit tehetünk ellene?

Enshittification – ez a kifejezés írja le azt a jelenséget, amikor egy digitális platform vagy szolgáltatás kezdetben kiváló felhasználói élményt nyújt, majd idővel egyre rosszabbá válik, miközben a felhasználók mégsem hagyják el azt. Ez a folyamat nemcsak a közösségi...

Kriptopiaci előrejelző piacok visszatérése az USA-ba a Trump család szerepvállalásával

Zach Hamilton, a kriptovaluta startup, a Sarcophagus alapítója egy WIRED-nek adott interjúban így fogalmazott: „Ha egyetlen okot kellene megnevezni, amiért a kriptopiaci előrejelző piacok visszatérhetnek az Egyesült Államokba, akkor az a Trump-adminisztráció.” Majd...

PFAS vegyi anyagok hatásainak vizsgálata egérmodellben – részletes kutatási összefoglaló

A per- és polifluoralkil-szubsztanciák (PFAS) környezeti és egészségügyi hatásai egyre nagyobb figyelmet kapnak a tudományos közösségben. Jelen cikkünkben egy átfogó kutatási projekt részleteit ismertetjük, amelyben PFAS-koktél expozíciót alkalmaztak Swiss CD1...

Strauss Zelnick véleménye az AI játékiparra gyakorolt hatásáról – Take-Two Interactive vezetője

Strauss Zelnick, a videojáték-kiadó Take-Two Interactive vezérigazgatója nem tartja magát az mesterséges intelligencia (AI) ígéreteinek kételkedőjének, ugyanakkor óvatosan nyilatkozott az AI jelenlegi hatásairól a játékfejlesztés és -gyártás területén. A „Grand Theft...

Direct Primary Care: Az új egészségügyi modell, ami forradalmasítja a betegellátást

Bangor, Maine városában Geoff Clarke egy olyan élményről számolt be legutóbbi egészségügyi vizsgálatával kapcsolatban, amely sok amerikai számára szinte elképzelhetetlen: magas szintű elégedettségről és dicséretől. "Ha álmodban csinálnád, pontosan olyan lenne, mint az...

Lindsey Graham kínos Siri-incidense és a kormányzati leállás helyzete az Egyesült Államokban

Lindsey Graham, Dél-Karolina republikánus szenátora, egy váratlan technikai baki miatt került a figyelem középpontjába az Egyesült Államok Capitoliumában. A jelenleg közel egy hónapja tartó kormányzati leállás közepette, amikor a kongresszus tagjai egyre...

LinkedIn adatgyűjtési változások: hogyan védd meg profilodat az AI képzésétől?

LinkedIn nemrégiben bejelentette, hogy 2025. november 3-tól jelentős változtatásokat vezet be adatfelhasználási szabályaiban, amelyek érintik az Európai Unió, az EGT, Svájc, Kanada és Hongkong felhasználóit is. Ha eddig azt gondoltad, hogy ezekben a régiókban...

Ben Stiller véleménye a „nepo baby” kifejezésről és a sztárgyerekek valósága

Ben Stiller, a világhírű színész és rendező nemrégiben a „The Howard Stern Show” vendégeként osztotta meg gondolatait a „nepo baby” kifejezésről, amely azokra a hírességek gyermekeire utal, akik szüleik nyomdokaiba lépve válnak maguk is ismertté. A „nepo baby”...