Nemrégiben Olaszországban nyaraltam, és mint manapság sokan, az utazási tervemet átnézettem a GPT-5 mesterséges intelligenciával, hogy ajánljon látnivalókat és éttermeket. A chatbot szerint a legjobb vacsorahelyszín a római szállodánk közelében, egy rövid sétára a Via Marguttán található Babette étterem volt. Ez az élmény az egyik legemlékezetesebb étkezésem lett.
Hogyan választotta ki az AI a Babette éttermet?
Hazatérve megkérdeztem a modellt, hogyan jutott erre a döntésre – amit most nem szeretnék teljesen felfedni, hiszen előfordulhat, hogy még visszatérek, és asztalt szeretnék foglalni. Az étterem neve: Babette. Érdemes előre foglalni.
A válasz összetett és lenyűgöző volt. A választás alapját több tényező adta:
- Helyiek lelkes értékelései, amelyek hiteles visszajelzést nyújtanak.
- Gasztronómiai blogok és olasz sajtóban megjelent ajánlások, amelyek megerősítették az étterem hírnevét.
- A római és kortárs konyha különleges kombinációja, amely egyedi kulináris élményt kínál.
- A rövid séta távolsága, ami kényelmes elérhetőséget biztosított.
Azonban tőlem is elvárt valamit: bizalmat. El kellett hinnem, hogy a GPT-5 elfogulatlan közvetítőként működik, nem szponzorált tartalmat mutat nekem, és nem részesül jutalékban az étterem forgalmából. Bár mélyreható kutatást is végezhettem volna (meg is néztem az étterem weboldalát), az AI használatának lényege éppen az ilyen akadályok áthidalása.
Az AI iránti bizalom erősödése és a jövő kérdései
Ez a tapasztalat megerősítette bennem az AI-alapú ajánlások megbízhatóságába vetett hitet, ugyanakkor elgondolkodtatott egy fontos kérdésen: ahogy olyan cégek, mint az OpenAI egyre nagyobb hatalomra tesznek szert, és igyekeznek megtéríteni befektetőik költségeit, vajon nem fenyegeti-e az AI-t is ugyanaz az értékromlás, amely napjaink technológiai alkalmazásait jellemzi?
Az „enshittification” fogalma – amikor a platformok elárulják felhasználóikat
A szerző és technológiai kritikus Cory Doctorow nevezte el ezt a folyamatot „enshittification”-nek (magyarul talán leginkább „lebutításnak” vagy „értékromlásnak” fordítható). Doctorow szerint olyan platformok, mint a Google, Amazon, Facebook vagy TikTok eredetileg azért jöttek létre, hogy felhasználóikat szolgálják, azonban miután kiszorították versenytársaikat, szándékosan kevésbé hasznosakká válnak annak érdekében, hogy nagyobb profitot termeljenek.
Ezt a jelenséget 2023-ban az Amerikai Dialektus Társaság az év szavának választotta. Doctorow 2022-es esszéje óta a kifejezés széles körben ismertté vált – még olyan fórumokon is megjelenik, ahol korábban kerülték volna ezt a szóhasználatot. Nemrég pedig Doctorow megjelentette témába vágó könyvét is, amelynek borítóján egy jól ismert emoji látható… találja ki melyik!
Milyen veszélyeket rejt az AI „lebutítása”?
Ha a chatbotok és AI ügynökök is átesnek ezen az értékromláson, akkor ez sokkal súlyosabb következményekkel járhat, mint amikor például a Google keresője kevésbé lesz hasznos vagy az Amazon találati listái reklámokkal telnek meg. Az AI ugyanis egyre inkább mindennapi társunkká válik: egyszerű válaszokat ad kérdéseinkre, segít eligazodni aktuális eseményekben vagy vásárlási döntésekben – sőt akár életvezetési tanácsokat is ad.
A teljes értékű AI modellek fejlesztése hatalmas költségekkel jár, ezért várhatóan csak néhány nagyvállalat fogja uralni ezt a területet. Ezek mind százmilliárdokat terveznek befektetni modelljeik fejlesztésébe és minél szélesebb körű elterjesztésébe. Jelenleg úgy tűnik, hogy az AI még mindig abban a fázisban van, amit Doctorow „a felhasználók javára” időszaknak nevez. Ám hatalmas nyomás nehezedik ezekre a cégekre, hogy megtérítsék beruházásaikat – különösen azoknál, ahol a felhasználók gyakorlatilag „bezárva” vannak egy adott platformra.
Ezek a körülmények lehetőséget teremtenek arra, hogy a vállalatok visszaéljenek felhasználóikkal és üzleti partnereikkel annak érdekében, hogy minden értéket magukhoz ragadjanak – írja Doctorow.
Az első jelek: reklámok és fizetett ajánlások megjelenése
Amikor elképzeljük az AI „lebutítását”, elsőként talán az reklámok megjelenése jut eszünkbe. A legrosszabb forgatókönyv szerint az AI modellek olyan ajánlásokat adnának majd, amelyek mögött fizetett helyezések állnak – vagyis nem feltétlenül azt javasolják majd nekünk elsőként, ami valóban számunkra a legjobb.
Bár ez még nem történt meg széles körben, maga az AI-ipar aktívan vizsgálja ezt a lehetőséget. Egy nemrégiben adott interjúban Sam Altman, az OpenAI vezérigazgatója így nyilatkozott: „Úgy gondolom, valószínűleg létezik valamilyen menő reklámtermékünk, amely mindenkinek előnyös lehet: egyrészt pozitív hatással lenne a felhasználókra, másrészt erősítené kapcsolatunkat velük.”
Eközben az OpenAI bejelentette együttműködését a Walmart áruházzal: ennek keretében a vásárlók közvetlenül ChatGPT alkalmazáson belül intézhetik vásárlásaikat – ami könnyen konfliktusforrás lehet.
Átláthatóság és bizalom: hogyan kezelik ma ezt az AI platformok?
Például a Perplexity nevű AI keresőplatform már működtet egy programot, ahol szponzorált eredmények jelennek meg – de ezek mindig egyértelműen meg vannak jelölve következő válaszként. A cég ígérete szerint ezek a hirdetések nem változtatják meg elkötelezettségüket amellett, hogy megbízható szolgáltatást nyújtsanak közvetlen és elfogulatlan válaszokkal.
Összegzés
A mesterséges intelligencia rohamos fejlődése új lehetőségeket teremt mindennapi életünkben – legyen szó utazási tanácsokról vagy vásárlási döntésekről. Ugyanakkor fontos tudatosítani annak kockázatait is: ahogy egyre kevesebb cég uralja ezt a piacot és növekszik bennük a profitkényszer, fennáll annak veszélye is, hogy ezek az eszközök elveszítik valódi értéküket és elfogulatlanságukat.
Az „enshittification” jelenségének felismerése segíthet abban, hogy tudatosabbak legyünk AI használatakor – így továbbra is élvezhetjük annak előnyeit anélkül, hogy áldozatul esnénk egy esetleges értékromlásnak vagy manipulációnak.
Forrás: https://www.wired.com/story/can-ai-escape-enshittification-trap/