Így korlátozza a Wikipédia az AI szövegek generálását

Bár a Wikipédiát még ma is gyakran szokás leszólni, de a 2000-es évek korai internetének egyik legjobb és leghasznosabb találmánya. Az ingyenes, mindenki által szabadon hozzáférhető digitális enciklopédia rossz hírneve talán abból a tévhitből ered, hogy bárki bármit írhat rá és bele, ami valójában csak részben igaz.

Bár tényleg bárki szerkeszthet és írhat Wikipédia-szócikket, de azok hitelességét az enciklopédia alkalmazott, válogatott adminjai és szerkesztői rendszeresen ellenőrzik, így kiszűrve a fals, hamis, téves, esetleg megvezető szándékú infókat. Így a Wikipédia jelenleg a modern internet egyik legbiztonságosabb helye, aminek értékét az AI-nak csúfolt LLM-modellek növelik csak igazán.

Az olyan programok, mint a ChatGPT vagy a Gemini nagy nyelvi modellek híresen hírhedtek a megbízhatatlanságukról. Válaszadási kényszerűségből bármit képesek összehazudni még akkor is, ha az interneten több tucat elérhető forrás volna ennek elkerülésére. A probléma ezzel az ellenőrizhetetlenség; ha egy LLM „hazudik”, hallucinál, vagy szimplán csak úgy tesz, mintha valid infókat gyűjtött volna, csak akkor derül ki, ha a felhasználó arra külön felhívja a figyelmét. Ebből pedig egy másik probléma ered: az ember gyakran olyan dolgokat kérdez az LLM/AI-tól, amikre ő maga nem tudja a választ, ezért a legtöbb AI-hazugság simán átmegy az emberi szűrőn.

De nem úgy a Wikipédián!

A Wikipédia ugyanis mostantól szigorúbban veszi az LLM-programok használatát. Az AI-ra vonatkozó új szabályzást az enciklopédia szerkesztői szavazták meg, akik egyöntetűen jelezték, hogy nem szeretnének mesterségesen generált tartalmat felengedni az oldalra. Ez alól két kivétel van: az LLM-eket továbbra is használhatják fordításra, valamint nyelvhelyesség ellenőrzésére, de szócikkeket, vagy akár egyszerű mondatokat tilos vele legenerálni – de legalábbis nem publikálható.

„A szerkesztők számára megengedett az LLM-ek használata saját írásaik alapvető nyelvi javítására, és ezek egy részének beépítése emberi ellenőrzés után, feltéve, hogy az LLM nem visz be saját tartalmat” – áll az új irányelvben. „Óvatosságra van szükség, mert az LLM-ek túlléphetnek azon, amit kérnek tőlük, és úgy változtathatják meg a szöveg jelentését, hogy azt a hivatkozott források már nem támasztják alá.”

Az új irányelv abszolút támogatandó, de csak a Wikipédia megbízhatóságát növeli, az egyre terjedő AI-lázra aligha szolgál orvossággal. A BBC szerint például a ChatGPT-t már tavaly jelentősen többen használták alapvető információk keresésére, mint a Wikipédiát – annak ellenére, hogy az OpenAI fejlesztése köztudottan gyakran vezeti félre a felhasználóját.

Betöltés...
Keresés
Keresés