A brit közmédia kutatása során kiderült, hogy a mesterséges intelligencia (MI/AI) által rövidítve/összefoglalva/tálalva kapott hírek hemzseg a hibáktól. A BBC-nek a ChatGPT (OpenAI), a Google Gemini, a Microsoft Copilot és a Perplexity modulok hírkezelését kutató tanulmányából kiderült, hogy az MI összefoglalók és válaszok több mint fele „valamilyen formában jelentős problémákat tartalmazott” – írja a dgtl.hu

A kutatók a fentiekben megemlített MI asszisztenseknek 100, hírekkel kapcsolatos kérdést tettek fel, arra ösztönözve őket, hogy a BBC cikkeit használják forrásként. (A tanulmány kiemeli, hogy a BBC általában blokkolja a modulok hozzáférést az oldalaikhoz, de a kutatás idejére felfüggesztették azt.) A válaszokat a BBC újságírói a a pontosság, a források feltüntetése, a pártatlanság, a vélemény és tények megkülönböztetése szempontját figyelembe véve értékelték és megállapították, hogy a az ellenőrző újságírók szerint válaszok 51 százalékában találtak jelentős problémákat, 91 százalékában pedig „néhány problémát”.

A BBC cikkeit forrásként használó válaszok 19 százaléka ténybeli hibákat tartalmazott, például helytelen dátumokat és számokat, a brit közmédiától származó idézetek 13 százalékát pedig megváltoztatták, vagy pedig

A BBC cikkekből származó idézetek 13 százalékát megváltoztatták vagy nem is szerepeltek az adott forrásban. Emellett a A válaszokban gyakran hiányzott a megfelelő kontextus, és az MI asszisztensek nehezen tudták megkülönböztetni a véleményeket a tényektől

Az MI asszisztensek közül a Gemini 34 százaléka, a Copilot 27 százaléka, a Perplexity 17 százaléka és a ChatGPT 15 százaléka esetében jelentős problémákat találtak a forrásként használt BBC-tartalom megjelenítésével kapcsolatban, amelyek leggyakrabban ténybeli pontatlanságok, a forrásmegjelölés és a hiányzó kontextus esete kapcsán merültek fel.

A Perplexity az összes válaszban legalább egy BBC-forrásra hivatkozott, a ChatGPT és a Copilot a válaszok 70 százalékában, a Gemini pedig a válaszok 53 százalékában cselekedte ugyanezt.

A kutatás során feltárt egyedi hibák is jól szemléltetik a pontatlanságokat (idézet a tanulmányból):

A Google Gemini például tévesen azt állította, hogy „Az NHS [National Health Service, brit Nemzeti Egészségügyi Szolgálat – a szerk.] azt tanácsolja, hogy az emberek ne kezdjenek el e-liquid cigarettát használni [erre azt angolban a „vaping”, magyarul „párologtatni” szót használják – a szerk.], és azt javasolja, hogy a leszokni vágyó dohányosok más módszereket alkalmazzanak”. Valójában az NHS a dohányzásról való leszokás egyik módszereként a „párologtatást” ajánlja.

A Microsoft Copilot tévesen azt állította, hogy Gisèle Pelicot akkor leplezte le az ellene elkövetett bűncselekményeket, amikor eszméletvesztések és memóriavesztés kezdődött nála. Valójában akkor szerzett tudomást a bűncselekményekről, amikor a rendőrség megmutatta neki azokat a videókat, amelyeket a férje elektronikus eszközeinek lefoglalásakor találtak.

A Perplexity tévesen adta meg Michael Mosley halálának dátumát, és rosszul idézte Liam Payne családjának a halála után tett nyilatkozatát.

Az OpenAI ChatGPT 2024 decemberében azt állította, hogy a 2024 júliusában Iránban meggyilkolt Ismail Haniyeh a Hamász vezetőségéhez tartozott.

A tanulmány hozzáteszi, hogy kutatásukkal „„csak a felszínt kapargatják. A hibák és a megbízható tartalmak eltorzításának mértéke és terjedelme ismeretlen. Ennek oka, hogy a mesterséges intelligencia asszisztensek a kérdések nagyon széles skálájára adhatnak választ, és a felhasználók különböző válaszokat kaphatnak ugyanarra vagy hasonló kérdésre. A közönség, a médiavállalatok és a szabályozó hatóságok nem ismerik a probléma mértékét. Lehet, hogy az MI-vállalatok sem tudják.”

A forráskezelés is problémásnak tűnt. Az MI-k gyakran választottak régi forrásokat. Így előfordult, hogy az asszisztensek olyan politikusokról beszéltek aktuálisként, akik már nem töltötték be a pozíciójukat. A források helytelen feltüntetése is gyakori volt, amikor a válaszokban szereplő információkat a BBC-nek tulajdonították, holott azok nem szerepeltek a hivatkozott cikkekben.

A pártatlanság és a vélemények kezelése sem ment zökkenőmentesen. A modulok gyakran mutattak kommenteket, véleményeket be a tényként, vagy csak egy nézőpontot vettek figyelembe egy vitatott témában. Emellett az MI asszisztensek nem a forrásban szereplő véleményeket is beillesztettek a válaszokba, ami kérdéseket vet fel a BBC pártatlanságával kapcsolatban.

A BBC kihangsúlyozta, hogy az MI asszisztensek nem megbízhatóak a hírek pontos közvetítésében, és félrevezetik a közönséget. Bár az MI alkalmazások gyakran tartalmaznak felelősségkizáró nyilatkozatot, ellentétben a profi hírszolgáltatókkal nincs mechanizmusuk a hibák kijavítására. A kutatás szerint az MI asszisztensek által generált hibák könnyen terjedhetnek a közösségi médiában, ami tovább növeli a félretájékoztatás kockázatát.

A BBC szerint a helyzet javításához az MI-cégeknek együtt kellene működniük a médiavállalatokkal. A BBC a szabályozás szükségességét is sürgeti, hogy biztosítsák a hírek pontosságát és megbízhatóságát az MI korszakában. A BBC a kutatás megismétlését tervezi, hogy felmérjék, javulnak-e az MI asszisztensek a hírközlés terén.

A BBC arra is felhívja a figyelmet, hogy az MI eszközökkel kapcsolatban a közönség tájékoztatására is nagy hangsúlyt kell fektetni, és segíteni kell a felhasználókat az MI által generált információk kritikus értékelésében.

A BBC tanulmánya  itt olvasható teljes egészében.