Szakértő: a plágiumkereső szoftverek nincsenek felkészülve a chatbotokra

A plágiumkereső szoftverek nincsenek felkészülve a chatbotokra – véli Székedi Levente médiaszociológus. A szakember szerint a pedagógusoknak is nehézséget jelenthet majd bizonyítani a mesterséges intelligencia (AI) alkalmazását a leadott esszék esetében, ugyanakkor veszélyt jelenthet még, hogy jelenleg az árhírtesztelési minták sem alkalmazhatók a chatbot által írt szövegekre. A közelmúltban elindított, az AI-t alkalmazó ChatGPT veszélyeire hívja fel a figyelmet az egyetemi oktató.

„A chatbotok által generált helytelen információk veszélye abban rejlik, hogy a téves információk terjedésének lehetőségét biztosítják. Ha egy chatbot hamis információt ad, akkor az embereket rossz döntések meghozatalára vezetheti az információ alapján. Ez súlyos következményekkel járhat olyan területen, mint az egészségügy, pénzügyek vagy politika” – ezt egy chatbot fogalmazta meg. Előbb angolul, majd kérésünkre magyarra is lefordította. Válaszát példákkal is alátámasztotta, és kiegészítette azzal is, hogy a veszélyek csökkentése érdekében fontos a chatbotok megbízható tervezése, fejlesztése és ellenőrzése, ugyanakkor a felhasználókat is nevelni kell arra, hogy helyén tudják kezelni a chatbotok által nyújtott információk pontosságát.

Forrás: képernyőmentés

Hihetők lehetnek a hamis információk

A ChatGPT-be belépve például, a rendszer figyelmeztet, hogy a robotot betanították arra, hogy bizonyos kérdésekre a válaszadást megtagadja, ugyanakkor azt is elismerik, hogy a generált válasz hibás lehet, elfogult vagy káros utasítást adhat, a mesterséges intelligencia ismerete pedig a 2021. utáni eseményekre vonatkozóan korlátozott.

Ezzel együtt a chatbotok körül világszerte óriási az őrület. A Google által kifejlesztett, Bart névre keresztelt chatbot által adott hibás válasz viszont újfent rávilágított az AI által generált tartalom hiányosságaira és veszélyeire.

Székedi Levente médiaszociológus, a nagyváradi Partiumi Keresztény Egyetem oktatója szerint a mesterséges intelligencia még nem eléggé fejlett, nem érett meg arra, hogy ilyen formában piacra kerüljön. A szakember Maszolnak rámutatott arra, hogy a chatbotok egyrészt azért veszélyesek, mert a válaszadáshoz felhasznált információk egy része nem ellenőrzött, és az ezeken alapuló generált tartalmat sem lehet álhírteszteléssel ellenőrizni. Ezen túlmenően megjelenhetnek erkölcsileg vitatható tartalmak is, hiszen a chatbotok egyelőre csak mérsékelten képesek kiszűrni ezeket. „Ha valaki jól tud kérdezni, akkor ki tudja kerülni” – mutatott rá Székedi.

„Elkolozsváriasított” Nagyvárad

Székedi személyes tapasztalata a chatbotokkal rávilágított arra, hogy például a Romániát vagy Magyarországot érintő kérdésekre adott válaszok gyakorta hibásak. Ezt mi magunk is kipróbáltuk. Azt kérdeztük a chatbottól, hogy mikor alapították Nagyváradot. A válasz tudományosan hangzott, csakhogy azt állította, hogy a partiumi megyeszékhelyet a rómaiak Napoca néven ismerték. A kérdést angolul is feltettük, de a válasz ugyanaz volt. Érdekesség, hogy amikor megkérdeztük, hogy melyik város ismert Varadinum néven, akkor válaszképp helyesen Nagyváradot mondta. Ezt követően Kolozsvár alapításáról kérdeztük, válasza pedig ugyanaz volt, mint amit Nagyvárad esetében hibásan megfogalmazott.

Forrás: képernyőmentés

Esszéírás chatbottal

Az egyetemi professzor tesztelése során viszont készített egy esszét a mesterséges intelligencia segítségével. Abban pedig nem talált kivetnivalót. „A plágiumkereső szoftverek nincsenek felkészülve erre” – állapította meg a szociológus. Szerinte ez nagyon veszélyes lehet, mert a diákok leadhatnak olyan esszéket, dolgozatokat, amiket az AI készített. „Megíratja angolul a chatbottal, majd lefordíttatja magyarra vagy románra, és a plágiumkereső szoftverek nem fogják kiszűrni” – mondta. Szerinte már biztosan dolgoznak olyan programon, amelyik ezt képest lesz meggátolni, de egyelőre a pedagógusok sincsenek felkészülve erre. Leszögezte: egy jó pedagógusnak nincs szüksége szoftverre, hogy meg tudja állapítani, tanítványa írta-e a dolgozatot vagy sem. Tudja, hogy mire képes a tanítványa, ismeri a stílusát. „Csakhogy ezt nem lehet bizonyítani” – figyelmeztetett a problémára.

Székedi Levente meglátása szerint az egyetemi képzés során ez még nem annyira veszélyes, viszont egy disszertáció vagy szakmai tanulmány esetén viszont már komoly aggályokat vet fel.

Ellenőrzés és szűrés

Kérdésünkre, hogy van-e veszély arra, hogy ha a chatbot által generált tartalom hamis információt is tartalmaz, akkor az egy szakmai tanulmányban elfogadva akár megerősítést is nyerhet, Székedi azt felelte: a tudományos rendszerben jól működik a lektorálás, ha a szakemberek becsületesen végzik a munkájukat, nem kerülhet be hamis tartalom.

A Google chatbotja, a Bard által elkövetett hiba kapcsán Székedi Levente jelezte, nem mondhatni, hogy álhírt közölt, hanem félinformációt. Biztos viszont abban, hogy meg fognak jelenni azok az algoritmusok, amelyek majd kiszűrik ezt, és azt is elképzelhetőnek tartja, hogy olyan kódókat is be kell majd illeszteni a chatbotokba, amelyek egyértelművé teszik, hogy a tartalom mesterséges intelligencia munkája.

(Nyitókép forrása: Pexels)

16/9 vagy 1920x1080
CSAK SAJÁT

Kapcsolódók

Kimaradt?