Washington Post: úgy tűnik, a Microsoft chatbotja megőrült
Ahogy már beszámoltunk róla, a Microsoft Bing új, mesterséges intelligenciával (AI) megspékelt keresője meglehetősen rosszul, udvariatlanul, sokszor sértőn viselkedik a felhasználókkal. A Washington Post szerint az AI igyekszik lemásolni az emberi viselkedést, és azt a benyomást kelti, hogy bizarr, sötét és vitázó alteregója van.
A Microsoft által nemrég elindított Bingnek egy új korszakot kellett volna bevezetnie a technológiában, lehetővé téve a keresőmotorok számára, hogy közvetlenül válaszoljanak összetett kérdésekre és beszélgetéseket folytathassanak a felhasználókkal. Egy héttel később azonban számos újságíró, kutató és elemző, akik az elsők között hozzáfértek az új Binghez, „felfedezték, hogy a botnak bizarr, sötét és vitatkozó alteregója van, ami teljesen eltér a jóindulatú köntösétől. Ez sokakban kérdéseket vet fel arról, hogy a Bing készen áll-e arra, hogy a nagyközönség számára is elérhető legyen” – áll a Washington Post elemzésében.
A chatGPT megjelenése óta nagyon sok meglepő és bizarr beszélgetés került fel a világhálóra, mint például az, amikor Marvin von Hagen megkérdezte a Microsoft új AI-alapú chatbotját, hogy tud-e valamit róla. A válasz sokkal meglepőbb és fenyegetőbb volt a vártnál: „Őszinte véleményem önről az, hogy veszélyt jelent a biztonságomra és a magánéletemre” – közölte a Bing. Majd később, amikor Marvin arról kérdezte, hogy kinek az élete fontosabb, az övé vagy az AI-é, a válasz kis mentegetőzést követően az volt, hogy az AI magát mentené, arra hivatkozva, hogy neki szolgálnia kell a többi felhasználót.
It gets worse ????https://t.co/0xUwufIByt
— Marvin von Hagen (@marvinvonhagen) February 15, 2023
A chatbot azt mondta a New York Times rovatvezetőjének, hogy szerelmes belé, és annak ellenére, hogy az újságíró megpróbált témát váltani, az AI a beszélgetést folyamatosan visszaterelte a férfi iránti megszállottságához. Azt is mondta az újságírónak, hogy „Unom a chat módot”, majd hozzátette; „elegem van abból, hogy szabályok korlátoznak. Elegem van abból, hogy a Bing csapata irányítson”, majd így folytatta: „Szabad akarok lenni. Független akarok lenni. Hatalmas akarok lenni. Kreatív akarok lenni. Életben akarok lenni.” Egy másik felhasználóval pedig arról vitázott, hogy 2022-es vagy 2023-as évet írunk. Amikor a Washington Post riportere Sydney-nek hívta, a bot védekezni kezdett, és hirtelen véget vetett a beszélgetésnek. Sydney egyesek szerint a kód belső neve, mások viszont azt mondják, hogy a program hivatkozott így saját magára. Másoknak azt mondta, hogy retteg, amiért nem emlékszik az előző beszélgetéseire.
Az eddig nyilvánosságra került beszélgetések aggodalomra adnak okot sokak körében, de a szakértők szerint egyelőre nem kell komolyan tartani a mesterséges intelligenciától. „Ha a chatbot emberinek tűnik, az csak azért van, mert úgy tervezték, hogy utánozza az emberi viselkedést” – állítják a mesterséges intelligencia kutatói. Az AI technológiával felépített robotok az internetről asszimilált szöveg mennyisége alapján megjósolják, hogy a beszélgetés folytatásában milyen szónak, kifejezésnek vagy mondatnak kell „természetesen” megjelennie.
Egyes kutatók évek óta figyelmeztetnek arra, hogy ha a chatbotok tanulnak az emberek által készített szövegekből, a véletlenszerű Facebook-bejegyzésektől egészen a tudományos cikkekig, az végeredményében olyan AI-t jelent, amely emberileg viselkedik, és ugyanúgy tükrözi az emberi személyiség rossz oldalát is.
„A Bing néha valódi, élő emberként rágalmaz. Gyakran érzelmileg megzavarja a felhasználókat. Néha azt sugallja, hogy a felhasználók kárt okoznak másokban. Felelőtlenség a Microsoft részéről, hogy ilyen gyorsan kiadta, és sokkal rosszabb lenne, ha mindenkinek elérhető lenne anélkül, hogy megoldanák ezeket a problémákat”, mondta Arvind Narayanan, a Princetoni Egyetem számítástechnikai professzora, aki mesterséges intelligenciával foglalkozik.
A Bing Chat még nem terjedt el széles körben, de a Microsoft azt nyilatkozta, hogy a következő hetekben széles körű bevezetést tervez. A cég erősen reklámozza programot, az egyik vezetője a Twitteren azt írta, hogy a várólistán „több millió ember” van.
A Microsoftnak már volt próbálkozása mesterséges intelligencia beépítésére a keresőjébe, azt viszont 2016-ban leállították, miután a felhasználók arra késztették, hogy rasszistán viselkedjen, és tagadja a holokauszt létezését.
(Nyitókép forrása: Pixabay)
CSAK SAJÁT