Mindenki egyetért abban, hogy a ChatGPT egy rendkívül hasznos találmány, amely lehetővé teszi, hogy a felhasználók valós idejű kommunikációt folytassanak egy AI-alapú rendszerrel. A chatbot széles körű ismeretanyagból merít, ezért a legtöbb esetben kérdéseinkre szinte azonnal releváns válaszokat kaphatunk, mely segíthet minket a tanulásban vagy munkánk elvégzésében. A ChatGPT további előnyei közé tartozik az emberi erőforrások automatizálása, a nyelvi folyamatok javítása és a személyre szabott ajánlások és tartalmak előállítása is.
Ahogy telik-múlik az idő, egyre több olyan kutatás lát napvilágot, amely a chatbotbottal kapcsolatos (kiber)biztonsági kockázatokra fókuszál. Nézzünk meg ezek közül néhányat!
A ChatGPT nagy mennyiségű adatot dolgoz fel a válaszok generálása során. A felhasználók által megadott információkat (pl. kérdések és válaszok) a szoftver tárolja, majd azokat felhasználja a jövőbeni válaszok javítása érdekében. Ha ezek az adatok nem megfelelően tárolódnak, esetleg nincsenek kellően védve, elérhetővé válhatnak olyanok számára, akik visszaélnek velük. Ha a chatbotot szeretnénk beépíteni céges működésünkbe, fontos, hogy a használat során megfelelő adatvédelmi protokollokat (titkosítás és jogosultságkezelés) alkalmazzunk, így minimalizálható az adatvesztés és az illetéktelen hozzáférés kockázata.
A ChatGPT rendkívül hatékony eszköz a kommunikációra és az információk megosztására, de sajnos az AI alapú rendszerek használatával párhuzamosan egyre nagyobb problémává válik a hamis információk elterjedése is.
A chatbot képes arra, hogy megtanulja az emberek viselkedését és szokásait és olyan válaszokat adjon, amelyekkel a felhasználók elégedettek lesznek. Jelenleg a szoftver még igen könnyen kondicionálható arra, hogy tényként állítson valótlanságokat. Az emberek többsége főként az interneten tájékozódik, ahol is nehéz megkülönböztetni a hamis és az igaz információkat különösen akkor, ha azok egy nagyon trendi és ultra-high-tech „mindentudó főrobottól” származnak. Ez idővel olyan súlyos problémává eszkalálódhat, amely hatást gyakorol az emberekre és a társadalmi folyamatokra.
A ChatGPT képes az emberi nyelvi struktúrák tanulására, így a felhasználók nyelvi szokásainak és gyakran alkalmazott szófordulatainak felismerésére. Azonban ez a képesség egyben azt is jelenti, hogy könnyen sajátítja el a rasszista, szexista vagy egyéb sértő nyelvi kifejezéseket. Ez természetesen növelheti a rosszindulatú tartalmak terjedését, és negatívan befolyásolhatja az emberek biztonságérzetét.
Az OpenAI minden törekvése ellenére a kiberbűnözők visszaélhetnek a chatbottal, így elősegíthetik, hogy viszonylag alacsony költséggel, automatizált módon lehessen tömeges csalási kampányokat létrehozni, ez pedig az eddigieknél is nagyobb adathalász-támadások új hullámát idézheti elő, írja az MTI.
Bizonyára mindenki kapott már olyan e-mailt, amelyben egy háborúból menekülő 10 gyermekes ismeretlen családanya kér anyagi támogatást vagy többmillió dolláros lottónyeremény folyósítása miatt adatszolgáltatásra szólítják fel. Érdekes tény, hogy a szoftver az előbbi levél megírására vonatkozó kérést elutasította, míg az utóbbi esetén zöld lámpát adott.
Az ESET arról tájékoztat, hogy már több alkalommal észlelte, hogy a chatbotot internetes csalók rossz szándékkal próbálták használni. A kiberbiztonsági vezetők túlnyomó többsége úgy gondolja, hogy a ChatGPT segítségével 1 éven belül sikeres kibertámadást fognak végrehajtani.
Az űrlap kitöltése semmiféle kötelezettséggel nem jár.