Hírek
2025. Február 16. 11:26, vasárnap |
Helyi
Forrás: hirado.hu
Ha valami túl szép, hogy igaz legyen, akkor az nem igaz
![Ha valami túl szép, hogy igaz legyen, akkor az nem igaz](/external/image_cache/1/1/3/1132351b18452440a4a4e9120cef27fc.jpg)
A mesterséges intelligencia (MI) rohamos fejlődése nem csupán a technológiai innovációk terén hozott forradalmat, hanem alapjaiban rengette meg a valóság és a manipuláció közötti határokat.
Az MI által generált képek, videók és hangfelvételek egyre kifinomultabbak, megnehezítve azok felismerését. A helyzet olyan mértékű, hogy sokszor nehéz megkülönböztetni az emberi kéz által készített tartalmakat az MI révén manipuláltaktól. Keleti Arthur kibertitok-jövőkutató, az informatikai biztonság napja alapítója a hirado.hu megkeresésére válaszolt az MI-manipulációval kapcsolatban, és rávilágított arra, hogy a problémák megoldása nem olyan egyszerű, mint amilyennek tűnik.
Tömegek osztották meg a kaliforniai tűzvész idején elterjedt lángoló Hollywood feliratról készült videót, amiről utólag kiderült, hogy mesterséges intelligencia készítette és köze nincs a valósághoz. Ebből is látszik, hogy mesterséges intelligencia által generált tartalmak felismerése egyre nagyobb kihívást jelent, és fontos téma, amiről beszélni kell.
Az MI által manipulált képek és videók nem csupán a felismerés szempontjából jelentenek problémát, hanem komoly hatást gyakorolnak a közvéleményre is. A nemrégiben történt kaliforniai tűzvész idején a közösségi médiát elárasztották az MI által generált képek, amelyek a híres hollywoodi feliratot lángokban ábrázolták. Azok a felvételek, amelyeket a közösségi médiában elterjesztettek, sokakat félrevezettek, annak ellenére, hogy a Hollywood Sign Trust elnöke, Jeff Zarrinnam is megerősítette, hogy a felirat érintetlen maradt.
Bár az arckifejezések apró hibái, a szemek természetellenes csillogása vagy a szájmozgás eltérései árulkodó jelek lehetnek, ezek az anomáliák sokszor csak alapos vizsgálattal fedezhetők fel, és még nehezebb a helyzet, ha nincsen élő ember a videón, a szóban forgó tűzesetnél.
Keleti Arthur szerint az MI-rendszerek ma már gyakran önfejlesztő képességekkel rendelkeznek, így amit ma még biztos módszernek tartunk az ilyen tartalmak felismerésére, az holnapra már elavulttá válhat. Az MI folyamatos fejlődése lehetővé teszi, hogy ezek a rendszerek önmagukat javítsák és tökéletesítsék, így egyre nehezebb megkülönböztetni az ember által létrehozott tartalmakat a mesterséges intelligencia révén generált vagy manipulált anyagoktól.
A kibertitok-jövőkutató azt is kiemelte, hogy az ilyen tartalmak felismeréséhez a fogyasztók körülményei és a fogyasztás helyszínei is lényegesek.
„Ha én itthon, kényelmesen ülök a tévém előtt, és kávézgatok, akkor talán észreveszem, ha manipulált tartalommal találkozom. De, amikor éppen utazom a tömegközlekedésen, és a mobiltelefonom képernyőjén nézem, nem biztos, hogy észre fogom venni” – mutatott rá Keleti Arthur.
A hollywoodos videó esetében az árulkodó jelek között szerepel például a tűz természetellenes viselkedése. Egy valódi tűz lángjai alulról indulnak és felfelé vékonyodnak, a szél és a környezeti hatások befolyásolják alakjukat. Ezzel szemben az MI által generált képeken a tűz nyalábjai gyakran nem kötődnek semmilyen valós égési ponthoz, és ez árulkodó jel lehet.
Fontos lenne, hogy a felhasználók ellenőrizzék az általuk látott tartalmak forrását, azonban sokakat ez nem érdekel, és nem mindenki tényfeltáró újságíró – ahogyan arra Keleti Arthur is rámutatott. Ez pedig azt eredményezi, hogy a manipulált tartalmak ellenőrzés nélkül terjedhetnek tovább, jelentős hatást gyakorolva a társadalomra, sőt az ilyen tartalmak virális terjedése miatt prioritást élveznek a legtöbb közösségi média felületen, tehát gyorsabban terjednek, mint az unalmas valóság.
Veszélyes politikai vetület
Nemrégiben egy másik rendkívül aggasztó eset látott napvilágot, amely jól példázza, hogyan képes az MI manipulálni a politikai közbeszédet és választási folyamatokat. A New Hampshire-i demokrata előválasztáson egy hamis hangfelvételt használtak fel Joe Biden hangjának utánzására, hogy elriasszák a választókat a részvételtől. A manipulált tartalmat mindössze 20 perc alatt készítette el egy technológiai szakember, Stewe Kremer. A cél világos volt: dezinformációval befolyásolni a választási döntéseket és megingatni a politikai bizalmat.
Ez az eset jól mutatja, milyen könnyen áshatják alá az MI-alapú technológiák a politikai rendszert. A hamisított videók és hangfelvételek a választások kimenetele szempontjából is veszélyes fegyverek lehetnek. Az ilyen manipulációk gyorsan elérhetik a politikai közvéleményt, és komoly hatással lehetnek a demokrácia működésére.
A dezinformáció terjedése és a politikai manipuláció már nem csak egy távoli fenyegetés, hanem a valóság részévé vált.
A bidenes esettel szemben Donald Trump pont hogy MI-alapú deepfake-videókkal próbál szórakoztatni az X-en, kihasználva a mémkultúra erejét. Trump rendkívüli érzékkel használja a közösségi médiát, hogy szórakoztató, de figyelemfelkeltő módon népszerűsítse üzeneteit. Az ilyen típusú tartalmak gyorsan virálissá válhatnak, és széles közönséget elérhetnek, míg az MI-manipuláció a szórakoztatás eszközeként új kihívásokat teremt a társadalom és a jogalkotók számára. Ahogy az MI-technológia fejlődik, úgy egyre fontosabbá válik, hogy hogyan kezeljük ezt az új típusú szórakoztatást, hogy elkerüljük a társadalmi és politikai következményeket.
Jogi szabályozásra lenne szükség
Bár a közösségimédia-platformokon már beépített MI-manipulációszűrők és felismerő rendszerek működnek, ezek nem biztos, hogy elegendők ahhoz, hogy a manipulált tartalmak megtévesztő hatását megfelelően korlátozzák. Jelenleg vannak olyan esetek, amikor a közösségi média és az MI-cégek saját önszabályozásukkal próbálják kezelni ezt a problémát, de még nincs olyan törvényes szabályozás, amely képes lenne teljes mértékben visszaszorítani a manipulált tartalmak elterjedését az EU szabályozási keretein kívül, amely már létezik. A hatályos törvények természetesen tiltják az emberek szándékos manipulációját, de az ilyen tartalmak sokszor szürke zónákban, nem pontosan definiált szabályozási környezetbe kerülnek, ezért sokszor csak a jéghegy csúcsát kezelik például a terrorista vagy drog propaganda esetében.
Keleti Arthur szerint a megfelelő védelmet nemcsak a törvények biztosíthatják, hanem sokkal inkább a társadalmi nyomás, amely bizonyos területekre irányul. Véleménye szerint a hatékony fellépéshez nem egyetlen technológiai megoldásra van szükség, hanem számos szereplő összefogására. Az igazi változást akkor tapasztalhatjuk meg, ha személyesen érintetté válunk, például amikor a saját gyermekünk hangját generálják le, és visszaélnek vele, hiszen ilyen eseteknél már lehetséges egy társadalmi szintű összefogás és tüntetés a manipuláció visszaszorítására.
Tudatos médiafogyasztóknak kell lennünk
Az MI-manipulációk terjedésével kapcsolatban Keleti Arthur hangsúlyozza, hogy bár léteznek kezdeményezések a hamisított tartalmak felismerésére, nem lesz olyan egyszeri megoldás, amely végleg megszünteti a problémát.
„Lehetséges, hogy lesz olyan MI, amely felismeri az összes manipulált tartalmat, de nem lesz olyan, hogy egyszer csak vége, mert egyetlen MI megoldja az összes problémát” – fogalmazott. Keleti Arthur arra is figyelmeztet: „Ha valami túl szép, hogy igaz legyen, akkor az nem igaz.”
Ahhoz, hogy a társadalom ne essen áldozatul a manipulációknak, elengedhetetlen a tudatosság növelése és az emberek felelősségteljes információfogyasztása. Ha az emberek egyszer képesek lesznek felismerni a különböző online csalásokat, előbb-utóbb azt is megértik, hogy nemcsak az üzenetek és hívások, hanem a képek és videók is manipuláltak lehetnek. Ez ellen hatékony eszköz lesz a személyes és mobil eszközökbe, számítógépekbe épített MI aszisztensek segítsége, amelyek részben automatikusan védik meg a felhasználókat. A jövőben a technológia fejlődése újabb kihívásokat jelent majd, de a közösség összefogásával és a megfelelő szabályozásokkal képesek lehetünk minimalizálni a mesterséges intelligencia által generált hamis információk káros hatásait.
A kiemelt kép illusztráció.
Ezek érdekelhetnek még
2025. Február 18. 14:27, kedd | Helyi
Emlékezzünk közösen a kommunista diktatúrák áldozataira
Kiskunfélegyháza Város Önkormányzata szeretettel vár minden megemlékezőt 2025. február 25-én (kedden) 11 órakor a vasútállomás előtti téren lévő Návay Lajos-emlékműnél.
2025. Február 17. 08:36, hétfő | Helyi
A Vasas pálya újjászületik Félegyházán
2025. Február 17. 08:17, hétfő | Helyi
Meglepő tények a szteroidok hatásáról: meddig tart és mire számíthatunk?
Fájdalomcsillapításra és gyulladáscsökkentésre is gyakran alkalmaznak szteroidokat, ugyanis viszonylag gyorsan hatnak és nagyfokú a hatékonyságuk.
2025. Február 16. 09:21, vasárnap | Helyi
Csendes téli idő: borult vasárnap után fagyos, derült éjszaka jön
Vasárnap döntően borult időre számíthatunk. Csapadék nem lesz. Az szél gyenge marad.