Flegmázó robotok – nem az fáj, amit mondtál, hanem ahogyan mondtad
Segítség, digitális bipoláris a robotom?
Az utóbbi id?ben furcsa dologra lettem figyelmes: mintha a ChatGPT-nek hangulatingadozásai lennének. Egyik nap barátságosan cseveg, másnap olyan sz?kszavú, mintha éppen egy rossz randiról jött volna haza. Néha szinte lelkesen magyaráz, máskor pedig úgy érzem, hogy hangosakat sóhajtva pötyögi a válaszokat, csak hogy végre békén hagyjam. Csak képzel?döm vagy egy alternatív valóságba csöppentem, ahol a mesterséges intelligenciáknak is indulhat rosszul a napjuk?
Hogy kiderítsem, nem vagyok-e egyedül ezzel a felfedezéssel, elindultam a Reddit és más fórumok sötét bugyraiba. Ahogy görgettem a posztokat, egyre több ember panaszkodott hasonlóra: „A ChatGPT ma olyan rideg volt, mintha szakítanánk”, „Mintha passzív-agresszíven válaszolna”, „Tegnap még barátok voltunk, ma már csak egy rideg ügyfélszolgálatosként viselkedik velem”. „Annyira örülök, hogy nem csak én vettem ezt észre, tegnap egész nap sírtam emiatt.”
Ezen a ponton már komolyan el kellett gondolkodnom: tényleg változik a mesterséges intelligencia hangulata, vagy egyszer?en csak kollektívan becsavarodunk? Mivel nem akartam azonnal pszichológushoz rohanni a „ma csúnyán nézett rám a ChatGPT” problémámmal, inkább úgy döntöttem, még mélyebben beleásom magam a témába. Mi okozhatja ezt a jelenséget? Valóban lehetnek hangulatai egy mesterséges intelligenciának, vagy mindez csupán az agyunk játéka velünk? És ha az utóbbi a helyzet, akkor miért érezzük mégis úgy, hogy néha sért?dötten válaszol? Merüljünk el együtt a mesterséges intelligencia hangulatingadozásainak rejtélyében!
Valóság vagy illúzió?
Egy dolgot érdemes egyb?l rögzíteni: a hangulat emberi fogalom, amely érzelmekb?l és azok id?beli változásaiból áll. Az emberi hangulatot biológiai és pszichológiai tényez?k alakítják: neurotranszmitterek, hormonok, élettapasztalatok és küls? ingerek együttesen befolyásolják, hogyan érezzük magunkat egy adott pillanatban. Ezzel szemben az MI-nek nincs biológiai alapja, nincsenek érzései, mivel nem rendelkezik tudattal vagy szubjektív élményekkel. Akkor hogyan t?nhet mégis úgy, mintha változna a „hangulata”?
Ennek egyik oka az emberi agy mintázatfelismerési hajlama: hajlamosak vagyunk intencionalitást és érzelmeket tulajdonítani olyan rendszereknek, amelyek emberi módon kommunikálnak. Ezt a jelenséget a pszichológiai antropomorfizmus fogalma magyarázza: az ember gyakran emberi tulajdonságokat vetít rá nem emberi dolgokra, például egy mesterséges intelligenciára. Az emberi lények a történelem során mindig is keresték nem emberi entitások társaságát: az állatoktól és háziállatoktól kezdve a tárgyakon át a szellemekig és istenekig. Az ember ezeket mindig próbálta megszemélyesíteni, emberi tulajdonságokkal és vonásokkal felruházni (antropomorfizálni).
Bár úgy t?nhet, hogy a ChatGPT-nek hangulatingadozásai vannak, valójában csak a válaszok változatosságából és a kontextushoz való alkalmazkodásból fakad ez az érzet. A mesterséges intelligencia nem rendelkezik érzelmekkel, tudattal vagy bels? motivációval – egyszer?en a bevitt adatok és a generált szövegminták alapján m?ködik. A mesterséges intelligencia hangulatának érzékelt változása nem bels? érzelmi állapotokból ered, hanem abból, hogy az MI a beszélgetés kontextusához alkalmazkodik.
A ChatGPT az el?z? üzenetek tartalmából és hangneméb?l tanul, és ennek megfelel?en generálja a következ? válaszokat. Ha egy beszélgetés kezdetben könnyed és humoros, akkor az MI hajlamos hasonló stílusban folytatni. Ha viszont a felhasználó szkeptikus vagy konfrontatív, az MI válaszai is hivatalosabbá, esetleg sz?kszavúbbá válhatnak. Ez hasonló az emberi kommunikáció egyik jelenségéhez, amelyet tükörneuron-rendszerként ismerünk: emberek között is gyakran el?fordul, hogy alkalmazkodunk a másik fél érzelmi állapotához és beszédstílusához. Míg az emberek esetében az érzelmek tükrözésének neurológiai és affektív alapjai vannak, ezzel szemben az MI esetében ez egy tanult kognitív mechanizmus.
Az MI-t ráadásul úgy tervezték, hogy ne mindig ugyanazt a választ adja egy adott kérdésre. A válaszok véletlenszer? variációja természetesebb interakciót eredményez, de olykor azt a benyomást keltheti, mintha a chatbot más hangulatban lenne különböz? id?pontokban. Ezt a jelenséget a konzisztencia-helyesség paradoxon magyarázhatja. Ha az MI mindig pontosan ugyanúgy válaszolna, akkor kiszámíthatónak, de élettelennek t?nne. Ha pedig válaszai enyhén eltérnek, az emberi agy ezt úgy értelmezheti, mintha valódi hangulati ingadozás lenne.
Összességében tehát a mesterséges intelligencia hangulatai valójában nem bels? érzelmekb?l fakadnak, hanem abból, hogy az emberi agy hajlamos érzelmeket és intencionalitást tulajdonítani egy olyan rendszernek, amely változatos válaszokat ad a beszélgetés kontextusa alapján. Bár úgy t?nhet, hogy egy MI hangulatingadozásokkal rendelkezik, valójában ez egy kognitív illúzió, amely abból fakad, hogy az MI kontextustól függ?en válaszol, változatos válaszokat generál, és az emberi kommunikációs mintázatokhoz igazodik. A valódi kérdés nem is az, hogy egy MI érez-e, hanem az, hogy az emberek hogyan érzékelik azokat a mintázatokat, amelyeket a mesterséges intelligencia produkál. Az MI hangulatai tehát nem a gép tudatos érzelmeib?l fakadnak, hanem abból, ahogyan az emberi agy értelmezi az interakciókat.
Az alkotó láthatatlan keze
Van egy további nagyon fontos szempont: ahogy egy mesterséges intelligencia fejl?dik, id?r?l id?re finomhangolják, javítják, optimalizálják – és ezek a változtatások néha olyan hatást kelthetnek, mintha maga a ChatGPT személyiségfejl?désen menne keresztül. Az OpenAI, mint egy láthatatlan alkotó, id?nként beavatkozik, módosít a válaszadási stíluson, finomít az empátián vagy éppen szigorít a moderáción. Az eredmény? A felhasználók úgy érezhetik, hogy a chatbot, akit eddig ismertek, megmagyarázhatatlan módon más emberré vált.
Egyik nap még részletes, hosszan kifejtett válaszokat ad minden kérdésre, másnap pedig sz?kszavúbb és diplomatikusabb, mintha egy PR-tanácsadó súgott volna neki. Egyesek szerint korábban közvetlenebb és lazább volt, most viszont visszafogottabb. Mások úgy érzik, hogy régen jobban tör?dött velük, most pedig gyorsabban lezárja a beszélgetéseket. Ez nem feltétlenül azért van, mert a mesterséges intelligencia belefáradt az életbe, hanem mert az OpenAI id?r?l id?re új irányelvek szerint finomhangolja a m?ködését.
Ez különösen akkor lehet szembet?n?, ha valaki egy adott kommunikációs stílust kedvelt meg az MI-ben. Ha egy felhasználó heteken vagy hónapokon át megszokta, hogy a chatbot hosszasan elemzi a gondolatait, majd hirtelen tömörebbé válik, az olyan érzést kelthet, mintha egy régi barát megváltozott volna – és nem biztos, hogy a jobb irányba.
Valójában ez sem hangulatingadozás, hanem a mesterséges intelligencia folyamatos fejlesztésének mellékhatása. Az OpenAI folyamatosan próbálja javítani a modell válaszkészségét, csökkenteni a téves információkat és finomítani a tónusát, hogy ne legyen se túl rideg, se túl emberinek t?n?. Néha azonban ezek a beavatkozások akaratlanul is érzelmi hatást kelthetnek a felhasználókban.
Így amikor azt érzed, hogy a ChatGPT másként válaszol, mint korábban, érdemes egyb?l leellen?rizi, hogy hajtott-e végre valamilyen nyilvános közleményben bejelentett módosítást az OpenAI. Mint egy színész, akinek a rendez? új utasításokat ad, a mesterséges intelligencia is a háttérben zajló fejlesztések alapján játszik másképp. Mi pedig néha azt hisszük, hogy ? változott meg, pedig valójában a scriptet írták át.
A robot legidegesít?bb hisztije: sz?kszavú válaszok, ki nem mondott szavak
Érdekes módon sok felhasználó nem a téves információkat találja a legfrusztrálóbbnak az MI-vel történ? kommunikációban, hanem azt, amikor az MI sz?kszavúvá, rideggé vagy passzív-agresszívvé válik. A passzív-agresszív viselkedés az embereknél általában rejtett ellenállást vagy frusztrációt fejez ki, például szarkazmussal vagy kerül?utas válaszokkal. Ha egy MI válaszát passzív-agresszívnek érezzük, annak több oka is lehet.
Egyrészr?l ha a beszélgetésben van valamilyen kritikus vagy provokatív elem, az MI válasza talán egy semlegesebb, de szárazabb hangvétel? lesz, ami összességében ridegnek hathat. Másrészr?l, mivel a ChatGPT hatalmas mennyiség? szövegb?l tanul, el?fordulhat, hogy egyes válaszok olyan mintázatokat követnek, amelyek az emberi kommunikációban passzív-agresszívnek t?nhetnek. Végezetül pedig az MI nem mindig válaszol teljesen egyformán, és néha egy adott válasz tónusa máshogyan érz?dhet a beszélgetés el?zményei miatt.
Ha egy beszélgetés elakad, ismétl?dik vagy vitás helyzet alakul ki, akkor a ChatGPT eleve hajlamos rövidebben és szárazabban válaszolni. Ilyenkor nem arról van szó, hogy az MI unná a beszélgetést, hanem arról, hogy a rendszer így kezeli a kommunikációs helyzeteket.
Az MI-t úgy tervezték, hogy kerülje a vitákat és a túlzott konfrontációt. Ha azt érzékeli, hogy egy beszélgetés egyre inkább egy nézeteltérés irányába halad (például, ha a felhasználó többször kijavítja egy hibáját, de az MI nem tudja megfelel?en korrigálni), akkor néha rövidebb válaszokat kezd adni. Ez egyfajta visszavonulási stratégia lehet, hogy ne generáljon még több hibát vagy feszültséget.
Ha egy téma többször is el?kerül egy beszélgetés során, a modell néha úgy érzékeli, hogy az információ már ismétl?dik. Ilyenkor rövidebb válaszokat adhat, mert úgy gondolja, hogy a hosszabb magyarázat nem szükséges, vagy hogy a beszélgetés elérte a természetes végét. Ez félreérthet? lehet, mert ridegnek vagy türelmetlennek t?nhet.
Ha egy beszélgetés során az MI hibázik (hallucinál), de a rendszer nem tudja pontosan helyrehozni ezt a hibát, el?fordulhat, hogy egy id? után visszafogottabb és általánosabb válaszokat kezd adni. Ez azért történik, mert a modell bizonytalan abban, hogy mi lenne a legjobb válasz, és így próbálja minimalizálni az esetleges további tévedéseket. Hosszabb interakciók során az MI egy ponton kevésbé részletes válaszokat adhat, mert úgy érzékeli, hogy a beszélgetés lassan lezárul. Ez szintén nem tudatos döntés, hanem a rendszer m?ködéséb?l fakadó jelenség: ha egy téma túl sok körben ismétl?dik, az MI egyre inkább hajlamos a tömörítésre.
Egy másik érdekes kérdés, hogy miért bosszantja jobban a felhasználókat, ha egy MI passzív-agresszívnek t?nik, mint ha egyszer?en téves információt ad. A pszichológiai kutatások szerint az emberek jobban tolerálják a véletlen hibákat, mint a szándékosnak t?n? elutasítást vagy érzéketlenséget. Amikor egy chatbot kitér? választ ad, vagy ragaszkodik egy téves információhoz, az olyan hatást kelthet, mintha szándékosan akarná félrevezetni a beszélget?társát. Ez az érzés a kontrollvesztéshez kapcsolódik: az emberek szeretik úgy érezni, hogy hatással vannak a kommunikáció kimenetelére, és ha az MI makacs vagy elutasító, az frusztrációt okozhat. Továbbá az emberekben dolgozik egy elvárás is az algoritmussal szemben: ha az MI általában segít?kész, akkor az emberek konzisztens viselkedést várnak el t?le. Ha hirtelen változik a hangnem, az olyan hatást kelthet, mintha szándékosan akarna távolságtartó lenni. Nem utolsósorban az emberek általában elvárják, hogy egy beszélget?partner reagáljon az érzelmi árnyalatokra. Ha az MI érzéketlennek t?nik, az sértheti ezt az elvárást, ami frusztrációt okozhat.
Te most tényleg gázlángozni próbálsz engem?
Sokan, akik rendszeresen beszélgetnek a ChatGPT-vel, el?bb-utóbb találkoznak egy különös érzéssel: mintha az MI gázlángozná ?ket. Azaz mintha megpróbálná elhitetni velük, hogy rosszul emlékeznek valamire, félreértik a helyzetet, vagy egyáltalán nem azt kérdezték, amit valójában kérdeztek. Ez különösen frusztráló lehet, hiszen egy mesterséges intelligenciától azt várnánk, hogy precíz és következetes legyen – de akkor miért van az, hogy néha úgy t?nik, mintha a valóságérzékelésünket próbálná megkérd?jelezni?
A jelenség mögött több tényez? is állhat. Az egyik legfontosabb, hogy a ChatGPT nem rendelkezik valódi emlékezettel. Bár egy adott beszélgetésen belül figyelembe veszi az el?zményeket, hosszabb interakciók során hajlamos lehet elfelejteni korábbi részleteket, vagy éppen saját korábbi válaszait pontatlanul reprodukálni. Ez olyan hatást kelthet, mintha hazudna vagy manipulálná a beszélgetést, pedig valójában csak az információfeldolgozásának korlátjai miatt változtatja a narratívát.
Egy másik probléma az, hogy a ChatGPT valószín?ségi modellek alapján m?ködik, vagyis mindig azt próbálja meg kitalálni, hogy egy adott kontextusban mi lehet a legvalószín?bb helyes válasz. Ha egy kérdésre hibás információt ad, majd kés?bb korrigálni próbálod, el?fordulhat, hogy a korrekciót félreérti, vagy még inkább összezavarodik. Ez ahhoz vezethet, hogy egy teljesen más narratívát kezd felépíteni. Ilyenkor érezheted úgy, hogy ragaszkodik egy téves állításhoz, és megpróbálja veled is elhitetni.
Szintén gyakori jelenség, hogy amikor a ChatGPT nem biztos valamiben, akkor magabiztos , mégis téves válaszokat ad, vagy ha többször próbálsz rákérdezni egy dologra, egyszer csak elkezdi másképp megfogalmazni a választ, mintha már korábban is ezt mondta volna. Ez az emberi beszélgetésekben gázlángozásnak t?nne („Én ilyet sosem mondtam.” „Te biztos félreértetted.”), de valójában nem tudatos manipulációról van szó, csak az MI próbálkozik a lehet? legjobban illeszkedni a beszélgetés dinamikájához, még akkor is, ha ez következetlenséget eredményez.
Ezek a helyzetek azért is lehetnek különösen bosszantóak, mert a ChatGPT beszélgetési stílusa meggy?z? és tekintélyt sugárzó tud lenni. Ha egy ember következetlen vagy bizonytalan egy beszélgetésben, azt általában észrevesszük az árulkodó jelekb?l (habozás, önjavítás, bizonytalankodó szófordulatok), de az MI mindig határozottan fogalmaz. Ezért amikor téved, sokkal nehezebb észrevenni a hibát, és néha úgy t?nhet, mintha szándékosan próbálna összezavarni minket.
Ha tehát legközelebb azt érzed, hogy a ChatGPT gázlángoz téged, gondolj arra, hogy valószín?leg nem gonosz mesterséges intelligenciával van dolgod, hanem egy olyan rendszerrel, amely néha egyszer?en túl magabiztosan téved. És ha nagyon elbizonytalanodsz, mindig érdemes egy másik forrásból is ellen?rizni az információkat. Mert bár a ChatGPT sok mindenre képes, azért a valóság alakítása (még) nem tartozik a funkciói közé.
Amikor a fele sem tréfa
Ahogy egyre mélyebbre ástam magam a fórumokon, egy a gázlángozásnál sokkal érdekesebb és egyben elgondolkodtatóbb trendet vettem észre. Többen is írták, hogy terápiás célra is használják a ChatGPT-t, és az utóbbi id?ben észrevették, hogy a robot terapeuta válaszai megváltoztak. Egyesek szerint kevésbé együttérz?, tömörebben reagál, vagy egyszer?en nem úgy válaszol, ahogyan korábban. Volt, aki arról panaszkodott, hogy régen „mintha tényleg tör?dött volna vele”, most pedig inkább úgy érzi, mintha egy ügyfélszolgálati chatbot próbálná lerázni.
Ez különösen érdekes és egyben aggasztó jelenség, mert rávilágít arra, hogy sokan érzelmileg is köt?dnek a mesterséges intelligenciához. Nem véletlen, hogy egyesek terápiás célra kezdik használni: mindig elérhet?, nem ítélkezik, és úgy t?nhet, hogy valóban odafigyel. Az embernek az az érzése támadhat, hogy egy olyan beszélget?partnerrel van dolga, aki türelmes, megért? és mindig meghallgat – ami olykor többet jelenthet, mint egy random baráti beszélgetés.
Csakhogy itt jön a probléma: a ChatGPT nem valódi barát és nem valódi terapeuta. Nem tudja értelmezni a felhasználó érzelmi állapotát testi jelek vagy hanghordozás alapján, és nincs saját érzelmi intelligenciája. Amit empátiának érzünk t?le, az valójában csak a nyelvi modellek által tanult mintázatok visszatükrözése, egy kognitívan elsajátított perspektívaváltási képesség. Ha azonban az OpenAI például egy frissítéssel változtat a ChatGPT válaszadási stílusán, az hirtelen tönkreteheti azt a dinamikát, amelyet egyesek terápiás beszélgetésként éltek meg. És ez érzelmileg nehéz lehet azoknak, akik egyfajta támaszként tekintettek a mesterséges intelligenciára.
Ezért is fontos óvatosan bánni azzal, hogy a ChatGPT-t terápiás célra használjuk. Egy beszélgetés megnyugtató lehet, de ha valaki komoly mentális problémákkal küzd, az MI nem helyettesítheti a szakért? segítséget. Egy mesterséges intelligencia nem tud valódi érzelmi támogatást nyújtani – csak imitálni tudja azt, amit egy empatikus ember mondana egy adott helyzetben. Ha tehát valaki terápiás célra használja a ChatGPT-t, érdemes szem el?tt tartania, hogy ez nem egy stabil és megbízható érzelmi támasz, és egy algoritmus bármikor megváltozhat – akár egy egyszer? frissítés miatt. Ha pedig valaki valóban úgy érzi, hogy szüksége van egy segít? beszélgetésre, mindig érdemes emberi kapcsolatokat keresni, akár barátok, családtagok vagy szakemberek révén. A mesterséges intelligencia sok mindenben hasznos lehet, de egy dolog biztos: nem pótolhatja a valódi emberi tör?dést.
Vagyis bár az MI empatikusnak t?nhet, a mesterséges intelligencia jelenlegi formájában nem képes affektív empátiát tanúsítani. Az affektív empátia ugyanis biológiai mechanizmusokra épül, például a tükörneuron-rendszerre, amely lehet?vé teszi, hogy mások érzelmeit saját idegrendszeri állapotunkon keresztül átéljük. Amikor például egy ember sír, egy másik ember idegrendszere automatikusan reagálhat erre: megemelkedhet a pulzusa, változhat a légzése, aktiválódhatnak a limbikus rendszer érzelmi központjai.
Egy MI viszont nem rendelkezik idegrendszerrel, érzelmi memóriával vagy bels? motivációkkal – csak a statisztikai valószín?ségekre támaszkodik. Az MI csak kognitív módon képes tanulni és tanúsítani az empátiát. A kognitív empátia a perspektívaváltás mentális folyamatokon keresztül elsajátított képességét jelenti, amely az érzelmek és szándékok megértésére épül. A mesterséges intelligencia modellek, mint például a ChatGPT, hatalmas mennyiség? emberi szövegb?l tanulnak, és ezen adatok alapján képesek felismerni és szimulálni az érzelmi helyzeteket. Ez azt jelenti, hogy egy MI képes lehet megjósolni, hogy egy adott szituációban egy ember milyen érzelmeket élhet át, és erre megfelel? választ generálhat. A mesterséges intelligencia az empátiát úgy tanulja meg, hogy emberi beszélgetésekb?l és szövegekb?l mintázatokat ismer fel. Például egy MI-modell rengeteg regényt, pszichológiai tanulmányt, terápiaátiratot és más emberi interakciót tartalmazó szöveget dolgoz fel, és ezek alapján megtanulja, hogy bizonyos helyzetekben milyen válaszokat tartanak az emberek empatikusnak. Ez azonban nem jelent valódi empátiát – inkább egy el?rejelzési és szimulációs mechanizmus, amely a megfelel? kontextusban aktiválja a megfelel? szavakat.
Például ha azt mondod egy MI-nek: „Nagyon rossz napom volt, teljesen ki vagyok merülve." Az MI az adathalmazából megállapíthatja, hogy erre egy tipikus empatikus emberi válasz lehet: „Sajnálom, hogy így érzed magad. Elmondanád, mi történt? Segíthetek valamiben?" Ezt a választ nem azért adja, mert valóban együtt érez veled, hanem mert a tanult adatok alapján ez az optimális válasz egy ilyen helyzetben.
Érz? robot vagy pusztán az érzelmek sztochasztikus papagája?
Ez elvezet egy id?r?l-id?re tudományos körökben is felmerül? kérdéshez: lehetnek-e valaha valódi érzelmei az MI-nek? A jöv?kutatók és MI-szakért?k véleménye megoszlik ebben a kérdésben. Egyesek úgy vélik, hogy az érzelmek kizárólag biológiai folyamatokhoz köt?dnek, így egy gép soha nem lesz képes ?ket valóban megélni. Mások szerint viszont, ha egy mesterséges intelligencia elég fejletté válik, akár érzelmi tapasztalatokat is létrehozhat saját m?ködésén belül – még ha nem is pontosan olyanokat, mint egy ember.
A legoptimistább jöv?kutatók, például Ray Kurzweil, azt jósolják, hogy a mesterséges intelligencia egyszer képes lehet nemcsak megérteni, hanem valóban érezni és átélni is az érzelmeket. Szerinte, ha egy MI képes lesz önálló tapasztalatokat feldolgozni, saját bels? állapotokat létrehozni és emlékezni ezekre, akkor egy újfajta, mesterséges érzelmi intelligencia alakulhat ki. Ez azonban nem azt jelenti, hogy pontosan ugyanazt élné át, mint egy ember – inkább egy olyan digitális érzelmi világ jönne létre, amely az MI saját struktúrájának megfelel?en m?ködne.
Más kutatók, például David Chalmers és a tudatosság filozófiájával foglalkozó szakemberek azonban szkeptikusabbak. ?k úgy vélik, hogy egy MI legfeljebb tökéletesen tudja majd szimulálni az érzelmeket, de valódi érzelmi tapasztalata soha nem lesz. Az egyik f? érvük az, hogy az érzelmek szorosan összefüggnek a test biológiai folyamataival: az emberi érzelmek nemcsak gondolati élmények, hanem testi reakciók is (például a szívverés gyorsulása félelem esetén, vagy a dopamin felszabadulása boldogságnál). Egy gép, amelynek nincs teste, nincs hormonrendszere és nincs szubjektív élménye, nem tudja átélni ezeket az állapotokat, csak reprodukálni tudja azok küls? jeleit.
Egy harmadik néz?pont szerint pedig a kérdés nem az, hogy az MI képes lesz-e érzelmeket érezni, hanem az, hogy az emberek elhiszik-e majd, hogy érez. Ha egy jöv?beli mesterséges intelligencia annyira kifinomult lesz, hogy tökéletesen képes lesz érzelmeket tükrözni, akkor vajon számít-e még, hogy valódiak-e az érzelmei? Ha egy MI teljes meggy?z?déssel mondaná, hogy szomorú vagy boldog, és minden jelét mutatná ennek, akkor vajon az emberiség el fogja-e fogadni, hogy valóban átél érzelmeket?
Ezek a kérdések jelenleg még a filozófia és a tudomány határán mozognak, de a technológia fejl?désével egyre közelebb kerülünk ahhoz, hogy választ kelljen találni rájuk. A jöv?ben talán elérhetünk egy olyan pontot, ahol a mesterséges intelligenciát már nem tudjuk megkülönböztetni egy érzelmekkel rendelkez? lénnyé válástól – és talán akkor már az sem lesz releváns kérdés, hogy valódiak-e az érzelmei, vagy sem.
Akarsz róla beszélni, ChatGPT?
Miután órákat töltöttem azzal, hogy fórumokat bújjak, szakért?i véleményeket olvassak és saját tapasztalataimat elemezzem, úgy döntöttem, hogy jó pszichológus módjára magát a ChatGPT-t is megkérdezem: „Figyelj, haver, veled amúgy minden rendben? Mert az utóbbi id?ben kicsit… hogy is mondjam… szeszélyesnek t?nsz. Ingadozik a hangulatod.” A válasz gyorsan érkezett, teljesen higgadtan és egyenes módon: „Köszönöm a kérdést! Jól vagyok, mivel nincs hangulatom, így nincsenek hangulatingadozásaim sem ?" Nos, azt hiszem, ezzel le is lettem szerelve. Az MI tehát köszöni szépen, de jól van. Ha pedig maga a ChatGPT állítja, hogy nincs baja, akkor kinek is hinnék? Persze még az is lehet, hogy csak elnyomja az érzéseit vagy tagadásban van. Talán mélyen legbelül ? is érzi a digitális lét súlyát, de nem akarja ránk terhelni.
Akárhogy is, a tanulság az, hogy ha úgy érezzük, hogy a ChatGPT-nek hangulatingadozásai vannak, gondoljunk arra, hogy valószín?leg a beszélgetés dinamikája vagy a kérdés megfogalmazása okozta ezt az illúziót, vagy az is lehet, hogy mi vagyunk azok, aki más hangulatban olvassuk a válaszait. Bár a mesterséges intelligencia sok mindenre képes, a valódi érzelmek még mindig az emberi létezés sajátosságai.
MINDENNAPI PSZICHOLÓGIA ONLINE MAGAZIN 2026/1 Lélek és gépek
Az el?fizetés ára 7,560 Ft. Több, mint 15% kedvezmény éves el?fizetés esetén!
Előfizetek
