Hirdetés

Gép és ember kommunikációja

Hogyan beszélgessünk a ChatGPT-vel?

„Fura, ha megköszönöm a ChatGPT-nek a választ?” – gyakran hallok mostanában ehhez hasonló kérdést. Nem meglep? az elbizonytalanodás: nem vagyunk arra szocializálva, hogy gépekkel beszélgessünk. Kénytelenek vagyunk megkeresni a saját válaszainkat.
Hogyan beszélgessünk a ChatGPT-vel?

A mesterséges intelligenciával, például a tavaly novemberben megjelent és villámgyorsan nagy érdekl?dést kiváltó (a felhasználók száma két hónap alatt elérte a 100 milliót) chatbottal, a ChatGPT-vel való hatékony beszélgetés egyre fontosabb készségként jelenik meg az életünkben. Aki már próbálta, meglep?dve tapasztalta, hogy a ChatGPT-vel való beszélgetés – néhány zavaró tényez?t?l eltekintve – eléggé hasonlít egy valódi emberrel lefolytatott beszélgetéshez. Ahhoz, hogy gép és ember kommunikációja minél hatékonyabb és problémamentesebb legyen, meg kell értenünk, hogyan m?ködik a gép, hogyan m?ködik az ember, és kettejük interakciója milyen mintázatokat követ. 

Hirdetés


Értsük meg a gép m?ködését

A ChatGPT egy nagy nyelvi modell, ami azt jelenti, hogy az algoritmusba rengeteg – 300 milliárd szóból álló – szöveges adatot tápláltak be, leginkább a nyílt interneten elérhet? szövegeket, például Reddit-posztokat, online könyv- és folyóirat-adatbázisokat és a Wikipédiát. A források 93%-a angol nyelv? volt, tehát a ChatGPT legjobban angolul m?ködik, de 95 egyéb nyelven, köztük magyarul is használható. A hatalmas adathalmazban a program a szavak és kifejezések közti összefüggéseket és mintázatokat keresi meg, majd ezen korrelációk bonyolult mátrixának segítségével el?re jelzi, hogy egy adott szó (vagy fonéma) után mi következhet legnagyobb valószín?séggel. Ez a m?ködésmód együtt jár azzal, hogy bár válaszai rendkívül hihet?en hangzanak, lehetnek tévesek, vagy esetleg egyáltalán nem kapcsolódnak az adott kontextushoz. Ezt a jelenséget a mesterséges intelligencia hallucinációjának nevezték el. Az ilyen félrevezet?, torz információk nyilvánvaló káros következményekkel járnak, például azért, mert az így meghozott döntéseink tévesek lesznek, ráadásul hosszú távon nemcsak a mesterséges intelligenciába vetett hitet, hanem általánosabban a társadalmi bizalmat is er?teljesen csökkentik, hiszen egyre inkább azt tapasztaljuk, hogy sem a szövegeknek, sem a képeknek nem hihetünk. A helyzet egyik megoldása a gépek fejlesztésében rejlik: a ChatGPT fejlettebb verziója, a GPT-4 a fejleszt?k szerint 40%-kal kevesebb ténybeli hibát vét. A másik út az, hogy mi tanuljuk meg jobban használni.

 
Értsük meg a saját m?ködésünket

Talán kevésbé magától értet?d? tanács, hogy nemcsak a gépet, de saját, emberi m?ködésünket is jobban kell értenünk. A 90-es években a számítógépekkel kapcsolatban született egy elméleti keret, amely jól használható a chatbotokkal való kapcsolatok értelmezésére is. A CASA-paradigmának (computers are social actors) elnevezett elmélet (Nass, Moon, 2000), abból indul ki, hogy az emberek hajlamosak úgy kezelni a számítógépeket, mintha azok személyek lennének, szándékot, motivációt és érzelmeket tulajdonítanak nekik, egyszóval ha tudattalanul is, de antropomorfizálják ?ket. A kutatássorozatban részt vev?k például úgy nyilatkoztak, hogy nem akarják megbántani a gépet, vagy kiderült, hogy jobban tudnak együttm?ködni olyan gépekkel, amelyek megfelelnek a nemi sztereotípiáknak, például a férfihangú GPS-szel és a n?i hangú asszisztenssel. De jobban kedvelték azt a gépet, amelyik megdicsérte ?ket, és haragudtak arra, amelyik azt jelezte vissza, hogy hibáztak. Az, hogy személyként tekintünk gépeinkre, el?segítheti a pozitív és produktív kommunikációs élményt, de veszélyeket is rejt: hajlamosak vagyunk elfeledkezni arról, hogy a kapcsolat egyirányú, ezért akár intim, személyes információt adunk ki, vagy a kialakult bizalom miatt sokkal jobban hiszünk neki az indokoltnál.


Értsük meg az ember-gép interakció m?ködését

Az emberek közötti kommunikációs mintázatok megértésének egyik leggyakrabban idézett elméleti kerete Paul Grice nyelvész és filozófus pragmatikai szabályaira épül, amely abból indul ki, hogy a sikeres kommunikáció érdekében be kell tartanunk bizonyos normákat. Ilyen például az, hogy kell? mértékben informatívnak kell lennünk, a hozzájárulás ne legyen se túl rövid, se túl hosszú, igazat kell mondanunk, azaz nem szabad félrevezet?en kommunikálni, mondanivalónknak relevánsnak kell lennie, és tisztán kell fogalmaznunk, kerülve a kétértelm?, homályos mondatokat. A kutatók szerint a chatbotokkal való kommunikáció során is hasonló elvárásaink vannak. Hogyan segíthetnek tehát a grice-i szabályok a gépekkel való hatékonyabb kommunikációban? Az eddigi tapasztalatok alapján a ChatGPT leginkább a min?ségi elvárásoknak nem felel meg, ami azt jelenti, hogy mindig mindent ellen?rizni kell, a kritikai gondolkodás még mindig – vagy talán egyre inkább – fontos készség marad. Fontos továbbá, hogy bármennyire is motiváltak vagyunk emberként kezelni, mindig tartsuk észben, hogy egy géppel beszélgetünk, és ismerjük annyira a m?ködésmódját, hogy tudjuk, mire képes, és mire nem. Az sem igazán a gép er?ssége, hogy jelenleg a válaszai gyakran túlírtak, repetitívek. Annyit tehetünk, hogy annyi információt adunk meg a gépnek, és olyan részletességgel, amennyi szükséges. Ha túl kevés az információ, a gép elkezd asszociálni, és nem feltétlenül arra kapunk választ, amit szeretnénk, a túl sok információ pedig elviheti a fókuszt a lényegr?l. Könnyebb a gépnek betartania a relevancia szabályát, ha pontosan tudja, mit várunk t?le. Ebben nagy segítség, ha pontosan fogalmazunk, például a legelején közöljük vele, hogy milyen szerepet szánunk neki: mint programozótól, filozófustól vagy ingatlanügynökt?l kérjük a tanácsát. Jelöljük meg a célcsoportot és a kommunikációs csatornát is: egy ötéves gyerek szintjén mesélje el a víz körforgását, vagy ugyanerr?l írjon egy filmforgatókönyvet, esetleg tweetet. És végül fontos az is, hogyan beszélünk vele. Sokat segít, ha a komplex feladatokat felbontjuk kisebb lépésekre, tehát egy hosszú kérdés vagy instrukció helyett több lépésben fogalmazzuk meg a feladatot. Szintén segít, ha adunk egy válaszvázlatot, pontosan megfogalmazva, hogy például a kért esszé tartalmazzon egy bevezet? részt, egy kifejt?set és egy lezárást. A félreértések elkerülése végett érdemes rövid mondatokban, nyelvtanilag helyesen fogalmazni, valamint határozott, er?s szavakat használni, például ne azt kérjük t?le, hogy írja újra a választ, hanem hogy fogalmazzon pontosabban.


És hogy miért ilyen fontos mindez? Mert ilyen algoritmusokkal hamarosan nemcsak e-maileket írhatunk vagy a matekházinkat oldhatjuk meg, hanem jogi dokumentumokat is készít, vagy akár terápiás beszélgetéseket folytathatunk vele. Bármilyen nehéz, nem szabad elfeledkezni arról, hogy a másik oldalon nem ember van: hiába tud bármivel kapcsolatban kiváló érveket felsorakoztatni, morális ítéleteket hozni, sem elvei, sem felel?ssége nincs. A felel?sség tehát továbbra is a miénk.

Hirdetés
Éves print el?fizetés
Éves print el?fizetés
Következő szám megjelenése: 2026-05-21
Befizetési határidő: 2026-05-05
nap | óra | perc | mp

Az el?fizetés ára 7,560 Ft. Több, mint 15% kedvezmény éves el?fizetés esetén!

Kosár Előfizetek

MiPszi Aktuál (MAT)

Család

Körvonal

Mentális egészség

Mindennapi filozófia

Mipszicske

Munkapszichológia

Önismeret

Párkapcsolat

Opinion - Elmélkedések szerz?inkt?l

IN ENGLISH

Kiemelt partnereink
MIPSZI HÍRLEVÉL

Maradjon képben a friss cikkekkel, videókkal és szakmai újdonságokkal.

Válogatott tartalmakat és fontos újdonságokat küldünk közvetlenül e-mailben, hogy ne maradjon le semmiről.

Feliratkozás

Kérje a MIPSZI hírlevelét

Adja meg az e-mail címét, és küldjük a legfontosabb tartalmakat.