
Gép és ember kommunikációja
Hogyan beszélgessünk a ChatGPT-vel?
„Fura, ha megköszönöm a ChatGPT-nek a választ?” – gyakran hallok mostanában ehhez hasonló kérdést. Nem meglepő az elbizonytalanodás: nem vagyunk arra szocializálva, hogy gépekkel beszélgessünk. Kénytelenek vagyunk megkeresni a saját válaszainkat.

A mesterséges intelligenciával, például a tavaly novemberben megjelent és villámgyorsan nagy érdeklődést kiváltó (a felhasználók száma két hónap alatt elérte a 100 milliót) chatbottal, a ChatGPT-vel való hatékony beszélgetés egyre fontosabb készségként jelenik meg az életünkben. Aki már próbálta, meglepődve tapasztalta, hogy a ChatGPT-vel való beszélgetés – néhány zavaró tényezőtől eltekintve – eléggé hasonlít egy valódi emberrel lefolytatott beszélgetéshez. Ahhoz, hogy gép és ember kommunikációja minél hatékonyabb és problémamentesebb legyen, meg kell értenünk, hogyan működik a gép, hogyan működik az ember, és kettejük interakciója milyen mintázatokat követ.
Értsük meg a gép működését
A ChatGPT egy nagy nyelvi modell, ami azt jelenti, hogy az algoritmusba rengeteg – 300 milliárd szóból álló – szöveges adatot tápláltak be, leginkább a nyílt interneten elérhető szövegeket, például Reddit-posztokat, online könyv- és folyóirat-adatbázisokat és a Wikipédiát. A források 93%-a angol nyelvű volt, tehát a ChatGPT legjobban angolul működik, de 95 egyéb nyelven, köztük magyarul is használható. A hatalmas adathalmazban a program a szavak és kifejezések közti összefüggéseket és mintázatokat keresi meg, majd ezen korrelációk bonyolult mátrixának segítségével előre jelzi, hogy egy adott szó (vagy fonéma) után mi következhet legnagyobb valószínűséggel. Ez a működésmód együtt jár azzal, hogy bár válaszai rendkívül hihetően hangzanak, lehetnek tévesek, vagy esetleg egyáltalán nem kapcsolódnak az adott kontextushoz. Ezt a jelenséget a mesterséges intelligencia hallucinációjának nevezték el. Az ilyen félrevezető, torz információk nyilvánvaló káros következményekkel járnak, például azért, mert az így meghozott döntéseink tévesek lesznek, ráadásul hosszú távon nemcsak a mesterséges intelligenciába vetett hitet, hanem általánosabban a társadalmi bizalmat is erőteljesen csökkentik, hiszen egyre inkább azt tapasztaljuk, hogy sem a szövegeknek, sem a képeknek nem hihetünk. A helyzet egyik megoldása a gépek fejlesztésében rejlik: a ChatGPT fejlettebb verziója, a GPT-4 a fejlesztők szerint 40%-kal kevesebb ténybeli hibát vét. A másik út az, hogy mi tanuljuk meg jobban használni.
Értsük meg a saját működésünket
Talán kevésbé magától értetődő tanács, hogy nemcsak a gépet, de saját, emberi működésünket is jobban kell értenünk. A 90-es években a számítógépekkel kapcsolatban született egy elméleti keret, amely jól használható a chatbotokkal való kapcsolatok értelmezésére is. A CASA-paradigmának (computers are social actors) elnevezett elmélet (Nass, Moon, 2000), abból indul ki, hogy az emberek hajlamosak úgy kezelni a számítógépeket, mintha azok személyek lennének, szándékot, motivációt és érzelmeket tulajdonítanak nekik, egyszóval ha tudattalanul is, de antropomorfizálják őket. A kutatássorozatban részt vevők például úgy nyilatkoztak, hogy nem akarják megbántani a gépet, vagy kiderült, hogy jobban tudnak együttműködni olyan gépekkel, amelyek megfelelnek a nemi sztereotípiáknak, például a férfihangú GPS-szel és a női hangú asszisztenssel. De jobban kedvelték azt a gépet, amelyik megdicsérte őket, és haragudtak arra, amelyik azt jelezte vissza, hogy hibáztak. Az, hogy személyként tekintünk gépeinkre, elősegítheti a pozitív és produktív kommunikációs élményt, de veszélyeket is rejt: hajlamosak vagyunk elfeledkezni arról, hogy a kapcsolat egyirányú, ezért akár intim, személyes információt adunk ki, vagy a kialakult bizalom miatt sokkal jobban hiszünk neki az indokoltnál.
Értsük meg az ember-gép interakció működését
Az emberek közötti kommunikációs mintázatok megértésének egyik leggyakrabban idézett elméleti kerete Paul Grice nyelvész és filozófus pragmatikai szabályaira épül, amely abból indul ki, hogy a sikeres kommunikáció érdekében be kell tartanunk bizonyos normákat. Ilyen például az, hogy kellő mértékben informatívnak kell lennünk, a hozzájárulás ne legyen se túl rövid, se túl hosszú, igazat kell mondanunk, azaz nem szabad félrevezetően kommunikálni, mondanivalónknak relevánsnak kell lennie, és tisztán kell fogalmaznunk, kerülve a kétértelmű, homályos mondatokat. A kutatók szerint a chatbotokkal való kommunikáció során is hasonló elvárásaink vannak. Hogyan segíthetnek tehát a grice-i szabályok a gépekkel való hatékonyabb kommunikációban? Az eddigi tapasztalatok alapján a ChatGPT leginkább a minőségi elvárásoknak nem felel meg, ami azt jelenti, hogy mindig mindent ellenőrizni kell, a kritikai gondolkodás még mindig – vagy talán egyre inkább – fontos készség marad. Fontos továbbá, hogy bármennyire is motiváltak vagyunk emberként kezelni, mindig tartsuk észben, hogy egy géppel beszélgetünk, és ismerjük annyira a működésmódját, hogy tudjuk, mire képes, és mire nem. Az sem igazán a gép erőssége, hogy jelenleg a válaszai gyakran túlírtak, repetitívek. Annyit tehetünk, hogy annyi információt adunk meg a gépnek, és olyan részletességgel, amennyi szükséges. Ha túl kevés az információ, a gép elkezd asszociálni, és nem feltétlenül arra kapunk választ, amit szeretnénk, a túl sok információ pedig elviheti a fókuszt a lényegről. Könnyebb a gépnek betartania a relevancia szabályát, ha pontosan tudja, mit várunk tőle. Ebben nagy segítség, ha pontosan fogalmazunk, például a legelején közöljük vele, hogy milyen szerepet szánunk neki: mint programozótól, filozófustól vagy ingatlanügynöktől kérjük a tanácsát. Jelöljük meg a célcsoportot és a kommunikációs csatornát is: egy ötéves gyerek szintjén mesélje el a víz körforgását, vagy ugyanerről írjon egy filmforgatókönyvet, esetleg tweetet. És végül fontos az is, hogyan beszélünk vele. Sokat segít, ha a komplex feladatokat felbontjuk kisebb lépésekre, tehát egy hosszú kérdés vagy instrukció helyett több lépésben fogalmazzuk meg a feladatot. Szintén segít, ha adunk egy válaszvázlatot, pontosan megfogalmazva, hogy például a kért esszé tartalmazzon egy bevezető részt, egy kifejtőset és egy lezárást. A félreértések elkerülése végett érdemes rövid mondatokban, nyelvtanilag helyesen fogalmazni, valamint határozott, erős szavakat használni, például ne azt kérjük tőle, hogy írja újra a választ, hanem hogy fogalmazzon pontosabban.
És hogy miért ilyen fontos mindez? Mert ilyen algoritmusokkal hamarosan nemcsak e-maileket írhatunk vagy a matekházinkat oldhatjuk meg, hanem jogi dokumentumokat is készít, vagy akár terápiás beszélgetéseket folytathatunk vele. Bármilyen nehéz, nem szabad elfeledkezni arról, hogy a másik oldalon nem ember van: hiába tud bármivel kapcsolatban kiváló érveket felsorakoztatni, morális ítéleteket hozni, sem elvei, sem felelőssége nincs. A felelősség tehát továbbra is a miénk.
2025-02

