Užklausos – kaip teisingai jas rašyti


„Mama, ką šiandien valgysim?” – tai užklausa
„Išrašykit sąskaitą-faktūrą” – irgi užklausa
Face ID nepavyko? Telefonas paprašo pakelti galvą – vėl užklausa.

Užklausa = tiesiog aiškus prašymas su detalėmis.

POV: prašai nupirkti tau traškučių…

Kaip prašymo tikslumas keičia rezultatą

Netikslus prašymas

„Nupirk traškučių”

→ draugelis grįš su bet kokiais

Tikslus prašymas

„Nupirk Lay’s su sūrio skoniu, mažą pakelį”

→ draugelis grįš su tiksliai tuo, ko nori

Confused GIF

Kodėl žmonės sako „DI neveikia”?

Daugelis žmonių sako: „DI neveikia”, „ChatGPT rašo nesąmones”. Bet dažniausiai problema ne DI, o kaip formuluojama užklausa.

Dažniausios klaidos yra labai primityvios… Ir tik dėl to, kad niekas nepaaiškino kaip veikia dirbtinis intelektas.
Pokalbių intelektas yra daugiau, nei ChatGPT – tai yra ir Perplexity, Gemini, Claude, Copilot, DeepSeek, Llama… Ir visi jie veikia tuo pačiu principu. Skirtumus mato tik vartotojas, t.y. tu. O mašinos mato tokenus.

Dažniausios klaidos (ir kodėl vien tik „užklausų knyga / prompt book” nepadės)

1

Nepaisoma „atminties” (memory)

Atmintis susideda iš:

  • To, ką žino DI (pvz, ChatGPT buvo apmokytas OpenAI komandos)
  • Tavo užklausų istorijos

GPT nesiunčia tavo pokalbių istorijos kitiems. Kiekvienas vartotojas – tarsi turi mini GPT versiją, treniruojamą tik jo klausimais ir stilistika.

🎁 BONUS: Nemokama video pamoka!

Plačiau apie ChatGPT atminties funkciją papasakojau Instagram’e su praktiniais patarimais

Žiūrėti video pamoką →
2

Kopijuojamos užklausos be konteksto

Kaip beliašai iš turgaus – kaip ir skanu, sotu, bet iš ko jie ir ar neteks ieškoti tualeto?..

Paruošti užklausų rinkiniai geriausiu atveju = fastfood’as, o blogiausiu – neaiškus pirkinys be garantijų.

3

Per mažai konteksto

Nežinau kaip tau, bet man iki šiol kelia nuostabą mokyklos laikų literatūros rašinėliai „Ką turėjo omenyje autorius?”

Kuo trumpesnė užklausa, tuo daugiau dirbtinis intelektas turi atspėti „ką turi omenyje autorius?”. O tu pyksti, kad DI „pievas kalba”.

4

Ignoruojamas konteksto langas

Kiekvienas dirbtinio intelekto modelis (DeepSeek, Llama, ChatGPT, Gemini ir kt.) turi ribotas galimybes prisiminti apie ką šiuo metu kalbi su juo (darbinė atmintis), vadinamąjį konteksto langą (context window).

Kai ją perpildai – pradžia „pasimeta” kaip failas iš papkės. Kai pranyksta pradžios kontekstas → dirbtinis intelektas toliau tiesiog bando atspėti labiausiai tikėtinus tokėnus remiantis turima informaciją. Tačiau kadangi kontekstas jau kažkur pamestas – dirbtinis intelektas parenka tikėtinus tokenus iš visų galimų, o ne iš tam tikroje temoje galimų.. Tai dar kitaip vadinama haliucinacijos.

Dirbtinio intelekto kalbos modelių konteksto lango dydžiai

Llama 4 Scout
10M
• Nemokamas naudojimas
• Lokalus diegimas
• Aktyvus bendruomenės palaikymas
Gemini 2.5 Pro
2M
• Iki 2 milijonų tokenų
• Puikiai tinka dideliems projektams
• Multimodalinis (tekstas, vaizdas, audio)
GPT-4.1
1M
• 1 milijonas tokenų konteksto langas
• Pagerintas kodavimo našumas
• Geresnis vadovavimasis instrukcijomis
Claude 4 Sonnet
200K
• Puikiai tinka dokumentų analizei
• Aukšta kokybė programavimo užduotims
• Patobulinti saugumo mechanizmai
GPT-4o
128K
• Stabilus ir patikimas
• Greitas atsakymo laikas
• Teksto, vaizdo, audio apdorojimas
GPT-o1
128K
• Daugiapakopių klausimų sprendimas
• Matematikos ir mokslo užduotys
• Loginis samprotavimas

🇱🇹 Bet palauk… Kodėl su lietuvių kalba sunkiau?

Tu galbūt pastebėjai, kad dirbtiniam intelektui geriau sekasi anglų kalba nei lietuvių? Čia ne tavo vaizduotė – tai yra realus techninis paaiškinimas

Apie tai pasakojau pirmoje ir antroje pamokose, tačiau dar kartą susidėliokim viską į savo vietas

Tokenų problema

Lietuvių kalba DI „sunkesnė”:

• „impossible” (anglų) = 2 tokenai
• „neįmanoma” (lietuvių) = 5 tokenai

Duomenų skirtumas

Dirbtini intelektas apmokomas:

• Anglų kalba: milijardai tekstų
• Lietuvių kalba: šimtai tūkstančių

Kultūrinis kontekstas

DI mažiau žino apie:

• Lietuvių verslo kultūrą
• Vietinius terminus
• Komunikacijos tradicijas