Retrieval Augmented Generation (RAG) je tehnika v umetni inteligenci, ki izboljša zmogljivosti velikih jezikovnih modelov (LLM) z dodajanjem mehanizma pridobivanja informacij iz zunanjih virov pred generiranjem odgovora. To omogoča modelom, da ustvarijo bolj natančne, relevantne in ažurne odgovore, ki temeljijo na specifičnih podatkih, kot so notranje baze znanja ali nedavni dokumenti, brez potrebe po obsežnem ponovnem usposabljanju modela.
Kako deluje RAG
Proces RAG poteka v več korakih: najprej uporabnikova poizvedba sproži iskanje relevantnih dokumentov ali podatkov iz zunanje baze (npr. vektorske baze ali spletnih virov), ki se nato vključijo v kontekst za LLM. Model nato kombinira te pridobljene informacije s svojim notranjim znanjem iz usposabljanja, da generira odgovor, pogosto z navedbi virov za večjo zanesljivost. Ta pristop preprečuje (no ja … ) halucinacije – lažne informacije, ki jih modeli včasih ustvarijo – in je posebej uporaben za domensko specifične aplikacije, kot so podporni sistemi ali analize.
Prednosti RAG
RAG zmanjša stroške in čas, potrebne za prilagajanje modelov, saj ni treba retrenirati celotnega LLM; dovolj je posodobitev zunanje baze znanja. Poleg tega zagotavlja višjo natančnost in preglednost, saj odgovori temeljijo na preverljivih virih, kar je ključno za področja, kot so finance, zdravstvo ali pravna področja. V primerjavi s čistimi generativnimi modeli, ki se zanašajo le na statične podatke iz usposabljanja, RAG omogoča dinamično vključevanje aktualnih informacij.
Primeri uporabe
RAG se pogosto uporablja v chatbot-ih za dostop do notranjih podatkov podjetij, v iskalnih sistemih za natančnejše povzetke ali v raziskovalnih orodjih za sintezo informacij iz več virov. Na primer, v Azure AI ali AWS okoljih RAG integrira iskalne mehanizme za izboljšanje odzivov na poizvedbe. V slovenskem kontekstu se pojavlja v raziskavah in razvoju, kot so lokalni korpusi za LLM-je.