vir: https://www.youtube.com/watch?v=MjSUCg2NN4g
AI-generirana koda pogosto povzroča varnostne težave. Raziskave kažejo, da je odgovorna za 1 od 5 varnostnih kršitev, saj ne upošteva konteksta in najboljših praks. Na primer, orodja kot GitHub Copilot hitro generirajo kodo, vendar brez pregleda vodijo do ranljivosti, kot so napadi z vnosom. Razvijalci morajo zato vedno preverjati in optimizirati AI predloge.
Pomanjkanje človeškega reševanja problemov (tudi zaradi omejenega kontekstnega okna)
AI odlično obvlada rutinske naloge, ne zmore pa kompleksnega mišljenja. Devin AI in podobni agenti odpovejo pri resničnih projektih brez človeškega vnosa. Študije potrjujejo, da AI upočasni izkušene programerje pri zahtevnih nalogah. Ključno ostaja človeška sposobnost analize konteksta in inovacij.
Omejeno kontekstno okno velikih jezikovnih modelov (LLM) omejuje obseg kode in konteksta, ki ga model obdela v enem koraku, kar vpliva na kakovost in zanesljivost programiranja. To povzroča padec natančnosti pri velikih projektih in zahteva posebne strategije upravljanja. V letu 2025 modeli kot GPT-4.1 (128.000 tokenov) ali Gemini (do 1 milijon) še vedno kažejo degradacijo zmogljivosti pri polni obremenitvi.
Kaj je kontekstno okno LLM?
Kontekstno okno določa največjo količino tokenov (približno 0,8 besede v angleščini), ki jo LLM obdela v enem pozivu, vključno s kodo, navodili in zgodovino pogovora. Na primer, GPT-4.1 obdeluje okoli 450.000 znakov, GPT-5 pa do 700.000, vendar se vključijo tudi odgovori modela. Preseganje limita povzroči izgubo zgodnjega konteksta, podobno brisanju strani iz knjige.
Ključni vplivi na programiranje – padec natančnosti in halucinacije
Pri polnjenju kontekstnega okna natančnost LLM pada, saj model pozabi zgodnji kontekst in generira netočne predloge kode. Testi kažejo, da se čas odziva pri GPT-4.1 poveča za 50-krat (do 60 sekund) blizu limita, kar vodi do napak v kompleksnih projektih. V programiranju to pomeni slabe povezave med razredami ali funkcijami v velikih repozitorijih.
Počasnejši razvoj in stroški
Večje kontekstno okno zahteva več GPU pomnilnika in računske moči, kar podraži uporabo orodij kot GitHub Copilot ali Cursor. Programerji izgubljajo čas z resetiranjem sej, saj model ne ohrani celotnega codebase-a, kar upočasni debugging in refactoring. V praksi to vpliva na IDE agente, kjer majhni lokalni modeli odpovejo pri velikih datotekah.
Omejitve pri resničnih projektih
LLM ne more obdelati celotnih aplikacij brez fragmentacije, kar omejuje avtomatizacijo arhitekture ali analize odvisnosti. V Sloveniji raziskave potrjujejo, da večje okna (npr. 200.000 tokenov) izboljšajo interpretacijo, a še vedno zahtevajo človeški nadzor.