
KI-verden har sitt eget språk. Og det er et språk som utvikler seg raskt. Bare de siste to årene har begreper som «RAG», «multimodal» og «agentic» gått fra å være fagterminologi forbeholdt maskinlæringsforskere til å dukke opp i styremøter, anbudstekster og onboardingmateriale.
Problemet er at det ikke finnes et godt sted å slå dem opp – på norsk. Det finnes engelske ordbøker, men oversettelsene er enten teknisk tunge eller for overfladiske til å faktisk hjelpe deg i en jobbkontekst.
Denne listen er ment å bøte på det. Her er 50 av de mest brukte ordene, forkortelsene og begrepene i KI-verdenen i dag – forklart på norsk, uten unødvendig sjargong.
Grunnleggende begreper
Kunstig intelligens (KI / AI)
Samlebetegnelse for datasystemer som utfører oppgaver vi normalt forbinder med menneskelig intelligens – som å forstå språk, gjenkjenne bilder eller ta beslutninger.
Maskinlæring (ML)
En underkategori av KI der systemet lærer av data uten å bli eksplisitt programmert regel for regel. I stedet finner det mønstre på egenhånd.
Dyp læring (Deep Learning)
En type maskinlæring som bruker kunstige nevrale nettverk med mange lag. Spesielt effektiv for bilder, lyd og tekst.
Nevrale nettverk (Neural Networks)
Beregningsstrukturer løst inspirert av hjernen. Består av noder (nevroner) koblet i lag som bearbeider og videresender informasjon.
Algoritme
En presis, trinnvis beskrivelse av hvordan et problem skal løses. I KI-sammenheng: settet med regler som styrer hvordan modellen lærer og tar beslutninger.
Datasett (Dataset)
Den samlingen av data som brukes til å trene, validere eller teste en KI-modell. Kvaliteten på datasettet er avgjørende for kvaliteten på modellen.
Trening (Training)
Prosessen der modellen justerer sine interne parametere ved å se på store mengder data, med mål om å bli bedre til å løse den aktuelle oppgaven.
Inferens (Inference)
Når en ferdig trent modell brukes til å produsere svar eller prediksjoner på nye inndata. Det er dette som skjer hver gang du stiller ChatGPT et spørsmål.
Språkmodeller og tekst-KI
Stor språkmodell (LLM)
Large Language Model. En modell trent på enorme mengder tekst for å forstå og generere menneskespråk. GPT-4, Claude og Gemini er alle LLM-er.
Generativ KI (Generative AI)
KI-systemer som produserer nytt innhold – tekst, bilder, kode, lyd – i stedet for kun å klassifisere eller analysere eksisterende innhold.
Prompt
Instruksjonen eller spørsmålet du sender inn til en KI-modell. God prompt-utforming (prompt engineering) er en ferdighet i seg selv.
Prompt engineering
Kunsten å formulere instruksjoner til en KI-modell på en måte som gir presise, nyttige og relevante svar.
Kontekstvindu (Context Window)
Mengden tekst en modell kan «huske» og ta hensyn til i én og samme samtale. Større kontekstvindu betyr at modellen kan jobbe med lengre dokumenter.
Token
Den minste enheten teksten deles opp i for at modellen skal behandle den. Omtrent tilsvarende tre til fire tegn på norsk. Prismodeller for KI-API-er er gjerne basert på antall tokens.
Temperatur (Temperature)
En innstilling som styrer hvor kreativ eller forutsigbar modellen er. Lav temperatur gir presise, konsistente svar. Høy temperatur gir mer variasjon – og mer risiko for feil.
Hallusinasjon (Hallucination)
Når en KI-modell produserer informasjon som høres plausibel ut, men er feil eller oppdiktet. En av de viktigste utfordringene med dagens språkmodeller.
Embeddings
En matematisk representasjon av tekst (eller andre data) som tall. Brukes for å beregne semantisk likhet – f.eks. om to setninger betyr det samme.
RAG (Retrieval-Augmented Generation)
En teknikk der modellen henter relevant informasjon fra en ekstern kunnskapsbase før den genererer svar. Reduserer hallusinasjoner og gjør svarene mer oppdaterte.
Fine-tuning
Å videretrene en eksisterende modell på et spesifikt datasett for å gjøre den bedre til en bestemt oppgave eller tone. F.eks. å tilpasse en modell til en bestemt bransje.
Modeller og arkitektur
Transformer
Den dominerende arkitekturen bak moderne LLM-er. Bruker en mekanisme kalt «attention» for å forstå relasjoner mellom ord, uavhengig av avstand i teksten.
Multimodal
En modell som kan behandle flere typer inndata – f.eks. tekst og bilde kombinert. GPT-4o og Gemini Ultra er eksempler på multimodale modeller.
Parametere (Parameters)
De interne verdiene i en modell som justeres under trening. «70 milliarder parametere» er et mål på størrelse og kapasitet.
Grunnmodell (Foundation Model)
En stor, generell modell trent på bredt og variert data, som så kan tilpasses mange ulike oppgaver. GPT, Claude og Llama er grunnmodeller.
Åpen kildekode-modell (Open-source model)
En modell der vektene (de trente parameterne) er offentlig tilgjengelige. Llama fra Meta og Mistral er eksempler. Gir mer kontroll, men krever mer teknisk kompetanse.
Vekter (Weights)
De tallverdiene som lagres i en ferdig trent modell. Det er disse som «er» modellens kunnskap. Å publisere vektene er det som gjør en modell åpen.
Latens (Latency)
Tid fra forespørsel til første svar. Viktig i sanntidsapplikasjoner. Lavere latens betyr raskere respons.
Agenter og automatisering
KI-agent (AI Agent)
Et KI-system som kan planlegge og utføre flerstegs-oppgaver autonomt – ikke bare svare på ett spørsmål, men ta en serie handlinger for å nå et mål.
Agentisk KI (Agentic AI)
Et samlebegrep for KI-systemer som handler med en grad av selvstendighet – planlegger, velger verktøy og utfører oppgaver uten å be om bekreftelse for hvert steg.
Verktøykall (Tool Use / Function Calling)
Muligheten for en modell til å kalle eksterne funksjoner eller API-er – som å søke på nett, kjøre kode eller lese en fil – som del av å løse en oppgave.
Orkestrering (Orchestration)
Koordinering av flere KI-agenter eller modeller slik at de jobber sammen mot et felles mål. Viktig i komplekse KI-arbeidsflyter.
MCP (Model Context Protocol)
En åpen standard fra Anthropic som lar KI-modeller koble seg til eksterne datakilder og verktøy på en strukturert måte. Tenk på det som USB-C for KI-integrasjoner.
Arbeidsflyt (Workflow)
En sekvens av automatiserte steg der KI inngår som én eller flere komponenter. F.eks. hente data → analysere → generere rapport → sende e-post.
Trening og optimalisering
RLHF (Reinforcement Learning from Human Feedback)
En treningsmetode der menneskelige vurderinger av modellens svar brukes til å justere og forbedre den. Sentralt i utviklingen av ChatGPT og Claude.
Overvåket læring (Supervised Learning)
Maskinlæring der modellen trenes på par av inndata og forventet svar. Mennesker har merket opp dataene på forhånd.
Uovervåket læring (Unsupervised Learning)
Læring uten merkede data – modellen finner strukturer og mønstre på egenhånd. Brukes bl.a. til å gruppere data eller oppdage anomalier.
Overfitting
Når modellen lærer treningsdataene for godt – og presterer dårlig på nye, ukjente data. Som å pugge fasit i stedet for å forstå faget.
Benchmark
En standardisert test for å måle og sammenligne modellers evner. MMLU og HumanEval er eksempler. Nyttig, men ikke alltid representativt for reell ytelse.
Compute
Beregningskraft – CPU, GPU, TPU – som kreves for å trene og kjøre KI-modeller. En av de viktigste begrensende faktorene i KI-utvikling i dag.
GPU (Graphics Processing Unit)
Grafikkbrikker som viste seg svært godt egnet for parallell matrisemultiplikasjon – selve kjernen i nevral nettverksberegning. Nvidia dominerer dette markedet.
Sikkerhet og etikk
KI-sikkerhet (AI Safety)
Fagfeltet som handler om å sikre at KI-systemer oppfører seg som tiltenkt, ikke forårsaker skade og er i tråd med menneskelige verdier – spesielt etter hvert som systemene blir mer kapable.
Alignment
Å sørge for at en KI-modell handler i tråd med menneskelige intensjoner og verdier. Et av de store uløste problemene i KI-forskningen.
Bias
Skjevheter i modellen som gjenspeiler skjevheter i treningsdataene. Kan føre til systematisk urettferdig behandling av bestemte grupper.
Prompt injection
Et angrep der ondsinnet tekst i inndata prøver å manipulere en KI-modell til å ignorere instruksjoner og gjøre noe annet enn tiltenkt.
Guardrails
Begrensninger og sikkerhetstiltak innebygd i en KI-modell for å hindre uønsket atferd – som å produsere skadelig innhold eller avsløre sensitiv informasjon.
EU AI Act
EUs regulatoriske rammeverk for kunstig intelligens, vedtatt i 2024. Klassifiserer KI-systemer etter risiko og setter krav til åpenhet, testing og menneskelig tilsyn.
Bruk og implementering
API (Application Programming Interface)
Et grensesnitt som lar programmer kommunisere med hverandre. Å bruke Claude eller GPT via API betyr at du integrerer modellen direkte i din egen applikasjon.
Kopilot (Copilot)
En KI-assistent som jobber side om side med en bruker, ikke i stedet for. Microsoft Copilot i Word og GitHub Copilot i kode er typiske eksempler.
Vektorbase (Vector Database)
En database spesialbygd for å lagre og søke i embeddings. Nøkkelkomponent i RAG-systemer. Eksempler: Pinecone, Weaviate, pgvector.
System prompt
En skjult instruksjon som definerer hvordan en KI-modell skal oppføre seg i en gitt applikasjon – tone, rolle, begrensninger. Brukeren ser den vanligvis ikke.
Chain-of-thought (CoT)
En prompting-teknikk der modellen bes tenke steg for steg, i stedet for å hoppe rett til svaret. Forbedrer nøyaktigheten på resonneringsoppgaver.
Dette er ikke en statisk liste. KI-feltet er i konstant bevegelse, og nye begreper dukker opp hver måned. Vi vil oppdatere denne ordlisten jevnlig etter hvert som landskapet endrer seg.
Vil du vite mer om hvordan Frontkom kan hjelpe din organisasjon å ta KI i bruk på en strukturert og trygg måte? Ta gjerne kontakt med oss.


