🧠 Teknisk Grundforståelse
Hvad er forskellen på AI, sprogmodeller og almindelig software?
🟢 Teknisk Grundforståelse
Hvad er almindelig software?
Almindelig software følger faste regler som en programmør har skrevet:
IF kunde bestiller mere end 10 produkter
THEN giv 10% rabat
- ✅ Forudsigeligt: Samme input giver altid samme output
- ✅ Regler: Alt er programmeret på forhånd
- ❌ Ikke fleksibelt: Kan ikke håndtere situationer uden for reglerne
Eksempel: En lommeregner, Excel-formler, automatisk sortering af emails i mapper
Hvad er AI (Kunstig Intelligens)?
AI kan lære mønstre fra data og træffe beslutninger:
- 🎯 Lærer af eksempler i stedet for faste regler
- 🎯 Tilpasser sig nye situationer
- 🎯 Kan håndtere kompleksitet som mennesker ikke kan programmere regler for
Eksempel:
- Billedgenkendelse (er dette en kat eller en hund?)
- Spam-filtre der lærer hvad der er spam
- Anbefalinger på Netflix baseret på dine tidligere valg
Hvad er en Sprogmodel (LLM)?
Large Language Model (LLM) er en type AI specialiseret i sprog:
- 📝 Forstår og genererer tekst på menneskeligt niveau
- 📝 Trænet på enorme mængder tekst fra internettet
- 📝 Kan svare, skrive, oversætte, forklare og meget mere
Eksempler: ChatGPT, Google Gemini, Microsoft Copilot
Hvordan fungerer det?
- Trænet på milliarder af sider tekst
- Har lært mønstre i hvordan mennesker kommunikerer
- Forudsiger det næste ord baseret på kontekst
En sandsynlighedsmodel demo: https://chatgpt.com/canvas/shared/68dcbab6714c8191ae1b955bea8827a3
Temperature - Kreativitet vs. Konsistens
LLM’er har en “temperatur” indstilling (0.0 - 2.0) der styrer kreativitet:
| Temperature | Beskrivelse | Brug til |
|---|---|---|
| 0.0 - 0.3 | Meget konsistent, forudsigelig | Fakta, tekniske dokumenter, møde-referater |
| 0.4 - 0.7 | Balanceret | Generelle opgaver, emails, rapporter |
| 0.8 - 1.2 | Kreativ, varierende | Brainstorming, kreativ skrivning, ideer |
| 1.3 - 2.0 | Meget kreativ, eksperimenterende | Kunstnerisk, eksperimenterende indhold |
Eksempel: Møde-referat med forskellige temperaturer
Prompt: “Skriv et møde-referat baseret på: Projektstatus opdatering, deadline næste uge, budget OK. Brug Ai temperatur på 0.1"”
Temperature 0.1 (Konsistent):
MØDE-REFERAT
Dato: [dato]
Deltagere: [navne]
AGENDA:
1. Projektstatus opdatering
2. Deadline næste uge
3. Budget status
BESLUTNINGER:
- Projektet fortsætter som planlagt
- Deadline bekræftet til næste uge
- Budget er i orden
NÆSTE STEG:
- Implementering af næste fase
- Status opdatering før deadline
Temperature 1.4 (Kreativ):
Prompt: “Skriv et møde-referat baseret på: Projektstatus opdatering, deadline næste uge, budget OK. Brug Ai temperatur på 1.4"”
🚀 PROJEKT BOOST MØDE
Dato: [dato]
Vi startede med en energisk status opdatering der viste, at vi er på rette spor!
Projektet har fået nye ben og løber mod deadline med selvtillid.
🎯 DEADLINE REALITY CHECK
Næste uge's deadline blev diskuteret med en blanding af entusiasme og realistisk planlægning.
Teamet er klar til sprint-modus og har allerede identificeret accelerations-muligheder.
💰 BUDGET VICTORY
Den gode nyhed: Budget'et griner af os (på den gode måde). Vi har plads til at
levere kvalitet uden at bekymre os om økonomien.
🔥 NÆSTE LEVEL:
- Kick-ass implementering med turbo-gear
- Daglige check-ins for at holde momentum
- Celebration plan klar til når vi når målet!
Pointe: Samme input, helt forskellige outputs! Temperature 0.1 = professionel og konsistent, Temperature 1.4 = kreativ og engagerende.
Ai temperatur skala går fra 0.0 til 2.0
Forskellen mellem de tre teknologier
| Type | Hvordan virker det? | Styrker | Svagheder |
|---|---|---|---|
| Almindelig software | Følger programmerede regler | Præcis, forudsigelig, hurtig | Kan ikke håndtere nye situationer |
| AI (generelt) | Lærer mønstre fra data | Fleksibel, kan generalisere | Kræver træningsdata, mindre forudsigelig |
| Sprogmodel (LLM) | Lærer sprog-mønstre fra tekst | Naturlig kommunikation, bred viden | Kan “hallucinere” (opfinde facts) |
Hvorfor er sprogmodeller revolutionerende?
Før sprogmodeller:
- Software skulle programmeres til hver specifik opgave
- Krævede eksperter og tid at bygge
Med sprogmodeller:
- ✅ Én model kan løse tusindvis af opgaver
- ✅ Du instruerer med almindeligt sprog (prompts)
- ✅ Ingen programmering nødvendig
- ✅ Kan tilpasse sig din kontekst
Eksempel fra konsulentarbejde:
Gammel metode:
Brug 2 timer på at skrive projekt-rapport manuelt
Ny metode med LLM:
"Skriv en projekt-rapport baseret på disse data: [indsæt data]
Målgruppe: Ledelse
Ton: Professionel og konkret
Fokus: ROI og anbefalinger"
→ Rapport klar på få minutter
→ Du bruger tid på at reviewe og finpudse
Teknisk dybde: Hvordan fungerer LLMs?
Arkitektur: Transformer-modeller
- Tokenisering: Tekst opdeles i “tokens” (ord/dele af ord)
- Embeddings: Ord konverteres til vektorer (tal-repræsentationer)
- Attention-mekanisme: Modellen lærer hvilke ord der relaterer til hinanden
- Prediction: Forudsiger næste ord baseret på sandsynlighed
Træningsproces:
- Pre-training: Læser milliarder af tekster og lærer sprog-struktur
- Fine-tuning: Specialiseres til specifikke opgaver (f.eks. at være hjælpsom)
- RLHF (Reinforcement Learning from Human Feedback): Lærer præferencer fra mennesker
Begrænsninger du skal kende
1. Hallucination (opfinder facts)
- LLM’er “gætter” altid det næste ord baseret på sandsynlighed
- Kan skabe troværdige, men forkerte påstande
- Løsning: Verificer altid fakta, især tal og kilder
2. Kontekst-vindue (begrænset hukommelse)
- Kan kun “huske” en begrænset mængde tekst (f.eks. 128K tokens = ~100 sider)
- Løsning: Brug RAG (Retrieval Augmented Generation) til lange dokumenter
3. Træningsdata cutoff
- Ved ikke om begivenheder efter trænings-datoen
- ChatGPT-4: Data til april 2023
- Løsning: Kombiner med søgemaskiner eller real-time data
4. Bias fra træningsdata
- Reflekterer bias fra internettet
- Løsning: Vær kritisk, test for bias i outputs
1. Iterativ forbedring
- Start med simpel prompt
- Analyser output
- Tilføj constraints og context
- Gentag til tilfredsstillende resultat
📚 Nøgleord at huske
- Deterministic (software): Samme input → samme output
- Stochastic (LLM): Samme input → varierende output
- Prompt: Din instruktion til LLM’en
- Token: Grundlæggende enhed af tekst (ord/dele)
- Hallucination: Når LLM opfinder facts
- Context window: Hvor meget tekst LLM kan “huske”
💡 Tip: Start altid med at forstå teknologiens begrænsninger – så ved du hvornår du kan stole på den.
Et eksempel på sprogmodellernes avancerede evner og ‘situational awareness’ kan ses i denne artikel: ‘I think you’re testing me’: Anthropic’s newest Claude model knows when it’s being evaluated