Gå videre til hovedindholdet

Vil generativ AI virkelig gøre CPQ-systemer forældede, eller smartere?

I en workshop for nylig fik jeg det spørgsmål, alle går og kredser om: Får vi stadig brug for CPQ-systemer, hvis kunstig generel intelligens (AGI) bliver en realitet? Jeg har arbejdet med CPQ siden 2000. Mønstret er det samme: CPQ klarer validering og struktur med bravur, men kommer til kort i det øjeblik, der rent faktisk skal lukke en handel. Sælgeren skal stadig kunne svare på det menneskelige spørgsmål, som kunden i virkeligheden stiller: Hvorfor er lige præcis *denne* konfiguration den rigtige for *min* situation? Store sprogmodeller (LLM'er) kan tale om "hvorfor". De kan ræsonnere over scenarier, afveje fordele og ulemper og gøre det komplekse forståeligt. Det ændrer risikobilledet. Truslen er ikke, at AI erstatter CPQ. Truslen er, at AI udstiller, hvor CPQ-systemer i dag kommer til kort. Det forkerte spørgsmål om CPQ's fremtid Diskussionen "AI vs. CPQ" er en afledningsmanøvre. Traditionel CPQ er bygget til korrekthed og governance. Systemet er determ...

CPQ-ræsonnement på DTU

CPQ reasoning at DTU

AI-assisteret CPQ-træning – fra teori til et brugbart resultat

Her er lidt information om vores kommende træning den 24.-25. marts.

Workshoppen er for ledere inden for CPQ, produkt og salg, der vil i gang med AI i produktkonfiguration – uden at gå på kompromis med korrekthed, governance eller eksisterende systemer.

I stedet for at fokusere på værktøjer eller fremtidsvisioner introducerer vi en praktisk model: Hvordan I kan supplere jeres CPQ-setup med AI ved at adskille **kontekst til beslutninger** fra **regler for korrekthed**. Den adskillelse lader AI give fart og brugervenlighed, mens jeres eksisterende CPQ-logik fortsat sikrer gyldige konfigurationer og priser.

Formatet er to koncentrerede halvdagssessioner. Det sikrer fokus og fremdrift. I arbejder hands-on, først med et fælles referenceeksempel og derefter med et udsnit af jeres eget produkt. Målet er ikke en overfladisk demo, men et konkret resultat, I kan tage med hjem og evaluere.

Hvad denne træning er:

  • En struktureret introduktion til logik i CPQ med AI
  • En hands-on øvelse i at onboarde og validere produktlogik
  • En pragmatisk måde at afprøve AI uden at udskifte eksisterende systemer

Hvad denne træning ikke er:

  • Et projekt for at udskifte jeres CPQ-system
  • Et generisk kursus i AI eller prompt-skrivning
  • Et teoretisk forløb uden konkrete resultater

Når vi slutter ved frokosttid på andendagen, har I en fælles forståelse for, hvordan AI kan introduceres ansvarligt i tilbudsprocessen – og et fungerende, gennemskueligt eksempel baseret på jeres egen produktvirkelighed.

Agenda for de to halve dage

Træningen er designet som to fokuserede sessioner: **eftermiddag på dag 1** og **formiddag på dag 2**. Vi slutter ved frokosttid. Formatet er hands-on hele vejen med korte moduler og pauser, der holder energien oppe.

Dag 1 — Eftermiddag (12:00–17:00)

  • 12:00–12:30 | Frokostsandwich (valgfrit)
  • 12:30–12:50 | Introduktion
    • Hvorfor AI er relevant for CPQ
    • Værktøjer, arbejdsmodel og mål for dagene
  • 12:50–13:20 | Modul 2: Lastbil-eksempel (reference)
    • Hvad en sprogmodel kan (og ikke kan) som konfigurator
    • Hvorfor regler er afgørende for korrekthed og governance
  • 13:20–13:30 | Pause
  • 13:30–13:50 | Roundtable: Business cases for AI i CPQ
    • Kortlæg jeres prioriteter: hastighed, korrekthed, salg, onboarding, support
    • Definer et realistisk 'udsnit' at bygge videre på
  • 13:50–14:20 | Modul 3: Onboarding af et nyt produkt
    • Hands-on: onboarding og modellering af prompts
    • At skrive effektive produktbeskrivelser; moduler og varianter
  • 14:20–14:30 | Pause
  • 14:30–15:10 | Modul 4: Finjustering af logik
    • Hands-on finjustering af logik og beskrivelser
    • Test af assistentens dialog og forbedring af output
  • 15:10–15:20 | Pause
  • 15:20–16:00 | Modul 5: End-to-end test (tilbudsflow)
    • Gennemgang af scenarier og diskussion
    • Identificer huller og definer, hvad 'korrekt og gennemskueligt' betyder for jer
  • 16:00–16:30 | Modul 6: Opsamling og refleksion
    • Vigtigste pointer, beslutninger og næste skridt for dag 2
  • 16:30–17:00 | Briefing til opgaven
    • Recap af metoden: Kontekst vs. Regler
    • Forklaring af opgaven, succeskriterier og data
    • Hold af to dannes

Dag 2 — Formiddag (opgave-baseret, 09:00–12:30)

  • 09:00–11:00 | Team-opgave: Byg og validér
    • Hvert hold arbejder hands-on med et forberedt produktdatasæt
    • Definer kontekst til beslutninger (scenarier, forklaringer)
    • Implementer et lille sæt regler for korrekthed
    • Test konfigurationer for at sikre gennemskuelighed og gyldige resultater
  • 11:00–11:10 | Kort pause
  • 11:10–11:50 | Præsentationer fra holdene
    • Hvert hold præsenterer sin løsning
    • Gennemgang af logik, regler og de resulterende konfigurationer
    • Fælles diskussion af forskelle, indsigter og valg
  • 11:50–12:00 | Opsamling og afslutning
    • Vigtigste læringer fra opgaven
    • Diskussion: Hvordan metoden kan bruges i jeres CPQ-miljø
    • Næste skridt og opfølgning
  • 12:00–12:30 | Frokostsandwich

Kommentarer

Populære opslag fra denne blog

Din nye salgsagent har brug for en sjæl: Lektioner fra Claudes forfatning

Hvorfor bliver den ved med at spørge, hvilken spænding jeg skal bruge? Hele pointen er jo, at jeg ikke ved det endnu. Jeg har set en kunde opgive et 'guided selling'-flow tre klik før målstregen, fordi systemet ikke kunne håndtere et simpelt "det er jeg ikke sikker på". Logikken var fin nok. Oplevelsen var elendig. Systemet vidste alt om produktet og intet om brugeren. Amanda Askell fra Anthropic forklarede engang, hvordan de gav deres AI-model Claude en 'personlighed' – ikke bare et regelsæt, men en karakter. En fornemmelse for, hvad den bør gøre, når virkeligheden ikke er pæn og firkantet. Det er ikke science fiction. Det er præcis det, din CPQ-assistent mangler. En CPQ-bot uden en stemme er bare en formular med punktummer. Personlighed slår regler i 'guided selling' De fleste tror, problemet er prompts, flows eller et ekstra betinget spørgsmål. Det er det ikke. Problemet er, at din assistent ingen personlighed har. Den kan validere, men den kan ikk...