Gå videre til hovedindholdet

Vil generativ AI virkelig gøre CPQ-systemer forældede, eller smartere?

I en workshop for nylig fik jeg det spørgsmål, alle går og kredser om: Får vi stadig brug for CPQ-systemer, hvis kunstig generel intelligens (AGI) bliver en realitet? Jeg har arbejdet med CPQ siden 2000. Mønstret er det samme: CPQ klarer validering og struktur med bravur, men kommer til kort i det øjeblik, der rent faktisk skal lukke en handel. Sælgeren skal stadig kunne svare på det menneskelige spørgsmål, som kunden i virkeligheden stiller: Hvorfor er lige præcis *denne* konfiguration den rigtige for *min* situation? Store sprogmodeller (LLM'er) kan tale om "hvorfor". De kan ræsonnere over scenarier, afveje fordele og ulemper og gøre det komplekse forståeligt. Det ændrer risikobilledet. Truslen er ikke, at AI erstatter CPQ. Truslen er, at AI udstiller, hvor CPQ-systemer i dag kommer til kort. Det forkerte spørgsmål om CPQ's fremtid Diskussionen "AI vs. CPQ" er en afledningsmanøvre. Traditionel CPQ er bygget til korrekthed og governance. Systemet er determ...

Vil generativ AI virkelig gøre CPQ-systemer forældede, eller smartere?

Will Generative AI Really Make CPQ Systems Obsolete, Or Smarter?

I en workshop for nylig fik jeg det spørgsmål, alle går og kredser om: Får vi stadig brug for CPQ-systemer, hvis kunstig generel intelligens (AGI) bliver en realitet?

Jeg har arbejdet med CPQ siden 2000. Mønstret er det samme: CPQ klarer validering og struktur med bravur, men kommer til kort i det øjeblik, der rent faktisk skal lukke en handel. Sælgeren skal stadig kunne svare på det menneskelige spørgsmål, som kunden i virkeligheden stiller: Hvorfor er lige præcis *denne* konfiguration den rigtige for *min* situation?

Store sprogmodeller (LLM'er) kan tale om "hvorfor". De kan ræsonnere over scenarier, afveje fordele og ulemper og gøre det komplekse forståeligt. Det ændrer risikobilledet. Truslen er ikke, at AI erstatter CPQ. Truslen er, at AI udstiller, hvor CPQ-systemer i dag kommer til kort.

Det forkerte spørgsmål om CPQ's fremtid

Diskussionen "AI vs. CPQ" er en afledningsmanøvre. Traditionel CPQ er bygget til korrekthed og governance. Systemet er deterministisk: samme input, samme output. Det sikrer, hvad der er tilladt, og beregner, hvad det koster. Det er fundamentalt i kompleks produktion, hvor forskellen på en gyldig konfiguration og en fejl er forskellen på overskud og kaos.

Men et salg starter sjældent med et varenummer. Det starter med et scenarie: snævre gader i en storby, lejlighedsvis offroad-kørsel, plads til fire mand og en snak om totalomkostninger over fem år (TCO). LLM'er er gode til den slags ræsonnementer. De kan afkode kontekst, sammenligne muligheder og forklare kompromiser i et klart sprog. De erstatter ikke de hårde regler for, hvad der er teknisk muligt, men de forkorter vejen til et velinformeret og forsvarligt valg.

Hvis din tilbudsproces ikke kan forklare sig selv undervejs, finder sælgerne en vej udenom.

Se på markedet. Salesforce har sat deres gamle CPQ-system på "end-of-sale" for nye kunder og styrer dem mod en ny Revenue Cloud-platform til en højere pris. Det er et skifte, der tvinger alle med et CPQ-system til at spørge: Hvis vi alligevel skal flytte os, hvad skal vi så flytte os *hen imod*?

Hvis svaret bare er "det næste CPQ-system", misser man pointen. Evnen til at *ræsonnere* over et produkt bliver vigtigere end blot at kunne *validere* det.

Hvorfor er det anderledes denne gang?

I årtier har vi accepteret et kompromis: fart mod tillid. Excel er hurtigt, men skrøbeligt. CPQ er pålideligt, men ofte langsomt at tilpasse og svært at få forklaringer ud af. LLM'er vender op og ned på den ligning. Men to begrænsninger holder os på jorden. For det første er LLM'er probabilistiske; de kan være overbevisende, men forkerte. For det andet har salg til industrien brug for garantier. Man bygger ikke MR-scannere eller industrianlæg på sandsynligheder.

Løsningen tegner sig allerede: Brug eksplicit, testbar logik til validering og pris, og lad sprogmodeller håndtere dialogen med kunden, scenarie-analyse og forklaringer. Systemet er sikkerhedsnettet. Det nye lag er guiden.

Regler garanterer korrekthed. Sprogmodeller komprimerer tid.

Hvorfor det haster:

  • Tvungne systemskift fra leverandørerne betyder, at beslutningen skal tages nu.
  • Prispres er reelt. En høj pris pr. bruger tvinger en diskussion om den reelle værdi i hverdagen frem.
  • Købsadfærden har ændret sig. Hvis de officielle værktøjer halter bagefter regneark og ChatGPT, finder afdelingen selv en løsning.

En hybrid arkitektur for CPQ

Her er arkitekturen, der løser det gamle kompromis uden at satse hele butikken på den seneste hype. Tænk på det som et lag af ræsonnement oven på den eksplicitte logik:

1. **Eksplicit produktlogik som fundament.** Regler, begrænsninger og prislogik hører hjemme i et system, der er deterministisk og testbart. Det er her, styklisten, bygbarheden og lommeprisen hører hjemme.

2. **Et konversationelt lag ovenpå.** Brug LLM'er til at fange kundens intention, sammenligne muligheder og forklare afvejninger. Det er her, spørgsmål som "Hvorfor vælge denne gearkasse til bykørsel?" rent faktisk bliver besvaret. LLM'en foreslår, reglerne afgør.

3. **Forklaring som en del af designet.** Hver anbefaling skal ledsages af en verificerbar begrundelse. Hvis systemet ikke kan vise, *hvorfor* et valg er gyldigt og at foretrække, er det ikke klar til brug.

4. **Sikkerhedsnet og test-suiter.** Behandl LLM'en som en juniorkonsulent: stærk, men kræver opsyn. Kør dens forslag gennem regelmotoren for at sikre validitet.

5. **Progressiv datastrategi.** Start småt, men struktureret. Beskriv produktet i et sprog, der er specifikt nok til, at en model kan ræsonnere over det. Fremskridt er bedre end perfektion.

I praksis betyder det, at jeres roadmap skifter fokus:

  • Kort sigt: Sæt en intelligent grænseflade foran 2-3 af de mest brugte tilbudsprocesser. Bevar den nuværende CPQ- eller ERP-logik som dommer.
  • Næste skridt: Gør forklaringerne synlige. Få systemet til at undervise, mens det genererer tilbud.
  • Derefter: Opbyg governance omkring ændringer. Forkort processen fra idé til live fra måneder til dage.

Hvem vinder? De teams, der accepterer, at fortællingen er en del af konfigurationen. De får systemet til både at ræsonnere og forklare sig på kundens præmisser, mens reglerne i baggrunden sikrer, at der ikke sker noget dumt.

Hvem taber? De, der bruger et år på at skifte værktøj uden at løse kundens reelle indvendinger. De, der satser blindt på en LLM uden et sikkerhedsnet. Og de, der ikke gør noget, vil vågne op til, at sælgerne bruger regneark og en chat-assistent, fordi den officielle vej er for langsom.

Det handler ikke om at vælge en leverandør. Det handler om at vælge en arkitektur, der anerkender, hvad hver teknologi er god til. Determinisme håndterer validitet. Probabilistiske modeller håndterer sprog og sammenligninger. Sæt dem i den rigtige rækkefølge, og du får fart med tillid.

Jeg tror ikke, AGI vil fjerne behovet for CPQ i komplekst B2B-salg. Jeg tror, definitionen af CPQ vil ændre sig. Grænsen rykker. Evnen til at ræsonnere over scenarier og levere forklaringer bliver en kernefunktion, ikke en tilføjelse. Det er dér, vi er nu.

Den reelle risiko er at tro, at det her er noget, der ligger ude i fremtiden. Det sker allerede ude i marken. Kunder forventer at forstå deres valgmuligheder med det samme. Sælgere forventer, at systemet hjælper dem med at tænke, ikke kun klikke.

Så stil et andet spørgsmål. Ikke *om* AI vil gøre CPQ forældet, men *hvor præcist* jeres nuværende system holder op med at hjælpe en kunde med at beslutte sig? Og hvis en assistent nu kan udfylde det hul på minutter, mens jeres regler holder den i kort snor, hvad venter I så på?

Når dit system både kan ræsonnere og vise sit arbejde, hvilken del af dit tilbud skal så stadig en tur i et regneark for at virke troværdigt?

Kommentarer

Populære opslag fra denne blog

Din nye salgsagent har brug for en sjæl: Lektioner fra Claudes forfatning

Hvorfor bliver den ved med at spørge, hvilken spænding jeg skal bruge? Hele pointen er jo, at jeg ikke ved det endnu. Jeg har set en kunde opgive et 'guided selling'-flow tre klik før målstregen, fordi systemet ikke kunne håndtere et simpelt "det er jeg ikke sikker på". Logikken var fin nok. Oplevelsen var elendig. Systemet vidste alt om produktet og intet om brugeren. Amanda Askell fra Anthropic forklarede engang, hvordan de gav deres AI-model Claude en 'personlighed' – ikke bare et regelsæt, men en karakter. En fornemmelse for, hvad den bør gøre, når virkeligheden ikke er pæn og firkantet. Det er ikke science fiction. Det er præcis det, din CPQ-assistent mangler. En CPQ-bot uden en stemme er bare en formular med punktummer. Personlighed slår regler i 'guided selling' De fleste tror, problemet er prompts, flows eller et ekstra betinget spørgsmål. Det er det ikke. Problemet er, at din assistent ingen personlighed har. Den kan validere, men den kan ikk...