Gå videre til hovedindholdet

Vil generativ AI virkelig gøre CPQ-systemer forældede, eller smartere?

I en workshop for nylig fik jeg det spørgsmål, alle går og kredser om: Får vi stadig brug for CPQ-systemer, hvis kunstig generel intelligens (AGI) bliver en realitet? Jeg har arbejdet med CPQ siden 2000. Mønstret er det samme: CPQ klarer validering og struktur med bravur, men kommer til kort i det øjeblik, der rent faktisk skal lukke en handel. Sælgeren skal stadig kunne svare på det menneskelige spørgsmål, som kunden i virkeligheden stiller: Hvorfor er lige præcis *denne* konfiguration den rigtige for *min* situation? Store sprogmodeller (LLM'er) kan tale om "hvorfor". De kan ræsonnere over scenarier, afveje fordele og ulemper og gøre det komplekse forståeligt. Det ændrer risikobilledet. Truslen er ikke, at AI erstatter CPQ. Truslen er, at AI udstiller, hvor CPQ-systemer i dag kommer til kort. Det forkerte spørgsmål om CPQ's fremtid Diskussionen "AI vs. CPQ" er en afledningsmanøvre. Traditionel CPQ er bygget til korrekthed og governance. Systemet er determ...

Jeres CPQ-leverandørs AI-demo er imponerende. Her er, hvad den ikke viser jer.

Your CPQ Vendor's AI Demo is Impressive. Here’s What It’s Not Showing You.

Efter AI-demoen: Når begejstringen har lagt sig

Stemningen i lokalet er elektrisk. En leverandør har lige skrevet en enkelt sætning, og ud er kommet en konfiguration på 12 linjer, komplet med priser og et følgebrev, der kunne være skrevet af jeres bedste sælger. En hvisker: "Hvis det dér virker, kan vi springe halvdelen af vores proces over." Regnskabschefen ser på dig, som om du lige har tryllet penge frem.

Jeg har været i det rum mange gange. Jeg husker et pilotprojekt, hvor en AI sammensatte en snedig pakkeløsning med en smart rabatmodel. Det så perfekt ud. Lige indtil vores jurister underkendte den, fordi den brød med en prispolitik, der eksisterer af en grund. Det er dér, begejstring bliver til koldsved.

Presset melder sig. Konkurrenterne rykker. Direktøren spørger, om I kan rulle det ud inden kvartalets udgang. Det er præcis her, man træffer de forkerte beslutninger.

Kig på bremserne, ikke motoren

Den gængse tanke er simpel: Den bedste AI CPQ er den, der automatiserer mest. Som fjerner flest klik og udfylder flest felter. Men det er også opskriften på problemer.

Man spørger til motorens tophastighed uden at have tjekket bremserne. De mest følsomme kommercielle data – kunde-id, konfigurationsregler, pris- og rabatstrukturer, kontraktvilkår – skal flyde gennem systemet. En flot demo kan skjule uacceptable risici.

CPQ handler ikke om automation – det handler om korrekthed.

Den sikreste og mest effektive AI-løsning til CPQ er ikke en ren generativ "black box". Det er en hybrid. Generativ AI gør systemet lettere at tale med. Symbolsk logik garanterer, at resultatet er korrekt. AI hjælper dig med at tale til regelmotoren, men den får aldrig lov til at bryde reglerne.

AI erstatter ikke logik – den er afhængig af den.

Når jeg siger det, får jeg ofte modspillet: "Men det så jo rigtigt ud i demoen." Selvfølgelig gjorde det det. Demoer er polerede. Den virkelige verden er rodet – undtagelser, regionale priser, særregler, gamle specialtilfælde. Hvis systemet ikke kan forklare sig selv, vil dit team ikke stole på det, og udrulningen går i stå.

Hvis systemet ikke kan forklare sig selv, vil ingen stole på det.

Her er de regler, jeg bruger, når jeg sidder på jeres side af bordet:

  • Regel 1 – Betragt datasuverænitet som en dealbreaker, ikke et flueben. Du skal vide præcis, hvor kunde- og prisdata flyder hen, hvem der kan se dem, og om de bruges til træning. Hvis leverandøren ikke kan tegne dataflowet, har du ikke kontrol.
  • Regel 2 – AI er interfacet. Regelmotoren er loven. Forslag fra AI'en skal valideres af symbolsk logik, før de rammer et tilbud, en stykliste eller en ERP-overførsel. Ingen undtagelser.
  • Regel 3 – "Hvorfor" er en del af brugerfladen. Ethvert AI-genereret output skal ledsages af en forklaring: hvilke regler der blev anvendt, hvilke begrænsninger der gjaldt. Hvis en sælger ikke kan gennemskue det, mister de tilliden.
  • Regel 4 – Sikkerhed er en levende praksis. Kryptering under overførsel, lagring og behandling. Rollebaseret adgang. Audit-logs, en revisor rent faktisk kan bruge. Overholdelse af GDPR, ISO 27001 og SOC 2, ikke kun logoer på en slide.
  • Regel 5 – Pas på "black box"-løsningen. Den lover magiske resultater uden sporbarhed. Det føles hurtigt og smart, indtil systemet opfinder en rabat, konfiguration eller betingelse, som ingen kan redegøre for. Sådan mister man både en aftale og en kunde.

De tre afgørende samtaler med leverandøren

Spring ønskelisten med features over. Tag i stedet tre strategiske samtaler, og lyt efter klarhed, ikke karisma.

1) Samtalen om datasuverænitet

Hvor bor vores kommercielle data, hvem har adgang, og bliver de brugt til træning? Bed leverandøren om at gennemgå det fulde dataflow. Hvad sendes til AI-funktionerne, hvor gemmes det, og hvilke underleverandører er involveret? Hvis I kræver, at data udelukkende behandles i EU, kan de så bevise det?

Jeres røde linjer bør være klare: Kunde- og prisdata bruges aldrig til at træne offentlige systemer. Aldrig. Det skal stå i kontrakten. Databehandleraftalen skal definere grænserne. Hvis du ikke kan håndhæve det, er det en risiko forklædt som innovation.

2) Samtalen om korrekthed og tillid

Hvordan beviser vi, at AI'ens output er korrekt? Kan systemet forklare sig selv? Hvad forhindrer det i at "hallucinere" en pris eller en konfiguration? Det rigtige svar er enkelt: Generativ AI ligger oven på en logikmotor, og alle forslag valideres, før de bliver en del af et tilbud. Leverandøren skal vise jer en proces, hvor AI'en laver et udkast, regelmotoren validerer det, og først derefter kan et menneske godkende.

Jeg har set teams, der prøver det omvendte: Lad AI'en bestemme, og håb, at reglerne fanger fejlene. Det er som at bygge et hus på sand. Sæt logikken først og teksten bagefter. Betragt AI som en autopilot for tilbudsprocessen. Du flyver stadig flyet, men færdselsreglerne er indkodet og kan ikke brydes.

3) Samtalen om styring og kontrol

Hvordan sikres, opdateres og vedligeholdes AI-løsningen? Er den en integreret del af platformen eller en påklistret funktion? Du vil have kryptering i alle led, rollebaseret adgang, adgangskontrol på feltniveau og et audit-spor, du rent faktisk kan bruge i en undersøgelse.

Spørg ind til opdateringer: Hvordan testes de, og hvordan kan man fastholde en version i højsæsonen? Hvis leverandøren ikke selv bruger sin egen AI internt, skal du være på vagt. Hvis de ikke selv stoler på den, hvorfor skulle dit salgsteam så gøre det?

Compliance er en praksis, ikke et klistermærke. Hold deres påstande op imod GDPR og EU's AI Act.

I sidste ende er adoption det eneste, der betyder noget.

Konkrete skridt, du kan tage med det samme:

  • Gennemgå dataflowet med leverandøren på 60 minutter. Tegn alle stop for kunde-, pris- og produktdata gennem AI-funktionerne på én slide. Markér lagring, region, opbevaringstid og adgang. Hvis billedet er uklart, er I ikke klar.
  • Skriv tre ufravigelige krav ind i kontrakten. 1) Ingen brug af jeres data til træning. 2) Garantier for behandlingsregion, der matcher jeres markeder. 3) Sporbarhed som et acceptkriterie – output skal henvise til regler og valideringer.
  • Kør pilotprojekt med klare spilleregler. Konfigurer systemet, så AI-forslag ikke kan omgå regelmotoren. Slå fuld audit-log til. Gennemgå afviste forslag og fejl ugentligt for at forbedre reglerne, ikke for at løsne dem.

En kort historie fra mit eget arbejde: Ved en udrulning i en multinational virksomhed brugte vi AI som skriveassistent til løsningsbeskrivelser, mens konfiguration og priser var låst til faste regler. Tilbuddene blev hurtigere. Fejlene færre. Sælgerne stolede på systemet, fordi det kunne vise sit arbejde. Det er den rigtige gevinst.

Et sidste modargument, jeg ofte hører: "Men vores konkurrenter går all-in på AI." Måske. Eller også leverer de selvsikre fejl på samlebånd. Fremskridt uden kontrol er teater, ikke forretning.

Den nøgterne sandhed:

Et hurtigt tilbud er rart. Et korrekt, gennemskueligt og sikkert tilbud er omsætning.

Kommentarer

Populære opslag fra denne blog

Din nye salgsagent har brug for en sjæl: Lektioner fra Claudes forfatning

Hvorfor bliver den ved med at spørge, hvilken spænding jeg skal bruge? Hele pointen er jo, at jeg ikke ved det endnu. Jeg har set en kunde opgive et 'guided selling'-flow tre klik før målstregen, fordi systemet ikke kunne håndtere et simpelt "det er jeg ikke sikker på". Logikken var fin nok. Oplevelsen var elendig. Systemet vidste alt om produktet og intet om brugeren. Amanda Askell fra Anthropic forklarede engang, hvordan de gav deres AI-model Claude en 'personlighed' – ikke bare et regelsæt, men en karakter. En fornemmelse for, hvad den bør gøre, når virkeligheden ikke er pæn og firkantet. Det er ikke science fiction. Det er præcis det, din CPQ-assistent mangler. En CPQ-bot uden en stemme er bare en formular med punktummer. Personlighed slår regler i 'guided selling' De fleste tror, problemet er prompts, flows eller et ekstra betinget spørgsmål. Det er det ikke. Problemet er, at din assistent ingen personlighed har. Den kan validere, men den kan ikk...