I en workshop for nylig fik jeg det spørgsmål, alle går og kredser om: Får vi stadig brug for CPQ-systemer, hvis kunstig generel intelligens (AGI) bliver en realitet? Jeg har arbejdet med CPQ siden 2000. Mønstret er det samme: CPQ klarer validering og struktur med bravur, men kommer til kort i det øjeblik, der rent faktisk skal lukke en handel. Sælgeren skal stadig kunne svare på det menneskelige spørgsmål, som kunden i virkeligheden stiller: Hvorfor er lige præcis *denne* konfiguration den rigtige for *min* situation? Store sprogmodeller (LLM'er) kan tale om "hvorfor". De kan ræsonnere over scenarier, afveje fordele og ulemper og gøre det komplekse forståeligt. Det ændrer risikobilledet. Truslen er ikke, at AI erstatter CPQ. Truslen er, at AI udstiller, hvor CPQ-systemer i dag kommer til kort. Det forkerte spørgsmål om CPQ's fremtid Diskussionen "AI vs. CPQ" er en afledningsmanøvre. Traditionel CPQ er bygget til korrekthed og governance. Systemet er determ...
En sprogmodel ved godt, hvad en lastbil er. Den ved bare ikke noget om jeres lastbiler. Det er den erkendelse, de fleste rammer, når de prøver at lægge AI oven på et CPQ-system, der kun taler SKU-numre, attributter og regelsæt. Svarene lyder overbevisende, men ræsonnementet er tyndt. Sælgeren spørger, hvorfor sovekabinen anbefales, og systemet trækker på skuldrene. Jeg har set det ske igen og igen: Når først modellen får klar kontekst om, hvorfor hver valgmulighed eksisterer, ændrer samtalen sig. Systemet holder op med at gætte og begynder at rådgive. Forskellen er ikke AI-magi. Det er data med en fortælling. Den del, jeres data mangler Tabeller og regler fortæller systemet, hvad der er gyldigt. De fortæller ikke, hvorfor et valg er smart, hvornår det giver mening, eller hvornår det er en dårlig idé. Det hul tvinger sælgeren tilbage til mailtråde, Excel-ark og sidemandsoplæring. Og så kalder vi det et problem med brugeradoption. Det, AI-systemet mangler for at kunne ræsonnere, er ikk...