Predictive Business Analytics

Plaats uw business analytics team in direct contact met de afdeling die het beste zicht heeft op de meest relevante, invloedrijke en onafhankelijke variabelen, zo adviseert specialist Gary Cokins.

 img

De meest recente Controllersdag van het Belgian Institute of Management Accountants and Controllers (BIMAC) had als onderwerp ‘Forecasting’.

Gary Cokins, een internationaal erkend expert, trad toen op als een van de keynote speakers. Voor een groot publiek bracht hij zijn visie over enterprise en corporate performance-management (EPM/CPM), statistische forecasting, business analytics en de noodzakelijke voorspellende rol van de CFO.

 

Onafhankelijke variabelen

De auteur van het recente boek Predictive Business Analytics wijst op een aantal voordelen, en het meest voor de hand liggende is wel het optimaliseren van de aangeboden productmix en van de organisatie. “Hieraan gekoppeld is het dan vaak de bedoeling om de winst te maximaliseren, rekening houdend met het grote aantal gerelateerde interacties. In onze huidige competitieve markt kan elk bedrijf een voordeel halen uit betere prognoses”, aldus Gary Cokins.

Specifiek voor forecasting wijst Gary Cokins erop dat elk bedrijf eerst de meest relevante en onafhankelijke variabelen moet bepalen. Vaak is dat de vraag van klanten, op basis van volume, prijs en kwaliteit. Bedrijven moeten dus de geschiedenis van hun vraag, aanbod en alle daaraan verbonden kosten en relaties meten en registreren. Met die onafhankelijke variabelen krijgen bedrijven een basis om dat verder te vertalen naar de benodigde productiecapaciteit en mogelijke hendels, de zogenaamde afhankelijke variabelen. “De beste positie van de verantwoordelijke voor het voorspellen ligt volgens mij zo dicht mogelijk bij de klanten en prospecten”, zegt Gary Cokins. Dat betreft meestal de marketing- en salesmedewerkers.

Focus op waarde

Bij big data gaat het dus altijd om een enorme hoeveelheid ruwe brongegevens, die doorgaans worden verzameld op transactieniveau. In dat verband heeft men het meestal over de vier V’s: volume, velocity, variety & value. Gary Cokins: “Globalisering heeft de eerste drie V’s volatiel gemaakt en eenvoudig te kopiëren door concurrenten. Speciale businessmodellen of specifieke organisatiestrategieën zijn tegenwoordig geen waarborg meer voor het verkrijgen of behouden van een concurrentievoordeel.”

“Bedrijven moeten zich bij big data dus richten op de laatste V: het extraheren van meer waarde (value) uit hun enorme stapel van gegevens, en die omzetten in bruikbare en betrouwbare informatie.” Ze moeten eerst alle ‘ruis’ en ‘storingen’ verwijderen. Enkel de overblijvende kern is dan verder bruikbaar in forecastingprocessen en -modellen. “We moeten de toenemende kloof tussen big data en big value overbruggen”, concludeert Gary Cokins.

Nauwkeurige voorspellingen

De nauwkeurigheid van om het even welke prognose daalt onmiddellijk na de projectie ervan, omdat de werkelijke resultaten snel zullen afwijken van de berekende schattingen. Daarom is het beter om vaker een prognose te projecteren, met kortere tussenpozen (bijvoorbeeld van elk kwartaal naar maandelijks of zelfs wekelijks). De forecastinginformatie die daaruit voortvloeit, zal een pak betrouwbaarder zijn. Frequent verfriste prognoses zorgen immers voor een snellere opname van de nieuwste realisaties binnen de eerstvolgende prognose-iteratie. Om dat te kunnen realiseren moeten bedrijven wel een robuust en geïntegreerd softwaresysteem gebruiken, aldus Gary Cokins.

Gary Cokins stelt dat we hier gewoon aan de slag moeten met klassieke statistische technieken en begrippen, zoals lijnregressie, correlatie, clustering en trendanalyse. Kortom, de transformatie van brongegevens in bruikbare informatie voor analyses van ‘what if’-scenario’s. Voor de nauwkeurigheid van de prognoses geldt: hoe meer brongegevens, hetzij in volume, frequentie of beide, hoe beter de uiteindelijke prognoses.

Forecasting, does it matter?

In principe zijn er momenteel ruwweg drie forecastingmanieren. De eerste en vaakst gebruikte is de enige beste gok of ‘single point’-schatting. Voor een verwachte toekomstige waarde berekenen we welgeteld één verwachte waarde. Die ‘single point’-schattingen worden vervolgens gebruikt en samengevoegd in het forecastingproces.

De tweede manier voegt daar probabiliteiten aan toe, vaak door middel van een worstcase-, basislijn- en bestcase-scenario. Elke ‘single point’-schatting wordt nu herberekend naar een reeks van mogelijke discrete uitkomsten. Sommige bedrijven zullen bovendien de gevoeligheid van de variabelen testen, door ze afzonderlijk of tegelijkertijd te verhogen of te verlagen.

De derde forecastingmanier wordt gebruikt door de meest geavanceerde organisaties: de uitbreiding van dat beperkte aantal scenario’s naar een volledig scala van mogelijkheden. Zij schatten de waarschijnlijkheidsverdeling van elke afzonderlijke variabele en evolueren van de drie ‘single point’-schattingen naar een verdelingscurve van tientallen, honderden of zelfs duizenden resultaten. De variabelen worden opgevat als drivers van de resultaten, waarbij het ​​niveau van elke variabele proactief kan worden beheerd op basis van de voorziene gebeurtenis. De breedte en de granulariteit van de distributiecurve nemen toe naarmate de probabiliteit voor elke variabele wordt gesegmenteerd of het aantal variabelen stijgt.

De toekomst van het voorspellen?

Potentieel een machtig instrument dus, maar forecasting als zodanig genereert geen concurrentievoordeel, zo relativeert Gary Cokins. Ten eerste moeten werknemers vaardigheden en competenties ontwikkelen bij de toepassing van business analytics. Vervolgens zijn geldige procedures en effectieve commerciële softwaretools een conditio sine qua non. Ten slotte moet de onderneming een omgeving definiëren die handelen op forecastingresultaten mogelijk maakt en tolereert. “Forecasting is slechts een onderdeel van business analytics, naast het segmenteren of analyseren van historische gegevens.”

Maar Cokins ziet een mooie toekomst voor prognoses, op twee gerelateerde manieren: “Ten eerste zullen de prognoses steeds nauwkeuriger worden door verdere automatisering, inclusief de verwerking van meer gegevens. Het verkrijgen van realtime-resultaten is nog wat te vroeg op dit moment, maar we komen wel steeds dichter bij het ​​verkrijgen en analyseren van gegevens dag + 1-operaties. Ten tweede – en nog belangrijker – is het toenemende zelflerende en zelfcorrigerende vermogen van de algoritmes en forecastingmethodes van softwaretools. Simulatie en ‘what if’-scenario’s worden stilaan standaard aangeboden als functionaliteiten: wat was de kwaliteit van mijn laatste prognose? En waarom? Wat als …? Zelflerende algoritmes analyseren vroegere prognoses en simuleren hoe andere modellen het gedaan zouden hebben. Als de nauwkeurigheid van een superieur model wordt gevonden, dan stapt de software daar automatisch naar over. Zie het als een systeem voor spraakherkenning”, aldus Gary Cokins. “Na een paar pogingen zal het systeem je accent, uitspraak en verwoording begrijpen, en zich dus automatisch aanpassen voor alle toekomstige gevallen.”

Gary Cokins is een expert op het vlak van performance-management en geavanceerde costmanagementsystemen. Hij begon zijn carrière als financial controller bij het chemiebedrijf FMC. Nadien werkte hij vijftien jaar als consultant voor Deloitte, KPMG en EDS. Van 1997 tot 2012 was hij principal consultant bij SAS. Zijn laatste boek met coauteur Lawrence S. Maisel verscheen in 2014, met als titel Predictive Business Analytics: Forward-Looking Capabilities to Improve Business Performance.

NGData pitches continues

My WK1model presentation (in a minimalist way) at bigdata.be’s 20th meetup on 22/1/2014 in Ghent (NG Data’s offices)

Abdelkrim... yes it's me

Datylon is a cloud-based platform for designers, developers and data analysts who want to easily create and manage interactive infographics.

image

WK1 Model by Martin more on http://www.wk1model.com

image

http://bigboards.io a modular cluster that sits on your desk!

image

Datablend, Big data simplified.

image

View original post

Big data en de CFO

Stel dat u als CFO een algemeen saldo op een omzetgrootboekrekening voor een welbepaalde periode volledig kan terugtraceren tot de som van alle individuele orderlijnen van elke klant?

En daarbij ook de bijbehorende aankooporders of de stockrotatie kan achterhalen voor de opbouw van een zeer gedetailleerde margeanalyse?

Ooit GedachtOoit Gedacht

Het zijn een paar vragen die Martin van Wunnik opwerpt, als we hem vragen om eens wat ideeën te verzamelen rond de bruikbaarheid van big-datatechnieken voor de financiële functie. Maar eerst misschien iets voor wie zich nog afvraagt wat bedoeld wordt met ‘big data’.

Traditioneel statistisch onderzoek naar trends of verbanden gebeurt vanuit een hypothese en een zorgvuldig geprepareerde dataset. Maar tegenwoordig is dat niet altijd meer nodig. Onderzoekers vinden soms verbanden met verbazend sterk voorspellende waarde op basis van analyses van datasets die sterk uiteenlopen van aard en kwaliteit en die zeker niet specifiek voor het onderzoek zijn aangelegd. In hun succesboek De Big Data Revolutie schetsen Viktor Mayer-Schönberger en Kenneth Cukier een resem spectaculaire voorbeelden. Zo liet big-datasoftware van IBM toe om te voorspellen welke premature baby’s extra gevaar zouden lopen dankzij captatie van zeer veel gegevens uit sensoren aan de couveuse. Het opmerkelijke is echter niet alleen het volume aan data, maar dat men ook die data registreerde die op het eerste gezicht niet relevant waren. Op basis van de klassieke parameters was men er nooit achter gekomen dat soms erg stabiele waarden juist een crisis voorspelden.

Op vergelijkbare manier kwam Walmart aan recordverkopen van een bepaalde snack. De Amerikaanse groothandelaar houdt gegevens bij van elke aankoop van elke klant. Analisten viel het op een bepaald moment op dat telkens wanneer de National Weather Service waarschuwde voor een orkaan, de winkels in de bedreigde zone een opstoot zagen in de verkoop van Pop-Tarts. Daarop werd winkelmanagers gezegd dat ze die aan de ingang moesten zetten gedurende het orkaanseizoen en de verkopen stegen naar records. Het punt is ook in dit voorbeeld dat men tot onvoorspelbare inzichten komt door computers los te laten op zeer grote en zeer uiteenlopende datasets.

Wij zoeken nog een voorbeeld dichter bij huis, met name bij Luc Burgelman van NGData, een leverancier van software waarmee klantengedrag voorspelbaar wordt op basis van zeer uiteenlopende data over die klant. We vragen hem op welke manier big-data-analyses verschillen van de traditionele? Luc Burgelman: “Klassieke databasesystemen kunnen geen enorme volumes aan en niet de verschillende formats: klank, video, foto, … Naast het volume en de variabiliteit van de data, speelt ook nog eens de snelheid waarmee data verhandeld worden een rol. Uw bank heeft al veel data over zijn klanten, maar er komen nu zoveel meer data dat men ze niet kan opslaan in ‘datawarehouses’ en de systemen zijn niet flexibel genoeg om die uiteenlopende types data in een zinvol geheel te presenteren. 20 jaar geleden ging je naar de bank voor een lening en info daarover kwam in één toepassing. Maar vandaag heb je apps voor je tablet of pc en je surft al eens naar een andere bank. Je hebt makkelijk tien kanalen die alle relevante data genereren, maar de bank heeft daar geen zicht meer op. Al die data zitten in verschillende silo’s.”

Er komt nu geen dataminer meer aan te pas die een subset aan data prepareerde om daar vervolgens iets uit te leren. Burgelman: “Een big-data-analyse vertrekt van veel méér en van actuele gegevens: locatie, recent surfgedrag, wat je opzoekt, programma’s die je bekijkt etc. De vervaltijd van die gegevens is veel korter. We willen nu snel vaststellen dat 99 mensen van een bepaald profiel product X kochten en dan snel het signaal krijgen dat een 100ste persoon van dat profiel dat product zéér waarschijnlijk ook interessant zal vinden. Daar kunnen we nu systemen voor bouwen.”

NGData maakt programma’s waarmee telecoms gedrag van klanten kunnen voorspellen, bijvoorbeeld dat ze van plan zijn om naar een andere provider te gaan. Maar ook kleinschaliger toepassingen zijn mogelijk. Zo deed de krant De Tijd deed iets vergelijkbaars toen een tijd geleden de zoveelste Franse gefortuneerde naar België kwam. De Tijd zocht daarop een manier om betaalbaar en doeltreffend in te schatten wat de economische impact kan zijn van dat fenomeen. Martin van Wunnik zet voor ons uiteen hoe de krant geen economische denktank inzette daarvoor, maar een beroep deed op het bedrijfje data.be. Dat voerde een OCR-analyse (woordherkenning) op de 300.000 gescande openbare pdf-publicaties van het Belgische Staatsblad (voor 2012), gevolgd door een zoektocht op sleutelwoorden met de open-source ElasticSearch-software. Denk daarbij aan zoektermen als ‘Français’, ‘Franse’, ‘oprichting’, ‘kapitaalverhoging’, … Het resultaat was een lijst van enkele honderden gevallen, met telkens een verwijzing naar de onderliggende publicaties op het internet. Die lijst werd dan manueel verder geanalyseerd om het onderscheid te maken tussen zuiver operationele activiteiten en de meer fiscaal geïnspireerde constructies. Enkele terugkomende valse positieven waren: een coördinatie der statuten, het omzetten van het kapitaal van Belgische franken naar euro, het wegvallen van de aandelen aan toonder, … En dat alles waarbij telkens één Fransman betrokken was als zaakvoerder of aandeelhouder. Op basis van de opgeschoonde lijst publiceerde De Tijd begin dit jaar haar artikelreeks en conclusies.

Het voorbeeld illustreert dat enkel brute rekenkracht gebruiken om een enorme hoeveelheid aan gegevens te analyseren, niet volstaat. Toon Vanagt (data.be): “De gevonden resultaten moeten altijd verder worden onderzocht door iemand met kennis van zaken.”

Momenteel is big data de speelplaats van technische profielen, programmeurs, informatici, wiskundigen en statistici, in het algemeen ‘data scientists’ genoemd. Daar wringt het schoentje, omdat de noodzakelijke aanvulling met businessprofielen die een inzicht hebben in de bedrijfsvoering en de juiste vragen kunnen stellen, grotendeels ontbreekt. “Ruw gezegd begrijpen de technische profielen niet de noden en wensen van de eindgebruikers en vice versa. De grotere spelers zoals SAS en IBM proberen op die communicatieproblematiek in te spelen met een aanbod aan gediversifieerde consultancyteams”, aldus Martin van Wunnik.

GIGO

Elk project dat gerelateerd is aan het analyseren van gegevens valt of staat met de kwaliteit van de onderliggende gegevens, conform het adagium ‘garbage in = garbage out’. Hoewel big-dataprojecten daarbij geen uitzondering zijn, moeten we wel een belangrijke kanttekening plaatsen. Net zoals Jef Bezos van Amazon enkele jaren geleden verkondigde (“We do not delete data”), ligt de nadruk bij big-dataprojecten op het behouden van alle gegevens. Er zijn geen vaste, voorgedefinieerde filters of hergroeperingen en absoluut niets wordt verwijderd. “Je bent niets kwijt met big data”, aldus Toon Vanagt van data.be. Een verkeerd ingegeven record blijft uiteraard verkeerd, maar een verkeerde filter of mislukte hergroepering is absoluut geen ramp of reden tot paniek.

Visualisatie en flexbiliteit 

Binnen de werkomgeving van een CFO moet elke oplossing praktisch en direct bruikbaar zijn, dus snel, liefst real-time, visueel en naar eigen wensen flexibel, zo beseft van Wunnik: “Het spreekt vanzelf dat wanneer strategische meerwaarde wordt gezocht, big-dataprojecten ook vooruitziende resultaten moeten leveren.”

“Dat vergt de juiste gegevens, een correcte interpretatie en gefundeerde extrapolatie, zoals politiek analist Nate Silver dat gedaan heeft bij de laatste Amerikaanse verkiezingen (en correct was voor bijna alle staten). Ook hier moet het werk van de data scientist dus zeker verder aangevuld worden om tot een bruikbaar resultaat te komen.”

What’s next?

Specifiek naar financiële profielen ligt er met enige creatieve inzichten een hele resem aan opportuniteiten binnen de financiële big-dataomgeving, gebaseerd op zowel de gegevens binnens- als buitenshuis, zo gelooft van Wunnik.

Van Wunnik: “Stel bijvoorbeeld dat de CFO een algemeen saldo op een omzetgrootboekrekening voor een welbepaalde periode volledig kan terugtraceren tot de som van alle individuele orderlijnen van elke klant?” En daarbij ook de bijbehorende aankooporders of stockrotatie kan achterhalen (voor de opbouw van een zeer gedetailleerde margeanalyse) en input of logginggegevens (op welk moment bestelt de klant meestal voor nieuwe, specifieke marketingactiviteiten).

Naast eigen diepgaande bedrijfsanalyses kan de CFO ook gebruik maken van publieke informatie van andere partijen. Net zoals vandaag een btw-nummer van een Europese partner dagdagelijks gecontroleerd wordt via het internet, zou men in de toekomst hetzelfde kunnen doen met tal van andere, zelf gekozen parameters: evolutie eigen vermogen, aantal werknemers en evolutie daarvan, antecedenten van de zaakvoerder, verbanden tussen verschillende ondernemingen, globaal toegelaten kredietlijn of exposure voor eenzelfde aandeelhouder enz. De verdere verplichtingen inzake XBRL-rapportage biedt  mooie aanvullende big-dataopportuniteiten in een nabije toekomst.

De vaardigheden van de CFO zijn misschien de missing link om samen met de data scientists de big-dataprojecten daadwerkelijk te lanceren binnen het bedrijfsleven. Daarenboven kan de CFO daarmee inhoud geven aan zijn zo vaak gezochte rol van strategische business partner van de CEO.

Martin van Wunnik & Jo Cobbaut – FD Magazine n° 77, September 2013

http://www.slideshare.net/MvanWunnik/bigdata-en-de-cfo