Kunstmatige intelligentie voert boventoon bij Emerce Next

Kunstmatige intelligentie mag natuurlijk niet ontbreken op Emerce Next, volgende week dinsdag in de Beurs van Berlage.

Emerce Next brengt de technologie van morgen naar vandaag. Pioniers en experts, innovators en early adopters praten over het succes van onder meer VR, AI, IoT, AR, blockchain en quantum in marketing en business.

Onder meer Sezer Karaoglu van 3DUniversum vertelt hoe kunstmatige intelligentie ons leven gaat beinvloeden. Computervisie stelt ons al in staat om makkelijk objecten real time te herkennen.

Geoffrey van Meer legt uit hoe deze technologie wordt ingezet bij RTL Nederland en dan met name bij dochter Videoland.

Loulou van Ravensteijn (RoboVision) vertelt waarom AI en deep learning maar mondjesmaat worden toegepast in de industrie. Wat zijn precies de hobbels die toepassingen tegenhouden?

De presentatie van designer en coder Vera van de Seyp biedt een praktisch overzicht van toepassingen van machine learning.

Ook leren we van Bert Jan Schrijver (OpenValue) over de zelfrijdende auto, die zonder kunstmatige intelligentie de weg niet op zou kunnen.

David Arnoux van Growth Tribe leidt een Power Sessie over het onderwerp A.I. for Marketing.

Foto Peter Boer

Hoe doen computers slimme dingen? Zo werkt reïnforcement leren

Supervised en unsupervised leren zijn erg nuttig, maar we gaan er dan wel telkens vanuit dat er voldoende data beschikbaar zijn: wat doen we als dat niet zo is? Kunnen we computers dan ook leren zelf data te verzamelen? En, welke data zijn dan interessant? Deze vragen zijn het domein van het zogenaamde reïnforcement leren.

In een poging om de zin van de onzin te scheiden op het gebied van Machine Learning, Data Science en AI – de naam doet er eigenlijk niet zoveel toe – schrijft Maurits Kaptein een serie van zes artikelen over “hoe computers slimme dingen doen”. Het eerste artikel liet zien hoe computers, door middel van een goed idee, een (wiskundige) formalisatie, en daarna optimalisatie, een leuke film voor vanavond kunnen aanraden. Het tweede artikel en het derde artikel lieten samen zien hoe computers leren van voorbeelden (supervised leren). In het vierde artikel bekeken we hoe computers data kunnen samenvatten (unsupervised leren).

Stap 4: Reinforcement leren

Stel, je staat voor een gokkast en je hebt duizend muntjes ter beschikking. Eén voor één kun je een muntje in de gokkast gooien en daarna op een van de twee knoppen voorop de gokkast drukken. Je gooit een muntje in de gokkast, drukt op knop A of op knop B, en ziet de uitkomst. Als je die ronde geluk hebt krijg je tien punten, als je pech hebt krijg je er geen. Je denkt dat een van de twee knoppen vaker uitbetaald: de kans dat je punten krijgt nadat je op die ene knop duwt is hoger dan wanneer je op de andere knop duwt. Je weet echter niet welke knop het best is. Het is uiteindelijk jouw doel om — gegeven de 1000 rondes die je kunt spelen — zoveel mogelijk punten te verzamelen. Hoe los je dit op?

Dit gokkast probleem klinkt wellicht niet super interessant, maar het is een goede basis om na te denken over de manier waarop we computers zelf kunnen leren data te verzamelen als er nog geen data beschikbaar is. Daarbij klinkt het probleem al een stuk interessanter wanneer we het zo verwoorden:

Stel, je bent een arts en je staat op het punt duizend patiënten te behandelen. Eén voor één kun je een je spreekkamer inroepen en daarna een van twee medicijnen voorschrijven. Je roept een patiënt, schrijft medicijn A of B voor, en je ziet direct of de patiënt beter wordt. Als de patiënt beter wordt krijg je tien punten, als de patiënt niet beter wordt krijg je er geen. Je denkt dat een van de twee medicijnen beter is: de kans dat de patiënt beter wordt krijgt nadat je dat medicijn voorschrijft is hoger dan wanneer je het andere medicijn voorschrijft. Je weet echter niet welke medicijn het best is. Het is uiteindelijk jouw doel om — gegeven de duizend patiënten die je kunt behandelen — zoveel mogelijk mensen beter te maken. Hoe los je dit op?

Als we data ter beschikking hebben dan is dit een vrij makkelijk probleem: als we al honderden observaties hebben van keuzes (A of B) en hun uitkomsten, dan kunnen we simpelweg een supervised leren model gebruiken om de input (A of B) aan de output (het aantal punten) te linken (zie ook het tweede artikel en het derde artikel in deze reeks). Als we dit model eenmaal hebben dan geven we het model zowel A als B als input en kijken voor welke input de voorspelde output het hoogst is. Simpel.

Maar, wat als er geen data is? Dan lijkt er weinig anders op te zitten dan uit te proberen: we moeten keuzes (A of B) gaan maken om te leren hoeveel punten deze keuzes opleveren. Natuurlijk zouden we gewoon willekeurig een keuze kunnen maken, en die keuze 1000 keer kunnen herhalen: iedere patiënt krijgt medicijn A. Dit is waarschijnlijk niet de beste strategie. We zouden echter ook bij de eerste 100 patiënten random een keuze kunnen maken: we gooien een muntje op en als het kop is kiezen we voor A, als het munt is kiezen we voor B. Na deze 100 keer gooien hebben we data, en we kunnen dan een supervised leren model gebruiken om te leren welke keuze het beste is gegeven deze data. Deze keuze kunnen we dan maken voor de overgebleven 900 patiënten. Dit is al een betere strategie.

Maar, waarom gebruiken we 100 rondes (of patiënten) om data te verzamelen, om daarna die kennis te gebruiken bij de volgende 900 rondes? We zouden toch ook 50 rondes kunnen gebruiken om data te verzamelen? Of 500?

Dit probleem is de kern van het interactief leren: wanneer we computers interactief laten leren dan combineert de computer supervised leren (het linken van input aan output, in dit geval van onze keuzes A of B met het aantal punten), met een effectieve strategie om nieuwe data te verzamelen. Sommige strategieën zijn logischerwijs niet zo heel goed: als ik maar 2 rondes een random keuze maak om data te verzamelen, dan is de kans vrij groot dat ik op basis van deze data niet goed kan leren of A beter is dan B. Er is waarschijnlijk meer data nodig. Aan de andere kant, als ik 1000 rondes een random keuze maak om data te verzamelen — dus bij alle 1000 patiënten een muntje opgooi om te bepalen welk medicijn ze krijgen — dan weet ik daarna weliswaar goed of A beter is dan B, maar dan heb ik deze kennis nooit gebruikt: ik heb de helft van de patiënten met het slechte medicijn behandeld. Een goede strategie weegt het verzamelen van nieuwe data, het uitproberen, af tegen het gebruiken van de kennis die tot dan toe verzameld is.

Net zoals het simpele huizenprijzen probleem in artikel twee was uit te breiden to instressante supervised leren problemen is ook het simpele 2-keuze (A vs. B) probleem uit te breiden tot veel interessantere problemen. Ten eerste kunnen we het aantal keuzes vergroten: we kiezen niet tussen A en B, maar tussen mogelijk honderden verschillende opties. Daarnaast kunnen we ook een zogenaamde “context” toevoegen: wat als we telkens voordat we een keuze maken we wat extra informatie krijgen, zoals bijvoorbeeld het geslacht of de leeftijd van de patiënt? Ook in dat geval bestaat het probleem uit het maken van een goed supervised leren model, dit keer om de relatie tussen geslacht, leeftijd, en het medicijn te linken aan de uitkomst, en een effectieve strategie om nieuwe data te verzamelen. Sterker nog, het probleem is nog verder uit te breiden: wat als we niet 1 keuze maken per ronde, maar meerdere? Dit is bijvoorbeeld relevant wanneer we een computer een spelletje schaak willen leren spelen. Bij schaak kiest de computer een hele reeks van zetten achter elkaar, en ziet daarna pas de uitkomst. Als er heel veel data beschikbaar was met allerlei verschillende zetten en de daarbij behorende uitkomsten, dan zouden we middels supervised leren een computer kunnen leren schaken. Maar, in werkelijkheid is daar niet voldoende data voor, en moet de computer zelf kiezen welke data zij wil verzamelen: de computer moet kiezen welke zet moet worden uitgeprobeerd.

Het is verassend dat bij al deze problemen dezelfde, vrij simpele, strategie erg effectief is. Eerst uitproberen voor 100 rondes en dan een definitieve keuze maken voor de volgende 900 blijkt niet de beste strategie. Een betere strategie is als volgt: als we geen kennis hebben, dus geen idee hebben welke keuze het best is, dan maken we een random keuze. Als de keuze punten oplevert, dan verhogen we de kans dat we diezelfde keuze nog eens maken. Als de keuze geen punten oplevert dan verlagen we de kans. Deze kansen gebruiken we in de volgende ronde. Hoe je dit precies uitrekent gaat wat te ver voor deze serie (maar is goed te doen voor zeer complexe modellen, zie hier). Het komt erop neer dat we keuzes waarvan we op basis van een supervised leren model — dat we telkens updaten met de nieuwste data — denken dat ze goed zijn steeds vaker maken, terwijl we keuzes waarvan we denken dat ze slecht zijn steeds minder vaak gaan maken. Deze effectieve strategie mixt dus constant het uitproberen met het gebruiken van de tot nu toe verzamelede kennis.

Reïnforcement leren is een effectieve manier om computers te leren keuzes te maken waarbij de uitkomsten van deze keuzes niet op voorhand bekend zijn. Dit komt veel voor: een computer kiest een advertentie voor een bezoeker van een website of een computer kiest de dosering van een medicijn. Sterker nog, zelfs het op de weg houden van een elektrische auto is een keuzeprobleem: telkens moet de computer kiezen om, gegeven de huidige positie van de auto (de context) het stuur stil te houden of juist naar links of naar rechts te bewegen. In al deze situaties is het onmogelijk om doormiddel van vaste regels een computer een goede keuze te laten maken nog is er genoeg data beschikbaar voor supervised leren. De computer moet dus zelf gaan uitproberen welke keuze het best is.

Reïnforcement leren, de combinatie van supervised leren en gericht data verzamelen, is een van de meest interessante toepassingen van machine learning (of AI, wat je wilt). En we zijn al best ver: een computer leren om een computerspelletje te spelen is basiskennis van de gemiddelde data scientist. Maar, er zijn ook nog veel open vragen: we kunnen reïnforcement leren op dit moment eigenlijk alleen als we de context, en alle mogelijke keuzes, goed kunnen omschrijven, makkelijk kunnen uitproberen, en vrij snel de uitkomst kunnen observeren. Dat is jammer genoeg lang niet altijd waar, en er zijn dan ook vrij veel toepassingen waar het lastig is om deze methode effectief toe te passen.

Ik ben me ervan bewust dat ik met het beschrijven van reïnforcement leren als “supervised leren + data verzameling” maar het topje van de ijsberg heb beschreven. In het boek “Hallo Wereld” leg ik reïnforcement leren wat verder uit, en beschrijf ik meer detail hoe deze methode van leren wordt gebruikt om zelfrijdende auto’s op de weg te houden. Echter, in mijn ogen is “supervised leren + data verzameling” wel het belangrijkste idee: in veel gevallen hebben we nog geen, of niet voldoende data en is data verzameling kostbaar. Het is dan essentieel om een goede strategie te hebben voor de verzameling van nieuwe data.  

Supervised, unsupervised, en reïnforcement leren zijn momenteel grofweg de drie manieren waarop computers dingen kunnen leren. Daar kunnen we veel mooie dingen mee doen, maar er is ook veel wat we nog niet kunnen: in het laatste artikel bespreek ik wat computers nog niet kunnen leren.

Op maat gemaakte kleding vraagt miljoenen. En kost miljoenen

Het kwam best als een verrassing dat het Japanse Zozo zijn activiteiten buiten het eigen land staakt. Het concept voor op maat gemaakte kleding wist immers vlot bekendheid te genereren door het stretchy bodysuit dat gebruikt wordt om het lichaam te scannen. Om zo maatvoering uit te bannen en basic kleding made to order te kunnen produceren. Wat moederbedrijf Start Today nog maar kort geleden uitrolde naar liefst 72 landen tegelijk. De miljoenenverliezen die volgden, waren blijkbaar niet ingecalculeerd.

Waarmee de Japanners een te grote broek aan hebben getrokken, want de op een bescheidener schaal opererende Denen van Son Of A Tailor, die custom fit t-shirts verkopen, lijken wel bij deze aanpak te varen.

En ook bij andere spelers zien we dat slim gebruik van data, AI en Machine Learning wel degelijk tot succes leidt onder Westerse modeconsumenten. Zoals bij het Amerikaanse Stitch Fix. Dat maakt geen custom made mode, maar verzamelt wel gedetailleerde data van zowel de kleding die zij verkoopt als van de klant. En ‘verrast’ die laatste op basis daarvan met een doos kleding. Klanten vullen daarvoor een uitvoerige lijst in en worden aangespoord om Pinterest-boards te maken, waar het algoritme mee aan de haal gaat. Om tot goede matches te komen, zet het bedrijf daarnaast een kleine vierduizend stylisten in. En getuige de winstgevendheid sinds 2014 en de groeiende omzetten werkt dat goed.

Hoop voor de Japanners

Een degelijk andere werkwijze dan Zozo dus, maar de overeenkomst is dat voor succes de ‘fit’ van producten belangrijker blijkt te zijn dan bijvoorbeeld prijs. Een kledingstuk met een hoge prijs dat perfect past, wordt eerder gekocht dan een sale-item dat slecht zit. Dat geeft hoop voor de Japanners, die zich ondanks de tegenslagen op een internationale doorstart bezinnen.

Maar ondanks de miljardenwaardering zijn er ook twijfels over Stitch Fix, want het aandeel gedraagt zich sinds de IPO in 2017 onrustig. Dat wisselende vertrouwen van investeerders en analisten is deels te danken aan de connotatie die woorden als data science, AI en machine learning tegenwoordig hebben, zei een vroege investeerder enige tijd geleden. Die worden in Silicon Valley zó vaak gebruikt dat men je niet meer gelooft als je zegt er nuttige dingen mee te doen. Waarmee de pr ook wat meer maatwerk lijkt te kunnen gebruiken.

* Dit artikel verscheen eerder in het meinummer van Emerce magazine (#171).

Vliegende taxi’s en AI-boekingbots: Dit zijn de techno-trends binnen zakenreizen

Herinner je je nog de eerste keer dat je de boarding pass bij het vliegveld via een mobieltje liet zien? Of dat je de eerste keer via een paar klikken in de Uber-app een taxi kon bestellen? Wat een gemak was dat. Nu verwachten zakelijke reizigers technologische toepassingen en ervaringen die naadloos, betrouwbaar, veilig en persoonlijk zijn. Dit zijn de technologische trends die steeds meer een intrede zullen vinden in de zakelijke reismarkt.

Technologische ontwikkelingen helpen om het ‘zaken doen’ te vereenvoudigen, zoals bijvoorbeeld door videoconferenties. Daarbij wordt de technologie vooral ingezet om de “real life” ervaring en het face-to-face contact na te bootsen en het reizen simpeler, veiliger en minder stressvol te maken.

Travel wordt persoonlijker en geïntegreerd door kunstmatige intelligentie

Steeds meer intelligentere, geïntegreerde en geautomatiseerde systemen zoals Concur Travel en Concur TripLink nemen veel van de traditionele pijn weg als het gaat om zakenreizen. Beide systemen centraliseren alle belangrijke reisgerelateerde informatie van zakelijke reizigers op één plek. Kunstmatige intelligentie maakt dit geïntegreerde systeem eveneens slimmer.

Dit gebeurt met behulp van gegevens, waaronder informatie van eerdere reizen. Uiteindelijk is het de bedoeling om te anticiperen op toekomstige reisvoorkeuren en het boekingsproces te vereenvoudigen. De systemen kunnen bijvoorbeeld leren of men de voorkeur heeft voor een hotel in het stadscentrum met ontbijt inbegrepen, of om ergens in de buurt van een klantbijeenkomst te verblijven of om in een favoriete wijk van de stad te logeren.

Deze systemen proberen ook de stresspunten te elimineren tijdens het boeken en inchecken. Bijvoorbeeld een geautomatiseerde check-in die stoelvoorkeuren van de zakelijke reiziger bij een vliegreis al kent en paspoortgegevens al paraat heeft. In het geval van vertragingen of annuleringen zullen deze systemen de voorkeuren van de zakelijke reiziger gebruiken om automatisch op maat gemaakte alternatieve oplossingen aan te bieden om vertragingen te minimaliseren en zelfs om de reserveringen voor u te maken, met biometrische mobiele betalingen. Biometrie-technologie analyseert daarbij de biologische eigenschappen (fysiologisch en gedragsmatig) die uniek zijn voor een individu. Dit zijn de inherente kenmerken die het ene individu van het andere onderscheiden als een vingerafdruk, gelaatstrekken of DNA.

Hoe gaat dit in de praktijk?

Biometrische technologie scant de eerste vingerafdruk en vertaalt deze vervolgens in gecodeerde binaire reeksen. Een basisalgoritme wordt in de toekomst gemaakt en gebruikt om de belangrijkste componenten van de originele vingerafdruk aan te passen aan de real-time afdruk. Door deze “digitale sjabloon” te maken, is nauwkeurige verificatie mogelijk ondanks minuscule veranderingen op het huidoppervlak van een persoon.

Terwijl deze slimme systemen het alledaagse leven van de zakelijke reiziger eenvoudiger maakt, zo zullen bedrijven tegelijkertijd ook meer controle hebben. Met SAP Concur kunnen bedrijven bijvoorbeeld al meer toezicht houden op geboekte reizen, ongeacht waar de reis is geboekt. Boekingsgegevens kunnen worden verwerkt met behulp van machine learning om eenvoudig declaraties te genereren, terwijl het individuele bedrijfsbeleid voor reizen en uitgaven automatisch wordt toegepast, zodat alle boekingen overeenkomen met de beschikbaar gestelde begrotingen. Alle reisbewijzen en facturen worden digitaal vastgelegd en gevalideerd voor BTW-terugvordering, waardoor men veel tijd aan de administratie kan onttrekken.

TFest – ’s werelds eerste luxury travel trade festival mogelijk gemaakt door kunstmatige intelligentie

Het is een nieuw evenementconcept van Private Luxury Events dat afscheid neemt van een traditionele beursconcept. Op het palmeiland komen in Dubai in februari 2020 de meest invloedrijke kopers en verkopers van luxe reizen samen in een levendig festival dat technologie gebruikt om een ervaring te creëren die zowel grootschalig als persoonlijk is. De AI matchmaking technologie stelt afgevaardigden in staat zich los te maken van strikte schema’s door gepersonaliseerde aanbevelingen, waardoor ze de juiste mensen ontmoeten om hun zaken verder te brengen.

Bron: https://www.travel-fest.com

Hoe werkt het AI-matchmaking concept van TFest?

Met vijftien jaar ervaring in de industrie maakt Private Luxury Events gebruik van gegevens van meer dan honderd evenementen om een platform voor kunstmatige intelligentie te informeren over de behoeften van afgevaardigden en kopers, en indien overeenkomstig te matchen. Daarbij maakt de AI-technologie gebruik van machine learning en geavanceerde algoritmen om intelligente eerste aanbevelingen te maken die met de tijd slimmer worden door terug te kunnen grijpen op grotere hoeveelheden datasets.

De opkomst van boeking-bots

Virtuele agenten, welke gebruik maken van kunstmatige intelligentie zoals Sam, de mobiele reis-assistent van Flight Center, kunnen nu al vluchten en hotels uitzoeken en boeken, lokaal gerelateerde informatie verstrekken, zoals routebeschrijvingen, restaurantaanbevelingen, weersvoorspellingen en zelfs visumondersteuning bieden.

Hoe meer men met deze bots gebruikt, hoe slimmer ze worden, omdat ze kunnen teruggrijpen op grotere datasets. Zodoende is het doel om beter toegesneden aanbevelingen en oplossingen aan te bieden voor de zakenmens. Trein geannuleerd? Geen probleem, ze zullen de favoriete plan B kennen en alternatieve regelingen treffen, zodat men zich als reiziger kan concentreren op de uiterst belangrijke presentatie.

Maatregelen om privacy en veilig reizen te waarborgen

Om te kunnen garanderen dat deze Artificial intelligence gevoede systemen goed werken, zullen men meer en meer persoonlijke gegevens moeten delen. Dit zal onvermijdelijk uitdagingen creëren rondom digitale privacy en beveiliging. Daarom is het cruciaal voor bedrijven om systemen aan te bieden die garanderen dat werknemersgegevens volledig worden beschermd terwijl ze voor hun werk reizen.

Ervoor zorgen dat werknemers veilig zijn tijdens het reizen, is ook een grote verantwoordelijkheid voor bedrijven. Geïntegreerde systemen zoals Concur Locate, maken het gemakkelijker dan ooit om te herkennen wanneer werknemers op reis een risico lopen en voor managers om snel te reageren om eventuele problemen op te lossen.

Met een gecentraliseerd dashboard kunnen managers op Concur Locate zien waar hun reizende medewerkers zijn, ontvangen ze smartphones en desktopwaarschuwingen wanneer risico’s zich voordoen, krijgen ze direct toegang tot volledige routes en kunnen ze snel berichten overbrengen naar een reeks van platforms vanuit één tool.

Treinreizen in de steigers

Niet alle bedrijven kunnen het zich veroorloven werknemers te trakteren op eersteklas treinreizen, maar de voordelen van extra ruimte en een betere werkomgeving liggen voor de hand. Met nieuwe slimme apps zoals SeatFrog kunnen reizigers last-minute bieden op niet-gevulde eersteklas zitplaatsen op bepaalde treinlijnen, voor een klein bedrag.

Bron: https://seatfrog.com

Elke veiling opent ongeveer tweeënhalf uur van tevoren en sluit ongeveer een half uur voordat de trein vertrekt en gebruikers hoeven alleen maar hun boekingsreferentie in te voeren en te bieden. De service is momenteel beperkt tot LNER-treinen in het Verenigd Koninkrijk, maar met miljoenen lege eersteklas zitplaatsen in Europa elk jaar, bieden verbonden diensten zoals deze een aantrekkelijke oplossing voor bedrijven die hun capaciteit willen maximaliseren en iets moois willen bieden aan hun medewerkers.

Lokale kennis toegankelijk maken

Natuurlijk gaat het er niet alleen om van A naar B te komen. Technologie verandert hoe we het beste uit onze tijd halen. Het internet staat al heel lang vol reistips. Eén nieuwe app-gebaseerde community, Cool Cousin, biedt de lokale bevolking de mogelijkheid om hun kennis om te zetten in geld door reizigers te helpen met geheime tips over alles, van de beste restaurants tot hoeveel u moet betalen voor een taxi naar de luchthaven. Het mooie is dat het platform de lokale community echt centraal stelt.

Bron: https://www.coolcousin.com

Vliegende taxi’s

Als we verder in de toekomst kijken, klinkt het misschien als science fiction, maar vliegende taxi’s worden al snel een potentieel serieus idee. Zogenaamde eVTOL-vliegtuigen van bedrijven als Rolls-Royce, effenen de weg voor een nieuwe marktplaats voor ultrakorte reizen die reizigers met beperkte reistijd de lucht in kan helpen om files te voorkomen. In deze video legt het bedrijf Bell Flight uit hoe men zich toekomst met eVTOL-vliegtuigen voorstelt. Uber, met zijn Uber Air- en Elevate programma, werkt al samen met partners om een aerial ride-sharing-netwerk op basis van elektrische vliegtaxi’s te creëren.

Hoe doen computers slimme dingen? Ze kunnen ook prima data samenvatten

Supervised leren — het linken van input en output — is niet de enige manier waarop computers kunnen leren van data: computers kunnen ook prima data samenvatten, betoogt Professor Maurits Kaptein. Hij ontleedt de overeenkomsten en verschillen tussen Machine Learning, Data Science en AI.

In een poging om de zin van de onzin te scheiden op het gebied van Machine Learning, Data Science en AI – de naam doet er eigenlijk niet zoveel toe – een serie van zes artikelen over ‘hoe computers slimme dingen doen’. Het eerste artikel liet zien hoe computers, door middel van een goed idee, een (wiskundige) formalisatie, en daarna optimalisatie, een leuke film voor vanavond kunnen aanraden. Het tweede artikel in de serie liet de basis zien van supervised leren en in het derde artikel bespraken we geavanceerde methoden zoals (diepe) neurale netwerken.

Stap 4: Unsupervised leren

Bij unsupervised leren is er, in tegenstelling tot het supervised leren besproken in artikel 2 en 3, geen goed antwoord beschikbaar. Waar we bij supervised leren de relatie tussen input (bijvoorbeeld de eigenschappen van een huis) en output (de prijs van een huis) wilden leren, hebben we nu enkel input: we willen bijvoorbeeld huizen die op elkaar lijken groeperen, maar we weten niet vooraf naar welke groepen we op zoek zijn. Dit unsupervised leren komt best vaak voor:

  • We proberen consumenten, bijvoorbeeld bezoekers van een webwinkel, te groeperen (of clusteren, of te segmenteren), zodat we onze marketing acties kunnen aanpassen aan de verschillende types bezoekers.
  • We proberen data — bijvoorbeeld foto’s — samen te vatten: er is dan geen goed antwoord, maar we zoeken naar een samenvatting die minder data gebruikt dan het originele plaatje zonder dat we al te veel kwaliteit verliezen.

Bij unsupervised leren is een computer dus op zoek naar samenvattingen van data. Hiervoor zijn de laatste decennia zeer veel manieren bedacht, en ik zal ze niet allemaal bespreken. Maar, er zijn er een twee vrij simpele basisideeën die ten grondslag liggen aan vrijwel alle manieren van unsupervised leren: clusteren en dimensie reductie. Ik zal beiden uitleggen aan de hand van een voorbeeld.

Clusteren, groeperen, of segmenteren

Het idee van clusters (of groeperen of segmenten) is simpel: we hebben een heleboel voorbeelden (datapunten) in onze dataset, en we proberen alle voorbeelden die — op een of andere manier — op elkaar lijken hetzelfde label te geven. In tegenstelling tot supervised leren zijn de juiste antwoorden echter niet bekend (dus de labels zijn niet aanwezig).

Stel dat onze data bijvoorbeeld bestaat uit de performance van elf studenten op twee toetsen: een taaltoets en een wiskundetoets. Hieronder een visueel overzicht van deze data: ieder rondje is een student en verder naar rechts betekent een betere score op de wiskunde toets, terwijl verder naar boven een betere score op de taaltoets betekent.

Voor ons mensen is het clusteren in dit geval simpel. We zien vrij makkelijk dat er drie groepen zijn: studenten die slecht zijn in zowel taal als wiskunde (links onder), studenten die goed zijn in taal, maar niet in wiskunde (links boven), en studenten die goed zijn in wiskunde maar niet in taal (rechts onder). Voor een computer is dit echter minder evident (stiekem voor mensen ook als het niet gaat om elf studenten maar duizenden, en niet gaat om twee toetsen maar om honderden toetsen).

Om computers te leren clusteren moeten we iets meer doen dan simpelweg “naar de data kijken”. We moeten nadenken wat het betekent om bij een cluster te horen: we moeten het simpele idee van datapunten die op elkaar lijken formaliseren (ja, en daarna moeten we inderdaad optimaliseren!)

We kunnen het idee van een cluster formaliseren door gebruik te maken van een idee wat we ook in de vorige artikelen al tegenkwamen: we kunnen de afstand tussen twee datapunten — bijvoorbeeld tussen een voorspelling en de werkelijke data (artikel 2) of tussen verschillende mensen (artikel 1) — uitrekenen. Als de afstand tussen datapunten klein is dan lijken de datapunten bij elkaar.

Als we nu op zoek gaan naar drie clusters, dan kunnen we drie (fictieve) “cluster-middens” plaatsen in onze visuele weergave en daarna datapunten toeschrijven aan een van deze cluster-mddens. Ten slotte kunnen we de afstand van alle datapunten in een cluster tot hun cluster-midden uitrekenen. Door telkens de cluster-middens en de toeschrijvingen van datapunten aan de clusters te veranderen krijgen we telkens een andere oplossing. Sommige van deze oplossingen zijn slecht — de afstanden tot de clustermiddens zijn heel groot — terwijl sommige oplossingen goed zijn. Het vinden van een goede oplossing is de optimalisatie stap.

Hieronder een visuele weergave van een goede cluster oplossing: de sterren in de figuur zijn de cluster-middens, en rechts onder een illustratie van de afstanden van ieder datapunt tot haar cluster-midden.

Deze manier van clusteren, ook wel k-means clustering genoemd, vormt de basis voor veel methoden van clusteren en segmenteren: we zoeken groepen datapunten waartussen de afstanden klein zijn. Gegeven een beoogd aantal clusters — bijvoorbeeld drie — kan een computer prima zoeken naar de beste oplossing, zelfs als er duizenden datapunten en honderden toetsen zijn.

Dimensiereductie

Het is vrij logisch dat clusteren data samenvat: in plaats van 11 unieke studenten hebben we 3 types studenten. Echter, er is nog een andere manier om data samen te vatten namelijk doormiddel van dimensiereductie. Dat klinkt lastig, maar de essentie is simpel.

Stel, we hebben data over negen winkels in het mooie dorpje Ulft (dat bestaat) en van iedere winkel weten we hun positie op een kaart: we weten de positie in de oost-west richting en in de noord-zuid richting. De locatie van ieder van de negen winkels wordt dan ook weergegeven door twee coördinaten, en in totaal hebben we 2*9=18 getallen nodig om alle locaties te beschrijven. Hieronder een illustratie:

Om deze data samen te vatten lijkt clusteren niet heel handig: ten eerste zijn er niet heel duidelijk clusters te zien, en ten tweede zijn we niet op zoek naar “types-winkel”.

Echter, ook deze data is prima samen te vatten. Het idee hier is simpel: als ik de dorpsstraat van Ulft toevoeg in onze visuele weergave, dan zie ik dat alle winkels dicht bij de dorpsstraat liggen. Dit geeft ons de mogelijkheid om de data niet in achttien getallen op te slaan (9 winkels X 2 coördinaten), maar in negen getallen: we gebruiken simpelweg de huisnummers aan de dorpsstraat!

We hebben, doordat we slimmer naar de data kijken, nu maar negen getallen nodig in plaats van achttien. De samenvatting is niet perfect: we weten niet meer exact waar de winkels liggen aangezien we op basis van de negen getallen niet kunnen zien hoe ver winkels van de dorpsstraat afliggen. Maar de samenvatting is goed genoeg: we kunnen alle winkels terugvinden.

Hoe computers het bovenstaande formaliseren en optimaliseren is iets lastiger en te veel voor deze reeks artikelen. Maar het goede idee is er! Voor de formalisatie en optimalisatie kan de geïnteresseerde lezer beginnen bij de uitleg van principale componenten analyse.

Het idee van dimensie reductie — in ons voorbeeld van twee dimensies naar één dimensie — wordt veelvuldig gebruikt. Een veelvoorkomend gebruik is bijvoorbeeld het gebruik in het comprimeren van plaatjes: door de dimensie van een plaatje te verkleinen kunnen we vaak met minder data een plaatje versturen wat heel veel op het origineel lijkt. Voor een voorbeeld zie: https://www.r-bloggers.com/image-compression-with-principal-component-analysis/

Wanneer is unsupervised leren goed gelukt?

Clusteren en dimensie reductie zijn de twee meest gebruikte basisideeën voor unsupervised leren. Natuurlijk zijn er ook andere methoden, maar die zijn veelal kleine wijzigingen of combinaties van het bovenstaande en wat mij betreft voor een algemeen begrip minder interessant. Wat nog wel interessant is om te bespreken is hoe goed computers eigenlijk zijn in dit supervised leren: hoe goed kunnen computers clusteren of dimensies reduceren?

Deze vraag heeft twee antwoorden, de eerste simpel maar bedrieglijk, en de tweede onbevredigend. Het eerste antwoord is als volgt: “Heel goed! Computers kunnen eigenlijk altijd clusters vinden in een dataset en / of het aantal dimensies reduceren”. Dit is in essentie waar, en een computer kan altijd wel een cluster of een kleiner aantal dimensies vinden. Maar, het vinden van cluster houdt niet in dat deze clusters “goed” zijn, en het reduceren van het aantal dimensies houdt niet in dat de data goed is samengevat.

Het tweede antwoord is “Dat weten we niet”. Dat antwoord is ook waar. Juist omdat er geen goede antwoorden zijn — er is geen beoogde output zoals bij supervised leren — weten we niet of de gevonden samenvatting echt goed is. We kunnen enkel kijken of de samenvatting nuttig is: leidt de segmentatie tot een betere ervaring voor de klant dan was de clustering nuttig. Leidt de dimensie reductie tot kleinere plaatjes (in termen van MB’s) die nauwelijks van het origineel te onderscheiden zijn, dan is de samenvatting gelukt. Of unsupervised leren succesvol is hangt uiteindelijk af van hoe we de samenvatting daarna gaan gebruiken.

Unsupervised leren wordt in de praktijk op allerlei plekken gebruikt. En, in sommige gevallen combineren we unsupervised leren met supervised leren: we vatten eerst data samen, om daarna op basis van de samengevatte data voorspellingen te doen. Echter, in onze discussie tot nu toe — zowel bij het supervised leren als het unsupervised leren — gingen we ervan uit dat de data beschikbaar was: wat doen we als we deze nog moeten gaan verzamelen? Dat is het onderwerp van het volgende artikel.

Zo werkt het ontwerpproces voor AI-gedreven voice user interfaces (VUI)

Tijdens de ontwerp- en ontwikkelfase van een product op basis van Artificial Intelligence (AI) – dus wanneer er nog geen product is – is er ook nog geen sprake van AI. Het ontwerpen van AI begint met een idee dat herhaaldelijk moet worden onderzocht en getest en vervolgens moet worden gevalideerd totdat er een Minimal Viable Product (MVP) ontstaat waar gebruikers behoefte aan hebben. Hoe ga je het beste om met ontwerpen voor AI?

Met onderzoeken en tests kun je snel informatie verzamelen zonder te veel risico’s te nemen (bijv. onnodig tijd spenderen aan programmeren). Wanneer je deze niet uitvoert, kan dit leiden tot een negatieve gebruikerservaring, onvoldoende draagvlak en ontevreden gebruikers. Pas wanneer het MVP en de functies daarvan zijn gevalideerd, kun je je richten op het verzamelen van de benodigde big data voor de AI.

UvA benoemt derde universiteitshoogleraar AI

De Universiteit van Amsterdam benoemt Tobias Blanke per 1 augustus 2019 tot nieuwe universiteitshoogleraar op de leerstoel Humanities and AI. Tobias Blanke is, na Maarten de Rijke en Ivana Išgum, de derde van vier nieuw te benoemen universiteitshoogleraren die zich gaan richten op de interdisciplinaire benadering van artificiële intelligentie en haar impact.

Binnen de geesteswetenschappen omvat het AI-onderzoek het begrijpen van menselijke spraak en het interpreteren van complexe gegevens, waaronder beelden en video’s. Onderzoekers richten zich aan de ene kant op de mogelijkheden van AI-technologie om zowel de reikwijdte als de complexiteit van het onderzoek naar de menselijke cultuur op basis van historische en hedendaagse bronnen te vergroten. Aan de andere kant merken onderzoekers ook op dat de AI-technologie de neiging heeft om vooroordelen te repliceren en dat de redeneerprocessen van de machine ontoegankelijk zijn.

Blanke is nu nog hoogleraar Social and Cultural Informatics aan de afdeling Digital Humanities van King’s College London. Hij is tevens hoofd van de afdeling Digital Humanities. Zijn onderzoek is gericht op big data en de implicaties daarvan voor cultuur en maatschappij. Hij was nauw betrokken bij onderzoekssamenwerking met andere disciplines binnen King’s College en op internationaal gebied. Hij leidt en beheert grote internationale interdisciplinaire onderzoeksinitiatieven en geeft college op zowel bachelor- als postdoctoraal niveau. Momenteel werkt hij aan de ontwikkeling van nieuwe onderwijsbenaderingen in digitale methoden en big data om cultuur en maatschappij te begrijpen. Ook is hij bezig met het interdisciplinair boekproject Algorithmic reason: the new government of self and other.

UvA benoemt derde universiteitshoogleraar AI

De Universiteit van Amsterdam benoemt Tobias Blanke per 1 augustus 2019 tot nieuwe universiteitshoogleraar op de leerstoel Humanities and AI. Tobias Blanke is, na Maarten de Rijke en Ivana Išgum, de derde van vier nieuw te benoemen universiteitshoogleraren die zich gaan richten op de interdisciplinaire benadering van artificiële intelligentie en haar impact.

Binnen de geesteswetenschappen omvat het AI-onderzoek het begrijpen van menselijke spraak en het interpreteren van complexe gegevens, waaronder beelden en video’s. Onderzoekers richten zich aan de ene kant op de mogelijkheden van AI-technologie om zowel de reikwijdte als de complexiteit van het onderzoek naar de menselijke cultuur op basis van historische en hedendaagse bronnen te vergroten. Aan de andere kant merken onderzoekers ook op dat de AI-technologie de neiging heeft om vooroordelen te repliceren en dat de redeneerprocessen van de machine ontoegankelijk zijn.

Blanke is nu nog hoogleraar Social and Cultural Informatics aan de afdeling Digital Humanities van King’s College London. Hij is tevens hoofd van de afdeling Digital Humanities. Zijn onderzoek is gericht op big data en de implicaties daarvan voor cultuur en maatschappij. Hij was nauw betrokken bij onderzoekssamenwerking met andere disciplines binnen King’s College en op internationaal gebied. Hij leidt en beheert grote internationale interdisciplinaire onderzoeksinitiatieven en geeft college op zowel bachelor- als postdoctoraal niveau. Momenteel werkt hij aan de ontwikkeling van nieuwe onderwijsbenaderingen in digitale methoden en big data om cultuur en maatschappij te begrijpen. Ook is hij bezig met het interdisciplinair boekproject Algorithmic reason: the new government of self and other.

Nederland als nieuwe fintech-hub [8 trends]

In 2018 waren er meer dan 400 bedrijven actief in de Nederlandse fintech-markt en dat aantal neemt dagelijks toe. Nederland is koploper op het gebied van fintech-innovaties met een bloeiende start-upscene. Nederlandse bedrijven omarmen dan ook de innovatie en transparantie van fintech-start-ups en ondersteunen hen waar ze kunnen. Hoe zit het met de trends? De […]

Hoe doen computers slimme dingen? Flexibele modellen en neurale netwerken

Machine learning en artificial intelligence zijn termen die bedrijven graag gebruiken. Maar wat houdt het precies in, en hoe kun je data science succesvol inzetten? Professor Maurits Kaptein schept orde in de technologische verwarring.

In een poging om de zin van de onzin te scheiden op het gebied van Machine Learning, Data Science en AI – de naam doet er eigenlijk niet zoveel toe – een serie van zes artikelen over “hoe computers slimme dingen doen”. Het eerste artikel laat zien hoe computers, door middel van een goed idee, een (wiskundige) formalisatie, en daarna optimalisatie, een leuke film voor vanavond kunnen aanraden. Het tweede artikel in de serie laat de basis zien van supervised leren: hoe kunnen we door middel van een simpel wiskundig model de prijzen van huizen voorspellen? Echter, dat leek nog niet op de momenteel erg populaire neurale netwerken: dat gat probeer ik in dit artikel te dichten.

Stap 3: Flexibele modellen en neurale netwerken

In het vorige artikel zagen we hoe een computer kan leren om de prijs van een huis te voorspellen doormiddel van een simpele, rechte lijn. In dit geval was de voorspelde output y (de prijs van het huis) een functie van de input x (de grootte van het huis): y = a + b*x. Het ‘leren’ van de computer bestond simpelweg uit het zoeken naar de waarden van de parameters a en b waardoor de voorspelde prijs zo dicht mogelijk bij de geobserveerde prijs in de data kwam.

Echter, we hoeven ons natuurlijk niet te beperken tot rechte lijnen. Door de functie uit te breiden met extra parameters kunnen we relaties tussen input en output maken die steeds flexibeler zijn. De functie y = a + b*x + c*x2 maakt het mogelijk om ook gebogen lijnen toe te voegen. In het voorbeeldje van huizenprijzen is dat waarschijnlijk nuttig: de grootte van een huis zal voor kleine huizen waarschijnlijk meer effect hebben op de prijs dan voor grote huizen.

We hoeven ons ook niet te beperken tot functies van een enkele input: als we meerdere inputs hebben zoals de grootte van een huis x en de afstand van een huis tot het stadscentrum z, dan kunnen we de prijs ook proberen te voorspellen door nog meer parameters op te nemen, en zowel x en z mee te nemen in de functie: y = a + b*x + c*x2 + d*z.

In de praktijk leiden modellen met steeds meer parameters – dit zijn modellen die een flexibelere relatie tussen input(s) en output kunnen leren – tot steeds betere voorspellingen. Hoe flexibeler het model, des te beter kan een computer de voorspelde output matchen aan de daadwerkelijke output. De structuur van het probleem blijft echter steeds hetzelfde. De output y is een functie van alle input(s) x: y = f(x). De parameters van de functie bepalen hoe goed de voorspelde waarden overeenkomen met de waarden in onze data, en leren is niet meer dan het kiezen van de beste parameters (de optimalisatie stap).

Het verschil tussen decision trees, neurale netwerken, en deep learning is simpelweg een andere keuze van f(x). De simpele lijnen zoals hierboven beschreven zijn zogenaamde regressie modellen. Bij decision trees is f(x) een beslisboom: als de grootte van een huis groter is dan 100m2 dan kost het huis 250.000 euro, als de grootte kleiner is dan 100m2 dan kost het huis 150.000 euro. De parameters in dit geval zijn de zogenoemde splitsings-waarde — de 100m2 – en de twee voorspelde bedragen (250.000 en 150.000). Door meer splitsingen op te nemen kunnen ook decision trees zeer flexibel zijn.

Neurale netwerken zijn gebaseerd op een andere keuze voor f(x). Deze keuze is geïnspireerd op het idee dat we de inputs, de output, en de parameters visueel als volgt kunnen weergeven:

Maar, als dit kan, dan is er maar weinig wat ons ervan weerhoudt om f(x) veel flexibeler te maken door nog veel meer parameters toe te voegen:

Dit achter elkaar plakken van meerdere regressie modellen – in de praktijk vaak met nog wat additionele wiskundige bewerkingen – levert simpelweg een nieuwe, zeer flexibele functie op. Doordat de visuele weergave hierboven enigszins lijkt op een visuele voorstelling van de neuronen in onze eigen hersenen heeft dit model de naam neuraal netwerk gekregen.

Deep learning is niet meer dan een neuraal netwerk met meerdere lagen:

Voor de geïnteresseerde lezer, hier een overzicht van de verschillende typen netwerken, en dus van de verschillende keuzes voor f(x), die op dit moment veel gebruikt worden.

Bij regressiemodellen moeten we zelf het model flexibeler maken door parameters toe te voegen. Willen we een kromme lijn? Dan moeten we zelf x2 toevoegen aan f(x). Bij neurale netwerken is dit anders: doordat het netwerk heel veel parameters heeft kan een netwerk de kromme lijn leren zonder dat we deze zelf expliciet toevoegen. Mits er genoeg data beschikbaar is kan een neuraal netwerk – in de praktijk een functie met duizenden of soms miljoenen parameters – zeer complexe relaties tussen input en output leren zonder dat wij zelf aan hoeven geven hoe die relatie eruitziet. We hoeven dus ook niet meer zelf te kiezen welke variabelen belangrijk zijn (is het de grootte van een huis? De afstand tot het centrum van de stad? Het aantal badkamers?). We nemen ze simpelweg allemaal mee als input en het netwerk leert zelf welke delen van de input belangrijk zijn.

Het feit dat flexibele deep learning netwerken (mits we genoeg data hebben en een computer die snel genoeg is om goede parameter-waarde te vinden) zonder menselijke inmenging relaties tussen input en output kunnen leren heeft voor een revolutie in machine learning gezorgd. Vroeger, toen we bijvoorbeeld probeerden regressie modellen te gebruiken om een computer te leren geschreven tekst te herkennen, moest er nogal wat gebeuren. Iemand moest bedenken hoe we de geschreven tekst (uiteindelijk een plaatje en dus uiteindelijk een heleboel pixels met hun kleurcode) gingen relateren aan de output (een letter van het alfabet).

Dat was vrij lastig. Nu, als we genoeg input plaatjes hebben met de correcte output, en een computer die snel is, kunnen we simpelweg de computer laten uitvogelen wat een goede relatie tussen input en output is. Het is verassend hoeveel we met een simpel idee – een functie van input naar output en het kiezen van de parameters om de voorspelde output zo dicht mogelijk bij de werkelijke output te krijgen – kunnen doen als we het maar ver genoeg doortrekken. Als we maar genoeg voorbeelden hebben, en functies met genoeg parameters, dan kunnen we vrijwel alle relaties tussen input en output leren!

Te veel flexibiliteit?

Flexibele modellen zijn fantastisch en de moderne methoden waarop computers miljoenen parameters kunnen vinden zijn zeer indrukwekkend. Echter, meer flexibiliteit is niet altijd beter. Hoewel een flexibel model vaak beter werkt op de beschikbare data dan een niet flexibel model, is het niet zo dat een flexibel model het ook altijd beter doet op nieuwe data.

De intuïtie hiervoor is vrij simpel: als we de relatie van en output leren op basis van voorbeelden dan leren we aan de ene kant “signaal”: er is een daadwerkelijke relatie tussen de grootte van een huis en de prijs, en die relatie kan een computer leren. Aan de andere kant zit er in onze data waarschijnlijk ook “ruis”: er zijn verschillen in de prijzen tussen de huizen in onze specifieke data die niet verklaard worden door de grootte maar door andere factoren die we niet op hebben genomen in onze functie. Naarmate we steeds flexibelere modellen gebruiken is de kans steeds groter dat we niet alleen signaal leren, maar ook ruis. En, als we het model daarna gebruiken voor andere huizen, huizen die niet in onze dataset zaten, dan zijn onze voorspellingen slecht omdat we ten dele ruis voorspellen. Dit fenomeen wordt “overfitting” genoemd en verklaard waarom modellen soms heel goed werken op de beschikbare data, maar niet op nieuwe input.

Conceptueel zijn hier een aantal oplossingen voor. De eerste is simpel: kies een minder flexibel model. Dit kan door minder parameters op te nemen (minder lagen in het neurale netwerk bijvoorbeeld), of door de range van de parameter waarden te beperken (een techniek die “regularisatie” heet). Een andere oplossing is het simpelweg splitsen van de beschikbare data in een training-set die we gebruiken om de parameter-waarden te vinden en een test-set die we gebruiken om het model te evalueren. Als een model het goed doet in de training set, maar niet in de test set, dan overfit het model en moeten we op zoek naar een minder flexibel model. Een variant op dit laatste idee is de zogenaamde cross-validatie waarbij een dataset herhaaldelijk wordt opgesplitst in training en test sets.

Wrap up supervised leren

Ik hoop dat dit artikel, samen met het vorige, enigszins de magie van supervised leren – het leren tussen relaties van input en output – doorbreekt. Het “goede idee” is niet lastig en is al decennia bekend. Het wat er veranderd is, is de hoeveelheid beschikbare data en de beschikbare rekenkracht om parameters te kiezen. Hierdoor kunnen we nu ook zeer flexibele functies, zoals neurale netwerken, leren.

Voorlopig nog geen vrienden met een chatbot

Het gaat nog wel even duren voordat je vrienden wordt met een chatbot. Dat zeggen onderzoekers Marjolijn Antheunis en Emmelyn Croes van de Universiteit Tilburg.

Sociale robots zijn gemaakt om mee te praten, te kletsen, te converseren. Ze moeten dus eigenlijk overal wat van af weten en op allerlei vragen en opmerkingen kunnen reageren. Perfect zijn ze allerminst, zeggen Marjolijn Antheunis en Emmelyn Croes.

De eerste kennismakingen verliepen erg enthousiast. De proefpersonen die door beide onderzoekers zijn ondervraagd waren verbaasd dat je een gesprek kunt voeren met een robot. ‘Maar met elk volgend gesprek taande het enthousiasme. De bot valt door de mand na een paar gesprekken.’

Voor het onderzoek lieten de onderzoekers proefpersonen drie weken lang een gesprek voeren met chatbot Mitsuku, dé ‘kletskampioen’ in robotland. Ze won in 2018 (en al drie keer eerder) de Loebner Prize voor ‘s werelds beste sociale chatbot.

Wanneer mensen elkaar leren kennen, worden gesprekken gaandeweg diepgaander en persoonlijker. Die ervaring hadden de proefpersonen niet met Mitsuku. Ze merkten dat ze in herhaling valt en nauwelijks herinnering heeft aan eerdere gesprekken. Haar reacties waren soms ook onbegrijpelijk en zelfs ongepast. En ze mist humor en empathie, vinden de chatters.

Foto Pixabay

Hoe doen computers slimme dingen? Zo werkt machine learning

Verreweg het meest voorkomende gebruik van machine learning op dit moment bestaat uit toepassingen van supervised leren. Bij supervised leren leert een computer van voorbeelden. De voorbeelden bestaan altijd uit input en output. Kan de computer zo een makelaar overbodig maken?

Om de zin van de onzin te scheiden op het gebied van machine learning, data science en AI – de naam doet er eigenlijk niet zoveel toe – maak ik serie van zes artikelen over ‘hoe computers slimme dingen doen’. Het eerste artikel liet zien hoe computers, door middel van een goed idee, een (wiskundige) formalisatie, en daarna optimalisatie, een leuke film voor vanavond kunnen aanraden. Maar nu eerst de tweede stap: supervised leren.

Stap 2: Hoe leren computers van voorbeelden?

Verreweg het meest voorkomende gebruik van machine learning op dit moment bestaat uit toepassingen van supervised leren. Bij supervised leren leert een computer van voorbeelden. De voorbeelden bestaan altijd uit input en output: als een computer voldoende input-output paren heeft gezien, kan zij leren op basis van een nieuwe input een output te voorspellen. Dat klinkt abstract, maar er zijn legio voorbeelden:

  • Het herkennen van letters (de beoogde output) op basis van geschreven tekst (de input).
  • Het herkennen van personen (de output) op basis van foto’s van gezichten (de input).
  • Het voorspellen van de levensduur van een machine (de output) op basis van de eigenschappen van de machine zoals de leeftijd, de gebruiksfrequentie en het aantal onderhoudsbeurten (gezamenlijk de input).
  • Het voorspellen van de levensduur van een patiënt (output) op basis van zijn of haar huidige ziektebeeld, genetische opmaak, en gedrag (gezamenlijk de input).

En ga zo maar door. Er zijn verrassend veel ‘slimme taken’ die te beschrijven zijn als het leren van een relatie tussen input en output, en het is daarom goed om te beseffen hoe computers dit doen.

Om de manier waarop computers leren van voorbeelden tastbaar te maken bespreek ik een simpel voorbeeld: het leren van de prijs van een huis (de beoogde output) op basis van de grootte van een huis (de – erg simpele – input). Hieronder alvast een tabel met tien voorbeelden:

Dus, het eerste huis is 65 vierkante meter groot (de input), en kost 158.779 Euro (de output).

Net als bij het kiezen van een film begint het leren van voorbeelden met een goed idee. In dit geval is het niet lastig om een goed idee te bedenken wanneer we de voorbeelden visualiseren:

De visualisatie maakt direct duidelijk: Des te groter het huis, des te duurder. De relatie tussen de grootte van het huis en de prijs is dan ook voor te stellen als een stijgende lijn:

En dan komen we bij de kern van het idee: we kunnen zoeken naar een wiskundige relatie tussen input en output, in dit geval de rode lijn, die zo goed mogelijk de voorbeelden beschrijft. Een goed idee is echter niet genoeg, het idee moet nog geformaliseerd, en geoptimaliseerd worden. In dit geval zoeken we naar een formalisatie van een ‘lijn’, en van ‘zo goed mogelijk’. De eerste formalisatie is simpel: een rechte lijn is een wiskundige functie:

beoogde prijs = a + b* grootte

Iedere keuze van de zogenaamde parameters a en b geeft een andere lijn. De formalisatie van “zo goed mogelijk” is conceptueel ook niet heel lastig: we kunnen voor elke gegeven lijn, dus elke keuze van a en b, voor ieder voorbeeld, uitrekenen hoever de beoogde prijs (of voorspelde) prijs af ligt van de daadwerkelijke prijs: als ik a = 10000 en b = 2000 kies, dan is mijn voorspelde prijs voor een huis van 65 vierkante meter

10000 + 65*2000 = 140000 euro

Dat is redelijk dicht bij de werkelijke prijs van 158.799. Ik kan de afstand tussen de voorspelde prijs en de werkelijke prijs voor ieder voorbeeld uitrekenen en deze bij elkaar optellen: dit geeft een maat voor hoe goed mijn lijn is voor al mijn voorbeelden gezamenlijk.

Nadat we zowel de ‘lijn’ als ‘zo goed mogelijk’ wiskundig hebben gedefinieerd hoeven we alleen nog te optimaliseren: we kunnen telkens nieuwe keuzes van a en b proberen – dus telkens een nieuwe lijn – en kijken hoe goed de lijn is. Dit kunnen we blijven herhalen tot we de beste lijn hebben gevonden. In dit voorbeeld is de beste lijn de volgende lijn:

beoogde prijs = 17412 + 1294*grootte

Als we nu een nieuw huis zien, bijvoorbeeld eentje van honderd vierkante meter, dan voorspellen we dat dit huis 303.524 euro kost. Op deze manier kunnen we een computer leren om – enkel doormiddel van simpele input-output voorbeelden – een makelaar te vervangen.

De stap van dit voorbeeld naar andere toepassingen – zoals het herkennen van gezichten of het voorspellen van medische uitkomsten – lijkt groot, maar is conceptueel minimaal. Bij alle vormen van supervised leren beginnen we met de specificatie van een relatie tussen input en output: in ons voorbeeld een rechte lijn, in werkelijk interessante toepassingen vaak een veel complexere wiskundige functie. Abstract schrijven we:

beoogde output = f(input)

Daarna formaliseren we hoe goed de functie is: de afstand tot de werkelijke output in de voorbeelden wordt hiervoor veelvuldig gebruikt. En ten slotte ‘draaien we aan de knoppen’: door de parameters van de functie aan te passen – net zoals we in het voorbeeld hierboven a en b konden aanpassen – optimaliseren we onze oplossing totdat we de beste hebben gevonden. De verschillende vormen van supervised waar je wellicht van hebt gehoord, zoals neurale netwerken, regressie bomen, of random forest, zijn simpelweg andere keuzes van de gebruikte wiskundige functie.

Het bovenstaande voorbeeld geeft enigszins aan hoe computers kunnen leren van voorbeelden. En dit begrip stelt je direct in staat wat zin van onzin te scheiden: zo zijn neurale netwerken – zeer complexe functies — niet altijd beter dan simpele regressie modellen – het soort lijnen dat we in het voorbeeld bespraken. Dat ligt aan de beschikbare voorbeelden en aan de keuze van parameters.

Daarbij is het duidelijk dat de kwaliteit van de modellen direct afhankelijk is van de kwaliteit van de voorbeelden: de voorbeelden van huizenprijzen komen uit Nijmegen, en deze voorbeelden leveren een slechte voorspelling voor Amsterdam op. Ten slotte is het duidelijk dat de kwaliteit van een model nogal afhangt van de gebruikte input: we weten allemaal dat de grootte van een huis niet het enige is wat de prijs bepaalt, dus om echt een makelaar te vervangen zullen we veel meer input moeten meenemen, en veel meer voorbeelden moeten verzamelen. Maar, als we maar genoeg kwalitatief goede voorbeelden hebben, en in de input alles meenemen wat van belang is, dan kunnen computers prima input aan output linken.

Waarom bedrijven moeite hebben om datagedreven te worden

Na jaren van focus op big data, is 72 procent van de ondernemingen er nog niet in geslaagd om een datagedreven cultuur te creëren. Het verlangen om te veranderen naar een organisatie waar beslissingen worden genomen op basis van data die is bewerkt tot inzichten is groot want kostenbesparend. Maar waarom zou je dan eerst kijken naar de middelen om data te verzamelen in plaats van te bepalen welke data er eigenlijk nodig is om succesvoller te worden?

Die 72 procent komt uit het ‘Big data & AI executive survey 2019’ van NewVantage partners. Het cijfer heeft betrekking op grote organisaties en zal onder MKB-bedrijven nog veel hoger uitvallen. Ondanks het feit dat bedrijven dus fors investeren en heel veel praten en discussiëren over big data, zijn ze blijkbaar niet in staat om een cultuurverandering tot stand te brengen. Waar ligt dat nu aan?

Data gedreven is net als klantgedreven

Zoals het onderzoek laat zien, vinden veel bedrijven dat ze iets met data moeten. Dit betekent echter wel iets voor de manier waarop een bedrijf wordt gestuurd. Het is namelijk niet alleen een kwestie van veel data verzamelen en deze analyseren.

Data gedreven werken houdt namelijk in dat diverse factoren die bepalend zijn voor het DNA van een organisatie moet worden bekeken. Vergelijk het met een bedrijf die als doelstelling heeft om klantgedreven te gaan werken. Dan volstaat het instrueren en trainen van medewerkers niet. Het betekent ook dat systemen in staat moeten zijn om belangrijke klantgegevens te tonen en dat er procedures zijn beschreven die de klant op de eerste plaats zetten.

Dit geldt dus ook voor de transformatie naar een datagedreven organisatie. De eerste stap is dus niet om te gaan onderzoeken waar men overal data vandaan kan halen. Het is belangrijker om te bepalen welke data in eerste instantie nodig is om datagedreven beslissingen te maken en op welke manier deze data kan worden verkregen. Vaak wordt er echter meteen gezocht naar externe bronnen terwijl in de meeste gevallen data al lang en breed in huis aanwezig is. En dan maak je eigenlijk al een valse start waardoor een organisatie direct een verkeerde koers gaat varen.  

Technologie kan je ook in de weg staan

Systemen worden ook vaak overslagen, zeker met de huidige technologische mogelijkheden ontkom je er niet meer aan om hierin te investeren. Data-analisten zijn vaak driekwart van de tijd bezig om data te bewerken zodat deze kan worden gebruikt voor analyse. Dat heeft te maken met de manier waarop data in CRM, financiële applicaties en ERP-systemen wordt opgeslagen. Het kost veel tijd om dezelfde data uit verschillende systemen met elkaar te kunnen verbinden. Met het op de juiste manier registreren kunnen dus al grote voordelen worden behaald op het gebied van efficiency. Dit betaalt zich uiteindelijk uit in waardevolle inzichten. Op deze manier kun je technologie voor je laten werken.

Succes van een datagedreven organisatie

Het succes of de kans van slagen van een datagedreven organisatie is dus niet afhankelijk van het op een grote hoop vegen van alle beschikbare data. En deze dan tot in het kleinste detail analyseren.

Er zullen hoogstwaarschijnlijk interessante inzichten ontstaan, maar op de lange termijn zal dit weinig kans van slagen hebben. Bedrijven moeten zich realiseren dat in het begin een kleine cultuurverandering nodig is om succesvol te zijn.

Iedere werknemer kan namelijk bijdragen aan het hogere doel door het belang in te zien van data. Maar nog belangrijker is dat het management inziet dat de doelstelling om data gedreven te worden niet alleen wordt behaald door het aanstellen van een data analist of zelfs het opzetten van een data—unit. Data zal net als andere onderdelen van een organisatie deel moeten gaan uitmaken van het DNA van je organisatie.

Marco van der Werf, co-founder Bit: ‘van de tien AI-projecten stoppen er acht al na drie weken’

Om van de voordelen van kunstmatige intelligentie te kunnen profiteren, moeten bedrijven intern veel meer gaan samenwerken, zegt Marco van der Werf, co-founder van Bit, een bedrijf dat futuristische prototypes in AI bouwt. Tijdens B2B Digital gaat hij in op de rol van AI binnen bedrijven.

“Geschiedenisles”, zo noemt Marco van der Werf de studie Computer Science ook wel gekscherend: “Als je van jongs af aan programmeert, weet je het meeste dat de universiteit je aanbiedt allang. Je wordt natuurlijk geen programmeur om bugs op te lossen, maar omdat je de wéreld wil veranderen.”

Daarom besloot hij drie jaar geleden samen met Dennis Berkhof Bit op te richten, een AI- en R&D-huis bestaande uit de vijftig beste AI- en Computer Science-studenten, begeleid door tien fulltime professionals. Het idee: een écht uitdagend leertraject bieden, door hen interessante cases te laten oppakken voor grote bedrijven. Alles wat in de nieuwste researchpapers wordt opgediend, wordt door de Bit direct toegepast op de problemen die deze bedrijven hen aandragen. Binnen maximaal vijftien weken – ‘want innovatie kan af en toe enorm uit de hand lopen’ – maken zij een proof of concept, voor een fractie van het tarief dat een AI-consultancybureau zou vragen.

Zo vroeg een groot pakketbezorgingsbedrijf te helpen met het besparen van bezorgtijd. Met een timer in de hand draaide Bit twee volle dagen mee met een bezorger. Die bleek gemiddeld 2,5 minuut naar een pakketje aan het zoeken te zijn in zijn bestelbus, want alles verschuift daarin continu. De oplossing werd gevonden in een 3D-model van de bus en een 365 graden laser, die aanwijst wat de bezorger moet pakken. Zo kan ook data worden verzameld over de grootte en het gewicht van pakketjes, zodat de bezorger niet onnodig twee keer heen en weer hoeft als buren allebei een klein pakketje hebben besteld.

Conversation starter

Toch leidt lang niet elke case die Bit aanneemt tot zulke concrete toepassingen. Van der Werf: “Kunstmatige intelligentie is trending topic, veel mensen willen er iets mee. Ook bij ons is er ongelooflijk veel vraag naar. Maar ik heb slecht nieuws: van de tien AI-projecten waarmee we starten, zijn er acht al na drie weken weer gestopt, simpelweg omdat de benodigde data niet goed genoeg is.”

Hier ligt volgens hem dan ook de grootste uitdaging voor ondernemers die van AI willen gaan profiteren: het op een juiste manier opslaan en labelen van hun gegevens. Er zijn vaak bergen data voorhanden, maar die is vaak niet of nauwelijks bruikbaar. “Bedrijven bestaan vaak uit silo’s: een deeltje finance, een deeltje retail, een deeltje customer acquisition,” legt Van der Werf uit. “Elke silo heeft zijn eigen data en slaat die op een eigen manier op. Maar voor kunstmatige intelligentie heb je geregeld gecombineerde data nodig om écht iets goeds te kunnen maken.”

Toch ziet hij ook positieve waarde in het vroegtijdig afbreken van AI-projecten. “We proberen er zo snel mogelijk achter te komen of de data goed genoeg is. Als dat niet zo is, geven we altijd inzicht in de knelpunten en adviseren we wat er moet worden aangepast om in de toekomst wél iets met de data te kunnen.’ Kunstmatige intelligentie is dan altijd nog een conversation starter, een eerste aanzet om interne silo’s te doorbreken en tot het besef te komen dat er beter moet worden samengewerkt. ‘Pas als je langere tijd doet, heb je je zaken op orde voor AI-toepassingen.”

Van der Werf’s advies aan bedrijven is dan ook: “Ga het gewoon dóen. Start met experimenteren en bouw kennis op. Creëer boundary objects, waarover je het met elkaar kunt hebben. Stop met het delen van interessante AI-artikelen via intranet, je moet echt aan de slag. Pas dan zie je waar je knelpunten zitten, daar kun je echt van leren.”

Deep learning

Van der Werf is een bewonderaar van Elon Musk, ‘die er in z’n eentje ervoor zorgt dat we én raketten weer kunnen landen en tien jaar eerder elektrisch gaan rijden’. Zijn missie is dan ook om jonge mensen op te leiden ook zo groot te denken. Daarom pakt hij met Bit het liefst cases aan die nog een beetje in de toekomst liggen. Bijvoorbeeld over de toekomst van voice, een project voor ING, waarin de vraag centraal stond of ze een computer een volledig eigen stem konden laten genereren? Na zes dagen deep learning bleek die inderdaad al een verrassend natuurlijk stemgeluid te kunnen leveren. Van der Werf: “Google heeft onlangs ook een paper hierover uitgebracht. Ze zijn niet verder gekomen dan wij, daar zijn we best trots op.”

Zo’n toepassing levert natuurlijk ook discussies op. Willen we wel met computers praten, die hun stemgeluid kunnen aanpassen aan jouw persoonlijke profiel? Of komen hier de ethische grenzen van kunstmatige intelligentie in zicht? Die grenzen zijn volgens Van der Werf onder experts steeds vaker onderwerp van gesprek. Zoals het thema confirmation bias; leren we de algoritmes wel de juiste dingen? Gaan we AI straks CV’s laten selecteren? Waar selecteren die dan op en willen we dat wel? Voor projecten als AI-toepassingen ten behoeve van recruitment, bedankt hij dan ook resoluut. Maar Van der Werf ziet toch vooral de keur aan mogelijkheden die AI biedt: “Als het om technologie gaat, ben ik een echte optimist.”

AI-driven business models: hoe benut je het volledige potentieel van AI?

Veel bedrijven zijn gestart het potentieel van AI voor hun toekomstige bedrijfsactiviteiten te verkennen. Toch zijn tot nu toe maar weinig bedrijven er echt in geslaagd de waarde in real-life bedrijfstoepassingen te verwezenlijken. Waar te beginnen en wat moet er gebeuren om te slagen?

De afgelopen paar jaar zijn er op het gebied van Artificial Intelligence (AI) in hoog tempo enorme vorderingen gemaakt. Het potentieel van de technologie kan dan ook nauwelijks worden overschat. Technologiereuzen zoals Alphabet en AWS ontwikkelen in hun labs toepassingen die lijken te zijn weggelopen uit een sciencefictionfilm: algoritmen die zichzelf winnende spelstrategieën leren en die menselijke emoties kunnen herkennen of een menselijke conversatie kunnen nabootsen. Intussen implementeren bepaalde multinationals indrukwekkende nieuwe toepassingen waarmee de backofficeprocessen kunnen worden geautomatiseerd of gerobotiseerd of miljoenen met kennis volgestouwde documenten kunnen worden gescand op specifieke inzichten. Of ze zetten intelligente chatbots in voor klantenserviceprocessen. Maar behalve het goede nieuws zien we ook veel AI-initiatieven vastlopen in proof-of-concepts en pilots. Tal van bedrijven worstelen met de vraag waar te beginnen en hoe op te schalen.

Bij gebrek aan een heldere visie en de juiste prioriteitstelling blijven een hoop AI-projecten steken, aldus Naser Bakhshi, Senior Manager Artificial Intelligence bij Deloitte. “Veel initiatieven beginnen met een technologie die geweldig lijkt, zonder dat echter wordt nagedacht over hoe die technologie echt impact kan hebben op de doelstellingen van de organisatie”, aldus Bakhshi. “Organisaties zouden eerst een visie moeten ontwikkelen die is afgestemd op de bedrijfsstrategie, in plaats van dat degene met de grootste mond vrij baan krijgt om maar een beetje te gaan experimenteren.”

De ‘AI Value Assessment’

Deloitte heeft een methodiek ontwikkeld om de discussie over ‘waar te beginnen’ en ‘hoe te winnen’ met AI te vergemakkelijken. “Dit gebeurt door de bedrijfsstrategie en de langetermijnvisie als uitgangspunt te nemen en goed te overwegen wat de doelstellingen en aspiraties zijn en waar AI echt effect kan hebben”, aldus Bakhshi. “Een van onze klanten is actief op een zeer concurrerende markt, waar de marges onder druk staan. Deze klant moet zich richten op automatisering van de bedrijfsprocessen, waarbij AI en robotische procesautomatisering worden ingezet. Een andere klant is weer uiterst gespecialiseerd en afhankelijk van hoogwaardige kennis. Deze klant heeft het meeste baat bij een op AI gebaseerd expertisesysteem dat tal van ongestructureerde documenten kan verwerken.”

De ‘AI Value Assessment’ (AIVA) is een beoordeling die tot doel heeft de strategische thema’s, de bestaande processen binnen de organisatie en de unieke databronnen die door toepassing van cognitieve en AI-technologieën tastbare waarde kunnen leveren, in kaart te brengen. De AIVA werkt op basis van een gestructureerde driestappenbenadering om te testen of de gegenereerde ideeën wenselijk, haalbaar en geschikt voor uitvoering zijn. Bakhshi: “Uiteindelijk komt het neer op drie simpele vragen: ‘Willen we dit?’, ‘Kunnen we het bouwen?’ en ‘Heeft het zin?’ Aan het eind van de AIVA heeft het bedrijf een goed inzicht in de exacte use cases die kunnen profiteren van AI, en in de bijbehorende waarde.”

Bij deze discussies is het een belangrijke voorwaarde dat je de juiste inspiratie krijgt, aldus Stefan van Duin, partner bij Deloitte. “Tijdens de zogeheten ‘art-of-the-possible’ sessies dragen we voorbeelden en ideeën uit de hele wereld aan. Deze voorbeelden kunnen afkomstig zijn uit dezelfde sector als die van de klant, maar de beste ideeën komen vaak uit totaal andere sectoren.” Deze inspiratiesessies dragen ertoe bij dat het potentieel van AI tastbaarder wordt. “AI is vaak erg abstract”, aldus Van Duin. “Mensen hebben soms verwachtingen die de huidige technologie niet kan waarmaken. Of ze denken te veel in kleine opeenvolgende stapjes.”

Een baanbrekend idee

De longlist van ideeën moet worden afgezet tegen het potentiële effect. “Als we kijken naar een vernieuwend idee voor de toepassing van AI, is de belangrijkste vraag: hoe werken dingen in de praktijk?”, aldus Van Duin. “We hoeven niet altijd op zoek te gaan naar een positieve businesscase in de zin van winstgevendheid. Als een bedrijf grote ambities heeft ten aanzien van activiteiten met een ecologische voetafdruk van nul, dan kan een AI-oplossing die de koolstofuitstoot helpt reduceren een zeer grote impact hebben.” Bakhshi voegt daaraan toe: “Kleine en stapsgewijze verbeteringen zijn relatief eenvoudig te bereiken met AI, maar wij richten ons graag op een echt groot effect: wat is nu een echt baanbrekend idee voor het bedrijf?”

Baanbrekende ideeën zijn ideeën die aan de wieg staan van een bedrijfstransformatie, een andere manier van werken. Dat kan in principe een nieuw bedrijfsmodel of een nieuw dienstenaanbod impliceren – iets waardoor het concurrentielandschap verandert. Een voorbeeld is de in de VS gevestigde verzekeraar Lemonade, die voor de gehele klanteninteractie en -processen uitgaat van digitale kanalen en AI, waardoor de manier waarop de klant contact heeft met de verzekeraar volledig op zijn kop wordt gezet.

AI-initiatieven moeten niet los van de context worden beschouwd, maar moeten deel uitmaken van de langetermijnstrategie en de digitale transformatie van het bedrijf. Denk bijvoorbeeld aan een strategisch thema als het ‘centraal stellen van de klant’. Het is van groot belang om een goed onderbouwd beeld te hebben van wat uw klanten willen en hoe u hen op een onderscheidende en optimale manier kunt bedienen, maar eenvoudig is dit zeker niet. Hoe kan AI ertoe bijdragen dat uw bedrijf meer klantgericht wordt en de service aan de klant wordt verbeterd? Wie zich deze vraag stelt, zal moeten denken in de zin van strategische prioriteiten in plaats van technologie als uitgangspunt te nemen. De antwoorden – vaak in de vorm van use cases – worden dan gelegd naast en afgezet tegen de strategische richting van de organisatie.  

Actieve betrokkenheid van het management

“Een andere belangrijke dimensie om optimaal rendement te halen uit AI, is het management”, aldus Jorg Schalekamp, Lead Partner voor de Analytics-praktijk in EMEA. Op bestuursniveau ontbreekt het soms aan een gedegen begrip van wat AI kan betekenen en hoe dit binnen de organisatie op schaal kan worden gebracht en kan worden ingebouwd. “Het is van cruciaal belang dat bestuurders de technologie zodanig begrijpen dat ze zich zeker voelen bij het nemen van (investerings-)beslissingen voor de implementatie ervan.

Managementteams helpen om de essentiële eigenschappen van AI te begrijpen, zodat zij daar een zinnige dialoog over kunnen voeren met hun teams, is een belangrijke taak die bij elk AI-initiatief vanaf het eerste begin een rol moet spelen. Ook is er een ondernemende instelling vereist om te investeren in AI en de stap te nemen van proof-of-concept naar daadwerkelijke invoering. Het is van belang om medewerkers ruimte en ondersteuning te bieden om te werken aan innovatieve projecten. Medewerkers moeten zich gesteund en gewaardeerd voelen, ook als een AI-project mislukt, maar dan alleen wanneer dit snel duidelijk is”, aldus Schalekamp.

Dingen gedaan krijgen

Het definiëren van een visie en het op zoek gaan naar ideeën met impact is één ding, maar om deze ideeën ook echt te realiseren is pas echt een uitdaging. Bakhshi: “Uiteraard moet je beschikken over de technische capaciteiten om van een idee een werkbare oplossing te maken: AI-specialisten, dataspecialisten, technici, ontwerpers etcetera. Maar dan ben je er nog niet. Mensen moeten ook een nieuwe manier van werken leren. Mogelijk zijn er nieuwe operationele modellen vereist, of moeten processen opnieuw worden vormgegeven.”

Veel organisaties maken de fout om hun AI-innovaties op te sluiten in het laboratorium. Maar voor een succesvolle aanpak is een stappenplan vereist dat de strategie koppelt aan de mensen, processen, data en technologie. Van Duin: “Het is onze ervaring dat je voor een echt invloedrijke verandering bereid moet zijn om radicale stappen te nemen. Wij hebben een van onze klanten geholpen bij een mondiaal trainingsprogramma, waarbij alle managementteams van alle afdelingen – en dan hebben we het echt over honderden mensen – een praktische training kregen over hoe ze met deze nieuwe technologieën moesten omgaan.”

Bakhshi voegt daaraan toe: ”Het is ons gebleken dat de sleutel tot succes erin bestaat om een multidisciplinair projectteam samen te stellen met deskundigen van Deloitte en de klant, dat zich richt op het inbouwen van de kennis in de organisatie. Een op AI gebaseerde transformatie heeft invloed op tal van dimensies van de organisatie. Daarom moeten deskundigen van verschillende disciplines ervoor zorgen dat er een schaalbare, veilige en waardevolle oplossing wordt geïmplementeerd. Behalve technische profielen als AI-technici en datawetenschappers, moet je ook denken aan factoren als de AVG – daarvoor zijn weer privacy- en risicospecialisten vereist.

“Ook zijn er specialisten op het vlak van verandermanagement nodig om te zorgen dat de transitie van het personeel soepel verloopt en de invoering van AI haalbaar is. Daarnaast moet het team ook strategische consultants bevatten die de waarde van de use cases kunnen beoordelen, een stappenplan voor het creëren van rendement op de investeringen kunnen opstellen en de nieuwe bedrijfsmodellen kunnen structureren. Tot slot zijn er juristen nodig om de intellectuele-eigendomsrechten en de contracten met (externe) data- en technologieleveranciers etc. te beheren en eventuele juridische complicaties te vermijden.

“Om in al deze complexiteit het overzicht te behouden, moet een zogeheten Cognitive Control Tower worden opgezet. Deze zorgt dat aanpak en methodiek worden afgestemd, goede praktijken en geleerde lessen worden uitgewisseld en de eerder genoemde inhoudelijke expertise waar nodig bijeen wordt gebracht.”

Wendbaarheid als uitgangspunt

Deloitte heeft in haar AI-benadering allerlei aspecten van de methodiek voor wendbaarheid ingebouwd. Dit zorgt voor een op waarde gebaseerde, relevante prioriteitstelling van tastbare resultaten. Bakhshi: “Elke fase eindigt met een duidelijk eindpunt, waarbij wordt besloten of men al dan niet overgaat tot de volgende fase. De klant kan dan afwegen of deze verder wil gaan met de ontwikkeling. Zo kun je niet alleen snel opschalen, maar ook snel mislukken, mocht blijken dat het idee toch minder geslaagd is dan aanvankelijk werd gedacht. Dit hoort er nu eenmaal bij wanneer je bezig bent met extreme innovaties.”

Geen twee organisaties zijn gelijk

“We geloven zeer in een toegespitste benadering voor specifieke situaties”, aldus Van Duin. “We hebben geleerd dat de beste benadering afhangt van het ambitieniveau van het management, de huidige capaciteiten, de veranderingsbereidheid en de toepasselijke regels en voorschriften. Daarom maken wij altijd een beoordeling van de situatie en passen wij onze aanpak daaraan aan. Per slot van rekening zijn geen twee organisaties gelijk.”

Page generated in 1.307 seconds. Stats plugin by www.blog.ca