Het is tijd om te investeren in verantwoorde AI

Artificial intelligence (AI) stelt steeds meer organisaties in staat om hun data optimaal te benutten en bedrijfsprocessen te automatiseren. Tegelijkertijd ligt het gebruik van AI steeds vaker onder een vergrootglas. Daarom wordt het voor organisaties alsmaar belangrijker om aan te tonen dat zij op een verantwoorde manier met kunstmatige intelligentie omgaan. Beslissingen die met behulp van AI worden genomen, moeten betrouwbaar, eerlijk en vooral transparant zijn. Want de mondige burger van nu eist – en heeft – recht op uitleg. 

Kunstmatige intelligentie is inmiddels volop aanwezig in het dagelijks leven. En niet alleen in de vorm van algoritmes die berekenen welke serie jij op Netflix wilt kijken. Steeds vaker wordt AI bijvoorbeeld ook gebruikt om te bepalen of iemand in aanmerking komt voor een lening of welk creditcardlimiet iemand krijgt. 

Het potentieel van AI is voor veel mensen en organisaties duidelijk, maar daarmee groeit ook de roep om regulering. Google CEO Sundar Pichai sprak zich hier al eerder over uit. De Europese Unie lijkt erop gebrand om nieuwe regel- en wetgeving in te stellen en begin dit jaar kwam het World Economic Forum met acht regels op de proppen voor bedrijven die ethiek in hun AI willen integreren. 

Voor bedrijven is het daarom zaak nu te handelen en niet achter de ontwikkelingen aan te lopen.  

Voorkom dat je vragen krijgt die je niet kunt beantwoorden

Een van de grootste problemen met kunstmatige intelligentie is het zogeheten ‘black box decision making’. Simpel gezegd komt dit erop neer dat de input in een systeem (bijvoorbeeld financiële data) leidt tot een output (bijvoorbeeld een aanbeveling of iemand of een bedrijf kredietwaardig is), maar waarbij er geen enkel inzicht is in hoe deze beslissing precies tot stand kwam. Waarom AI bepaalde keuzes heeft gemaakt, blijft een mysterie en betrokkenen moeten maar aannemen dat de beslissing juist is, zonder dat dit op een of andere manier valt te valideren.

Dit leidt natuurlijk tot ondoorzichtige situaties die je als organisatie wilt voorkomen. 

Als het gaat om AI-voorspellingen binnen bedrijfsprocessen wil je als beleidsbepaler binnen een organisatie niet alleen weten wat je moet doen, maar ook waarom je dat moet doen. Als het gaat om diensten of beslissingen met betrekking tot klanten moet je kunnen uitleggen waarom een AI-systeem een voor de klant negatieve beslissing heeft genomen en dan volstaat het niet om te zeggen dat ‘de computer dat nu eenmaal heeft berekend’. Daarnaast loop je bij ondoorzichtige besluitvorming ook het risico dat je AI-systeem zonder dat jij het weet discrimineert, wat negatieve pr of zelfs een rechtszaak kan opleveren. 

Wanneer het fout gaat

Dat het goed fout kan gaan, blijkt wel uit de volgende voorbeelden.

In februari besloot de rechtbank in Den Haag dat het overheidsprogramma Systeem Risico Indicatie (SyRI) van tafel moest. SyRI, een initiatief van het ministerie van Sociale Zaken, is een algoritme dat allerlei persoonlijke gegevens aan elkaar koppelt en op die manier mensen identificeert die waarschijnlijk fraude plegen. De rechtbank besloot echter dat het programma onvoldoende inzichtelijk en controleerbaar was, onder meer door een gebrek aan transparantie over hoe gegevens werden verwerkt en geanalyseerd. Daarmee bestond ook het risico dat discriminerende effecten zouden optreden. Eerder uitte het Europees Hof voor de Rechten van de Mens al kritiek op SyRI. 

Een paar maanden eerder bevond techgigant Apple zich in het oog van een mediastorm toen bleek dat het AI-systeem achter de nieuwe creditcard van het bedrijf mannen een stuk kredietwaardiger achtte dan vrouwen. Zelfs medeoprichter Steve Wozniak liet via Twitter weten dat hij tienmaal zoveel krediet had gekregen als zijn vrouw, ook al deelde het echtpaar alle bankrekeningen en bezittingen.  

Ook in andere gevallen is het belangrijk om te weten hoe een AI-systeem tot een besluit kwam. Stel: kunstmatige intelligentie wordt gebruikt om te bepalen wanneer de wielen van een trein vervangen dienen te worden, zonder dat het duidelijk is waarom ze op dat moment versleten zijn. Het gevolg is dat je alleen aan symptoombestrijding doet en achter de feiten aanloopt, iets wat steeds weer tijd en geld kost. 

Verschillende oplossingen

Voorkomen is beter dan genezen en dus doen bedrijven en organisaties er verstandig aan om nu actie te ondernemen. Er zijn oplossingen waarmee AI-systemen inzichtelijk en transparant worden, bijvoorbeeld door middel van het implementeren van een responsible AI framework in nieuwe of bestaande AI-toepassingen. Dit framework gaat uit van vier elementen: Fairness, Accountability, Confidentiality en Transparancy en deze methodiek stelt bedrijven in staat om oneerlijkheid op te sporen en door middel van transparantie vertrouwen op te bouwen. 

Welke oplossing er ook het beste past bij je organisatie, het is sowieso tijd om de black boxes te openen. 

Over de auteur: Marijn Kroes is data science consultant bij VIQTOR DAVIS.

Conversational copywriting: wat maakt een chatbot menselijk?

Gebruiksvriendelijke en AI gedreven chatbot platforms hebben de manier waarop we chatbots bouwen ingrijpend veranderd. De tijd dat alleen technische mensen bots kunnen bouwen, ligt achter ons. Iedereen kan nu een conversational bot maken, óók als je geen programmeerkennis hebt. De focus verspringt dan ook van de technische aspecten naar de meer conversationele kant van chatbot ontwikkeling. Uiteindelijk zijn het onze chatbots die het gesprek aan gaan met onze gewaarde klanten en die willen we natuurlijk graag tevreden houden. We spraken Maaike Groenewege, Conversational Consultant bij Convocat over haar visie op menselijke chatbots. 

Een menselijke chatbot is in de eerste plaats gebruiksvriendelijk

Uit onderzoek van Christine Liebrecht en Charlotte van Hooijdonk weten we al dat chatbots als menselijker worden ervaren als zij communiceren met ‘een menselijke stem’ en conversational human voice wordt toegepast (CHV). Dit wordt bereikt door een van de volgende drie elementen in de conversaties te integreren: informeel taalgebruik, personalisatie – zoals iemand bij de naam te noemen bij een begroeting – en uitnodigende retoriek. Dit laatste is een middel om een gevoel van wederzijds begrip te stimuleren, bijvoorbeeld door de chatbot om feedback te laten vragen tijdens een gesprek.

Naast de drie bovengenoemde elementen van taalgebruik is het echter vooral de gebruiksvriendelijkheid van een chatbot die de basis vormt voor succes. 

“Voor mij zijn menselijke chatbots in de eerste plaats gebruiksvriendelijk. Wanneer wij als mensen met elkaar communiceren, gaan we er vanuit dat we elkaar begrijpen. Als het gaat om chatbots, hebben we dezelfde verwachtingen. Er is weinig begrip voor een dead-end chatbot die onze vragen niet begrijpt.”, aldus Maaike. 

Communicatieregels gebruiken om chatbots menselijker te maken 

Ze legt uit dat wij mensen met elkaar praten op basis van specifieke regels die we allemaal impliciet kennen en naleven. De Britse taalfilosoof Paul Grice heeft deze regels beschreven in zijn Cooperative principle en de Maxims of Conversation. Eén van de vier stelregels betreft bijvoorbeeld de hoeveelheid van wat we zeggen. Volgens deze regel laat je belangrijke dingen in een gesprek niet weg, maar je zegt ook niet meer dan nodig is. Als je bijvoorbeeld weet wanneer, maar niet hoe je een pakketje dat je online besteld hebt terugstuurt, hoef je niet allebei te weten. Alleen hoe is voldoende. De regels zijn zo diep geworteld dat mensen ze normaal gesproken automatisch volgen en hetzelfde verwachten van hun gesprekspartner.

Helaas is dit niet altijd het geval met chatbots. Slecht ontworpen dialogen geven soms veel te lange antwoorden. Als je bijvoorbeeld in het kader van een retourzending wil weten of de originele verpakking moet worden gebruikt, moet het antwoord alleen op dit punt betrekking hebben. Niemand heeft immers gevraagd naar de algemene retourvoorwaarden. 

Bij het schrijven van chatbot dialogen moet je dus niet alleen letten op de juiste tone of voice, maar ook op de geldende interpersoonlijke communicatieregels. Het is belangrijk om onderscheid te maken tussen stijl en inhoud. Inhoud gaat over wat je zegt, en stijl gaat over hoe je het zegt. De persoon binnen een bedrijf die de chatbot dialogen maakt, moet met beide vertrouwd zijn.

Vijf tips voor het schrijven van chatbot dialogen

Als je eenmaal vertrouwd bent met de menselijke communicatieregels en de drie bovengenoemde elementen van taalgebruik (informele toon, persoonlijk adres, uitnodigende retoriek), kun je beginnen met het schrijven van chatbot-dialogen. Op basis van de jarenlange ervaring met chatbotprojecten en de samenwerking met experts op het gebied van conversatieontwerp, heeft Maaike een aantal handige tips opgesteld: 

1. Neem de consument bij de hand

Tijdens een gesprek is het belangrijk dat de chatbot de klant door het hele proces begeleidt en hem uitnodigt om het gesprek voort te zetten totdat hij volledig is geholpen. Om je klanten betrokken te houden, helpt het om elke ‘gesloten’ reactie van de chatbot af te sluiten met een vraag. 

2. Schrijf “one-breath” bot antwoorden

Om je chatbot echt conversational te maken, zorg je ervoor dat de antwoorden van je chatbot niet te lang zijn. Een goede vuistregel is om je chatbot gesprekken te laten slagen voor de ‘one breath test’. Als je je chatbot antwoord hardop voorleest, past het dan in één adem? Dan is het perfect voor gebruik in je bot. Als je extra moet ademen, dan is het een goed idee om je antwoord op te splitsen in verschillende tekstballonnen. 

3. Geef je chatbot een persoonlijkheid 

Een chatbot persona helpt je gesprekspartners om een consistente tone of voice en merkidentiteit te behouden in je hele chatbot. Sterker nog, met de juiste persoonlijkheid kan je chatbot een geweldig middel zijn om je klanten nog meer te engagen met jouw merk of organisatie. 

4. Personalisatie

Personalisering is ook een interessante factor. Je kunt verschillende gebruikersgroepen op een andere manier behandelen en je antwoorden aanpassen afhankelijk van met wie de chatbot praat. Denk bijvoorbeeld aan terugkerende versus nieuwe bezoekers, klanten versus prospects of jongere versus oudere consumenten.

5. A/B test je dialogen

Soms kun je twijfelen over welke conversatie het beste werkt. Stel je bijvoorbeeld een klant voor die een hele lange vraag stelt die de chatbot niet kan begrijpen. Is het beter om de klant direct over te dragen aan een medewerker? Of moet de chatbot zeggen “Het spijt me, maar je vraag is een beetje te lang voor mij. Kun je het inkorten zodat ik je verder kan helpen.”? Om uit te vinden wat beter werkt voor jouw klanten, kunt je beide scenario’s gewoon testen door middel van een A/B test. 

De toekomst van conversational design in chatbots start vandaag

Na de snelle ontwikkelingen op het gebied van AI en chatbots in de afgelopen jaren te hebben meegemaakt, kan Maaike zich voorstellen dat automatisering ook een rol gaat spelen in conversational design.

“De ontwikkelingen in het veld gaan zo snel. Ik kan me voorstellen dat de ontwikkeling van dialogen voor service chatbots op een gegeven moment geautomatiseerd kan worden. Maar creatieve marketingbots zullen nog steeds worden ontworpen door conversational copywriters.”

Over de auteur: Mia Schulz is online marketeer bij OBI4wan.

Hoe je als bedrijf inspeelt op de Conversational AI trends

De afgelopen jaren zijn chatapplicaties gemeengoed geworden en is het voor steeds meer mensen het eerste klantcontact met een bedrijf. De verwachting is dat Conversational AI hier de komende jaren een belangrijke rol in gaat spelen.

In plaats van de telefoon of e-mail beginnen mensen steeds vaker het gesprek via berichten apps als WhatsApp en Facebook Messenger, terwijl ook spraakgestuurde oplossingen als Siri en Google Home worden ingezet. Vooral jongeren hebben de neiging om berichten boven andere communicatievormen te verkiezen, zeker als ze contact opnemen met bedrijven.

De verwachting is dat deze communicatievormen in de komende jaren alleen maar belangrijker gaan worden. In een rapport uit 2017 doet Gartner bijvoorbeeld de voorspelling dat conversational (zowel stem als tekst) in apps en services geïntegreerd zal worden om klanten te bereiken. Mede omdat 64% van de respondenten in het onderzoek van Gartner aangeeft dat zij bij een aankoop de customer experience belangrijker vinden dan de prijs.

Tegelijkertijd zorgt de opkomst van conversational er ook voor dat consumenten de lat voor chatbots steeds hoger leggen. Consumenten zijn dankzij streamingdiensten als Netflix en Spotify gewend geraakt om altijd en overal toegang te hebben tot digitale diensten, terwijl social media hen in staat stelt om 24/7 met iedereen in contact te staan. Mede daardoor verwachten zij dat ook een klantenservice altijd ‘on demand’ beschikbaar is en chatbots snel, persoonlijk en vooral de juiste antwoorden geven op hun prangende vragen.

Conversational AI kan bedrijven helpen om de volgende stap te zetten in het verder verbeteren van de customer experience. Chatbots integreren door deze stap naadloos met andere systemen. 

Wat is Conversational AI?

Conversational AI (Artificial Intelligence) zijn de technologieën die het voor berichtenapplicaties, spraakassistenten en chatbots mogelijk maken om communicatie te automatiseren en een gepersonaliseerde klantervaring op grote schaal te realiseren. 

Dankzij machine learning zijn chatbots bijvoorbeeld beter in staat om spraak te begrijpen en tekst om te zetten in spraak. Op dezelfde manier als dat mensen informatie winnen uit de gesprekken die ze voeren, leert kunstmatige intelligentie computers om als een mens een passend antwoord te formuleren op vragen die worden gesteld. 

Op deze manier zijn conversaties niet langer alleen gebaseerd op zoekwoorden, maar op de context in het gesprek. Zo kan een bot straks beter dialecten onderscheiden en begrijpen, maar ook afkortingen of jargon interpreteren en daarop handelen.

Het grote verschil met een ‘gewone’ chatbot is dat Conversational AI-applicaties op verschillende niveaus en complexiteit ingericht kunnen worden:

  • Eenvoudig – Een FAQ-chatbot die veelgestelde vragen beantwoordt
  • Middelmatig – Een virtuele persoonlijke assistent als Google Home of Apple Siri waarin de dialogen redelijk rechtlijnig zijn
  • Uitgebreid – Een virtuele assistent voor klanten die de interactie aangaat en de context begrijpt
Ontwikkeling eigen chatbots

Inmiddels zijn er diverse all-in-one conversational platformen beschikbaar, waardoor de drempel laag is om met Conversational AI aan de slag te gaan. Bedrijven hoeven niet zelf een chatbot te bouwen en te onderhouden, waardoor deze snel live kan gaan. Zo ging AFAS binnen twee dagen live met hun eigen chatbot Nicol@.

Verder kunnen bedrijven dankzij deze platformen hun chatbot volledig naar eigen wens opzetten. Zo kun je met behulp van de KPN API store eenvoudig meerdere systemen aan elkaar koppelen. Denk bijvoorbeeld aan een koppeling tussen een chatbot en een ticketingsysteem of CRM. 

De verwachting is dan ook dat in de komende jaren steeds meer organisaties zelf technologieën gaan ontwikkelen voor de chatbots die zij inzetten en daar zelfs specifieke afdelingen voor inrichten. 

De toekomst ligt bij chatbot platforms

Conversational AI is inmiddels de experimentele fase voorbij en zal de komende jaren een steeds belangrijkere rol gaan spelen.

Zo kan de klantenservice een ware metamorfose ondergaan. Callcenters zijn bijvoorbeeld niet meer nodig wanneer chatbots in staat zijn om dezelfde (of nog betere) antwoorden te geven. Denk bijvoorbeeld aan Billie van bol.com. De virtuele assistent handelt inmiddels meer dan zeventig procent van de vragen met succes af. 

Voor bedrijven biedt Conversational AI ook mogelijkheden om het sales proces te optimaliseren. Zo realiseert chatbot Lilly voor Luxaflex® inmiddels ongeveer vijf leads nieuwe leads per week.

In de transportsector kan Conversational AI autonome voertuigen assisteren. Passagiers geven aan de auto de bestemming door en kiezen de gewenste route, waarna deze zijn weg vervolgt en het systeem in de gaten houdt wanneer het tijd is om de accu op te laden. Onder meer Nvidia is hier al redelijk ver in.

Verder kan Conversational AI de gezondheidssector helpen door bijvoorbeeld gepersonaliseerde adviezen te geven, automatisch afspraken in te plannen en mensen te ondersteunen tijdens het herstelproces. 

Het succes van Conversational AI wordt over meerdere werkvelden verspreid. De hogere verwachtingen van consumenten zorgen ervoor dat organisaties hun werkprocessen moeten verbeteren en nieuwe technologieën toepassen. Klanten rekenen op een ‘on demand klantenservice’, die niet alleen 24/7 bereikbaar is, maar ook persoonlijk en snel. Door als organisatie hier adequaat op in te spelen loop je voor op eventuele concurrentie. Met de implementatie van Conversational AI worden werkprocessen verbeterd, terwijl de customer experience naar het hoogste niveau wordt getild.

Over de auteur: Joris Jonkman is marketing manager bij Watermelon.

Een introductie tot machine learning V: machine learning in de praktijk

Artificial intelligence, machine learning en deep learning. Deze begrippen zijn booming en er is dan ook veel over te lezen. Het gaat voornamelijk over hoe deze nieuwe toepassingen technologie en de wereld op zijn kop zetten. Wat voor velen niet duidelijk is, is hoe deze nieuwe ontwikkelingen nu daadwerkelijk toegepast worden. Er zijn immers al veel bedrijven die diverse projecten met AI hebben afgerond. 

In dit artikel gaan we in de keuken kijken bij TMC. Zij houden zich dagelijks met AI  bezig. TMC  heeft  voor meerdere bedrijven AI-projecten geleid en geven een voorbeeld van hoe AI in een fabrieksomgeving kan worden ingezet.

Autostoeltjes classificatie

Laten we zeggen dat een fabrikant van kinderautostoeltjes op zoek is naar een oplossing om de riempjes volgens nog hogere veiligheidsstandaarden te kunnen produceren. Enerzijds willen ze het productieproces optimaliseren, in dit geval door het inperken van de rompslomp die komt kijken bij het manueel controleren van de producten. Anderzijds willen ze de veiligheid van het product optimaliseren, er kunnen immers zaken over het hoofd worden gezien door menselijke fouten. Als je autokinderzitjes produceert, is het laatste dat je krijgt natuurlijk dat het riempje niet naar behoren functioneert. Met artificial intelligence kan een systeem worden gemaakt dat automatisch detecteert wanneer er foutieve riempjes over de productieband rollen.

Om afwijkingen in de kinderriempjes te kunnen detecteren, moet de machine middels een algoritme leren hoe een standaard riempje eruitziet en wat een eventuele deviatie kenmerkt. Er zijn verschillende algoritmes die gebruikt kunnen worden, in het geval van de babystoeltjes maken we een combinatie van twee verschillende methodes: image classification en anomaly detection.

Image classification

Met image classification wordt een enorme hoeveelheid foto’s van het product verzameld: de riempjes. Deze worden geclassificeerd, zijn het goede producten of is er een afwijking te zien? Er worden labels toegekend aan de producten: een 0 aan een goed product en een 1 aan een product wat een mogelijke afwijking heeft. Nadat het model uitvoerig getraind is, kan deze fouten in de riempjes herkennen. Op het moment dat er een nieuwe foto binnenkomt, wordt er een signaal gegeven als er een product over de band rolt met een afwijking erin.

Anomaly detection

Anomaly detection is een methode die gebruikt maakt van sensoren die deviaties in standaard gedrag herkennen. Er wordt een enorme hoeveelheid aan data verzameld om een baseline op te stellen, een standaard. Hierbij geldt ook dat de standaard een label 0 krijgt en een product met een mogelijke afwijking een label 1. Op het moment dat er een product over de band rolt wat een afwijking toont, herkennen de sensoren dit en gaat er een lampje branden.

Deze twee methodes worden gecombineerd door een rule based aanpak. Dit wil zeggen dat als er twee 0’en uitkomen, de producten goed zijn. Als er een of twee 1’en zijn toegekend, worden de producten apart gehouden om gecheckt te worden. Dit wordt ook wel een OR-operatie genoemd. 

Voor image classification wordt deep learning gebruikt, om specifiek te zijn CNN (Convolutioneel Neuraal Netwerk). Er kunnen verschillende algoritmes gebruikt worden. In dit geval gaat het om semi-supervised learning, doordat we voor een deel van de dataset weten welk label het moet hebben (de data voor producten die met steekproeven gecheckt zijn).  Anomaly detection gaat op basis van unsupervised learning. Hier zijn veel verschillende algoritmes voor geschikt, maar wij kiezen in dit geval voor Isolation Forest. Dit is een vorm van machine learning waarin het algoritme, in dit geval, afwijkende producten herkent op basis van isolatie. 

Alles aan elkaar knopen en een app ontwikkelen 

Vervolgens dient er een app gemaakt te worden voor persoon die de machine aanstuurt. Er zijn diverse manieren om een applicatie in productie te gebruiken. In dit specifieke geval wordt er gekozen voor cloud service. Dit wordt gebruikt om data op te slaan. Daarnaast kan er een tool gebruikt worden waarmee de modellen getraind kunnen worden om voorspellingen te doen. Dit is slechts een voorbeeld hoe TMC Data Science een voorbeeld heeft toegepast in de praktijk. 

Hierbij zijn we tot de einde gekomen van dit vijfluik. We hebben gelezen hoe machine learning werkt, gezien hoe een aantal algoritmes werken en tenslotte een praktijkvoorbeeld hoe AI in de praktijk werkt.  Ik hoop dat het een informatieve vijfluik over machine learning was. Als jullie specifieke vragen hebben over dit onderwerp hebben, voel je vrij deze te stellen in de comments. Omarm de toekomst, hij is dichterbij dan je misschien denkt.

Over de auteur: Erwin Nandpersad is CEO bij Ermmedia.nl.

Een introductie tot machine learning III: natural language processing

In een serie artikelen voor Emerce brengen we je graag de beginselen van machine learning bij. In het vorige artikel is besproken wat lineaire regressie is. Middels lineaire regressie is het mogelijk om voorspellingen te doen op basis van data die een correlatie heeft. Nu gaan we een stap verder, we gaan NLP (Natural Language Processing) behandelen. Dit algoritme wordt onder andere gebruikt door Google voor de Google Assistant en Google Translate. Maar je kunt NLP ook gebruiken om data te classificeren. In dit artikel behandelen we NLP en in welke situaties je het kunt gebruiken.

Wat is NLP

NLP is simpel gezegd de reden dat een computer de menselijke taal verstaat. Het beste is dit te illustreren middels een praktijkvoorbeeld. Voor een travel website kregen wij de vraag om een vakantiebestemmingen vergelijker te ontwikkelen. Dagelijks werden er via verschillende aanbieders feeds aangeleverd om bestemmingen te vergelijken. Uiteindelijk hadden we een systeem gebouwd waarmee items gemapped konden worden aan een land of stad. De bestemmingen konden op deze manier vergeleken worden.  So far so good toch?

Op een gegeven moment waren er aanbieders met zeer slechte feeds, deze hadden alleen een omschrijving en een titel waar je niet kon opmaken bij welke bestemming ze hoorden. De huidige situatie kon alleen maar landen en steden uitlezen, maar geen omschrijvingen. Het idee was om via de omschrijving te classificeren welke land of stad het is.

Uiteraard zal er in de omschrijving wel vaak een land of stad voorkomen, maar je kunt niet aannemen dat dit bij de betreffende categorie hoort, dit is behoorlijk foutgevoelig. Via NLP kun je de computer leren – net zoals een mens om door middel van een omschrijving te herkennen bij welke land een bestemming hoort. Een mens kan bijvoorbeeld uit een omschrijving opmaken bij welk land dit hoort, voor een computer is dat wat lastiger. Met NLP is dit wel mogelijk, je moet het algoritme dan wel goed trainen. Hiervoor zijn een aantal stappen nodig.

Tel het aantal woorden (BoW Model)

Om de data te classificeren moet eerst het aantal woorden geteld worden in het hele document. Met een document wordt dus alle tekst bedoeld in een bepaalde context. Dit artikel wat je nu leest is bijvoorbeeld een document. 

Om het makkelijk te maken gaan we er vanuit dat er in ons document twee zinnen zitten.

  • Zwarte hond
  • Bruine hond

Er wordt per zin een teller toegevoegd hoe vaak het woord voorkomt in een document.  In vakjargon wordt dit ook wel het Bag Of Words Model genoemd. 

Het algoritme plakt de unieke woorden achter elkaar, vervolgens geven de getallen achter de zin aan hoe vaak het woord voorkomt in het hele document

  • Zwarte, Bruine, Hond (0,0,1)
  • Bruine, Zwarte, Hond (0,0,1)

Een computer maakt van de zinnen vectoren. We gaan vectoren niet uitgebreid behandelen, mocht je toch willen weten wat vectoren zijn, dan kun je op de link klikken. Voor nu is het belangrijk dat je weet dat de zinnen worden omgezet naar numerieke waardes zodat de computer wiskundig berekeningen kan maken om te controleren hoe goed bepaalde woorden matchen.

Term Frequency-Inverse Document Frequency

Als het BoW model is toegepast, wordt de Term Frequency-Inverse Document Frequency methode toegepast, dit wordt ook wel TF-IDF genoemd.  TF-IDF zorgt ervoor dat de relevantie tussen de woorden wordt gemeten middels TF-IDF scores. 

  • Term Frequency
    • Telt hoe vaak een woord voorkomt in het hele document.
  • TF/IDF
    • Dit is een manier om te bepalen hoe belangrijk een woord is in een document. De bag words kan dit niet, omdat dit niet de juiste relevantie geeft.

Achter TF-IDF schuilt een zeer complexe wiskundige formule. Voor nu is het belangrijk om te weten dat middels TF/IDF een algoritme zijn werk kan doen door wiskundige berekeningen uit te voeren. Zo kan het algoritme de data classificeren.

Hoe meer data, hoe beter het algoritme

Nu we het BoW model en TF/IDF hebben toegepast kunnen we de data trainen en zijn werk laten doen. Omdat de travel website best veel data had kon het algoritme gelijk gebruikt worden. Binnen machine learning is het belangrijk dat er veel data is om voorspellingen te doen. Als je een algoritme hebt met weinig data, dan krijg je geen correcte voorspellingen. 

Ook moet je controleren hoe accuraat de voorspellingen zijn als je algoritme getraind is. Je kunt dit middels Python evalueren. Bepaalde misvoorspellingen kun je dan achterwege laten. Als je meer data krijgt, dan kun je het algoritme opnieuw trainen om de slecht presterende voorspellingen te corrigeren.

Computer-les

Met NLP is het mogelijk om een computer te leren om bijvoorbeeld omschrijvingen te classificeren aan een categorie. Als een mens bijvoorbeeld een brochure krijgt van een reisbureau met alleen een omschrijving, dan kan hij of zij redelijk eenvoudig classificeren bij welk land dit zou horen. Middels NLP kan een computer dit ook leren. Op deze manier kan je classificatie problemen oplossen en bepaalde werkzaamheden automatiseren.  Wellicht als je veel data hebt, kan je de overweging nemen om NLP te gebruiken om bedrijfsprocessen te automatiseren. Het is wel belangrijk om gedurende het hele proces eventuele misvoorspellingen in de gaten te houden. Blijf bij de computer-les, dus.

Over de auteur: Erwin Nandpersad is CEO bij Ermmedia.nl.

Verdwijnt de SEA specialist door de opkomst van A.I?

Als we kijken naar trends in het SEA-landschap, dan zien we dat automatisering (of automation) een hot topic is en blijft. Automation zien we niet alleen terug in de steeds beter werkende Smart Bidding biedstrategieën, maar ook targeting van de juiste mensen en het testen van creatives wordt geautomatiseerd. Wordt door automation de rol van SEA-consultant overbodig of verandert dit alleen?

CPC’s aanpassen, zoekwoorden toevoegen en uitsluiten, A/B testen met advertenties. Zomaar wat taken die elke SEA specialist met regelmaat doet. Door het steeds beter worden van automation van zoekmachines, kan de rol van de SEA specialist hierin veranderen. We bespreken een aantal belangrijke aspecten die in elke campagne terugkomen en de rol die de SEA consultant hierin heeft.

Targeting

Als je start met het inzetten van een smart bidding strategie zal vanaf dat moment gestart worden met het verzamelen van informatie waarop biedingen worden aangepast. Vaak zal een account of campagne al langer gelopen hebben en zijn er al veel conversies gerealiseerd. Het is belangrijk om niet blind op de AI van Google te vertrouwen. Je kunt het algoritme dus al flink helpen door eerder verzamelde data alvast slim te gebruiken. Je weet wat goed en slecht converterende doelgroepen zijn. Voeg deze toe en/of sluit groepen uit. Op deze manier bespaar je een hoop trial en error van Google en de daarmee verbonden kosten. De SEA specialist stuurt het algoritme de goede richting op. 

Zoekwoorden

Doordat Google van mening is dat ze steeds beter in staat zijn om te bepalen welke queries gekoppeld kunnen worden aan een bepaald zoekwoord, zien we  dat in de afgelopen jaren de exacte zoektermen steeds minder exact zijn geworden. Dit lijkt een mooie manier om extra traffic en conversies te realiseren, je zet echter zoekwoorden niet voor niets exact in. Het is daarom goed om scherp te blijven op welke queries er vertoningen gerealiseerd worden. Je ziet vaak zelf sneller dan Google dat een bepaalde zoekterm niet relevant is, bespaar dus budget en blijf dit altijd scherp in de gaten houden. Een handige manier om dit snel te doen is door het toepassen van scripts, zoals Brad Geddes tijdens het event Friends of Search (FOS) liet zien. 

Kijk dus goed naar welke zoektermen getriggerd worden door welke zoekwoorden. Ook kun je net als bij de doelgroepen op basis van reeds bestaande data  al veel irrelevante zoekwoorden en termen uitsluiten.

Creatives 

Wat betreft creatives, is de uitrol van Responsive Text Ads een belangrijke pijler geweest in het steeds meer automatiseren van advertenties. Nu deze advertentievorm een tijd beschikbaar is, blijkt dat de RTA niet altijd zorgt voor betere resultaten. Hierin speelt de input van de SEA-specialist een belangrijke rol. Er moet goed gekeken worden naar de kwaliteit van de input (door middel van de indicator) en sinds kort is er de mogelijkheid om te zien welk item slecht presteert en dus vervangen dient te worden. 

Naast de RTA zijn er ook steeds meer mogelijkheden in Ad Customizers. Zo kunnen bij Microsoft Advertising de advertenties worden aangepast per doelgroep. Dit biedt vele mogelijkheden. Het nadeel van ad customizers is echter dat het lastig te zien is hoe de variaties presteren.

Bij FOS gaf Martin Rottgerding (Bloofusion)  aan dat het inzetten van conditional ads daarom een slimme manier is om dit wel inzichtelijk te krijgen. Hierbij worden zogenaamde ‘conditions’ ingesteld in de feed, waarna alleen advertenties worden vertoond als aan die bepaalde ‘condition’ werd voldaan. Doordat er geen content wordt geladen uit de feed, maar alleen van tevoren ingestelde advertenties worden vertoond als aande condition wordt voldaan, kan er een A/B test worden gedaan. Ook hierbij zien we weer dat er gebruik kan worden gemaakt van tooling en AI, maar dat de input van de marketeer van essentieel belang is om maximale resultaten te behalen. 

Platform

Zoals gezegd werd er tijdens FOS veel ingegaan op smart bidding, zoekwoorden en custom creatives. Aan een belangrijk aspect werd volgens ons echter voorbij gegaan. Op de vraag aan Andrew Rackham (Google) over hoe je je met automatische biedstrategieen nog kunt onderscheiden van concurrenten kwam het kort ter sprake; het platform. Ons inziens houdt de rol van SEA consultant niet op bij het afleveren van (relevante) traffic. 

Een landingspagina heeft natuurlijk effect op de kwaliteitsscore en daarmee het CPC. Daarnaast levert een relevante landingspagina echter ook een belangrijke bijdrage aan de conversie. Een kleine aanpassing in het bestelproces of een specifieke landingspagina voor een belangrijk zoekwoord kan ervoor zorgen dat het conversiepercentage wordt verhoogd. De winst die hier te behalen is ligt vaak hoger dan dat via AI te behalen is. 

Een SEA specialist moet hier zeker mee bezig zijn, ofwel direct ofwel  indirect door input te geven aan een eventueel aanwezige CRO expert. Alleen op die manier kan het maximale uit de SEA campagnes gehaald worden. 

Context is key

Machine learning is zich onbewust van context; eigenlijk kan machine learning niet efficiënt ingezet worden  zonder input van de marketeer. 

Daarom is het zaak om de automatisch uitgevoerde taken te monitoren, om ervoor te zorgen dat het proces goed blijft lopen. Automation maakt het dus mogelijk om taken te automatiseren, niet om processen te automatiseren. Door automatiseren van de afzonderlijke taken, kan uiteindelijk het proces geautomatiseerd worden. De SEA-specialist van de toekomst gebruikt dus niet alleen maar het systeem, maar leert het systeem om intelligent te zijn. Of zoals Frederick Vallaeys het verwoordde: “Teach the machine.”

Automation zorgt er niet voor dat de PPC specialist verdwijnt, het zorgt echter wel voor een andere rol. Steeds minder zal de specialist bezig zijn met manuele aanpassingen, maar steeds meer met strategische aanpassingen: welke input kan ik Google geven zodat het algoritme zorgt voor de maximale output (conversies). De naam van SEA specialist zou je dus het beste kunnen aanpassen naar conversiespecialist.

Over de auteur: Arnold Gritter is lead SEA bij Pink Marketing.

Een introductie tot machine learning (I)

Machine Learning, AI en deep learning lijken in veel opzichten losstaande zaken, maar zijn onlosmakelijk met elkaar verbonden. Het is namelijk een subset van elkaar. In het eerste deel van dit vijfluik wordt aan de hand van voorbeelden uitgelegd wat Machine learning, AI en deep learning inhouden.

Laten we beginnen bij de basis: wat zijn machine learning, AI en deep Learning en hoe worden deze in de praktijk gebruikt? Als je dit artikel hebt gelezen, heb je de benodigde voorkennis om het volgende deel in de reeks te begrijpen.

Machine learning, AI, deep learning is een familie

Machine learning, deep learning en AI zijn familie van elkaar. De drie onderwerpen hebben met elkaar te maken. Ze zijn eigenlijk afhankelijk van elkaar. De onderwerpen worden van elkaar besproken, zodat je een beter beeld hebt over deze termen.

Machine learning

Met machine learning kan je door middel van big data een algoritme ontwikkelen wat voorspellingen kan doen. Machine learning is dus afhankelijk van data, en met deze data kan je een bepaalde output voorspellen van een dataset. Je moet echter wel eenmalig aangeven wat goed of fout is binnen de data. Het beste is dit uit te leggen middels een praktijkvoorbeeld.

Voor een Nederlandse fashion website wil een klant nieuwe producten automatisch classificeren in een categorie op de website. Op deze manier zijn er minder FTE’s nodig om handmatig producten toe te wijzen aan een categorie. Een flinke besparing voor de organisatie dus. Dit kan door een algoritme gedaan worden. Wij hadden de dataset van 40GB ingeladen; big data dus. Nu moet de data getraind worden. Het trainen van data betekent dat de algoritme moet leren in welke categorie een product hoort. In dit geval moet het algoritme weten dat skinny jeans onder Jeans->Skinny jeans valt. Toen de data was getraind, was de machine learning algoritme klaar. De meest voorkomende fashionproducten worden nu automatisch geclassificeerd in de juiste categorie.

De klant had vervolgens een nieuwe leverancier die zijn productnamen in het Engels aanlevert. Nu kan het algoritme niet herkennen of de Engelse producten onder de juiste categorie vallen en moet de data opnieuw getraind worden voor Engelse producten. Dit is precies wat machine learning is. Het algoritme heeft instructies nodig en kan nieuwe patronen niet herkennen. Dat brengt ons bij de mogelijke oplossing; deep learning.

Deep learning

Deep learning lost het probleem van machine learning op. Bij machine learning moet je een algoritme instructies geven om een item te classificeren in een categorie. In het bovenstaand voorbeeld bij de Fashion website zag je dat de machine learning algoritme niet om kon gaan met nieuwe (Engelse) data. deep learning kan dit echter wel door bepaalde patronen te herkennen. Als we ons algoritme veranderen naar een deep learning algoritme, dan is de algoritme slim genoeg om te weten dat een “dress” en een “jurk” precies hetzelfde is.

Artificial intelligence

AI is simpelweg dat de computer zelfstandig intelligente beslissingen kan nemen. Met machine learning en deep learning heb je deels AI maar niet helemaal. Het is wetenschappers nog niet gelukt om dezelfde capaciteiten als het menselijke brein in een algoritme te implementeren. De algoritmes zijn gebaseerd op calculus, statistiek en lineaire algebra. Je hoort vaak dat deep learning en machine learning AI zijn, maar dat is eigenlijk niet waar. Voor onze fashion website is een deep learning model het beste om categorieën te classificeren, omdat we nog niet het menselijk brein digitaal kunnen maken.

Hoe ontwikkel je een machine learning algoritme

Een algoritme wordt in de praktijk ontwikkeld met Python. Het is aangeraden om machine learning applicaties te schrijven in Python omdat de libraries voor machine learning op deze taal gebaseerd is. Zoals de meeste mensen denken hoef je de algoritmes niet zelf te schrijven. Binnen Python is er een library dat sci kit learn heet. Hier kan je diverse algoritmes aanroepen . Belangrijk is wel om te weten welk algoritme je moet gebruiken.

Visualiseren van data

Als je aan de slag gaat met machine learning kom je er snel achter dat je data moet visualiseren in een assenstelsel. Op deze manier weet je wat de correlaties zijn tussen bepaalde data eenheden. Het visualiseren van data kan met Python gedaan worden door middel van Jupyter Notebook. Dit is een tool om data te visualiseren. Als je de data gevisualiseerd hebt weet je ongeveer welk algoritme je kan gebruiken. In het onderstaande voorbeeld is data geplot in een assenstelsel:

Je ziet dat de data een correlatie met elkaar heeft. Op basis hiervan kun je een lineair regressie algoritme gebruiken om voorspellingen te doen. Als nu iemand vijf jaar een member is, dan kun je erachter komen hoeveel hij gemiddeld uitgeeft.

Toekomstmuziek?

Hiermee zijn de verschillen besproken tussen machine learning, deep learning en AI. Je hebt gelezen dat deze onderwerpen aan elkaar gerelateerd zijn. AI is nog toekomstmuziek aangezien wetenschappers druk bezig zijn om het menselijk brein te digitaliseren. In praktijk wordt er gebruik gemaakt van deep learning, denk aan zelfrijdende auto’s. Het hangt van jezelf af of je dit interpreteert als AI of deep learning.

In het volgende artikel wordt dieper ingegaan op de algoritmes en volgen lineaire regressie en classificatieproblemen. Vervolgens zullen hier ook een aantal praktijkvoorbeelden volgen over hoe dit geïmplementeerd kan worden.

Over de auteur: Erwin Nandpersad is CEO bij Ermmedia.nl.

Column: Meerdere gezichten

Van gebruik op vliegvelden en het ontgrendelen van telefoons tot het herkennen van geregistreerde winkeldieven. Gezichtsherkenningstechnologie vindt zijn plek in steeds meer toepassingen. Dat maakt de discussie omtrent privacy steeds interessanter.

Het gebruik mag niemand schade berokkenen en burgers moeten hiertegen worden beschermd, zo laat het zich kort door de bocht samenvatten. Waarbij opvalt dat de focus op het beteugelen – of zelfs verbieden – zich naast overheidsorganisaties steeds meer richt op commerciële spelers. Nadat Amerikaanse steden als San Francisco en Berkeley het gebruik van de herkenningstechnologie door hun overheidsinstanties (inclusief politie) al in de ban hebben gedaan, ligt er in Portland een voorstel om nog een stap verder gaan en ook het bedrijfsleven te verbieden de technologie in te zetten. Dit door bias en grote foutmarges. Nu is de kogel nog niet door de kerk, maar de commerciële beperking wordt al gezien als een voorbode voor wat landsbreed komen gaat.

En ook in Europa wordt het gebruik van biometrische informatie onder de loep genomen. We hebben natuurlijk al de AVG, maar voor maatschappelijk verantwoord gebruik van artificial intelligence zijn aanvullende maatregelen nodig, klonk het afgelopen zomer vanuit de Europese commissie. Met specifieke vermelding van gezichtsherkenning. Ursula von der Leyen, sinds begin december voorzitter van de Europese Commissie, wil daar binnen de eerste honderd dagen van haar nieuwe job voor zorgen. In uitgelekte plannen wordt onder andere genoemd dat burgers zelf de controle moeten krijgen over de data die via gezichtsherkenning wordt verzameld. Echter, honderd dagen bekt lekker, maar lijkt vooral een campagnekreet. Want kunstmatige intelligentie wordt inmiddels gezien als een van de drijvende krachten van de Europese economie. Er is dan ook een intensieve lobby van de industrie gaande met velen die waarschuwen dat een te grote haast met regulering innovatie – en daarmee de economie – zal remmen. En dat zorgt binnen de politiek voor verdeeldheid. Want hoe zit het dan met de ontwikkeling van de techhubs die Europa relevant moeten houden op het wereldtoneel? Tel daar bij op bedrijven onder druk van hun klanten afzien van tests, zoals concertorganisator Live Nation deed bij voor ingangscontrole na klachten van artiesten en bezoekers, en het is duidelijk dat dit een kwestie is met meerdere gezichten. Zullen we over binnenkort meer weten?

* Dit artikel verscheen eerder in het decembernummer van Emerce magazine (#175).

Over de auteur: Niels Achtereekte werkt als chef redactie bij Emerce.

Data Privacy Day: in 2020 brengt nieuwe technologie vragen én oplossingen

Happy Data Privacy Day 2020! Elk jaar op 28 januari schenken we aandacht aan privacy omdat op die dag in 1981 het eerste moderne privacyverdrag in Europa het licht zag. Een goede dag dus om vooruit te kijken wat ons te wachten staat op privacyvlak het komend jaar. 

De Algemene Verordening Gegevensbescherming (AVG) wordt dit jaar twee en de meeste organisaties hebben die onder de knie. Van onderstaande privacyvoorspellingen voor 2020 gaat dan ook maar een over de AVG. De overige vier laten zien dat naast die AVG nog een flink aantal andere privacy-onderwerpen onze aandacht zullen vragen.

De privacy-impact van AI

We kunnen er niet omheen, dit jaar zullen veel privacyvragen gaan over het inzetten van Artificial Intelligence (AI). Afgewezen worden als sollicitant door een zelflerende computer op basis van je profiel. Deepfakes die verspreid worden om iemand belachelijk te maken. Gezichtsherkenning die ervoor zorgt dat je nergens meer anoniem bent. Allemaal mogelijk gemaakt door AI. 

Een aantal schrijnende gevallen van misbruik van AI zullen het nieuws halen. Daardoor zal de roep in 2020 om regelgeving die AI aan banden moet leggen toe gaan nemen. En die roep zal beantwoord worden door de Europese Commissie, die met voorstellen voor regelgeving zal komen. 

PETs nemen een grote vlucht

Al sinds midden jaren ’90 spreken onderzoekers en privacytoezichthouders over de zegeningen van Privacy Enhancing Technologies (PETs) – geavanceerde technieken die ingezet kunnen worden om persoonsgegevens beter te beschermen. Jarenlang waren dit soort PETs onbereikbaar voor ‘gewone’ organisaties. Alleen de grote technologie bedrijven konden ze inzetten en dan nog mondjesmaat. Zo complex kunnen PETs zijn. 

Daarin komt verandering en dan gaat het plots heel snel. Door een combinatie van voortschrijdende techniek en meer voorbeelden van praktische oplossingen, zijn PETs in 2020 bereikbaar voor iedere organisatie. Wat kunnen we daar dan mee? Nou bijvoorbeeld datasets van 2 of meer organisaties met elkaar vergelijken zonder ze daadwerkelijk bij elkaar te brengen. We kunnen ruis toevoegen aan persoonsgegevens waardoor deze anoniem worden. En al die PETs scheppen meer mogelijkheden om waarde uit persoonsgegevens te halen, zonder dat de privacy erop achteruit gaat. 

Denk aan de kinderen

Veel meer aandacht zal dit jaar uitgaan naar de bescherming van de data van kinderen. We zijn er namelijk eindelijk achter hoeveel data van hun nu al verzameld wordt en realiseren ons welke consequenties dat kan hebben later in hun leven. Sowieso zien we al extra aandacht voor de bescherming van kinderen op andere terreinen dan privacy. Bijvoorbeeld in de Audiovisuele Mediadiensten Richtlijn van de EU worden kinderen extra beschermd: lidstaten moeten proberen kinderen niet bloot te stellen aan reclame voor producten met een hoog gehalte aan zout, suikers of vetten. Datzelfde gaan we zien in privacy. De persoonsgegevens van kinderen gaan we nog beter beschermen, zeker in een digitale omgeving. En voor de verandering doen we dat deze keer niet alleen in Europa, maar volgen in de VS soortgelijke maatregelen.

Aandacht voor onze gegevens die de grens over gaan

Begin dit jaar volgt een belangrijke uitspraak van het Europese Hof over of, en zo ja onder welke voorwaarden, persoonsgegevens van mensen in de EU opgeslagen mogen worden op computers in de VS. Lang verhaal kort: de Europese Commissie heeft jaren geleden gezegd dat het mag, een Oostenrijker die het daar niet mee eens was heeft dat aangevochten. Het Hof gaat nu de knoop doorhakken: ja het mag of nee het mag niet, want de geheime diensten in de VS kunnen te gemakkelijk bij die persoonsgegevens.

We gaan meer van deze discussies zien in 2020. Vinden we het OK dat onze persoonsgegevens opgeslagen worden in Rusland? In China? In het Midden-Oosten? In Europa maar op de servers van een Chinese internet gigant? Onze regels in Europa beschermen onze privacy tegen te nieuwsgierige bedrijven én overheden. Maar hoe zit dat met bescherming ten opzicht van buitenlandse overheden? Dat gaan we ons steeds vaker afvragen. En dat alles tegen een achtergrond van discussies over het gebruik van Chinese technologie in onze telecomnetwerken en een handelsconflict tussen de VS en China. 

Voorstellen voor wijzigingen in de AVG 

Voor 25 mei 2020 moet de Europese Commissie een verslag aan het Europees Parlement sturen over de evaluatie en toetsing van de AVG. Dat verslag moet ook openbaar gemaakt worden en wij zullen dus allemaal kunnen lezen wat de EC nu van de werking van de AVG vindt. Interessant daarbij is dat de individuele lidstaten hun bijdragen aan die evaluatie al geleverd hebben. Daaruit blijkt dat het voornamelijk veel details zijn die de lidstaten gewijzigd zouden willen zien. Bijvoorbeeld meer ruimte voor wetenschappelijk onderzoek; betere uitleg aan het publiek hoe het ‘right-to-be-forgotten’ nu eigenlijk werkt; nog verdere beperking van profilering op basis van Big Data; enzovoort. De voorspelling hierbij: een aantal van deze wijzigingen worden door de EC overgenomen en zullen eind 2020 leiden tot voorstellen voor het wijzigen van de AVG. 

Over de auteur: Jan-Jan Lowijs werkt als privacy expert bij Deloitte.

Artificial Intelligence in 2020, waar moeten business leaders op letten?

Artificial Intelligence is veelomvattend: van het spelen van games tot gezichtsherkenning en zelfrijdende auto’s. De meeste mensen realiseren zich niet eens hoe vaak AI achter de schermen werkt om processen, efficiëntie en ervaringen te verbeteren. Meestal weten mensen het pas nadat er iets mis is gegaan – zoals begin november toen Apple en diens Apple Card op enorme kritiek stuitte en beschuldigd werd van seksisme bij het afsluiten van creditcardkredieten. Als je als organisatie het vertrouwen van de klant wilt behouden en de voordelen van AI wilt blijven benutten, moet je dit soort problemen weten te vermijden. Laten we, ondanks deze kanttekeningen, proberen te voorspellen hoe AI organisaties in 2020 kan beïnvloeden.

Een AI-empathie strategie is noodzaak

Consumenten bewegen snel en verwachten dat ook van de interacties met bedrijven. Maar in 2020 zullen de verwachtingen van klanten nog meer veranderen. AI gaat op veel plekken real-time worden ingezet en bedrijven worden dan afgerekend op snelheid en relevantie. Om ​​voordeel te behalen, zullen bedrijven empathie willen inbrengen in hun klantinteracties, zodat zij nog beter de verbinding kunnen aangaan met de klant. Dit wordt door enkele organisaties al ingezet. Zij zorgen dat de algemene standaard voor één-op-één personalisatie hoger komt te liggen; de rest van de markt zal op de voet volgen.

‘AI-washing’ heeft z’n langste tijd gehad

Naarmate de AI-hype de afgelopen jaren in een stroomversnelling raakte, bestempelden veel softwarebedrijven alles wat geassocieerd wordt met statistieken (analytics) en intelligentie als AI – en dat komt vaak niet overeen met de werkelijkheid. AI wordt steeds breder geaccepteerd en ondernemers krijgen meer kennis van hoe ze kunnen onderscheiden wat AI is en wat niet. In 2020 wordt minder gesproken over enterprise AI als brede vage term. Er komt meer focus op de verschillende disciplines, zoals machine learning, besluitvorming of Natural Language Processing. Zo kan is beter onderscheid mogelijk tussen deze disciplines en die zaken die als AI worden aangeduid, maar waar vraagtekens bij kunnen worden gezet.

Machine learning marktplaatsen worden volwassen

Machine learning krijgt meer succes in de onderneming, maar de meeste organisaties hebben nog steeds niet de vaardigheden die nodig zijn om ervan te profiteren. In 2020 zien we de opkomst van AI-marktplaatsen ‘As a Service’ zoals Amazon Sagemaker. Hierdoor kunnen bedrijven vooraf gebouwde AI-modellen in hun architectuur opnemen zonder dat het nodig is om een leger van data-analisten in te huren. Dit maakt AI goedkoper en brengt deze services sneller op de markt.

Meer vertrouwen in enterprise AI

Dankzij de organisaties die er al successen mee boeken, krijgt AI binnen het zakenleven steeds meer vertrouwen. Het is meer gemeengoed geworden. Na initiële mislukkingen, is AI voorspelbaarder geworden en bereikt de kwaliteit van de output nieuwe hoogtepunten. In 2020 begrijpen organisaties de best-practices van AI steeds beter en gaan ze AI breder in de onderneming integreren. De waarde die AI kan bieden is voor organisaties duidelijker zichtbaar.

Werknemers omarmen AI

De angst bij werknemers dat AI en robots hun baan in de toekomst gaan overnemen wordt in 2020 steeds minder. Medewerkers vinden AI op hun werkplek prima en begrijpen nu pas de voordelen ervan – niet alleen voor het bedrijf, maar ook voor individuele werknemers. De gedachte ‘hoe stoppen we robots’ verandert naar ‘hoe kan ik beter werken met robots om mijn carrière te verbeteren’. De werknemers die deze mindset niet omarmen, lopen het grootste risico om hun baan te verliezen.

Zullen al deze voorspellingen uitkomen? Waarschijnlijk niet. Het is een snel bewegende markt. Doorbraken, schandalen, wetgeving of een verandering in het publieke sentiment kunnen op elk moment gebeuren. Zelfs AI kan ons niet vertellen wat de volgende zal zijn. Maar een ding is zeker, uw klanten willen dit jaar betere merkervaringen. AI maakt dit vandaag de dag al bij vele bedrijven mogelijk. Bedrijven die niet over de juiste vooruitziende blik beschikken, lopen het risico business te verliezen aan concurrenten die er wel in slagen de huidige AI-trends een stap voor te blijven. Wat uw gedachten over AI ook zijn, dat het van grote invloed is op het verbeteren van klantbetrokkenheid valt niet te ontkennen.

Over de auteur: Rob Walker is vice-president Decision Management & Analytics bij Pegasystems.

Zeven Voorspellingen over Robotic Process Automation (RPA) in 2020

Je collega links is even naar het toilet. De cursor op haar laptop knippert geduldig op de site van KvK.nl, waar ze een uittreksel uit het handelsregister opvraagt. Je collega rechts is je persoonlijke softwarerobotje en die heeft geen stoel. Flitssnel ververst het scherm zich van de ene website naar de andere, om te rapporteren welke van de 100.000 nieuwe klanten na de overname een mogelijk witwasrisico vormen. 24×7, foutloos en nooit ziek. De analyse van jaarverslagen op risico’s? Secondenwerk. ´Verwelkom Botje in ons team!´

Robotsoftware is al veel groter dan je denkt. Marktonderzoeksbureau Gartner heeft Robotic Process Automation benoemd tot ‘het snelst groeiende segment binnen de wereldmarkt voor bedrijfssoftware’ – en schat dat de markt voor RPA-diensten in 2020 een kleine zeven miljard euro zal bedragen, om vervolgens binnen twee jaar door te groeien naar bijna elf miljard euro.

Bij UiPath onderzoekt Guy Kirkwood, de maatschappelijke en technologische trends: ”RPA wint aan snelheid en breekt in 2020 volledig door, vanwege de economische noodzaak, jonge medewerkers die dol zijn op IT; en de versnelde technologische ontwikkeling die met kunstmatige intelligentie het ongelofelijke mogelijk maakt.

Guy Kirkwood.

Benauwend? Kijk eens wat Google, Uber, Zalando, Bol.com en Thuisbezorgd doen. Wie die aan de bedrijfspoort wil stoppen, moet UiPath´s RPA-voorspellingen juist omarmen en een ‘automatisering voorop’-strategie volgen, vindt Kirkwood. Dat wil zeggen een digitale transformatiestrategie ontwikkelen en automatisch doen wat automatisch kan.

Dit zijn de zeven RPA-voorspellingen die Guy zijn bazen bij UiPath voor 2020 heeft voorgespiegeld:

1. Wereldwijde economische neergang stuwt automatisering

De signalen in de financiële markten zijn negatief. Rabobanks Philip Marey voorziet voor 2020 een recessie in de VS en denkt dat de Fed de rente helemaal naar nul zal laten gaan: ”Mijn voorspelling is dat bedrijven hun bedrijfsmodel onder economische druk zullen aanpassen en in de eerste plaats de efficiëntie van hun medewerkers zullen verhogen door robots in te schakelen, voordat ze eventueel snijden in hun personeelsbestand”.

2. Wat YouTube is voor video, wordt RPA voor automatisering

Per 2020 zal RPA de plaats opeisen als hét centrale platform waarop ook andere bedrijfsautomatiseringstools en softwarecode huizen, ongeveer zoals YouTube dé plaats is waar video-inhoud wordt gehuisvest: ”Softwarerobots zijn nu nog vaak uniek, maar worden algemeen inzetbaar vanuit een centrale plaats binnen de organisatie”.

3. Unieke robots worden breed inzetbaar

In 2020 zullen robots dus steeds meer worden gestandaardiseerd voor gebruik in verschillende toepassingsgebieden en over de verschillende afdelingen van organisaties, en uiteindelijk over verschillende bedrijven en sectoren, volgens Guy: ”Standaardisering en centralisatie zetten de deur wagenwijd open voor veel grootschaliger toepassing van RPA, waarbij de robots zich weinig aantrekken van de verzuiling binnen bedrijven”.

4. Studenten die gaan werken, versnellen de trend

Studenten die in 2020 op de arbeidsmarkt komen, doen niet aan geestdodend routinewerk. Ze hebben al geleerd wat automatiseren is en nemen dat mee naar hun nieuwe job. Ze zijn efficiënter en effectiever en het levende voorbeeld van de voordelen van RPA: “De jongste medewerkers laten zien hoe het kan en dwingen bedrijven om hun processen te transformeren en te moderniseren. Anders lopen ze weg”, zegt Kirkwood.

5. De intelligentie van machines ontwikkelt zich stormenderhand

Kunstmatige intelligentie (AI) blijft zich (vergelijkbaar met de wet van Moore) stormenderhand ontwikkelen. Uniek menselijke taken, worden een peulenschil voor Botje. AI-innovaties en verdere computerisering, staan op de schouders van quantum-computing. Guy zegt: “We verhogen regelmatig het aantal qubits in quantum-computing, en de toepassingsmogelijkheden voor al die rekenkracht zijn enorm. Wat we onmogelijk achtten, wordt mogelijk.

6. Robots worden onderwerp van gesprek op het wereldtoneel

De invloed van automatisering grijpt aan op de samenleving. In 2020 zullen non-gouvernementele organisaties als de Verenigde Naties en het World Economic Forum, en de individuele landen de gevolgen van RPA bespreken voor wat betreft werkgelegenheid, de lonen en de wereldeconomie. Kirkwood: “Het is belangrijk te beseffen dat RPA sociaal-politiek bezien van cruciaal belang is, en dat robots belangrijke spelers zijn om de aankomende economische neergang te bestrijden.

7. Overname van RPA-softwareleveranciers door ICT-dienstverleners versnelt

Gevestigde bedrijven die de RPA-markt betreden, zullen daartoe jonge RPA-leveranciers overnemen en in hun onderneming integreren. De RPA-marktleiders, zoals die zijn bepaald in het Gartner Magic Quadrant voor Robotic Process Automation Software, door Forrester Wave en in de Everest PEAK Matrix-rapporten, zijn daarvoor te groot. Guy Kirkwood voorspelt ook waar UiPath zelf concurrentie vandaan mag verwachten: ”Gevestigde ICT-dienstverleners willen ook toetreden op de RPA-markt, en zullen daartoe jonge, kleine RPA-leveranciers overnemen en die integreren in hun bedrijf om de RPA-marktleiders te bevechten.

Vanuit wat hij dagelijks bij UiPath om zich heen ziet gebeuren, kan Guy Kirkwood alleen maar voorspellen wat 2020 zal brengen: ”Maar zeker is dat de meest innovatieve bedrijven vandaag, de marktleiders van morgen zijn. Want als verandering de toon zet, is aanpassing de kunst.

Over de auteur: Guy Kirkwood is chief evangelist bij UiPath.

Erik van Ommeren (Gartner): ‘Als je de term AI noemt, gaat het brein open’

Eric van Ommeren van Gartner gaat in gesprek met Hans Voorn in op kunstmatige intelligentie in de financiële dienstverlening. “De belofte is groot en daar halen mensen energie uit.”

Van Ommeren: “Als je artificial intelligence als term noemt, dan gaat het brein open. Dan gaan we allemaal mooie dingen bedenken, met mooie ervaringen en mooie nieuwe diensten met weinig risico. De sky is the limit, denken we dan.”

Bekijk hier het hele gesprek tijdens Emerce Financials. (11.35 minuten)

Om video’s van Youtube te kunnen tonen, dienen analytische cookies en tracking cookies geaccepteerd te worden.

Over de auteur: Hans Voorn werkt als Manager Marketing, Online en Big Data voor Dela.

Column: Internet is voor de armen

Het internet begon als een idyllische droom van vrijheid en gelijkheid. Van de poetsvrouw tot de president, allemaal kregen we hetzelfde internet. Informatie is kennis, en informatie werd vrij.

Een goede 25 jaar later begint de digitale wereld steeds meer op de echte wereld te lijken. En dan bedoel ik voor de verandering niet zoiets als virtual reality. De digitale klassenstrijd is aan. Het internet is voor de armen. Een premium digitale wereld voor de rijken.

De New York Times staat bekend om zijn prachtige interactieve internet specials. De meest recente gaat over dit onderwerp. En hoe de internetbelofte daarmee niet is waargemaakt. Ook Tim Berners-Lee, de uitvinder van het wereldwijde web, maakt zich zorgen. Hij heeft recent negen principes opgesteld in de hoop dat die het internet beter maken. 

Van de tien geboden tot de 95 stellingen van Luther, in de geschiedenis hebben we tal van pogingen gedaan om met lijstjes menselijk gedrag te sturen. Maar behalve in de vorm van ‘de tien gekste outfits van Kim Kardashian’ werken lijstjes maar met mate. 

Het lijstje met de zeven hoofdzonden is wel een interessante. Want of het nu AI is of social media, het is nooit de techniek of het platform wat het probleem is: het is de mens. De mens voedt AI met vooringenomen data. De mens scheldt en trollt op social media. De mens wil over de rug van anderen geld en macht vergaren. 

De negatieve impact hiervan is net als in de echte wereld ongelijk verdeeld. De rijken trekken zich online terug in met paywalls ommuurde premium omgevingen. We kopen er privacy en kwaliteit. Buiten die veilige muren is het steeds meer voor de armen. Gevolgd door trackers voeden ze het internet met hun data. De zevende hoofdzonde ‘gemakzucht’ wordt onze val. We geven onze data in ruil voor gebruiksgemak. Data waarmee we steeds slimmer zijn te manipuleren.

Gelukkig is er aan de andere kant het boek ‘de meeste mensen deugen’ van Rutger Bregman. En als je kijkt langs de trollen en spam, zie je elke dag mensen lief voor elkaar zijn op Twitter. Ook ontstaan er tal van mooie platformen op het internet, die gratis toegankelijk zijn en blijven voor iedereen. Er zit ook zoveel goeds in mensen. Daarom laat ik hierbij mijn lijstjes-cynisme varen en steun van harte Berners-Lee’s initiatief. Go internet!

* Dit artikel verscheen eerder in het decembernummer van Emerce magazine (#175).

Over de auteur: Brechtje de Leij werkt als bobile strategist en schrijft columns voor Emerce.

Zo voorspelt Vakmedianet de deelname aan een evenement 

De waarschijnlijkheid of iemand deel zal nemen aan een evenement is heel goed te voorspellen, zo vertelt Stephanie Gillisse, Marketing Manager Data & Development bij Vakmedianet. Door alle beschikbare marketingdata te analyseren in een AI-model, worden belangrijke kenmerken inzichtelijk en kan de juiste mail op het juiste moment het verschil maken. 

Vakmedianet organiseert als b2b-uitgever jaarlijks diverse congressen en evenementen. Het vullen daarvan vergt de nodige marketinginspanningen, waarin marketingdata een centrale rol spelen. “Alle data die binnenkomen – zoals klikgedrag, interactie met e-mail, eerdere deelnames – verwerken we in Ternair Marketing Cloud. Hiermee faciliteert het centrale Marketing Data & Development team de rest van de organisatie met datagedreven inzichten”, legt Gillisse uit. In maart begon een gezamenlijke pilot met Ternair en Cmotions: “Ternair is goed in het ontsluiten en aan elkaar knopen van data. Cmotions is weer slim in het gebruiken van die data in AI-modellen. Voor Vakmedianet bood deze pilot de kans om de e-mail marketing relevanter te maken.”

Reageren op gedrag dat deelname voorspelt

Vakmedianet werkt met drie verschillende soorten e-mails voor het werven van deelnemers voor evenementen. De eerste zijn inhoudelijke mails met artikelen en content rondom het thema van het evenement. Deze zorgen voor meer awareness en interesse rond het onderwerp. De tweede soort mails informeert de doelgroep over het evenement, aangevuld met inhoudelijke content. De derde soort mails, bedoeld om te overtuigen, brengen extra argumenten waarom het evenement echt nú de moeite waard is. De uitdaging van Vakmedianet is om de juiste e-mail naar de juiste persoon op het juiste moment te versturen. Daarvoor werd de pilot opgezet, welke bestond uit drie onderdelen: 

  • Analyse van alle data. Cmotions analyseerde eerst de data uit alle touchpoints van de afgelopen tien maanden: bezoek op de diverse websites, downloads, e-mailhistorie, het profiel, koophistorie van vakbladen, boeken en online diensten zoals kennisbanken. Ternair maakt deze data voor het model near realtime beschikbaar. Van het evenementenbezoek gebruikte Cmotions de historie van enkele jaren. Met al deze data werd het AI-model getraind en bepaalde Cmotions welke aspecten een voorspellende waarde hebben voor het inschrijven op een evenement. Iemand die zich al eens op een evenement heeft ingeschreven bijvoorbeeld, heeft meer kans op een volgende inschrijving. Ook het vijf keer bezoeken van de website in één maand is een sterke factor. 
  • Eerste campagne om te leren. De inzichten werden vervolgens toegepast op de e-mails rondom twee campagnes. De eerste campagne, een Nyenrode Summercourse, verifieerde de gewonnen inzichten en gaf de ruimte om eventuele fouten er uit te halen. Er werd gewerkt met een éénmalige score vanuit het AI-model waarop de mails handmatig werden verzonden. Iemand die al de evenementenpagina bezocht en signalen afgaf het evenement te overwegen, kreeg de overtuigingsmail. Iemand die hoog in het model scoorde maar nog niet leek te overwegen, kreeg de tweede mail over het evenement. En bezoekers die hoger dan gemiddeld scoorden maar niet in de top zaten, ontvingen de inhoudelijke mail. Het kiezen van welke mail wanneer werd verzonden was een kwestie van uitproberen en aanpassen. Daarnaast waren er ook controlegroepen, om het effect van het AI-model en enerzijds en de verstuurde content anderzijds zuiver te meten.
  • Tweede campagne om te bewijzen. De tweede campagne was voor de HR Actualiteitendag, gericht op HR managers over actuele wetswijzigingen met praktische handvatten. Voor deze campagne draaide het AI-model in Vakmedianet’s eigen omgeving. Het voordeel daarvan was dat de score van de data vanuit het AI-model realtime kon worden gemaakt en dat toepassing na de pilotfase hiermee ook gemakkelijker werd. Met de actuele data uit de Ternair Marketing Cloud bepaalde het Cmotions model realtime nu het type e-mail en het moment van versturen. De uiteindelijke resultaten van de verzonden mails werden direct teruggevoerd in het AI-model, waardoor het model werkte beter dan de eerste campagne. Hiermee zag Vakmedianet heel helder wat het aandeel van het model was.
Twee keer zoveel inschrijvingen

De twee campagnes deden het bovengemiddeld. Het eerste evenement zat helemaal vol, iets wat niet volledig aan het model was toe te wijzen maar zeker gedeeltelijk. “De timing en het programma spelen natuurlijk ook altijd een belangrijke rol. Maar vergeleken met andere evenementen voor deze doelgroep zonder AI-model, had het voor een groot deel zeker impact. En voor een bepaald segment uit de doelgroep betekende het zelfs twee keer zoveel inschrijvingen”, stelt Gillisse. “En opmerkelijk: onze organisator ter plaatse kreeg van drie mensen de ongevraagde feedback dat het goede mails waren die op het juiste moment binnenkwamen. Dat soort feedback kregen we voor het eerst. Het betekent dat deze nieuwe manier van mailen relevanter is voor onze doelgroep.”

Gillisse is wel terughoudend over het succes. “Dit model is niet oneindig geldig natuurlijk. De vraag is of en hoe lang je dit volhoudt. Richten we ons hiermee alleen op een beperkte bestaande doelgroep of werkt dit ook voor nieuwe contacten die voor het eerst in de marketingfunnel verschijnen?” Vakmedianet kiest er daarom voor om de pilot voor een jaar te verlengen. “We willen ook testen met verschillende thema’s. Wat is het onderlinge effect wanneer iemand zich aanmeldt voor één evenement maar ook interesse heeft voor een ander thema?”

Meer datagedreven werken – drie best practices

Deze pilot bracht Vakmedianet de eerste ervaring met AI. “Deze zomer volgden alle uitgevers en marketingcollega’s ook een AI-training. We hebben veel marketingdata beschikbaar en daarmee kunnen we interessante analyses doen om meer actiegerichte inzichten te krijgen”, stelt Gillisse. “Er is overigens helemaal geen angst dat het werk zal worden overgenomen door AI. Het marketingvak is al jaren flink aan het veranderen, er komen steeds meer taken en tools bij. Het is daarom ook wel fijn als er een aantal zaken worden geautomatiseerd en daarmee weer een stap beter worden, zoals het versturen van e-mails. Onze marketingcollega’s zijn erg enthousiast hierover.”

Vanuit haar ervaringen met deze pilot geeft Gillisse drie best practices mee aan marketeers die een eerste soortgelijk project plannen: 

  1. Doe het in fases. Ga niet volledig van 0 naar 100, maar maak iedere keer een klein stapje. Richt je op één doelgroep of één merk. Zo leer je van de fouten en gaat het beter in de volgende fase. Zo houd je ook de focus en de aandacht en kun je tijdig bijsturen. 
  2. Niet alles is even relevant. De analyse in de eerste fase bracht heel veel zaken naar voren. Maar niet alle kenmerken hebben een grote voorspellende waarde. Die gingen daarom ook niet het AI-model in, zodat deze efficiënter werkte. 
  3. Bepaal eerst de aanpak. Vakmedianet, Cmotions en Ternair deden eerst een aantal sessies om de aanpak en strategie te bepalen. Hoe gaan we dit doen? Belangrijke zaken zoals privacy bijvoorbeeld kun je beter vooraf volledig uitdenken, dan er achteraf mee worden geconfronteerd. 

Over de auteur: Ton Soddemann werkt als Senior Marketing Consultant bij Ternair.

AI-professor Noel Sharkey: ‘Er is te weinig controle op algoritmes’

Ethische richtlijnen, lijsten van raamwerken en ethische commissies duiken links en rechts op. Maar er is nog steeds onvoldoende controle over AI, zegt professor en AI-expert Noel Sharkey. “Het gaat om zaken op abstract niveau. Wees eerlijk, wees rechtvaardig. Maar wat betekent dat precies? Het komt allemaal neer op de toepassing.”

Er is veel belangstelling voor ethiek en het verantwoorde gebruik van AI, maar professor Sharkey ziet nog niet veel toepassingen. “Tot nu toe waren er vooral discussies en commissies. Ze hebben nog niets gedaan, maar ze werken er aan”, legt Sharkey uit.

Maatschappelijke verantwoordelijkheid

Sharkey ziet de behoefte aan technisch personeel en specifiek programmeurs om getraind te worden en bewust te maken van ethische kwesties. “Ze moeten overwegingen maken wanneer ze hun programma’s of hun producten bouwen. Het zijn niet alleen ethische kwesties, het gaat om sociale verantwoordelijkheid. Welke impact heeft dit op mijn samenleving? Als je een systeem ontwikkelt, moet dit al in het ontwerpproces zitten. Vanaf de eerste regel code moet je al aan je principes werken.”

Dat valt niet mee, erkent Sharkey. “Je moet de principes verder uitwerken en de tijd nemen om de impact op de samenleving te overwegen. En je moet dit van tevoren doen. Je schrijft niet de code en vraagt daarna pas: wat is de impact hiervan? ”Dat betekent ook dat er behoefte is aan meer diversiteit in de ontwikkelteams, zegt Sharkey. “Overal waar algoritmes zijn gebruikt voor gerechtigheid – van uitkeringen tot en met gerechtelijke beoordelingen en gevangenisstraffen – bleek er bias te zijn op geslacht en ras. Als je niet volledig kunt aantonen en testen dat een algoritme niet bevooroordeeld is, zou het ook niet moeten worden gebruikt. Niet zonder certificering.”

Bekijk het volledige interview. (kijktijd 5.13 minuten)

Accepteer analytische cookies en tracking cookies om deze video te bekijken.

Over de auteur: Evert Haasdijk werkt als Senior Manager bij Deloitte.

Page generated in 1,549 seconds. Stats plugin by www.blog.ca