Deep learning: alle seinen op groen

Geen reacties
Tags: , , , , , ,
Posted 10 Jul 2017 in nieuws

Doemscenario’s rondom kunstmatige intelligentie halen de aandacht weg van de nu al indrukwekkende prestaties van deep learning. We zijn nog heel ver verwijderd van een computer die hetzelfde kan als de mens, maar de nieuwe ontwikkelingen en toepassingen zijn wel weer een forse stap vooruit.

Nee, we zitten niet allemaal zonder werk binnen vijf jaar. Ja, de techniek maakt weer een sprong, en dat is heel goed nieuws. Van programmeren en statistiek verschuiven we naar trainen en zelflerende patroonherkenning, met in het bijzonder deep learning als baanbrekende techniek. Hierdoor worden nieuwe toepassingen mogelijk, leuker en mooier dan (halfwerkende) chatbots of tools die aanbevelen wat je net ergen anders hebt gekocht. Dankzij de tech-giganten, die volop nieuwe platformen en API’s op ons loslaten, ligt de technologie nu binnen handbereik voor elk bedrijf.

Nee, robots maken ons niet werkeloos

Het is een oude zorg: in het beste geval verliezen we massaal ons werk zonder alternatief, en in het slechtste geval neemt een superintelligente AI-vorm de wereld over. Keizer Vespasius weigerde daarom al het inzetten van een machine in 70 na Christus, de Luddieten sloegen weefmachines de vernieling in tijdens de 19de eeuw en Keynes, een van de beroemdste economen aller tijden, introduceert midden in de grote depressie van 1930 de term ‘technologische werkloosheid’. De computer was nog niet eens uitgevonden.

Ondertussen is de werkgelegenheid in Nederland anno 2017 op recordhoogte, worden er meer uren dan ooit gewerkt en vindt zelfs mijn lokale supermarkt onvoldoende vakkenvullers. Alle seinen op groen.

Zitten Bill Gates, Elon Musk en Stephen Hawking er dan volledig naast en zijn ze gek om organisaties op te richten ter voorkoming van doemscenario’s? Nee, ze hebben wel degelijk een terechte zorg. Alleen is het nog zo ver weg vergeleken met de huidige stand van de techniek en is het zelfs onzeker dat we zover komen in de volgende 100 jaar. Vergelijk het met een onderzoeksinstituut dat zich bezighoudt met speuren naar grote meteoren die onze aarde kunnen verwoesten: kleine kans, grote impact, niet voor vandaag, maar wel al heel nuttig om nu alvast over na te denken. In de tussentijd gaat het echte leven verder.

Maar wat heeft deze mannen zo onrustig gemaakt? Waarom nu?

De nieuwe wereld: van analyseren en statistiek naar leren uit voorbeelden

Wat hebben Siri, de zelfrijdende auto, Google Translate, Alexa, Salesforce, een gehoorapparaat, Facebook, Alibaba, Amazon, Microsoft Word, IBM Watson, en vele honderden startups met elkaar gemeen?  Ze gebruiken allemaal een techniek waarvan de naam vijf jaar geleden nog niet eens bestond: deep learning. Google is zelfs een ‘deep learning first’ bedrijf geworden.

Beste Go-speler? AlphaGo, met dank aan deep learning. Beste pokerspeler ter wereld? Deep learning. De beste kankerdokter ter wereld? Bijna goed: deep learning, in combinatie met de gewone patholoog.

Maar wat is het eigenlijk? Deep learning is niets meer dan een heel groot neuraal netwerk, en dat is dan weer een computertechniek dat al bestaat sinds de jaren zestig. De techniek is geïnspireerd op hoe onze hersenen werken: een netwerk van neuronen die aan elkaar signalen doorgeven op basis van wat we zien, horen, voelen en ruiken. Onze ogen zien bijvoorbeeld een bal, ons netvlies zet dat beeld om in elektrische pulsen en loopt door een wirwar van connecties met andere neuronen die worden afgeremd of gestimuleerd. Ergens in onze hersenen zit er dan een ‘bal’ neuron en als de juiste combinatie van voorgangers het signaal doorgeeft, herkennen we een bal. Een andere set neuronen reageert pas als de bal recht op ons afkomt en gecombineerd triggeren ze ergens anders het neuron ‘gevaar’. Resultaat: we duiken weg.

Dat was en is, sterk versimpeld, de theorie. Alleen werkte het tot voor kort nog niet zo goed, en niemand wist waarom. In 2012 volgde echter een doorbraak, omdat Stanford-onderzoeker Fei Fei Li Imagenet bouwde.

Zij bedacht dat Artificial Intelligence referentiemateriaal miste. Een kind van tien heeft in zijn leven namelijk honderden miljoenen plaatjes gezien en krijgt continu feedback van zijn omgeving of hij die juist interpreteert. Dus zette Fei Fei Amazon Mechanical Turk in, de grootste ‘fake AI’-motor ter wereld, om een database te vullen met miljoenen gelabelde plaatjes.

Google laat haar gebruikers tegenwoordig het werk gratis doen, via de Captcha. Wanneer je gevraagd wordt om bijvoorbeeld in een serie foto’s aan te geven of er een kat op staat om te bewijzen dat je een mens bent, weet Google namelijk ook niet altijd het juiste antwoord, maar gebruikt je reactie wel om haar eigen database te verrijken. We zijn dus allemaal (onbetaalde) AI-trainers.

Imagenet werd in 2010 opengesteld en kort daarna ging een groepje neuraalnetwerkonderzoekers ermee aan de slag. De resultaten waren zo verbluffend dat de techniek, ‘grote neurale netwerken’, werd omgedoopt tot deep learning. Sinds 2015 legt de gemiddelde mens het zelfs af tegen de computer bij het herkennen van plaatjes.

Nu is het aan ons

Tot voor kort was het heel bewerkelijk en moeilijk om met deep learning aan de slag te gaan. Alle software werd vanaf de basis geschreven, teams van heel specialistische onderzoekers en developers waren nodig om de mooie resultaten neer te zetten. Net als met e-commerce (denk aan Magento, Shopware, et cetera) ontstaan er echter heel snel platforms en API’s (Keras, Theano, Tensorflow, Caffe2, enzovoorts) die veel van het zware werk vereenvoudigen, tot en met kant en klare getrainde netwerken die goed zijn in algemene problemen en benaderbaar via een algemene API, zoals bijvoorbeeld het herkennen van een emotie, gezicht of objectsoort. Google Lens beweert zelfs nu al zover te gaan dat het van een willekeurig bloemetje de soort kan herkennen.

Meer dan alleen maar chatbots en predictive analystics

Stel je voor: je wandelt de Mediamarkt binnen, langs die lange rij van televisies. Mediamarkt herkent dat je een vrouw bent, 36 jaar, met een sportief modieuze uitstraling en enigszins gehaaste indruk. De eerste televisie laat een sportieve man van 28 jaar zien, met een trainingshorloge van Nike. Je vertraagt niet, vertoont geen reactie. Bij de tweede televisie wordt de verlichting wat aangepast en toont het beeld spelende kinderen. Een vertraging wordt opgemerkt, met een licht negatieve reactie. We passen ons verder aan. Tegen de tijd dat je halverwege de Mediamarkt is weten we waar je op let. We lichten iets verderop de GoPro Session uit en maken er meteen een persoonlijke aanbieding van.

Of je pakt thuis de smartphone, maakt een filmpje van je huidige garderobe en je eigen profiel, op basis waarvan automatisch je stijl, kleurprofiel en advies wordt herkend. Je nieuwe handtas ontwerp je zelf. Niet met een tekenprogramma, maar door trends en stijlen aan te geven, via je Pinterest-account bijvoorbeeld, waarop het algoritme een aantal voorstellen maakt, die je met natuurlijke taal kunt bijsturen (“iets meer Beyonce”). Het ontwerp deel je met vriendinnen, en populaire ontwerpen krijgen gratis een handtas thuisgestuurd. Generative design assistants heet dat, het komt eraan.

Over drie jaar zullen we dit soort toepassingen en nog vele andere, zien verschijnen. Het kan vandaag al, we missen alleen nog de pioniers die als eerste deze wereld willen bouwen. We zijn nog maar net de nieuwe grenzen aan het verkennen en het belooft ons leven kleuriger, rijker, diverser, duurzamer en makkelijker te maken. Laat de AI maar komen.



Lees het volledige bericht op Emerce »


Add Your Comment