Andy Polaine (Fjord): ‘Je denkt er niet over na of iets AI is of niet.’

Geen reacties
Tags: , , , , , , , , , ,
Posted 07 jan 2020 in nieuws

We leven in een tijd van fake news, deep fake en Instagrammers die helemaal geen mensen zijn maar digitale influencers. Een nieuwe wereld? “Welnee, het is slechts de meest recente verandering in een lange geschiedenis van het herscheppen van de werkelijkheid door mediamanipulatie.”

Aan het woord, Andy Polaine, auteur, adviseur en spreker met ruim 25 jaar ervaring in design en innovatie. ‘Synthetische werkelijkheden zullen in rap tempo onze cultuur en de creatieve industrie transformeren. En dat brengt de nodige ethische uitdagingen met zich mee.’  

Controverse en creatieve mogelijkheden

Andy Polaine is afgestudeerd in film en was tot voor kort Group Director van Fjord Client Evolution (Fjord is een internationaal design- en innovatiebureau, onderdeel van Accenture Interactive). Ik sprak hem direct na zijn optreden tijdens eDay, eerder dit jaar. Zijn speech ging over: creativiteit in een tijdperk van synthetische werkelijkheden. Mooi. Maar wat betekent dat nou eigenlijk? Dat de grenzen van wat waar is vager zijn geworden door nieuwe versies van de werkelijkheid. Media die volledig gegenereerd zijn door Artificial Intelligence (AI) of in combinatie met meer reguliere middelen als video of fotografie wordt toegepast, dagen ons uit. Nep is al bijna niet meer van echt te onderscheiden. Dat roept controverse op. Maar ook fascinatie voor de creatieve mogelijkheden.  

Historische context

‘Everything is possible, but nothing is real.’ Een tekstregel uit Type, een van de songs op het in 1990 verschenen tweede album van de New Yorkse funkrockformatie Living Colour, Time’s Up. En ook, in dezelfde songtekst: ‘Science and technology. The new mythology. Look deep inside. Empty.’ Een nogal duistere kijk op het leven in een maatschappij die zich langzaam klaar maakte voor de eeuwwisseling. Computers waren nog geen mainstream en internet was voor de meeste mensen meer een gerucht dan de dagelijkse levensbehoefte van nu.

Een tijd waarvan niemand echt kon voorspellen hoe die eruit ging zien. Het jaar 2000 klonk zowel fascinerend als bedreigend tegelijk. Inspiratie voor doemdenkers en creatievelingen. 1990 was hetzelfde jaar dat Adobe’s Photoshop 1.0 uitkwam, een stuk designsoftware (onderdeel van desktop publishing: dtp) dat ontwerpen toegankelijker en makkelijker maakte. Andy: ‘Sinds dtp is de designwereld gedemocratiseerd. Vanaf dat moment is het hard gegaan. Heel hard. Je krijgt parallelle paden, op je telefoon kun je nu al zo goed als alles doen.’

Media-manipulatie, zoals je het zelf noemt, klinkt nogal heftig. Is het dat ook? 

“Het is niet iets nieuws. Media werd altijd al aangepast. Denk aan de zwartwitfoto’s uit het oude Sovjetregime waarop Stalin ongewenste personen had laten verwijderen. Of het historische Tapijt van Bayeux, beschouwd als hét voorbeeld van Normandische propaganda. Dat zijn fake olds! Fake news anno nu is niet gedreven door technologie, het is het verhaal dat iemand – op die manier – wil vertellen.”

Designer wordt AI-curator

Conclusie: digitaal is nog lang niet volwassen. En dat geldt voor meer recente technologische ontwikkelingen. Interessant genoeg komt daar altijd weer een vorm van design om de hoek kijken. ‘Ik heb al zoveel re-inventions gezien. Nu hebben we een duurzame, fluisterstille elektrische auto, en dan moet-ie ineens geluid maken.’ 

Vanaf 1 juli is het voor nieuwe elektrische auto’s in de EU namelijk verplicht te zorgen voor geluid als een auto achteruit rijdt of vooruit met een snelheid van minder dan 20 kilometer per uur. De reden? Veiligheid. Elektrische voertuigen zijn door de geruisloosheid vaker betrokken bij ongevallen met voetgangers dan benzine- of dieselauto’s. Fabrikanten van elektrische wagens moeten nu dus geluid toevoegen. En wie doen dat? Sound-designers.

Geluid, beeld, video, tekst – wat is volgens jou de definitie van een designer?

“Ik zou zeggen, een media-creator. En dat vak verandert. Een designer wordt veel meer een AI-curator. AI-assisted design komt er aan. Kijk maar naar Runway ML, bijvoorbeeld. Een machine learning-platform voor designers. Wat dacht je van text-to-image? Software die tekst omzet in beeld. Bizar, toch? Het bestaat. Designers gaan ook steeds meer van code weten.”

We kunnen nu zoveel nieuwe dingen doen op het gebied van design, dus wat doen we dan in de toekomst?

“Toen ik film studeerde in de jaren negentig, heette dat: nieuwe media. Creativiteit en computer science en/of technologie waren vroeger gescheiden werelden. Dat is sinds 1990 veranderd, en die verandering zet nu nog steeds door – alleen gaat het veel sneller. Voice en chatbots zijn een groeiwereld. De toekomst wordt minder visueel, hoe gek dat nu ook klinkt – want zijn we niet allemaal beelddenkers? Dus dat opent weer nieuwe wegen om als creatief na te denken hoe je je merk – letterlijk – laat spreken of klinken. Tekst en voice zijn veel minder vastgelegd in de huisstijl dan beeld. Daar kun je als designer het verschil maken.”

Is deze ontwikkeling een extra impuls voor kunstenaars, of juist niet?  

“Ze voeden elkaar, AI en kunst. Artiesten gaan op onderzoek uit. Verkennen de grenzen. Experimenteren. Daarna wordt het een geaccepteerde tool, dat zul je zien.”

Andy noemt Mario Klingemann (Quasimondo) als voorbeeld. Deze Duitse kunstenaar gebruikt naast klassieke technieken als schilderkunst en fotografie onder andere algoritmen, datavisualisatie en machine learning als “tools” om kunst te produceren.

Er valt een hoop te leren?

“Op zich wel. Alleen mensen leren nu minder van wat er gebeurt, dan vroeger. Omdat alles zo snel verandert en vervangen wordt.”

Kunstmatiger dan je denkt

Veel vragen, evenzoveel antwoorden. Maar zoals het vaker gaat als je je ergens in verdiept: the more you know, the less you know. Tijd voor wat concrete toepassingen. In de praktijk zijn veel van die werkelijkheden al veel kunstmatiger dan we denken. 

Producten in webshops, beelden in statische en geanimeerde marketinguitingen en zelfs personen zijn allang niet meer “slechts” gefilmd of gefotografeerd. Vaker dan je denkt kijk je naar volledig digitaal in 3D gerenderde flesjes bier, kledingstukken en interieurs. In de woorden van Andy: “Consumenten zullen van merken verwachten hen halverwege te ontmoeten en ze van de werkelijkheid te voorzien die ze wensen.”

AI als dierbare assistent

Dezelfde consumenten verwachten in toenemende mate dat deze werkelijkheden zich in real-time aan onze wensen aanpassen, zonder dat ze bij de technologische uitdagingen erachter stil hoeven staan. Willen we bij het online shoppen een broek blauw in plaats van zwart zien? Eén druk op de knop en het staat er. “De rol van ontwerpers is om de omgevingen te bepalen waar deze ervaringen zich plaatsvinden, vaak meer in de rol van curator dan van zelf iets te designen. Het werkt als een centaur (het paardmens uit de Griekse mythologie, red.), AI en mens werken samen. Met AI als een dienstbare assistent, niet als een bedreiging.”

Stockfoto’s van de toekomst

De mogelijkheden die designers toegereikt krijgen nemen in rap tempo toe. En zijn steeds laagdrempeliger in gebruik. Waar je als professioneel mediagebruiker al jarenlang ruimschoots beschikt over online stockfoto’s, zijn ook deze nu “synthetisch” verkrijgbaar. Er zijn al platforms voor gerenderde stockfoto’s en -beelden, bijvoorbeeld 123RF. Maar waar we naartoe gaan zijn digitaal vervaardigde fotomodellen, die je door simpelweg aan de levels te trekken verandert van karakteristieken. Andere kleur haar, huid of ogen. Vollere lippen, iets meer lach op het gezicht, artistieke penseelstreek – het kan allemaal. Speel maar eens met artbreeder, een AI-aangestuurd modellenbureau, technisch mogelijk gemaakt door Generative Adversarial Networks (GAN’s). Een vorm van machine learning waarin twee neurale netwerken tegenover elkaar worden gezet om synthetische beelden te ontwikkelen. Er zijn al voorbeelden van beelden die niet van echte, door mensen geschoten fotomateriaal te onderscheiden zijn. En zo ziet de stockfotosite van de toekomst er dus uit. Met een paar eenvoudige handelingen pas je digitaal mensen aan, zodat ze matchen met je doelgroep.

Brak achter je pc

Video valt ook al op meerdere manieren te manipuleren. In een eenvoudige manier heb je er misschien al kennis mee gemaakt op Snapchat. De gender swap, weet je nog? Was best hilarisch. FaceTime speelt er ook handig op in met de Attention Correction-feature die in iOS 13 gelanceerd is. Hiermee corrigeert je telefoon je blik, zodat je wanneer je zoals gebruikelijk naar je scherm kijkt en niet in de lens, het voor de ander lijkt alsof je toch oogcontact maakt. Wat niet zo is, maar wel veel natuurlijker voelt. Je kunt ook software gebruiken om er beter (lees: gezonder) uit te zien. Best handig bij het solliciteren via een video. Op maandagochtend brak achter je pc en er toch strak uitzien voor de buitenwacht. Of net even iets meer glimlach op je gezicht. Kan allemaal. Deep fake? Dat is al heel goed door een beetje slimme designer te doen. Hebben we bij het communicatiebureau waar ik werk al uitgebreid getest.  

De vraag is moeten mensen weten dat iets digitaal aangepast is, of helemaal gecreëerd?

“Het is een glibberige helling. In China zijn podcasters die filters gebruiken om niet als vrouw maar als man te klinken, omdat ze anders kans lopen om lastig gevallen te worden. Het gebruik van filters is daar normaal geworden. Je kunt in video’s zelfs je huidskleur veranderen. Maar is dat verkeerd? Aan ons, als communicatiebureau of designers, om na te denken hoe je van die mogelijkheden gebruik kunt maken. Zolang we ons maar ethisch gedragen. Om problemen te voorkomen.”

Hoe ga je zelf als consument om met Artificial Intelligence?

“Je denkt er niet over na of het AI is of niet. Het werkt gewoon.”

Inderdaad, soms is fake zo real dat je er niet eens meer bij stilstaat. Totdat er iets afwijkends gebeurt. Zo ondervond Andy zelf.

“Wat is Google Home of een andere voice assistant eigenlijk? Is het echt, of is het nep? Daar sta je niet bij stil. Totdat je een keer iets vraagt waarop het apparaat geen antwoord heeft. En je je dan ineens realiseert dat je met een machine praat. Ik was best even teleurgesteld toen dat laatst gebeurde, moet ik toegeven.”

Hoe kijk jij naar AI-gegenereerde en gecombineerde realiteit? De virtuele influencer LilMiquela op Instagram (met 1,8 miljoen volgers!) bijvoorbeeld?

Now that’s a masterstroke of storytelling. En nee, het is geen grote sprong. Instagram is al iets kunstmatigs. Het gaat erom iets op de juiste manier te brengen, en zonder social media had dat nooit gekund. We vinden het niet erg dat het niet echt is, zolang het maar echt voelt. Is het een render? Maakt ons niet uit. Vreemd? Sommige mensen huilen ook als ze hun oude auto verkopen. En het gaat dan toch echt om iets dat machinaal is en zelf geen emoties kent.”

Tja, denk daar maar eens over na. En dan is het wel zo passend af te sluiten met een quote van Ian McEwan, één van Andy’s favoriete schrijvers (en één van de mijne bovendien!): ‘There is nothing so amazing that we can’t get used to it.’ Oftewel: ‘Er is niets zó verbazingwekkend dat we er niet aan zouden kunnen wennen.’ Mooi. En zó waar.

Over de auteur: Niels van Laatum werkt als copywriter bij RauwCC.



Lees het volledige bericht op Emerce »


Add Your Comment