Gumbo moet Big Data goedkoper maken

Geen reacties
Tags: , , ,
Posted 10 Okt 2016 in nieuws

Aan de Universiteit van Hasselt is een systeem ontwikkeld Gumbo, waarmee Big Data sneller en goedkoper berekend en geanalyseerd kan worden.

Meer dan 90 procent van alle beschikbare data werd in de afgelopen twee jaar gegenereerd. Het is nagenoeg onmogelijk om die data handmatig te analyseren. Om in die zee van gegevens te zoeken naar interessante patronen heb je software nodig. Bij Big Data gebeurt de analyse door meerdere computers. Maar wanneer de hoeveelheid data te groot wordt – denk aan Google of Facebook – dan heb je miljoenen machines nodig.

Jonny Daenen (faculteit Wetenschappen) denkt dat oplossing kan worden gevonden in parallel computing, computertechnieken die meerdere databerekeningen tegelijkertijd uitvoeren.

Gumbo is gebouwd op het parallel systeem Hadoop. Voor een antwoord op Big Data-vragen zijn er verschillende methoden die je kan gebruiken. Sommige zijn snel, andere goedkoop. Gumbo kan voor een bepaald soort vragen snelle én goedkope antwoorden genereren.

Big Data-systemen schieten als paddenstoelen uit de grond, maar verdwijnen soms ook weer even snel. Daarom is het belangrijk om inzichten te verkrijgen die overdraagbaar zijn over systemen heen, zegt Frank Neven, promotor van het doctoraatsonderzoek.



Lees het volledige bericht op Emerce »


Add Your Comment