Snel en effectief verwerken van Big Data: de kracht van Hadoop en Pentaho

Snel en effectief verwerken van Big Data: de kracht van Hadoop en Pentaho

13-12-2017ENWhitepaper
Voeg de whitepaper toe aan Mijn lijsten
U moet ingelogd zijn om een whitepaper aan uw favorieten toe te voegen. Login of registreer u als Marqit member.

In de afgelopen Jaren heeft de term Big Data een transformatie ondergaan van een Buzzword tot een belangrijk en waarde toevoegend element voor organisaties. Aan de oorsprong van dit succes ligt Hadoop, een framework welke gebruik wordt voor het distribueren en verwerken van data opslag. Hadoop is prima geschikt om grote batches ongestructureerde data te verwerken. Denk hierbij bijvoorbeeld aan data voortvloeiend uit weblogs en social media.

In dit rapport worden de onderzoeksresultaten van een schaalbaarheidstest, waarbij Pentaho Data Integration gebruikt is, belicht. Tijdens deze test werden MapReduce opdrachten in Hadoop gebruikt om een constante performance op grote schaal tentoon te kunnen spreiden.

Registratie vereist
Relevante artikelen
Big Data | Hadoop | Storage | Opslagsystemen
My Marqit

Registreer je gratis voor de volgende voordelen:

  • Kosteloos toegang tot alle informatie
  • Onbeperkt downloaden van whitepapers
  • Altijd up-to-date via de Marqit nieuwsbrieven
E-mailadres
Wachtwoord
Wachtwoord [vergeten?]