Naar inhoud gaan
Wat is big data?

Wat is big data?

Beschouw big data als de oceaan van informatie waarin wij dag in, dag uit ons hoofd boven water moeten zien te houden. Een zee van zettabytes aan data afkomstig van onze computers, onze mobiele apparatuur en sensoren van onze machines. Organisaties gebruiken deze data om beslissingen te nemen, processen en beleid te verbeteren en klantgerichte producten, services en ervaringen te creëren. Big data worden niet alleen vanwege het volume, maar ook vanwege de diversiteit en complexiteit 'big' genoemd. Doorgaans bieden traditionele databases niet de capaciteit om deze data vast te leggen, te beheren en te verwerken. Bovendien kunnen big data overal vandaan komen, van alles op aarde wat we digitaal kunnen bewaken. Weersatellieten, IoT-apparaten (Internet of Things), verkeerscamera's, trends op sociale media: dit zijn slechts enkele bronnen voor data die worden verzameld en geanalyseerd om bedrijven veerkrachtiger en concurrerender te maken.

Beschouw big data als de oceaan van informatie waarin wij dag in, dag uit ons hoofd boven water moeten zien te houden. Een zee van zettabytes aan data afkomstig van onze computers, onze mobiele apparatuur en sensoren van onze machines. Organisaties gebruiken deze data om beslissingen te nemen, processen en beleid te verbeteren en klantgerichte producten, services en ervaringen te creëren. Big data worden niet alleen vanwege het volume, maar ook vanwege de diversiteit en complexiteit 'big' genoemd. Doorgaans bieden traditionele databases niet de capaciteit om deze data vast te leggen, te beheren en te verwerken. Bovendien kunnen big data overal vandaan komen, van alles op aarde wat we digitaal kunnen bewaken. Weersatellieten, IoT-apparaten (Internet of Things), verkeerscamera's, trends op sociale media: dit zijn slechts enkele bronnen voor data die worden verzameld en geanalyseerd om bedrijven veerkrachtiger en concurrerender te maken.

Het belang van big data analytics

De werkelijke waarde van big data wordt afgemeten aan de mate waarin je ze kunt analyseren en begrijpen. Dankzij kunstmatige intelligentie (AI), machine learning en moderne databasetechnologieën kunnen bigdatavisualisaties en -analyses in realtime bruikbare inzichten opleveren. Met big data analytics kunnen bedrijven optimaal gebruikmaken van hun data om nieuwe kansen te creëren en grijpen, en bedrijfsmodellen op te bouwen. Zoals Geoffrey Moore, auteur en managementanalist, treffend zei: "Zonder big data analytics zijn bedrijven blind en doof en dwalen ze op het web als een hert op een snelweg."

Een uitleg van big data en analytics

De werkelijke waarde van big data wordt afgemeten aan de mate waarin je ze kunt analyseren en begrijpen. Dankzij kunstmatige intelligentie (AI), machine learning en moderne databasetechnologieën kunnen bigdatavisualisaties en -analyses in realtime bruikbare inzichten opleveren. Met big data analytics kunnen bedrijven optimaal gebruikmaken van hun data om nieuwe kansen te creëren en grijpen, en bedrijfsmodellen op te bouwen. Zoals Geoffrey Moore, auteur en managementanalist, treffend zei: "Zonder big data analytics zijn bedrijven blind en doof en dwalen ze op het web als een hert op een snelweg."

Een uitleg van big data en analytics

Ontwikkeling van big data

We kunnen het ons niet meer voorstellen, maar de Apollo Guidance Computer bracht het eerste ruimteschip naar de maan met minder dan 80 kilobyte geheugen. Sindsdien is de computertechnologie enorm ontwikkeld, en daarmee zijn ook de gegeneerde data exponentieel gegroeid. De technologische capaciteit van de wereld om data op te slaan is sinds de jaren tachtig ongeveer elke drie jaar verdubbeld. De totale hoeveelheid digitale data die iets meer dan 50 jaar geleden, toen Apollo 11 werd gelanceerd, in de hele wereld werd gegenereerd, zou op een gemiddelde moderne laptop kunnen passen. In 2020 werd er volgens schattingen van het IDC 64,2 ZB aan data gecreëerd of gerepliceerd en "de hoeveelheid digitale data die in de komende vijf jaar wordt gecreëerd, zal meer dan tweemaal zoveel zijn als de data die zijn aangemaakt sinds de komst van digitale opslag". 

64,2

zettabytes aan digitale data gecreëerd in 2020 – IDC

2

x

zo veel data zullen de komende vijf jaar worden gegenereerd als sinds het begin van digitale opslag – IDC

Terwijl software en technologie steeds geavanceerder worden, blijven de minder levensvatbare niet-digitale systemen achter. Voor de verwerking van digitaal gegenereerde en verzamelde data zijn geavanceerdere datamanagementsystemen nodig. Daarnaast droeg de exponentiële groei van socialmediaplatforms, smartphonetechnologieën en digitaal verbonden IoT-apparaten bij tot het ontstaan van het huidige tijdperk van big data.

We kunnen het ons niet meer voorstellen, maar de Apollo Guidance Computer bracht het eerste ruimteschip naar de maan met minder dan 80 kilobyte geheugen. Sindsdien is de computertechnologie enorm ontwikkeld, en daarmee zijn ook de gegeneerde data exponentieel gegroeid. De technologische capaciteit van de wereld om data op te slaan is sinds de jaren tachtig ongeveer elke drie jaar verdubbeld. De totale hoeveelheid digitale data die iets meer dan 50 jaar geleden, toen Apollo 11 werd gelanceerd, in de hele wereld werd gegenereerd, zou op een gemiddelde moderne laptop kunnen passen. In 2020 werd er volgens schattingen van het IDC 64,2 ZB aan data gecreëerd of gerepliceerd en "de hoeveelheid digitale data die in de komende vijf jaar wordt gecreëerd, zal meer dan tweemaal zoveel zijn als de data die zijn aangemaakt sinds de komst van digitale opslag". 

64,2

zettabytes aan digitale data gecreëerd in 2020 – IDC

2

x

zo veel data zullen de komende vijf jaar worden gegenereerd als sinds het begin van digitale opslag – IDC

Terwijl software en technologie steeds geavanceerder worden, blijven de minder levensvatbare niet-digitale systemen achter. Voor de verwerking van digitaal gegenereerde en verzamelde data zijn geavanceerdere datamanagementsystemen nodig. Daarnaast droeg de exponentiële groei van socialmediaplatforms, smartphonetechnologieën en digitaal verbonden IoT-apparaten bij tot het ontstaan van het huidige tijdperk van big data.

Soorten big data: wat zijn gestructureerde en ongestructureerde data?

Datasets worden meestal in drie soorten ingedeeld afhankelijk van hun structuur en het gemak (of het ontbreken daarvan) waarmee ze kunnen worden geïndexeerd.

De drie soorten big data

Soorten big data
  1. Gestructureerde data: dit zijn de eenvoudigste data om te ordenen en te zoeken. Het kan hierbij gaan om bijvoorbeeld financiële data, machinelogboeken en demografische gegevens. Een Excel-spreadsheet biedt met zijn vooraf gedefinieerde kolommen en rijen een goede voorstelling van gestructureerde data. De onderdelen ervan zijn makkelijk in te delen, zodat databaseontwerpers en -beheerders goed eenvoudige algoritmen kunnen definiëren om data te zoeken en te analyseren. Maar ook als er sprake is van grote hoeveelheden gestructureerde data, hoeven dit niet per se big data te zijn: gestructureerde gegevens an sich zijn immers relatief eenvoudig te beheren en daarom voldoen ze niet aan de gedefinieerde criteria voor big data. Traditioneel werden gestructureerde data in databases beheerd met een programmeertaal, Structured Query Language (SQL). SQL is in de jaren zeventig ontwikkeld door IBM om ontwikkelaars in staat te stellen relationele databases (in spreadsheetstijl) te maken en te beheren, die op dat moment net opkwamen.  
  2. Ongestructureerde data: onder deze categorie vallen data als berichten op sociale media, audiobestanden, afbeeldingen en niet-gestandaardiseerde opmerkingen van klanten. Dit soort data kan niet makkelijk worden vastgelegd in standaard relationele databases met rijen en kolommen. Bedrijven die grote hoeveelheden ongestructureerde data wilden zoeken, beheren of analyseren, moesten traditioneel gebruikmaken van arbeidsintensieve handmatige processen. Het was altijd al duidelijk dat het waardevol zou zijn om deze data te analyseren en te begrijpen, maar de kosten daarvan waren vaak veel te hoog en wogen niet tegen de baten op. Bovendien waren de resultaten vaak al achterhaald voordat ze werden geleverd, omdat de analyses zoveel tijd kostten. Ongestructureerde data worden meestal opgeslagen in datalakes, data warehouses en NoSQL-databases, niet in spreadsheets of relationele databases.
  3. Semigestructureerde data: zoals de naam al aangeeft zijn semigestructureerde data een combinatie van gestructureerde en ongestructureerde data. E-mails zijn hier een goed voorbeeld van, omdat ze ongestructureerde data in de berichttekst bevatten, maar ook meer organisatorische kenmerken zoals een afzender, ontvanger, onderwerp en datum. Apparaten die gebruikmaken van geotagging, tijdstempels of semantische tags kunnen ook combinaties van gestructureerde data met ongestructureerde inhoud leveren. Een ongeïdentificeerde afbeelding op een smartphone kan je bijvoorbeeld wel vertellen dat het een selfie is, en wanneer en waar die werd gemaakt. Een moderne database met AI-technologie kan niet alleen direct verschillende soorten data identificeren, maar kan ook in realtime algoritmen genereren om effectief de relevante verschillende datasets te beheren en analyseren. 

Datasets worden meestal in drie soorten ingedeeld afhankelijk van hun structuur en het gemak (of het ontbreken daarvan) waarmee ze kunnen worden geïndexeerd.

De drie soorten big data

Soorten big data
  1. Gestructureerde data: dit zijn de eenvoudigste data om te ordenen en te zoeken. Het kan hierbij gaan om bijvoorbeeld financiële data, machinelogboeken en demografische gegevens. Een Excel-spreadsheet biedt met zijn vooraf gedefinieerde kolommen en rijen een goede voorstelling van gestructureerde data. De onderdelen ervan zijn makkelijk in te delen, zodat databaseontwerpers en -beheerders goed eenvoudige algoritmen kunnen definiëren om data te zoeken en te analyseren. Maar ook als er sprake is van grote hoeveelheden gestructureerde data, hoeven dit niet per se big data te zijn: gestructureerde gegevens an sich zijn immers relatief eenvoudig te beheren en daarom voldoen ze niet aan de gedefinieerde criteria voor big data. Traditioneel werden gestructureerde data in databases beheerd met een programmeertaal, Structured Query Language (SQL). SQL is in de jaren zeventig ontwikkeld door IBM om ontwikkelaars in staat te stellen relationele databases (in spreadsheetstijl) te maken en te beheren, die op dat moment net opkwamen.  
  2. Ongestructureerde data: onder deze categorie vallen data als berichten op sociale media, audiobestanden, afbeeldingen en niet-gestandaardiseerde opmerkingen van klanten. Dit soort data kan niet makkelijk worden vastgelegd in standaard relationele databases met rijen en kolommen. Bedrijven die grote hoeveelheden ongestructureerde data wilden zoeken, beheren of analyseren, moesten traditioneel gebruikmaken van arbeidsintensieve handmatige processen. Het was altijd al duidelijk dat het waardevol zou zijn om deze data te analyseren en te begrijpen, maar de kosten daarvan waren vaak veel te hoog en wogen niet tegen de baten op. Bovendien waren de resultaten vaak al achterhaald voordat ze werden geleverd, omdat de analyses zoveel tijd kostten. Ongestructureerde data worden meestal opgeslagen in datalakes, data warehouses en NoSQL-databases, niet in spreadsheets of relationele databases.
  3. Semigestructureerde data: zoals de naam al aangeeft zijn semigestructureerde data een combinatie van gestructureerde en ongestructureerde data. E-mails zijn hier een goed voorbeeld van, omdat ze ongestructureerde data in de berichttekst bevatten, maar ook meer organisatorische kenmerken zoals een afzender, ontvanger, onderwerp en datum. Apparaten die gebruikmaken van geotagging, tijdstempels of semantische tags kunnen ook combinaties van gestructureerde data met ongestructureerde inhoud leveren. Een ongeïdentificeerde afbeelding op een smartphone kan je bijvoorbeeld wel vertellen dat het een selfie is, en wanneer en waar die werd gemaakt. Een moderne database met AI-technologie kan niet alleen direct verschillende soorten data identificeren, maar kan ook in realtime algoritmen genereren om effectief de relevante verschillende datasets te beheren en analyseren. 

Bronnen van big data

De soorten voorwerpen die data genereren, nemen in een ongekend tempo toe, en lopen van dronesatellieten tot broodroosters. Voor een categorie-indeling worden databronnen over het algemeen echter in drieën verdeeld:

 

Bronnen van big data

Sociale data

Zoals de naam al doet vermoeden, worden sociale data gegenereerd door opmerkingen op sociale media, berichten, afbeeldingen en, steeds vaker, video. En met de steeds algemenere wereldwijde aanwezigheid van 4G- en 5G-netwerken voor mobiele communicatie zal het aantal mensen op de wereld dat regelmatig videocontent bekijkt op hun smartphone in 2023 oplopen tot 2,72 miljard. Hoewel trends in sociale media en het gebruik ervan vaak snel en onvoorspelbaar kunnen veranderen, verandert er niets aan de gestage groei van sociale media als generator van digitale data.

 

Machinedata

IoT-apparaten en -machines zijn voorzien van sensoren en kunnen digitale data verzenden en ontvangen. Met deze sensoren kunnen bedrijven eenvoudig machinedata van apparaten, voertuigen en apparatuur in de hele onderneming verzamelen en verwerken. Wereldwijd neemt het aantal voorwerpen die data genereren snel toe: van weer- en verkeerssensoren tot beveiligingscamera's. IDC schat dat er in 2025 meer dan 40 miljard IoT-apparaten op aarde zullen zijn, die bijna de helft van de totale digitale data wereldwijd genereren.

 

Transactiedata

Deze behoren tot de snelst bewegende en groeiende data ter wereld. Zo weten we van een grote internationale retailer dat deze elk uur meer dan een miljoen klanttransacties verwerkt. En als we daar alle inkoop- en banktransacties wereldwijd bij optellen, geeft dat een aardig beeld van het duizelingwekkende volume data dat wordt gegenereerd. Bovendien bestaan transactiedata steeds vaker uit semigestructureerde data, met bijvoorbeeld afbeeldingen en opmerkingen, waardoor het beheer en de verwerking ervan steeds complexer worden.  

De soorten voorwerpen die data genereren, nemen in een ongekend tempo toe, en lopen van dronesatellieten tot broodroosters. Voor een categorie-indeling worden databronnen over het algemeen echter in drieën verdeeld:

 

Bronnen van big data

Sociale data

Zoals de naam al doet vermoeden, worden sociale data gegenereerd door opmerkingen op sociale media, berichten, afbeeldingen en, steeds vaker, video. En met de steeds algemenere wereldwijde aanwezigheid van 4G- en 5G-netwerken voor mobiele communicatie zal het aantal mensen op de wereld dat regelmatig videocontent bekijkt op hun smartphone in 2023 oplopen tot 2,72 miljard. Hoewel trends in sociale media en het gebruik ervan vaak snel en onvoorspelbaar kunnen veranderen, verandert er niets aan de gestage groei van sociale media als generator van digitale data.

 

Machinedata

IoT-apparaten en -machines zijn voorzien van sensoren en kunnen digitale data verzenden en ontvangen. Met deze sensoren kunnen bedrijven eenvoudig machinedata van apparaten, voertuigen en apparatuur in de hele onderneming verzamelen en verwerken. Wereldwijd neemt het aantal voorwerpen die data genereren snel toe: van weer- en verkeerssensoren tot beveiligingscamera's. IDC schat dat er in 2025 meer dan 40 miljard IoT-apparaten op aarde zullen zijn, die bijna de helft van de totale digitale data wereldwijd genereren.

 

Transactiedata

Deze behoren tot de snelst bewegende en groeiende data ter wereld. Zo weten we van een grote internationale retailer dat deze elk uur meer dan een miljoen klanttransacties verwerkt. En als we daar alle inkoop- en banktransacties wereldwijd bij optellen, geeft dat een aardig beeld van het duizelingwekkende volume data dat wordt gegenereerd. Bovendien bestaan transactiedata steeds vaker uit semigestructureerde data, met bijvoorbeeld afbeeldingen en opmerkingen, waardoor het beheer en de verwerking ervan steeds complexer worden.  

De vijf V's van big data

Grote datasets zijn niet per definitie big data. Om als zodanig te kunnen worden aangemerkt, moeten de gegevens ten minste de volgende vijf kenmerken hebben:

De vijf kenmerken van big data, de 5V’s genoemd

5 V's van big data
  1. Volume: volume is niet het enige kenmerk dat big data 'groot' maakt, maar wel een van de belangrijkste. Er zijn geavanceerde algoritmen en AI-gestuurde analyses nodig om big data optimaal te beheren en te gebruiken. Dit kan echter pas als er een veilige en betrouwbare manier is om de vele terabytes aan data die grote bedrijven hebben, op te slaan, te ordenen en op te vragen.
  2. Velocity (snelheid): vroeger moesten alle gegenereerde data achteraf (vaak handmatig) in een traditioneel databasesysteem worden ingevoerd voordat ze konden worden geanalyseerd of opgevraagd. Tegenwoordig kunnen databases met behulp van technologieën voor big data data verwerken, analyseren en configureren terwijl ze worden gegenereerd, soms binnen milliseconden. Voor bedrijven betekent dit dat ze met realtime data financiële kansen kunnen pakken, kunnen inspelen op behoeften van klanten, fraude tegen kunnen gaan en alle andere activiteiten kunnen ondernemen waarbij snelheid van cruciaal belang is.
  3. Variety (diversiteit): datasets die uitsluitend bestaan uit gestructureerde data zijn niet per se big data, hoe omvangrijk ze ook zijn. Big data bestaan meestal uit combinaties van gestructureerde, ongestructureerde en semigestructureerde data. Traditionele databases en oplossingen voor datamanagement zijn niet flexibel en breed genoeg om de complexe, ongelijksoortige datasets van big data te beheren.
  4. Veracity (kwaliteit): bedrijven kunnen weliswaar met moderne databasetechnologie onthutsende hoeveelheden en soorten big data verzamelen en er een zinvol geheel van maken, maar ze zijn alleen waardevol als ze accuraat en relevant zijn en op het juiste moment beschikbaar zijn. In traditionele databases die alleen met gestructureerde data werden gevuld, waren het meestal syntaxis- en typefouten die zorgden voor onnauwkeurige data. Met ongestructureerde data ontstaat er een compleet nieuw scala aan problemen met betrekking tot de kwaliteit of geloofwaardigheid van de data. Vooroordelen, maatschappelijke ruis en de herkomst van data kunnen allemaal van invloed zijn op de kwaliteit van de gegevens.
  5. Value (waarde): zonder twijfel leveren analyses van big data vaak fascinerende en onverwachte resultaten op. Maar analyses van big data moeten bedrijven juist inzichten bieden die hen kunnen helpen concurrerender en veerkrachtiger te worden en zo hun klanten beter van dienst te zijn. Moderne technologieën voor big data bieden de mogelijkheid om data te verzamelen en op te vragen die meetbaar voordeel kunnen opleveren voor zowel de bedrijfsresultaten als de operationele veerkracht.

Grote datasets zijn niet per definitie big data. Om als zodanig te kunnen worden aangemerkt, moeten de gegevens ten minste de volgende vijf kenmerken hebben:

De vijf kenmerken van big data, de 5V’s genoemd

5 V's van big data
  1. Volume: volume is niet het enige kenmerk dat big data 'groot' maakt, maar wel een van de belangrijkste. Er zijn geavanceerde algoritmen en AI-gestuurde analyses nodig om big data optimaal te beheren en te gebruiken. Dit kan echter pas als er een veilige en betrouwbare manier is om de vele terabytes aan data die grote bedrijven hebben, op te slaan, te ordenen en op te vragen.
  2. Velocity (snelheid): vroeger moesten alle gegenereerde data achteraf (vaak handmatig) in een traditioneel databasesysteem worden ingevoerd voordat ze konden worden geanalyseerd of opgevraagd. Tegenwoordig kunnen databases met behulp van technologieën voor big data data verwerken, analyseren en configureren terwijl ze worden gegenereerd, soms binnen milliseconden. Voor bedrijven betekent dit dat ze met realtime data financiële kansen kunnen pakken, kunnen inspelen op behoeften van klanten, fraude tegen kunnen gaan en alle andere activiteiten kunnen ondernemen waarbij snelheid van cruciaal belang is.
  3. Variety (diversiteit): datasets die uitsluitend bestaan uit gestructureerde data zijn niet per se big data, hoe omvangrijk ze ook zijn. Big data bestaan meestal uit combinaties van gestructureerde, ongestructureerde en semigestructureerde data. Traditionele databases en oplossingen voor datamanagement zijn niet flexibel en breed genoeg om de complexe, ongelijksoortige datasets van big data te beheren.
  4. Veracity (kwaliteit): bedrijven kunnen weliswaar met moderne databasetechnologie onthutsende hoeveelheden en soorten big data verzamelen en er een zinvol geheel van maken, maar ze zijn alleen waardevol als ze accuraat en relevant zijn en op het juiste moment beschikbaar zijn. In traditionele databases die alleen met gestructureerde data werden gevuld, waren het meestal syntaxis- en typefouten die zorgden voor onnauwkeurige data. Met ongestructureerde data ontstaat er een compleet nieuw scala aan problemen met betrekking tot de kwaliteit of geloofwaardigheid van de data. Vooroordelen, maatschappelijke ruis en de herkomst van data kunnen allemaal van invloed zijn op de kwaliteit van de gegevens.
  5. Value (waarde): zonder twijfel leveren analyses van big data vaak fascinerende en onverwachte resultaten op. Maar analyses van big data moeten bedrijven juist inzichten bieden die hen kunnen helpen concurrerender en veerkrachtiger te worden en zo hun klanten beter van dienst te zijn. Moderne technologieën voor big data bieden de mogelijkheid om data te verzamelen en op te vragen die meetbaar voordeel kunnen opleveren voor zowel de bedrijfsresultaten als de operationele veerkracht.

Voordelen van big data

Met moderne oplossingen voor bigdatabeheer kunnen bedrijven met een ongekende snelheid en nauwkeurigheid ruwe data omzetten in relevante inzichten.

  • Product- en serviceontwikkeling: met big data analytics kunnen productontwikkelaars snel ongestructureerde data, zoals klantbeoordelingen en culturele trends, analyseren en erop reageren.
  • Voorspellend onderhoud: in een internationaal onderzoek stelde McKinsey vast dat de onderhoudskosten van apparatuur dankzij de analyse van big data van IoT-machines met wel 40% zijn gedaald.
  • Customer experience, of klantervaring: in een onderzoek uit 2020 onder ondernemers wereldwijd heeft Gartner vastgesteld dat "groeiende bedrijven actiever data over klantervaringen verzamelen dan niet-groeiende bedrijven". Met big data analytics kunnen bedrijven de klantervaring met hun merk verbeteren en personaliseren.
  • Veerkracht en risicobeheer: de COVID-19-pandemie was een duidelijke wake-upcall voor veel ondernemers, omdat ze zich realiseerden hoe kwetsbaar ze voor verstoringen waren. Big data leveren inzichten die bedrijven kunnen helpen te anticiperen op risico's en zich voor te bereiden op onverwachte gebeurtenissen.
  • Kostenbesparingen en grotere efficiëntie: als bedrijven geavanceerde big data analytics toepassen in alle processen binnen hun organisatie, kunnen ze niet alleen inefficiënties ontdekken, maar ook snel effectieve oplossingen implementeren.
  • Verbeterd concurrentievermogen: de inzichten uit big data kunnen bedrijven helpen geld te besparen, klanten tevreden te stellen, betere producten te maken en bedrijfsprocessen te innoveren.

Met moderne oplossingen voor bigdatabeheer kunnen bedrijven met een ongekende snelheid en nauwkeurigheid ruwe data omzetten in relevante inzichten.

  • Product- en serviceontwikkeling: met big data analytics kunnen productontwikkelaars snel ongestructureerde data, zoals klantbeoordelingen en culturele trends, analyseren en erop reageren.
  • Voorspellend onderhoud: in een internationaal onderzoek stelde McKinsey vast dat de onderhoudskosten van apparatuur dankzij de analyse van big data van IoT-machines met wel 40% zijn gedaald.
  • Customer experience, of klantervaring: in een onderzoek uit 2020 onder ondernemers wereldwijd heeft Gartner vastgesteld dat "groeiende bedrijven actiever data over klantervaringen verzamelen dan niet-groeiende bedrijven". Met big data analytics kunnen bedrijven de klantervaring met hun merk verbeteren en personaliseren.
  • Veerkracht en risicobeheer: de COVID-19-pandemie was een duidelijke wake-upcall voor veel ondernemers, omdat ze zich realiseerden hoe kwetsbaar ze voor verstoringen waren. Big data leveren inzichten die bedrijven kunnen helpen te anticiperen op risico's en zich voor te bereiden op onverwachte gebeurtenissen.
  • Kostenbesparingen en grotere efficiëntie: als bedrijven geavanceerde big data analytics toepassen in alle processen binnen hun organisatie, kunnen ze niet alleen inefficiënties ontdekken, maar ook snel effectieve oplossingen implementeren.
  • Verbeterd concurrentievermogen: de inzichten uit big data kunnen bedrijven helpen geld te besparen, klanten tevreden te stellen, betere producten te maken en bedrijfsprocessen te innoveren.

AI en big data

Big data management is afhankelijk van systemen met voldoende vermogen om grote hoeveelheden uiteenlopende en complexe informatie te verwerken en zinvol te analyseren. In dit opzicht hebben big data en AI een enigszins wederkerige relatie. Zonder AI om de data te ordenen en analyseren zouden big data niet veel praktisch nut hebben. En AI is afhankelijk van de breedte van de datasets in big data om voldoende degelijke analyses te leveren om bruikbaar te zijn. Zoals researchanalist van Forrester Brandon Purcell stelt: "Data zijn het levensbloed van AI. Een AI-systeem moet leren van data om te kunnen doen wat het moet doen."

Data zijn het levensbloed van AI. Een AI-systeem moet leren van data om te kunnen doen wat het moet doen.

– Brandon Purcell, researchanalist bij Forrester

Big data management is afhankelijk van systemen met voldoende vermogen om grote hoeveelheden uiteenlopende en complexe informatie te verwerken en zinvol te analyseren. In dit opzicht hebben big data en AI een enigszins wederkerige relatie. Zonder AI om de data te ordenen en analyseren zouden big data niet veel praktisch nut hebben. En AI is afhankelijk van de breedte van de datasets in big data om voldoende degelijke analyses te leveren om bruikbaar te zijn. Zoals researchanalist van Forrester Brandon Purcell stelt: "Data zijn het levensbloed van AI. Een AI-systeem moet leren van data om te kunnen doen wat het moet doen."

Data zijn het levensbloed van AI. Een AI-systeem moet leren van data om te kunnen doen wat het moet doen.

– Brandon Purcell, researchanalist bij Forrester

Machine learning en big data

Algoritmen voor machine learning definiëren de data die binnenkomen en identificeren de patronen in deze data. Met deze inzichten kunnen zakelijke beslissingen worden onderbouwd en kunnen processen worden geautomatiseerd. Machine learning gedijt op big data: naarmate de datasets die worden geanalyseerd robuuster zijn, krijgt het systeem meer mogelijkheden om te leren en voortdurend zijn processen te ontwikkelen en aan te passen.

Algoritmen voor machine learning definiëren de data die binnenkomen en identificeren de patronen in deze data. Met deze inzichten kunnen zakelijke beslissingen worden onderbouwd en kunnen processen worden geautomatiseerd. Machine learning gedijt op big data: naarmate de datasets die worden geanalyseerd robuuster zijn, krijgt het systeem meer mogelijkheden om te leren en voortdurend zijn processen te ontwikkelen en aan te passen.

Technologieën voor big data

Bigdata-architectuur

 

Net als in de bouw biedt een bigdata-architectuur een blauwdruk voor de basisstructuur van de manier waarop bedrijven hun data zullen beheren en analyseren. Deze architectuur brengt de processen in kaart die nodig zijn om big data te beheren tijdens het traject door vier basislagen. Van databronnen naar dataopslag, vervolgens naar de analyse van big data en tot slot naar de gebruikslaag, waarin de geanalyseerde resultaten worden gepresenteerd als business intelligence.

 

Big data analytics

 

Bij dit proces kunnen data op een betekenisvolle wijze worden gevisualiseerd middels datamodellering en algoritmen die specifiek ontwikkeld zijn voor de kenmerken van big data. Voor een diepgaand onderzoek met een enquête van de MIT Sloan School of Management werden meer dan 2000 ondernemers gevraagd naar de ervaringen van hun bedrijf met big data analytics. Het zal je niet verbazen dat degenen die actief betrokken waren bij de ontwikkeling van beheerstrategieën voor big data en daar positief over waren, de meeste meetbaar positieve bedrijfsresultaten behaalden.

 

Big Data en Apache Hadoop

 

Stel je 10 dubbeltjes voor die samen met 100 stuivers in één grote doos liggen. Stel je vervolgens 10 kleinere dozen voor, naast elkaar, elk met 10 stuivers en slechts één dubbeltje. In welk scenario zullen de dubbeltjes gemakkelijker te zien zijn? Hadoop werkt in wezen volgens dit principe. Het is een opensourceframework voor het beheer van gedistribueerde bigdataverwerking via een netwerk van een groot aantal verbonden computers. Dus in plaats van één grote computer te gebruiken om alle data op te slaan en te verwerken, clustert Hadoop meerdere computers tot een bijna eindeloos schaalbaar netwerk en analyseert het de data parallel op deze computers. Dit proces maakt meestal gebruik van een programmeermodel genaamd MapReduction, dat de verwerking van big data coördineert door de gedistribueerde computers te bundelen.

 

Datalakes, datawarehouses en NoSQL

 

Traditionele SQL-databases in spreadsheetstijl worden gebruikt om gestructureerde data op te slaan. Voor ongestructureerde en semigestructureerde big data zijn unieke opslag- en verwerkingsparadigma's nodig, omdat deze data niet goed kunnen worden geïndexeerd en gecategoriseerd. Datalakes, datawarehouses en NoSQL-databases zijn dataopslagruimten voor het beheer van niet-traditionele datasets. Een datalake is een enorme voorraad ruwe data die nog moet worden verwerkt. Een datawarehouse is een repository voor data die al voor een specifiek doel zijn verwerkt. NoSQL-databases bieden een flexibel schema dat kan worden aangepast aan de aard van de te verwerken data. Elk van deze systemen heeft voor- en nadelen en veel bedrijven gebruiken een combinatie van deze verschillende datarepository's om zo goed mogelijk aan hun behoeften te voldoen.

 

In-memory databases

 

Traditionele schijfgebaseerde databases werden ontwikkeld met het oog op SQL en relationele databasetechnologieën. Ze kunnen grote hoeveelheden gestructureerde data verwerken, maar zijn nu eenmaal niet ontworpen om ongestructureerde data optimaal op te slaan en te verwerken. Met in-memory databases vinden verwerking en analyse volledig plaats in het RAM, en hoeven de data dus niet te worden opgevraagd van een schijfgebaseerd systeem. In-memory databases zijn ook gebouwd op gedistribueerde architecturen. Dit betekent dat ze veel sneller kunnen werken door gebruik te maken van parallelle verwerking in plaats van de op schijven gebaseerde databasemodellen met één knooppunt.

Bigdata-architectuur

 

Net als in de bouw biedt een bigdata-architectuur een blauwdruk voor de basisstructuur van de manier waarop bedrijven hun data zullen beheren en analyseren. Deze architectuur brengt de processen in kaart die nodig zijn om big data te beheren tijdens het traject door vier basislagen. Van databronnen naar dataopslag, vervolgens naar de analyse van big data en tot slot naar de gebruikslaag, waarin de geanalyseerde resultaten worden gepresenteerd als business intelligence.

 

Big data analytics

 

Bij dit proces kunnen data op een betekenisvolle wijze worden gevisualiseerd middels datamodellering en algoritmen die specifiek ontwikkeld zijn voor de kenmerken van big data. Voor een diepgaand onderzoek met een enquête van de MIT Sloan School of Management werden meer dan 2000 ondernemers gevraagd naar de ervaringen van hun bedrijf met big data analytics. Het zal je niet verbazen dat degenen die actief betrokken waren bij de ontwikkeling van beheerstrategieën voor big data en daar positief over waren, de meeste meetbaar positieve bedrijfsresultaten behaalden.

 

Big Data en Apache Hadoop

 

Stel je 10 dubbeltjes voor die samen met 100 stuivers in één grote doos liggen. Stel je vervolgens 10 kleinere dozen voor, naast elkaar, elk met 10 stuivers en slechts één dubbeltje. In welk scenario zullen de dubbeltjes gemakkelijker te zien zijn? Hadoop werkt in wezen volgens dit principe. Het is een opensourceframework voor het beheer van gedistribueerde bigdataverwerking via een netwerk van een groot aantal verbonden computers. Dus in plaats van één grote computer te gebruiken om alle data op te slaan en te verwerken, clustert Hadoop meerdere computers tot een bijna eindeloos schaalbaar netwerk en analyseert het de data parallel op deze computers. Dit proces maakt meestal gebruik van een programmeermodel genaamd MapReduction, dat de verwerking van big data coördineert door de gedistribueerde computers te bundelen.

 

Datalakes, datawarehouses en NoSQL

 

Traditionele SQL-databases in spreadsheetstijl worden gebruikt om gestructureerde data op te slaan. Voor ongestructureerde en semigestructureerde big data zijn unieke opslag- en verwerkingsparadigma's nodig, omdat deze data niet goed kunnen worden geïndexeerd en gecategoriseerd. Datalakes, datawarehouses en NoSQL-databases zijn dataopslagruimten voor het beheer van niet-traditionele datasets. Een datalake is een enorme voorraad ruwe data die nog moet worden verwerkt. Een datawarehouse is een repository voor data die al voor een specifiek doel zijn verwerkt. NoSQL-databases bieden een flexibel schema dat kan worden aangepast aan de aard van de te verwerken data. Elk van deze systemen heeft voor- en nadelen en veel bedrijven gebruiken een combinatie van deze verschillende datarepository's om zo goed mogelijk aan hun behoeften te voldoen.

 

In-memory databases

 

Traditionele schijfgebaseerde databases werden ontwikkeld met het oog op SQL en relationele databasetechnologieën. Ze kunnen grote hoeveelheden gestructureerde data verwerken, maar zijn nu eenmaal niet ontworpen om ongestructureerde data optimaal op te slaan en te verwerken. Met in-memory databases vinden verwerking en analyse volledig plaats in het RAM, en hoeven de data dus niet te worden opgevraagd van een schijfgebaseerd systeem. In-memory databases zijn ook gebouwd op gedistribueerde architecturen. Dit betekent dat ze veel sneller kunnen werken door gebruik te maken van parallelle verwerking in plaats van de op schijven gebaseerde databasemodellen met één knooppunt.

Hoe big data werken

Big data zijn zinvol wanneer de analyse ervan relevante en bruikbare inzichten oplevert die het bedrijf meetbaar verbeteren. Bij hun voorbereiding op de bigdatatransformatie moeten bedrijven ervoor zorgen dat hun systemen en processen voldoende klaar zijn om big data te verzamelen, op te slaan en te analyseren.

De drie belangrijkste stappen bij het gebruik van big data

Hoe big data werken
  1. Big data verzamelen. Big data bestaan voor een groot deel uit enorme sets ongestructureerde data, die worden aangeleverd vanuit ongelijke en inconsistente bronnen. Traditionele op schijven gebaseerde databases en mechanismen voor data-integratie zijn eenvoudigweg niet opgewassen tegen de taak om hiermee om te gaan. Het beheer van big data vraagt om in-memory databaseoplossingen en softwareoplossingen die specifiek zijn voor de verwerving van big data.
  2. Big data opslaan. Zoals de naam al aangeeft, hebben big data veel volume. Veel bedrijven hebben on-premise opslagoplossingen voor hun bestaande data en zij hopen te besparen door deze repository's om te bouwen om ze geschikt te maken voor bigdataverwerking. Big data werken echter het beste wanneer ze niet worden beperkt door omvangs- en geheugenlimieten. Bedrijven die niet meteen vanaf het begin cloudopslagoplossingen hebben opgenomen in hun bigdatamodellen, hebben hier vaak al na een paar maanden spijt van.
  3. Big data analyseren. Zonder AI en machine learning is het eenvoudigweg niet haalbaar om het volledige potentieel van big data analytics te benutten. Een van de vijf V’s van big data is 'Velocity' (snelheid). Inzichten uit big data zijn alleen bruikbaar en waardevol als ze snel beschikbaar zijn. Analyseprocessen moeten zichzelf optimaliseren en regelmatig van ervaringen kunnen leren. Dit kan alleen worden bereikt met AI-functionaliteit en moderne databasetechnologieën.

Big data zijn zinvol wanneer de analyse ervan relevante en bruikbare inzichten oplevert die het bedrijf meetbaar verbeteren. Bij hun voorbereiding op de bigdatatransformatie moeten bedrijven ervoor zorgen dat hun systemen en processen voldoende klaar zijn om big data te verzamelen, op te slaan en te analyseren.

De drie belangrijkste stappen bij het gebruik van big data

Hoe big data werken
  1. Big data verzamelen. Big data bestaan voor een groot deel uit enorme sets ongestructureerde data, die worden aangeleverd vanuit ongelijke en inconsistente bronnen. Traditionele op schijven gebaseerde databases en mechanismen voor data-integratie zijn eenvoudigweg niet opgewassen tegen de taak om hiermee om te gaan. Het beheer van big data vraagt om in-memory databaseoplossingen en softwareoplossingen die specifiek zijn voor de verwerving van big data.
  2. Big data opslaan. Zoals de naam al aangeeft, hebben big data veel volume. Veel bedrijven hebben on-premise opslagoplossingen voor hun bestaande data en zij hopen te besparen door deze repository's om te bouwen om ze geschikt te maken voor bigdataverwerking. Big data werken echter het beste wanneer ze niet worden beperkt door omvangs- en geheugenlimieten. Bedrijven die niet meteen vanaf het begin cloudopslagoplossingen hebben opgenomen in hun bigdatamodellen, hebben hier vaak al na een paar maanden spijt van.
  3. Big data analyseren. Zonder AI en machine learning is het eenvoudigweg niet haalbaar om het volledige potentieel van big data analytics te benutten. Een van de vijf V’s van big data is 'Velocity' (snelheid). Inzichten uit big data zijn alleen bruikbaar en waardevol als ze snel beschikbaar zijn. Analyseprocessen moeten zichzelf optimaliseren en regelmatig van ervaringen kunnen leren. Dit kan alleen worden bereikt met AI-functionaliteit en moderne databasetechnologieën.

Bigdata-applicaties


De inzichten en diepgaande lessen van big data kunnen praktisch elk bedrijf of elke branche ten goede komen. Maar het zijn vaak de grote organisaties met complexe operationele taken die het meest hebben aan big data.

  • Financiële dienstverlening
    Een onderzoek uit 2020 in het Journal of Big Data wijst erop dat big data "een belangrijke rol spelen bij het veranderen van de financiële sector, met name op het gebied van handel en investeringen, belastinghervorming, fraudeopsporing en -onderzoek, risicoanalyse en automatisering". Big data hebben ook geholpen om de financiële sector te transformeren door klantdata en feedback te analyseren en zo de waardevolle inzichten te verkrijgen die nodig zijn om de klanttevredenheid en -ervaring te verbeteren. Transactionele datasets behoren tot de snelst bewegende en grootste datasets ter wereld. Banken en financiële instellingen zetten steeds vaker geavanceerde oplossingen voor bigdatabeheer in. Daarmee kunnen ze de data beschermen en gebruiken op een manier die zowel de klant als het bedrijf ten goede komt en beschermt.
  • Gezondheidszorg
    Met analyses van big data kunnen zorgverleners nauwkeurigere en op feiten gebaseerde diagnoses stellen. Daarnaast helpen big data ziekenhuisbeheerders om trends te herkennen, risico's te beheren en onnodige uitgaven te minimaliseren, waardoor maximale budgetten overblijven voor patiëntenzorg en onderzoek. Midden in de pandemie werkten onderzoekswetenschappers over de hele wereld in hoog tempo aan betere manieren om COVID-19 te behandelen en in te dammen, en big data speelden daar een enorme rol bij. In een artikel in The Scientist van juli 2020 wordt beschreven hoe medische teams in staat waren samen te werken en big data te analyseren om het coronavirus te helpen bestrijden: "We kunnen de manier waarop klinische wetenschap wordt bedreven transformeren door de tools en middelen van big data en data science in te zetten op manieren die eerder niet mogelijk waren."
  • Transport en logistiek
    Het Amazon Effect is een begrip dat beschrijft hoe Amazon de standaard heeft gesteld voor levering de volgende dag: klanten eisen nu een dergelijke verzendsnelheid voor alles wat ze online bestellen. Entrepreneur magazine wijst erop dat als direct gevolg van het Amazon Effect "de concurrentie in de logistieke race om 'the last mile' heftiger zal worden". Logistieke bedrijven vertrouwen steeds meer op big data analytics om routeplanning, ladingconsolidatie en maatregelen voor zuinig brandstofverbruik te optimaliseren.
  • Onderwijs
    Tijdens de pandemie hebben onderwijsinstellingen overal ter wereld hun lesprogramma's en onderwijsmethoden grondig onder de loep moeten nemen om leren op afstand te ondersteunen. Een grote uitdaging in dit proces was het vinden van betrouwbare manieren om de prestaties van studenten en de algehele effectiviteit van onlinelesmethoden te analyseren en te beoordelen. In een artikel uit 2020 over de impact van big data op onderwijs en online leren wordt een opmerking gemaakt over leraren: "Big data zorgen ervoor dat ze zelfverzekerder zijn bij het personaliseren van het onderwijs, het ontwikkelen van gemengd leren, het transformeren van beoordelingssystemen en het bevorderen van een leven lang leren."
  • Energie en nutsbedrijven
    Volgens het U.S. Bureau of Labor Statistics geven nutsbedrijven meer dan 1,4 miljard dollar uit aan meteropnemers en vertrouwen ze meestal nog op analoge meters en onregelmatige handmatige aflezingen. Slimme meters leveren vele malen per dag digitale data aan en met het voordeel van big data analytics kan deze informatie zorgen voor een efficiënter energiegebruik en nauwkeurigere prijsstellingen en prognoses. Wanneer buitendienstmedewerkers geen meterstanden meer hoeven op te nemen, kunnen ze dankzij registratie en analyse van data bovendien sneller worden ingezet op plaatsen waar reparaties en upgrades het dringendst nodig zijn.


De inzichten en diepgaande lessen van big data kunnen praktisch elk bedrijf of elke branche ten goede komen. Maar het zijn vaak de grote organisaties met complexe operationele taken die het meest hebben aan big data.

  • Financiële dienstverlening
    Een onderzoek uit 2020 in het Journal of Big Data wijst erop dat big data "een belangrijke rol spelen bij het veranderen van de financiële sector, met name op het gebied van handel en investeringen, belastinghervorming, fraudeopsporing en -onderzoek, risicoanalyse en automatisering". Big data hebben ook geholpen om de financiële sector te transformeren door klantdata en feedback te analyseren en zo de waardevolle inzichten te verkrijgen die nodig zijn om de klanttevredenheid en -ervaring te verbeteren. Transactionele datasets behoren tot de snelst bewegende en grootste datasets ter wereld. Banken en financiële instellingen zetten steeds vaker geavanceerde oplossingen voor bigdatabeheer in. Daarmee kunnen ze de data beschermen en gebruiken op een manier die zowel de klant als het bedrijf ten goede komt en beschermt.
  • Gezondheidszorg
    Met analyses van big data kunnen zorgverleners nauwkeurigere en op feiten gebaseerde diagnoses stellen. Daarnaast helpen big data ziekenhuisbeheerders om trends te herkennen, risico's te beheren en onnodige uitgaven te minimaliseren, waardoor maximale budgetten overblijven voor patiëntenzorg en onderzoek. Midden in de pandemie werkten onderzoekswetenschappers over de hele wereld in hoog tempo aan betere manieren om COVID-19 te behandelen en in te dammen, en big data speelden daar een enorme rol bij. In een artikel in The Scientist van juli 2020 wordt beschreven hoe medische teams in staat waren samen te werken en big data te analyseren om het coronavirus te helpen bestrijden: "We kunnen de manier waarop klinische wetenschap wordt bedreven transformeren door de tools en middelen van big data en data science in te zetten op manieren die eerder niet mogelijk waren."
  • Transport en logistiek
    Het Amazon Effect is een begrip dat beschrijft hoe Amazon de standaard heeft gesteld voor levering de volgende dag: klanten eisen nu een dergelijke verzendsnelheid voor alles wat ze online bestellen. Entrepreneur magazine wijst erop dat als direct gevolg van het Amazon Effect "de concurrentie in de logistieke race om 'the last mile' heftiger zal worden". Logistieke bedrijven vertrouwen steeds meer op big data analytics om routeplanning, ladingconsolidatie en maatregelen voor zuinig brandstofverbruik te optimaliseren.
  • Onderwijs
    Tijdens de pandemie hebben onderwijsinstellingen overal ter wereld hun lesprogramma's en onderwijsmethoden grondig onder de loep moeten nemen om leren op afstand te ondersteunen. Een grote uitdaging in dit proces was het vinden van betrouwbare manieren om de prestaties van studenten en de algehele effectiviteit van onlinelesmethoden te analyseren en te beoordelen. In een artikel uit 2020 over de impact van big data op onderwijs en online leren wordt een opmerking gemaakt over leraren: "Big data zorgen ervoor dat ze zelfverzekerder zijn bij het personaliseren van het onderwijs, het ontwikkelen van gemengd leren, het transformeren van beoordelingssystemen en het bevorderen van een leven lang leren."
  • Energie en nutsbedrijven
    Volgens het U.S. Bureau of Labor Statistics geven nutsbedrijven meer dan 1,4 miljard dollar uit aan meteropnemers en vertrouwen ze meestal nog op analoge meters en onregelmatige handmatige aflezingen. Slimme meters leveren vele malen per dag digitale data aan en met het voordeel van big data analytics kan deze informatie zorgen voor een efficiënter energiegebruik en nauwkeurigere prijsstellingen en prognoses. Wanneer buitendienstmedewerkers geen meterstanden meer hoeven op te nemen, kunnen ze dankzij registratie en analyse van data bovendien sneller worden ingezet op plaatsen waar reparaties en upgrades het dringendst nodig zijn.

Ontdek de oplossingen voor datamanagement van SAP

Beheer je diverse datalandschap en combineer je data voor bedrijfsinzichten.

Meer in deze serie

Veelgestelde vragen over big data

Big data bestaan uit alle potentieel bedrijfsrelevante gegevens, zowel gestructureerd als ongestructureerd, uit allerlei verschillende bronnen. Na analyse worden ze gebruikt om dieper inzicht en nauwkeurigere informatie te geven over alle operationele gebieden van een bedrijf en zijn afzetgebied.   

Onder technologieën voor big data vallen alle tools, software en technieken die worden gebruikt om big data te verwerken en analyseren, inclusief (maar niet beperkt tot) datamining, dataopslag, het delen van data en datavisualisatie.

Apache Hadoop is een open source softwareoplossing voor gedistribueerde verwerking. Deze wordt gebruikt om het beheer van big data te versnellen en te faciliteren door verschillende computers te verbinden en ze big data tegelijkertijd te laten verwerken.

Apache Spark is een open source softwareoplossing voor gedistribueerde verwerking. Deze wordt gebruikt om het beheer van big data te versnellen en te faciliteren door verschillende computers te verbinden en ze big data tegelijkertijd te laten verwerken. Voorganger Hadoop wordt meer gebruikt, maar Spark wint aan populariteit door gebruik te maken van machine learning en andere technologieën die de snelheid en efficiëntie ervan verhogen.  

Een datalake is een opslagplaats waarin grote hoeveelheden onbewerkte, ongestructureerde gegevens kunnen worden opgeslagen en opgevraagd. Datalakes zijn nodig omdat veel big data ongestructureerd zijn en niet kunnen worden opgeslagen in een traditionele relationele database met rijen en kolommen. 

Dark data zijn alle data die bedrijven verzamelen binnen het kader van hun reguliere bedrijfsactiviteiten (zoals bewakingsbeelden en logbestanden van de website). Ze worden opgeslagen voor compliancedoeleinden, maar worden doorgaans zelden of nooit gebruikt. De kosten voor opslag van deze grote datasets wegen niet op tegen de waarde die ze bieden. 

Datafabric (of gegevensstructuur) is het geïntegreerde geheel van architectuur en technologieën voor big data in een volledig bedrijfsecosysteem. Het is bedoeld om big data, ongeacht soort en bron van herkomst, te verbinden met alle datamanagementservices in het hele bedrijf.  

SAP Insights nieuwsbrief

Meld je vandaag nog aan

Meld je aan voor onze nieuwsbrief en krijg belangrijke inzichten.

Meld je vandaag nog aan

Meld je aan voor onze nieuwsbrief en krijg belangrijke inzichten.

Meer lezen

Terug naar boven