+31 (0)30 - 602 11 49
We zien het in de praktijk regelmatig: een ontwikkelpartij levert in opdracht een softwarepakket op en rapporteert daarbij netjes een lijst met kwaliteitsaspecten met groene vinkjes erachter: code kwaliteit, compliance, functionele kwaliteit, performance, etc.… De beherende partij stelt de benodigde hardware samen volgens de specificaties van de ontwikkelaars en het nieuwe softwarepakket wordt daarop geïnstalleerd. Nadat een aantal laatste functionele testen zijn uitgevoerd gaat de applicatie in productie. Daarna nog een afrondende borrel, een dankwoord van de opdrachtgever en de laatste betaling wordt voldaan aan de leverancier: iedereen gelukkig.

Maar dan…

Na een aantal weken ontstaan de eerste klachten: de snelheid van de applicatie valt tegen. Langzaam verergert de situatie en uiteindelijk wordt de applicatie onwerkbaar traag. Een herstart van de servers leek de problemen te hebben opgelost, maar de problemen keren toch terug. Regelmatig herstarten van de applicatie en schonen van data blijken manieren om de applicatie stabiel te houden, maar het beheer van de applicatie wordt een dagelijkse zorg. Partijen wijzen naar elkaar en escalaties bederven de onderlinge relatie. Externe consultants doen onderzoek om het lek boven te krijgen, maar eenmaal in productie blijken de verbetermogelijkheden nog maar beperkt. Ondertussen is de relatie tussen de samenwerkende partijen verslechterd en heeft de reputatie van IT – of zelfs van het merk – een flinke deuk opgelopen.
“Helaas komen we dit scenario in de praktijk regelmatig tegen. En dat is jammer, want dit had eenvoudig voorkomen kunnen worden!”

“Maar we hebben toch getest?”

Hoe een applicatie zich gedraagt onder belasting kan met performancetesten in een testomgeving worden getoetst voordat de applicatie wordt opgeleverd. Iedereen kan zo’n performancetest maken en uitvoeren, maar wat heb je aan de resultaten als de test niet goed was? De waarde van de testresultaten zit hem vooral in de kwaliteit van de test. Een performancetest wordt vaak gezien als bruut geweld dat op een applicatie wordt losgelaten, maar dit ligt veel genuanceerder. Het samenstellen en uitvoeren van een goede performancetest is namelijk specialistisch werk.

Welk scenario test je?

Een goede performancetest wordt gekenmerkt door de juiste de samenstelling van testscenario’s waarmee specifieke performance risico’s gericht worden getoetst. Bijvoorbeeld: een applicatie die dagelijks door een klein aantal gebruikers wordt gebruikt moet snel zijn, maar hoeft geen belastingpieken te kunnen verdragen. Een website die wordt gebruikt in noodsituaties is een ander verhaal: deze moet juist in korte tijd grote aantallen gebruikers kunnen verwerken. Belastbaarheid en schaalbaarheid zijn dan belangrijker dan snelheid. Andere vragen kunnen zijn: herstelt een applicatie zich zelfstandig na overbelasting? En wat gebeurt er als de infrastructuur tijdelijk verbroken wordt? Kortom, voor specifieke scenario’s worden zorgvuldig samengestelde performancetesten uitgevoerd, rekening houdend met variabelen als: gelijktijdigheid, serverdruk, browsergedrag, snelheid, a-synchroniteit, enzovoorts.

Kan iedereen het?

Performancetesten, iedereen kan het. Toch? Het antwoord is ’nee’. Performancetesten is een belangrijke kwaliteitstoets waarvoor specialistische kennis en tooling nodig is. Een goed uitgevoerde performancetest levert de noodzakelijke kennis op die nodig is voor de juiste configuratie en schaling van de applicatie in een productieomgeving. In sommige gevallen loont het om al geautomatiseerd te gaan testen in een DevOps omgeving.Maak dus duidelijke afspraken met de leverancier over de verwachtingen die gebruikers hebben over de snelheid en het gebruik van de applicatie en stel ook eisen bij het toetsen daarvan.  
MARCEL WIGMAN

MARCEL WIGMAN

Performance Architect

Marcel heeft in zijn carrière organisaties als de Nederlandse Spoorwegen, Prorail, ASR en diverse gemeenten geholpen met het verbeteren van hun IT-dienstverlening. Snelheid, capaciteit, schaalbaarheid en stabiliteit van de software zijn hierbij sleutelwoorden. Marcel begon zijn carrière als ontwikkelaar in 1996, gevolgd door het werken aan performance testing, load modelling, performance troubleshooting en in de laatste jaren het automatiseren van performance testing in agile ontwikkelingsprojecten. Binnen de organisatie staat Marcel bekend om zijn Dynatrace expertise.

 

Meer blogs

Meer weten over dit onderwerp? 

Lees onze blogs

Klantcases

Welke oplossingen hebben wij bij onze klanten geïmplementeerd?

Lees klantcases

Meer weten?

Bespreek alle mogelijkheden met één van onze specialisten.

Contact opnemen