Die Ablaufperformance unserer Software ist wichtig. Deshalb wird immer wieder versucht, die Performance von Software zu messen, zu vergleichen und idealerweise vorherzusagen. Das ist aber extrem schwierig und sehr fehlerbehaftet.
In dieser Session wollen wir uns ansehen, warum Performancemessungen so schwierig sind und was man tun kann, um typische Fehler zu vermeiden. Worauf muss man beim Micro-Benchmarking achten? Wir werfen einen Blick auf den JIT-Compiler und seinen Einfluss auf die Messergebnisse. Welche Werkzeuge können helfen? Wir schauen kurz auf JITWatch und JMH. Wie geht man mit den Messergebnisses eines Micro-Benchmarks um? Skeptisch! Auf keinen Fall verallgemeinern und auf jeden Fall selbstkritisch hinterfragen.
Angelika Langer arbeitet als Trainer und Consultant mit eigenem Schulungsprogramm im Bereich der Softwareentwicklung mit C++ und Java. Sie ist Sprecher auf zahlreichen Konferenzen, darunter JavaOne, OOPSLA, JAX und viele andere (siehe lanyrd.com/profile/angelikalanger/). Sie ist u. a. Autor der Onlineressourcen “Java Generics FAQ” und “Lambda Tutorial & Reference” unter AngelikaLanger.com. Gemeinsam mit Klaus Kreft ist sie Autor zahlreicher Veröffentlichungen, darunter die Kolumne “Effective Java” im Java Magazin und das Buch “Java Core Programmierung – Memory Modell und Garbage Collection”. Weitere Informationen unter AngelikaLanger.com.