Statistical Methods in Experimental Physics
James, F.
Man merkt Fred James an, dass er mehrere Jahrzehnte Erfahrung in der Anwendung statistischer Methoden hat, und zwar gleichermaßen in Theorie und Praxis. Unter anderem ist er z. B. mitverantwortlich für das Proprammpaket MINUIT, das in der Kern- und Teilchenphysik immer noch den Standard der statistischen Auswertung von Messdaten definiert. Auch wenn daher die meisten der diskutierten Beispiele aus der Elementarteilchenphysik stammen, wendet sich der Autor doch an alle, die mit Datenanalyse zu tun haben.
Das Buch diskutiert sowohl den frequentistischen als auch den Bayesschen Ansatz, wobei der Schwerpunkt aber ganz bewusst auf der klassischen frequentistischen Statistik liegt. Besonders hervorzuheben ist dabei die solide Behandlung der mathematischen Grundlagen, mit vielen analytischen Resultaten, die anderweitig nur schwer zu finden sind. Weitere Highlights sind das recht umfangreiche Kompendium der wichtigsten Verteilungen, die Diskussion der Konzepte Information und erschöpfender Schätzfunktionen („sufficient statistics“) sowie die verschiedenen Schätzverfahren für Parameter oder Konfidenz-Level-Intervalle bis hin zu Feldman-Cousins vereinheitlichtem Ansatz.
Im Hinblick auf neuere Entwicklungen ist es etwas schade, dass durch die enge Anlehnung an das Original zum Beispiel Neuronale Netze oder generell moderne Methoden multivarianter Analyse nicht behandelt werden, auch wenn der Text immer wieder Hinweise auf weiter führende Themen enthält.
Der Aufbau ist sehr systematisch und auf anspruchsvollem Niveau, wobei sich beim Formelsatz aber leider doch hin und wieder Tippfehler eingeschlichen haben. Dennoch ist das Buch nicht nur als fortgeschrittenes Lehrbuch für alle diejenigen uneingeschränkt zu empfehlen, welche ein tieferes Verständnis der klassischen Statistik anstreben, sondern auch als unentbehrliche Referenz für jeden, der aktiv Datenanalyse betreibt.
Prof. Dr. Michael Schmelling, MPI für Kernphysik, Heidelberg