Können Sie das Optimum finden?
Kevin Maik Jablonka
Am Ende dieser Einheit können Sie …
… erklären, warum sequentielle Optimierung effizienter ist als Rastersuche.
… die Komponenten eines Gauß-Prozesses (μ, σ, Kernel) benennen und interpretieren.
… die Acquisition Function Expected Improvement in eigenen Worten beschreiben.
Keramik-Beschichtung. Härte = f(Temperatur).
500 €/Exp., 8h/Exp. Budget: 10 Versuche. Black-Box.
Wo setzen Sie Ihre 10 Versuche?
✗ Budget blind verteilt — keine Informationsgrundlage
✗ Alle Investitionen vorab — kein Dazulernen
Fluch der Dimensionalität — kombinatorische Explosion bei jedem zusätzlichen Parameter
Wir können den Raum nicht abtasten. Wir müssen gezielt investieren.
Jeden Versuch gezielt investieren — auf Basis des bisherigen Wissens
↻ Wiederholen
Zwischen Messpunkten: raten.
Billiges Ersatzmodell.
Vorhersage überall.
Millisekunden statt Stunden.
μ(x) = erwartete Härte + σ(x) = wie sicher?
Verteilung über Funktionen: μ und σ analytisch. Annahmen im Kernel.
ℓ = Reichweite. Slider → Effekt:
ℹ Alternativen: Matérn, RF, TPE, BNN.
Klicken = Experiment. Nach 3: wo würden Sie messen?
ℹ μ = gewichtete Summe der Messwerte. Gewichte aus dem Kernel.
Wo μ maximal → lokales Optimum
Wo σ maximal → unbekannte Regionen
Welche Strategie gewinnt? Umschalten:
Erwarteter Fortschritt zum Optimum — pro Versuch
Die Gaußglocken unten zeigen die GP-Vorhersage an je einem Kandidaten x — Mittelwert μ, Breite σ.
(μ−fbest) × Φ(z)
Abstand zum Bestwert
× Chance, ihn zu schlagen
σ × φ(z)
Unsicherheit
× Bonus im Grenzbereich
ℹ EI=0 an gemessenen Punkten. Alt.: UCB, PI, Knowledge Gradient.
Messen → Modellieren → Investieren → Wiederholen
Experiment teuer + Black-Box + wenige Durchläufe
Jedes Experiment ist eine Investition. GP liefert μ + σ. Die Acquisition Function maximiert den erwarteten Fortschritt pro Versuch.
Wie wählt man ℓ? · Batch-BO · Multi-Objective · BoTorch, Ax
Jeder Versuch ist eine Investition.
Bayes'sche Optimierung maximiert den Fortschritt zum Optimum.
Kevin Maik Jablonka
Anonymes Feedback
Zusatzmaterial für die Diskussion
17 — Posterior im Detail (μ, σ²-Formel)
18 — Verwandte Arbeiten aus meiner Forschung
19 — BO vs. Active Learning vs. DoE
20 — Kernel-Familie & Hyperparameter
21 — Erweiterungen: Batch, Multi-Objective, Hochdim.
22 — Tools & Literatur
μ ist eine gewichtete Summe der Messwerte — die Gewichte kommen aus dem Kernel
σ²(x*) = k(x*,x*) − k*ᵀ(K+σ²I)⁻¹k* — Anfangsunsicherheit minus Information aus nahen Messpunkten.
Jablonka et al., Nature Communications 2021 — Erstautor
Domingues et al., Communications Chemistry 2022 — Co-Autor
Gemeinsamer Nenner: sequentielle, modellgestützte Auswahl von Experimenten in der Materialwissenschaft.