10
Versuche
5.000 €
Budget
1
Unbekannte Funktion

Können Sie das Optimum finden?

Bayes’sche Optimierung
in der Materialsynthese

Kevin Maik Jablonka

mail@kjablonka.com

Lernziele

Am Ende dieser Einheit können Sie …

… erklären, warum sequentielle Optimierung effizienter ist als Rastersuche.

… die Komponenten eines Gauß-Prozesses (μ, σ, Kernel) benennen und interpretieren.

… die Acquisition Function Expected Improvement in eigenen Worten beschreiben.

Das Szenario

Keramik-Beschichtung. Härte = f(Temperatur).
500 €/Exp., 8h/Exp. Budget: 10 Versuche. Black-Box.

Wo setzen Sie Ihre 10 Versuche?

Rastersuche — drei Samplings, drei Budgets

Budget blind verteilt — keine Informationsgrundlage

Alle Investitionen vorab — kein Dazulernen

… und es wird schlimmer

Fluch der Dimensionalität — kombinatorische Explosion bei jedem zusätzlichen Parameter

1 Parameter
5
2 Parameter
25
3 Parameter
125
?
10 Parameter
9.765.625
51 = 552 = 2553 = 125···5n
Budget: 10 Versuche

Wir können den Raum nicht abtasten. Wir müssen gezielt investieren.

Dazulernen: Bayes’sche Optimierung

Jeden Versuch gezielt investieren — auf Basis des bisherigen Wissens

1
Messen
2
Modellieren
μ + σ
3
Entscheiden
Wo?

↻ Wiederholen

Schritt 2: Surrogatmodell

? ? ?

Ohne Modell

Zwischen Messpunkten: raten.

Surrogatmodell

Billiges Ersatzmodell.
Vorhersage überall.
Millisekunden statt Stunden.

Muss liefern:

μ(x) = erwartete Härte  +  σ(x) = wie sicher?

Gauß-Prozess

Verteilung über Funktionen: μ und σ analytisch. Annahmen im Kernel.

ℓ = Reichweite. Slider → Effekt:

ℹ Alternativen: Matérn, RF, TPE, BNN.

GPR in Aktion Interaktiv

Klicken = Experiment. Nach 3: wo würden Sie messen?

ℹ μ = gewichtete Summe der Messwerte. Gewichte aus dem Kernel.

Wo investieren wir den nächsten Versuch?

Exploitation (ausnutzen)

Wo μ maximal → lokales Optimum

Exploration (erkunden)

Wo σ maximal → unbekannte Regionen

Welche Strategie gewinnt? Umschalten:

Expected Improvement

Erwarteter Fortschritt zum Optimum — pro Versuch

mit z = (μ − fbest) / σ — standardisierter Abstand zum Bestwert

Die Gaußglocken unten zeigen die GP-Vorhersage an je einem Kandidaten x — Mittelwert μ, Breite σ.

Exploitation

fbestp(y)y (Härte)μΦ(z)

(μ−fbest) × Φ(z)
Abstand zum Bestwert
× Chance, ihn zu schlagen

Exploration

fbestσp(y)y (Härte)μμ+σφ(z)

σ × φ(z)
Unsicherheit
× Bonus im Grenzbereich

ℹ EI=0 an gemessenen Punkten. Alt.: UCB, PI, Knowledge Gradient.

Der komplette BO-Kreislauf Interaktiv

Messen → Modellieren → Investieren → Wiederholen

Was nehmen Sie mit?

Wann BO?

Experiment teuer + Black-Box + wenige Durchläufe

Kernidee

Jedes Experiment ist eine Investition. GP liefert μ + σ. Die Acquisition Function maximiert den erwarteten Fortschritt pro Versuch.

Nächste Woche

Wie wählt man ℓ? · Batch-BO · Multi-Objective · BoTorch, Ax

Raten
Investieren

Jeder Versuch ist eine Investition.
Bayes'sche Optimierung maximiert den Fortschritt zum Optimum.

Kevin Maik Jablonka

mail@kjablonka.com

Anonymes Feedback

admonymous.co/kjappelbaum

Backup

Zusatzmaterial für die Diskussion

17 — Posterior im Detail (μ, σ²-Formel)

18 — Verwandte Arbeiten aus meiner Forschung

19 — BO vs. Active Learning vs. DoE

20 — Kernel-Familie & Hyperparameter

21 — Erweiterungen: Batch, Multi-Objective, Hochdim.

22 — Tools & Literatur

Posterior im Detail Backup

μ ist eine gewichtete Summe der Messwerte — die Gewichte kommen aus dem Kernel

μ(x*)=Nähe×Korrektur×Messwerte
μ(x*) = k*ᵀ (K+σ²I)⁻¹ y
  • k* — Nähe von x* zu jedem Messpunkt (1 = drauf, 0 = weit weg)
  • (K+σ²I)⁻¹Redundanzkorrektur. Nahe Messungen teilen sich das Gewicht, statt doppelt zu zählen. Gelöst wie Ax = b in LinAlg.
  • y — Messwerte. Gewichtete Summe → Interpolation.

σ²(x*) = k(x*,x*) − k*ᵀ(K+σ²I)⁻¹k* — Anfangsunsicherheit minus Information aus nahen Messpunkten.

Verwandte Arbeiten aus meiner Forschung Backup

Multiobjective Active Learning

  • Anwendung: Dispersant-Polymere (EPFL × BASF)
  • Methode: GP + Pareto-Dominanz statt Total Order
  • Kern: iterative Auswahl des unsichersten Kandidaten nahe der Pareto-Front
  • Ergebnis: Pareto-optimale Polymere mit Konfidenz

Jablonka et al., Nature Communications 2021 — Erstautor

Daten-getriebene MOF-Synthese

  • Anwendung: Al-PMOF für CO₂-Abscheidung
  • Methode: GA + ML auf Mikrowellen-Roboterplattform
  • Ausbeute: 40 %80 %
  • Zeit: 16 h50 min

Domingues et al., Communications Chemistry 2022 — Co-Autor

Gemeinsamer Nenner: sequentielle, modellgestützte Auswahl von Experimenten in der Materialwissenschaft.

BO vs. Active Learning vs. DoE Backup

Design of Experiments

  • Ziel: Screening
  • Strategie: alle Punkte vorab
  • Nicht sequentiell
  • Latin Hypercube, vollfaktoriell

Active Learning

  • Ziel: das Modell
  • Strategie: max. σ-Reduktion
  • Sequentiell
  • Funktion verstehen

Bayes'sche Optimierung

  • Ziel: das Optimum
  • Strategie: max. erwarteter Fortschritt (EI)
  • Sequentiell
  • Knappes Budget
Modell
Active Learning
Optimum
Bayes'sche Opt.

Kernel-Familie & Hyperparameter Backup

RBF

  • Standard-Kernel
  • Unendlich glatt
  • Guter Startpunkt

Matérn

  • Weniger glatt
  • Erlaubt Knicke
  • Parameter ν

Periodisch

  • Periodische Prozesse
  • Kombinierbar
  • Domänenwissen

Wie wählt man ℓ?

  • Maximum Likelihood — maximiert P(y | ℓ, Kernel)
  • Bei jedem BO-Schritt automatisch neu
  • Keine manuelle Einstellung

Erweiterungen Backup

Batch-BO

  • Mehrere Versuche parallel
  • q-EI, Kriging Believer
  • Labor-Automatisierung

Multi-Objective

  • Härte und Kosten
  • Pareto-Front statt Optimum
  • EHVI-Acquisition

Hochdimensional

  • Standard-GP: bis ~20 D
  • TuRBO, Trust Regions
  • Random Features, Embeddings

Constraints

  • Verbotene Regionen (T > Schmelzpunkt)
  • Constrained EI, Safe-BO

Mixed Variables

  • Kontinuierlich + kategorisch
  • Spezielle Kernel, one-hot

Tools & Literatur Backup

Python-Bibliotheken

  • BoTorch · PyTorch-basiert, Referenz
  • Ax · High-Level-Wrapper
  • GPyTorch · flexibel für Forschung
  • scikit-learn · einfacher Einstieg

Literatur

  • Garnett (2023) — Lehrbuch, frei online
  • Frazier (2018) — Tutorial, arXiv:1807.02811
  • Shahriari (2016) — Taking the Human Out of the Loop
  • Rasmussen & Williams (2006) — GP-Standardwerk