Validierungs- & Plattform-Report
Vier Tests. Zwei Plattformen. Zwei Entscheidungspunkte.
Die φ-Hypothese steht oder fällt mit einem einzigen Satz, der messbar sein muss: Ein Drift vom parafermionischen Selbstdualpunkt erzeugt ein verlässliches, hinreichend wenig invasives Proxy-Signal in einer AA-artigen Probe, das für Closed-Loop-Stabilisierung taugt. Das ist keine Gewissheit — es ist eine präzise formulierte, überprüfbare Behauptung.
Update-Hinweis: Die aktuellen Anpassungen des Validierungspfads (inkl. Pivots) sind im Forschungsverlauf chronologisch dokumentiert.
Jeder Test hat ein klar definiertes Ziel, eine messbare Erfolgsbedingung und ein explizites Kill-Kriterium. Die Reihenfolge ist nicht verhandelbar — Test B beginnt erst, wenn Test A eine plausible Observable liefert.
Methodische Grundhaltung: Aubry-André-Physik liefert den Reiz eines analytisch scharfen Übergangs am Self-Dual-Kritikum (Δc ≈ 2J). Das ist zunächst jedoch nur Sensor-Inspiration, keine automatisch gültige Abbildung auf stark wechselwirkende parafermionische Ketten. Diese Lücke ist der Gegenstand von Test A — sie zu schließen ist die Voraussetzung für alles Weitere.
Präzise Definition von vier Elementen: (i) Selbstdualpunkt im Zielsystem — Kontrollparameter δ = (g_pair − g_bs)/(g_pair + g_bs); (ii) AA-Probe als Standard-Quasiperiodik-Kette mit Inkommensurabilität (goldener Schnitt); (iii) Kopplungsmechanismus Probe↔Ziel; (iv) reales Drift-Modell (Gate-Offset, Temperatur-/Charge-Noise, lokale Inhomogenität).
Ohne diese Definition hat kein nachfolgender Test eine belastbare Grundlage. Die parafermionische Selbstdualität ist in der Literatur an eine Balance konkurrierender Kopplungen gebunden — diese Balance muss formal auf eine messbare Größe der AA-Probe abgebildet werden.
Erster harter empirischer Filter: Zeigt ein Drift in δ ein robustes, monotones O_probe(δ), das als Feedback-Signal taugt? Exact Diagonalization auf kleinen Ketten — Scan über δ und Kopplungsstärke Probe↔Ziel. Berechne Inverse Participation Ratio, Level-Statistiken, lokale Spektralfunktionen und Leitwert-Surrogate in Tight-Binding-Geometrie.
DMRG/TEBD für größere 1D-Systeme bei Relevanz von Wechselwirkungen. Realistische Planung: quasiperiodische, wechselwirkende Systeme brechen Translationssymmetrie und erhöhen die Verschränkungsentropie am kritischen Punkt stark; deshalb ist die Laufzeit eher monats- als wochengetrieben. Ressourcenanforderung: 32–256 CPU-Kerne, 128–512 GB RAM für ernsthafte DMRG-Scans.
Ein Signal, das nur im idealisierten Modell existiert, hat keinen praktischen Wert. Many-Body-Versionen (interaktives AA/Harper-ähnlich) mit stochastischem Drift. Explizit: inhomogene Moiré-Gitterkonstante und Band-Edge-Offsets als Disorder-Parameter, weil sie experimentell in Moiré-FCIs dominieren. Kernfrage: bleibt der Übergang unter Wechselwirkungen hinreichend scharf, oder driftet das System in ein MBL-/stark verschmiertes Regime?
Readout-Modell: Messung erzeugt effektive Dephasierungsrate — Prüfung, wann die Probe als Sensor ihr eigenes Signal durch Rückkopplung zerstört. Das ist die methodisch heikelste Frage des gesamten Programms.
Die Brücke von Papierphysik zu Technologie. Zeigt ein Feedback-Loop mit realistischen Latenzen und Mess-Noise, dass er den Zielparameter δ in einem Toleranzband halten kann? System + Probe + Mess-Noise + Drift als Zustandsraummodell. Vergleich der Controller-Klassen: PID/Kalman gegen Bayesian Optimization gegen Reinforcement Learning.
Konkrete Anforderungen: Loop-Bandbreite muss technologisch erreichbar sein (z.B. ms-Latenz, nicht µs bei einem Setup, das nur ms-Readout erlaubt); der Controller darf nicht zu viele Messungen benötigen.
Konkrete Tool-Empfehlungen für Tests A–D. Alle Open-Source, in reproduzierbaren Notebook-Umgebungen.
Strategische Pivot-Pfade (falls AA-Proxy nicht robust genug ist):
1) Floquet-Fibonacci-Driving: φ-Struktur in die Zeitdomäne verlagern (quasiperiodische Drive-Sequenzen), um Stabilisierung aktiv zu erzwingen statt nur passiv zu messen.
2) Dispersives cQED-Readout: Suszeptibilitäts-Readout über Resonator-Phasenverschiebung statt DC-Transport, um Backaction und Messinvasivität zu reduzieren.
3) Rydberg-Analogsimulator: Gekoppelten Hamiltonian zuerst in einem disorder-armen Atomsystem testen, bevor materialdominierte Komplexität in Moiré-Heterostrukturen adressiert wird.
Beide Plattformen haben genuine Stärken und reale Grenzen. Die Entscheidung für einen Pfad sollte auf der Platform-Scorecard basieren, nicht auf Verfügbarkeit oder Gewohnheit.
Graphen ist plausibel, nicht bequem. CAR im fraktionalen QH-Regime ist real nachgewiesen. Aber CAR allein beweist keine Parafermionen — und Interface-Realitäten dominieren. Robuste 1D-Proximity-Superströme über Domain Walls zeigen den Weg, aber der Weg ist steinig.
MoTe₂ löst den SC-vs-B-Feld-Konflikt elegant. Aber das inhomogene Disorder-Landscape ist experimentell dominant und in der Literatur explizit als größtes Hindernis beschrieben. Reproduzierbarkeit über Proben hinweg bleibt eine offene Frage.
Nicht jeder Pfad eignet sich für denselben Erkenntnisgewinn. Die Tabelle trennt, was welcher Ansatz leisten kann — und was er grundsätzlich nicht leisten kann.
| Pfad | Methoden | Zeitrahmen | Ressourcen | Was gezeigt werden kann | Strukturelle Grenze |
|---|---|---|---|---|---|
| Reiner Software-Pfad A–D | Theorie + ED + DMRG + Control-Sim | 6–14 Wochen | 40–250k EUR | Reproduzierbares numerisches Signal + Feedback-Stabilisierung + Go/No-Go-Report | „Mapping" bleibt Modellartefakt ohne Hardware-Nachweis; Nicht-Invasivität nur behauptet, nicht gezeigt |
| Photonik-AA PoC (F2) | Quasiperiodische photonische Gitter + Feedback | 3–9 Monate | 50–300k EUR | AA-Kritikum als Sensor/Regler funktioniert physikalisch; Locking-Qualität messbar | Keine Aussage zur parafermionischen Relevanz — nur Konzeptvalidierung des Sensor-Prinzips |
| Graphen-Hybrid (G1 QH+SC) | Nanofab + Kryo-Transport + Andreev/CAR | 6–18 Monate | 250k–2.5M EUR | SC-Korrelationen an (fraktionalen) Edges + Gate-Tuning-Fenster; CAR-Nachweis | CAR ≠ Parafermionen; Interface-Yield und Hochfeld-Kompatibilität schwer kontrollierbar |
| Zero-Field FCI (MoTe₂ oder rhomb. Graphen) | Moiré-Device + Transport + SC-Integration | 9–24 Monate | 300k–3M EUR | Zero-Field topologische Ordnung + SC-Proximity-Tests; nächster Schritt zu Parafermionen | Disorder-Landscapes dominieren; Reproduzierbarkeit über Proben fraglich; extrem lange Laufzeit |
Nach spätestens 10–14 Wochen liegt ein klares Go/No-Go für den AA-Sensor-Kern vor. Erst danach wird in Hardware eskaliert. Jeder Schritt ist an ein messbares Ergebnis gebunden.
Go-Kriterium: Tests B + C + D zeigen gemeinsam ein robustes, monotones O_probe(δ) das unter realistischen Störern bestehen bleibt und per Feedback in einer Simulation stabilisiert werden kann.
No-Go / Pivot: Wenn nicht — Fokus auf „Control-first": ML/Bayes-Autotuning ohne AA-Mapping als Alternative, oder Formulierung eines stärker begrenzten theoretischen Ergebnisses.
Go-Kriterium: Ein Hardware-PoC (Photonik oder Graphen-QH-SC) zeigt, dass Feedback-Stabilisierung am kritischen Punkt praktisch erreichbar ist. Daten stimmen mit Vorhersagen in den wesentlichen Zügen überein.
Pivot wenn nicht: Fokus zurück auf Paper/Methodik — die theoretischen Befunde aus Phase 1 sind eigenständig publizierbar und wissenschaftlich wertvoll, unabhängig von der Hardware-Frage.
Neun priorisierte Arbeitspakete, die den Übergang von der Hypothese zur belastbaren wissenschaftlichen Evidenz strukturieren. Fokus ist methodische Schärfung, nicht operativer Aktionismus.
QuSpin) als wissenschaftlich nachvollziehbare Ausgangsbasis. Reproduzierbarkeit ist hier eine Kernanforderung an die Aussagekraft.TeNPy/ITensor formal festlegen, damit Modellkomplexität und numerische Ressourcen (HPC-Zugang, Speicher, Laufzeiten) konsistent mit den wissenschaftlichen Fragestellungen wachsen. Zeitplanung explizit konservativ halten (Monate statt Wochen in der kritischen Many-Body-Region).Der wissenschaftliche Wert der Hypothese hängt davon ab, ob Tests B, C und D in ihrer Gesamtheit drei klar definierte Kriterien erfüllen.
Ein robustes Proxy-Signal existiert: O_probe(δ) ist monoton, sensitiv und reproduzierbar. Aubry-André-Physik liefert einen analytisch scharfen Kritikpunkt — aber das ist Sensor-Inspiration, noch keine gültige Abbildung auf stark wechselwirkende Systeme. Diese Abbildung muss Test B zeigen.
Das Signal übersteht reale Störbedingungen: moderate Inhomogenität, Gate-Noise, thermische Quasipartikel. Test C entscheidet, ob die Hypothese ein Laborartefakt oder ein physikalisch belastbares Konzept ist. Graphen ist plausibel, aber nicht bequem — Disorder dominiert experimentell.
Das Signal stabilisiert sich per Feedback ohne unpraktische Mess-Invasivität. Test D zeigt, ob die Physik sich in ein technisch umsetzbares Regelungsproblem übersetzen lässt. Die Latenz- und Messbudget-Anforderungen aus Test D bestimmen, welche Hardware-Plattform überhaupt in Frage kommt.
Wenn alle drei Bedingungen erfüllt sind, steht ein neuartiger analytischer Beitrag zur Stabilitätsfrage im topologischen Quantenrechnen. Wenn nicht — auch das ist ein wissenschaftlich präzises und publizierbar formuliertes Ergebnis. Die Methodik entscheidet, nicht der Ausgang.