Donnerstag, 5. März 2026

Heterogene Mikrostruktur-Engineering: Warum „gezielte Inhomogenität“ metallische Legierungen besser macht


In der klassischen Werkstoffkunde galt lange: Je homogener die Mikrostruktur, desto verlässlicher die Eigenschaften. In den letzten Jahren hat sich jedoch eine andere Design-Logik als extrem leistungsfähig erwiesen: Heterogeneous Microstructure Engineering (HME) – also das gezielte Einbauen von Mikrostruktur-Unterschieden (z. B. Korngröße, Phasenanteile, Textur, Versetzungsdichte) innerhalb derselben Legierung. Ziel ist nicht „Unordnung“, sondern ein funktionales Gefüge, das mehrere Mechanismen parallel nutzt: hohe Festigkeit und gute Duktilität, hohe Zähigkeit, gute Ermüdungs- und Rissbeständigkeit – oft in Kombination.


Der Kernpunkt: Mechanische Eigenschaften werden nicht nur von der Legierungschemie bestimmt, sondern ganz maßgeblich von Strukturhierarchien über viele Längenskalen (nm → µm → mm). HME nutzt diese Skalen aktiv aus.



1) Was bedeutet „heterogene Mikrostruktur“ konkret?

Eine Mikrostruktur heißt hier „heterogen“, wenn systematische Unterschiede im Gefüge existieren – nicht zufällig, sondern gezielt hergestellt. Typische Heterogenitäten sind:

  • Korngrößen-Gradienten (z. B. ultrafein an der Oberfläche, grob im Kern)
  • Patchwork-/Lamellenstrukturen (wechselnde Zonen mit unterschiedlicher Korngröße/Phase)
  • Zweiphasige Verbünde (harte + weiche Phase in kontrollierter Morphologie)
  • Textur-/Orientierungsheterogenität (Unterschiede in Kristallorientierung über die Probe)
  • Versetzungs- und Ausscheidungsgradienten (z. B. stärker verfestigte Randzonen)

Entscheidend ist, dass diese Unterschiede mechanisch zusammenarbeiten – und genau hier entstehen die bekannten „Synergieeffekte“.


2) Warum bringt Heterogenität oft bessere Eigenschaften?

Homogene ultrafeinkörnige Gefüge liefern zwar hohe Festigkeit, verlieren aber häufig an Duktilität (weniger Verfestigungsreserve). Umgekehrt bieten grobkörnige Gefüge Duktilität, aber geringere Festigkeit. HME kombiniert beides, indem harte Zonen Last tragen und weiche Zonen plastische Deformation aufnehmen.

2.1 Mechanisches Prinzip: Belastungsumlagerung + Verfestigung

Unter Zugbelastung deformieren weiche Bereiche stärker. Dadurch entstehen zwischen weichen und harten Bereichen Dehnungsinkompatibilitäten. Diese erzeugen geometrisch notwendige Versetzungen (GNDs) und zusätzliche Verfestigung – häufig als „hetero-deformation-induced hardening“ beschrieben. Das Resultat: Das Material kann länger gleichmäßig verformen, bevor Einschnürung einsetzt.

2.2 Riss- und Ermüdungsresistenz: Risslenkung statt Rissdurchlauf

In heterogenen Gefügen trifft ein Riss auf Zonen mit unterschiedlicher Härte/Orientierung/Phasenmorphologie. Das kann Rissspitzen abschirmen, Risse umlenken, verzweigen oder stoppen. Besonders bei zyklischer Belastung (Ermüdung) ist die Fähigkeit, Risswachstum zu erschweren, ein zentraler Vorteil.


3) Typische HME-Architekturen im Überblick

Architektur Kurzbeschreibung Typischer Nutzen Risiken/Trade-offs
Gradienten-Gefüge Eigenschaften variieren über die Dicke (Rand ↔ Kern) Oberflächenfestigkeit + duktiler Kern, gute Ermüdung Eigenspannungen, Prozesskontrolle anspruchsvoll
Patchwork „Inseln“ harter/weicher Zonen (mosaikartig) Starke Verfestigung, gute Kombi aus Festigkeit/Duktilität Lokale Überlastung an Grenzflächen möglich
Lamellar/mehrlagig Wechselnde Schichten unterschiedlicher Mikrostruktur Rissablenkung, hohe Zähigkeit, strukturierte Deformation Delamination/Interface-Schwäche bei schlechter Bindung
Zweiphasen-Design Kontrollierte Verteilung harter/weicher Phasen Breites Eigenschaftsprofil, oft sehr industrietauglich Sprödbruchrisiko bei ungünstiger Phasenmorphologie

4) Prozessrouten: Wie erzeugt man heterogene Mikrostrukturen?

HME ist kein einzelnes Verfahren, sondern eine Designstrategie, die über unterschiedliche Prozessrouten erreicht wird. Typische Wege:

  • Thermomechanische Behandlung: Walzen/Schmieden + gezieltes (Zwischen-)Glühen, um Korngröße/Versetzungen räumlich zu steuern
  • Oberflächennahe Severe Plastic Deformation (SPD): z. B. SMAT/Shot Peening → ultrafeiner Rand, duktiler Kern
  • Lokale Wärmebehandlung: induktives/laserbasiertes Erwärmen für Härte-/Gefügegradienten
  • Additive Fertigung: Scanstrategie, Energiedichte und Re-Melting-Zyklen erzeugen räumliche Textur-/Ausscheidungsunterschiede
  • Diffusions- und Ausscheidungssteuerung: zonale Ausscheidungsverteilung (z. B. über Temperaturgradienten)

Wichtig ist die Reproduzierbarkeit: HME funktioniert industriell nur dann gut, wenn die Mikrostruktur „heterogen – aber kontrolliert“ ist.


5) Charakterisierung: Wie misst man „Heterogenität“ sauber?

Ohne gute Analytik ist HME kaum robust zu entwickeln. Häufig eingesetzte Methoden:

  • EBSD (Electron Backscatter Diffraction): Korngröße, Orientierungen, Misorientierungen, lokale Textur
  • EDS/WDS: lokale Chemie/Segregation
  • TEM/SEM: Versetzungsstrukturen, Ausscheidungen, Grenzflächen
  • Nanoindentation: Härtekarten über die Fläche (Mikro-Heterogenität quantifizieren)
  • In-situ Zug/CT: Rissinitiierung und Deformationslokalisierung direkt beobachten

5.1 Praktischer Tipp für Blog-Grafiken

Für Leser:innen ist es oft hilfreich, nicht nur eine Mikroaufnahme zu zeigen, sondern eine „Map + Mechanik“-Kombination: EBSD-Karte (Orientierung) + Härteprofil + Spannungs-Dehnungs-Kurve.


6) Beispiel-Abbildung: Mikrostruktur (Optisches Mikroskop)

Mikrostruktur eines rostfreien Stahls (metallographischer Schliff, geätzt)
Abbildung 1: Beispiel einer metallographischen Mikrostruktur (rostfreier Stahl, geätzt). Quelle: Wikimedia Commons (CC BY 4.0). Siehe Referenzen.

7) Vom Konzept zur Anwendung: Wo bringt HME besonders viel?

Anwendungsfeld Warum HME passt Typische Zielgröße
Leichtbau (Al, Ti, Mg) Festigkeit/Duktilität gleichzeitig, bessere Schadenstoleranz hohe spezifische Festigkeit + Zähigkeit
Werkzeug- & Strukturstähle Risslenkung, kontrolliertes Härteprofil Ermüdung + Bruchzähigkeit
Additive Fertigung Prozessbedingt ohnehin inhomogen → steuerbar machen Bauteil-zu-Bauteil Reproduzierbarkeit
Kryo-/Tieftemperaturanwendungen Zähigkeit kritisch; HME kann Rissausbreitung erschweren stabile Zähigkeit bei niedrigen T

8) Entwicklungs-Workflow (praxisnah)

Ein sinnvoller Workflow für HME-Projekte (auch in Forschung/Prototyping) ist:

Phase Was man macht Ergebnis
1) Ziel definieren Welche Eigenschaft ist limitierend? (Duktilität? Ermüdung? Zähigkeit?) Klarer Zielkonflikt + Metriken
2) Architektur wählen Gradient / Patchwork / Lamellen / Zweiphasen Designhypothese
3) Prozessroute Thermomechanik, SPD, lokale Wärme, AM-Parameter Herstellbarer Prototyp
4) Mapping EBSD/Härte-/Phasenkarte + Mechanik Mikrostruktur–Eigenschaft–Bezug
5) Iteration Grenzflächen, Gradientenstärke, Zonenanteile optimieren robustes Fenster + Skalierung

9) Fazit

Heterogeneous Microstructure Engineering ist eine der wichtigsten modernen Strategien, um klassische Zielkonflikte in metallischen Werkstoffen zu entschärfen. Indem man Mikrostruktur-Unterschiede nicht als Störgröße betrachtet, sondern als Designparameter, lassen sich Festigkeit, Duktilität, Zähigkeit und Ermüdungsbeständigkeit oft gleichzeitig verbessern.

Für die Praxis ist entscheidend: kontrollierte Heterogenität (prozesssicher, messbar, reproduzierbar). Dann wird aus „inhomogen“ ein belastbares Ingenieurwerkzeug.


Referenzen & Bildnachweis

  • Wikimedia Commons: Microstructure of a stainless steel (CC BY 4.0).
    Datei-Seite: https://commons.wikimedia.org/wiki/File:Microstructure_of_a_stainless_steel.jpg


JWST kartiert Uranus obere Atmosphäre: Erste 3D-Ansicht der Ionosphäre und Infrarot-Auroren

Executive Summary

Das James-Webb-Weltraumteleskop (JWST) hat am 19. Februar 2026 ein Ergebnis veröffentlicht, das für die Planetenphysik der Eisriesen ein echter Meilenstein ist: Erstmals liegt eine vertikale (also „Querschnitt-“)Ansicht der Uranus-Ionosphäre vor. Die Infrarot-Messungen (NIRSpec) zeigen intensiv rot leuchtende Bänder um den Planeten – Auroren, die von Uranus’ extrem geneigtem und versetztem Magnetfeld geformt werden.

Aus den Spektren konnten Temperatur- und Dichteprofile der oberen Atmosphäre abgeleitet werden. Die Thermosphäre erreicht demnach im Mittel nur noch etwa 426 K (≈ 153 °C) und setzt damit die seit den 1990er Jahren beobachtete Abkühlung fort. Gleichzeitig lassen sich die Auroraregionen räumlich deutlich präziser lokalisieren – ein Schlüssel, um die Effekte der ungewöhnlichen Magnetfeldgeometrie quantitativ zu verstehen.

Die neuen Befunde liefern erstmals ein konsistentes 3D-Bild der Uranus-Ionosphäre und belegen, wie stark der Magnetfeld-Tilt (≈ 59°) und der Offset (≈ 0,3 R) die Aurorazonen dynamisch über den Globus wandern lassen. Zudem geben sie Einblick in den Energiehaushalt der Eisriesen: Weil Uranus kaum innere Wärme abstrahlt, bleibt seine Thermosphäre deutlich kühler als bei Jupiter oder Saturn. Solche Ergebnisse sind nicht nur für Uranus selbst relevant, sondern dienen als Referenz für vergleichbare Exoplaneten (Sub-Neptune/Mini-Neptune).


Bild: JWST-Infrarotbild des Uranus (NIRSpec, 19. Jan. 2025). Man erkennt den bläulichen Planeten und in Rot seine aurorischen Emissionsgebiete um den Rand. (Credit: ESA/Webb, NASA, CSA, STScI, P. Tiranti et al.)

Einleitung

Uranus ist berühmt für seine extreme Achsneigung: Er rotiert nahezu „auf der Seite“ (Schiefe ≈ 98°). Ebenso auffällig ist sein Magnetfeld: Die Magnetachse ist gegenüber der Rotationsachse um etwa 59° gekippt und der magnetische Dipol ist um ungefähr 0,3 Planetenradien gegenüber dem Zentrum versetzt. Das erzeugt eine der bizarrsten Magnetosphären im Sonnensystem.

Frühere Beobachtungen (z. B. Voyager 2 im Jahr 1986 und Hubble-UV-Aufnahmen) konnten aurorale Phänomene nachweisen, aber keine vertikale Struktur der oberen Atmosphäre liefern. Mit JWST ist es nun erstmals möglich, die Ionosphäre in drei Dimensionen zu kartieren. In diesem Beitrag wird erklärt, wie die Messungen durchgeführt wurden, was sie über Temperatur, Dichte und Auroren verraten – und warum das für Eisriesen und Exoplanetenforschung wichtig ist.

Was ist H3+?

H3+ ist das Triwasserstoff-Kation: ein Ion aus drei Protonen und zwei Elektronen. Es entsteht in den oberen Atmosphären von Gas- und Eisriesen, wenn molekularer Wasserstoff ionisiert wird (z. B. durch energiereiche Teilchen, elektrische Prozesse und Wechselwirkungen mit Magnetosphäre/Sonnenwind). H3+ emittiert charakteristische Linien im Infraroten (besonders stark um ~3,9 µm) und fungiert damit als „Leuchtstoff“ der Ionosphäre.

Die Intensität der H3+-Linien hängt von Temperatur und Dichte ab. Dadurch wird H3+ zu einem praktischen Diagnostikum: Aus Linienverhältnissen lassen sich Temperaturen ableiten, aus Linienintensitäten Dichten – und beides zusammen erlaubt die Rekonstruktion vertikaler Profile in der Thermosphäre.

Beobachtungsdetails

Die neuen Daten basieren auf JWST-Beobachtungen vom 19. Januar 2025 (GO-Programm 5073, PI: H. Melin). Zum Einsatz kam das Instrument NIRSpec im Integral-Field-Mode (IFU). Webb beobachtete Uranus rund 15 Stunden – nahezu eine vollständige Rotation – um schwache H3+-Signale über alle Längengrade hinweg zu erfassen. Diese Strategie ermöglichte erstmals eine robuste Rekonstruktion der vertikalen Ionosphärenstruktur.

Bildhinweis

Webb Maps Uranus’ Upper Atmosphere (NASA)
Bild: JWST-Infrarotansicht des Uranus (NIRSpec, 19. Jan. 2025). Sichtbar ist der bläuliche Planet; in Rot die auroralen Emissionsgebiete nahe dem Rand. (Credit: ESA/Webb, NASA, CSA, STScI, P. Tiranti et al.)

Die Messungen konzentrieren sich auf H3+-Linien im L-Band (≈ 3,5–3,9 µm). Mit hoher spektraler Auflösung wurden Übergänge der R- und Q-Bande detektiert (z. B. Q(1,0) bei 3,953 µm). Aus dem Verhältnis mehrerer Linien ergibt sich eine Rotations-Temperatur, aus der Linienintensität die Volumendichte. So entstehen Temperatur- und Dichteprofile bis in mehrere Tausend Kilometer Höhe.

Wissenschaftliche Analyse

Temperatur- und Dichteprofile

Die Auswertung zeigt eine mittlere Ionosphären-Temperatur von etwa 426 K (≈ 153 °C). Das ist im Vergleich zu früheren Epochen niedriger und stützt die Interpretation eines langfristigen Abkühlungstrends. Die Profile weisen zudem charakteristische Höhenlagen der Maxima auf:

  • Temperatur-Maximum: In etwa 3.000–4.000 km über den Wolken steigt die Temperatur auf ihr Maximum (≈ 426 K) und nimmt darüber wieder ab.
  • Dichte-Maximum: Die H3+-Ionendichte erreicht ihr Maximum tiefer, grob um ~1.000 km.
  • Longitudinale Variation: Temperatur und Dichte variieren deutlich mit der lokalen Magnetfeldgeometrie (Tag/Nacht- und Längengrad-Effekte), was die starke Kopplung zwischen Magnetosphäre und oberer Atmosphäre unterstreicht.

In den Karten treten zwei helle aurorale Bänder nahe der magnetischen Polregionen hervor. Zwischen diesen Bändern findet sich eine Zone mit deutlich geringerer Emission (eine „Lücke“), was als Signatur der komplexen Feldlinien-Topologie interpretiert wird: Teilchenströme werden je nach Feldgeometrie kanalisiert oder abgelenkt, wodurch Emissions-Hotspots und Schattenbereiche entstehen können.

Abkühlungstrend seit den 1990er Jahren

Die JWST-Ergebnisse passen zu Langzeitstudien, die über Jahrzehnte eine Abkühlung der Uranus-Thermosphäre nahelegen. In älteren Messreihen wurden teils Temperaturen im Bereich von ~500–700 K berichtet; die neuen ~426 K liegen darunter und sprechen für eine fortgesetzte Abnahme. Als Größenordnung wird in der Literatur eine Abkühlrate von etwa ~8 K pro Jahr diskutiert (je nach Datensatz, Methodik und betrachteter Epoche).

Warum bleibt Uranus so kühl, während Jupiter und Saturn deutlich wärmere Thermosphären besitzen? Ein zentraler Faktor ist der geringe innere Energiefluss des Uranus: Er strahlt nur wenig Eigenwärme ab, sodass externe Prozesse (Sonne, Sonnenwind, magnetosphärische Kopplung) stärker ins Gewicht fallen. Zusätzlich wirkt H3+-Emission selbst als effizienter Kühlmechanismus: Jede abgestrahlte Linie führt zu Energieverlusten in der oberen Atmosphäre.

Messverfahren: Infrarot-Spektroskopie

JWST konnte diese Resultate liefern, weil es im Infrarot arbeitet, wo H3+ besonders starke Linien zeigt. Vor JWST waren vergleichbare Diagnostiken auf wenige Großteleskope am Boden oder indirekte Sondenbeobachtungen begrenzt. Bodenbasierte Spektrografen (z. B. auf Hawaii/Chile) wiesen die IR-Aurora bereits nach; Webbs Mehrwert besteht in der Kombination aus Empfindlichkeit, Stabilität und IFU-Technik, die die vertikale Struktur zugänglich macht – bildlich gesprochen: statt eines reinen „Horizontblicks“ erhält man einen atmosphärischen Querschnitt.

Tabelle: Beobachtungsübersicht

Instrument (Teleskop) Beobachtungsdaten Erfasste Emissionslinien Befund
JWST NIRSpec IFU (L2) 19. Jan. 2025, ~15 h (nahezu 360°) H3+ ~3–4 µm (IR) Dichte- und Temperaturprofile bis ~5.000 km; vertikale Struktur; aurorale Bänder; Thermosphäre ~426 K; Abkühltrend gestützt
Keck II NIRSPEC (Mauna Kea) 26. Okt. 2023 (~12 h) H3+ IR (~3,5 µm) Erster direkter Nachweis der IR-Aurora; erhöhte H3+-Dichte über Nordpol; Temperaturvergleich über Epochen möglich
VLT CRIRES (Paranal) 2006–2020 (mehrere Nächte) H3+ IR Langzeit-Kühltrend (Größenordnung ~8 K/Jahr) aus zeitlich verteilten Messungen abgeleitet
HST STIS/ACS (Erdorbit) UV-Imaging (1980–2020) UV-Auroren (z. B. Lyman-α) Polare UV-Auroren; Kontext für Rotations-/Magnetosphärenmodelle

Magnetosphäre und Auroramechanik

Uranus’ Magnetosphäre ist eine der ungewöhnlichsten im Sonnensystem. Drei Eigenschaften sind entscheidend:

  • Starke Kippung: Magnetfeld-Dipol ≈ 59° gegenüber der Rotationsachse geneigt.
  • Starker Offset: magnetisches Zentrum um ≈ 0,3 Planetenradien versetzt.
  • Rotation „auf der Seite“: Achsneigung des Planeten ≈ 98° relativ zur Umlaufbahn.

Diese Geometrie bewirkt, dass magnetische Feldlinien und die auf ihnen geführten Teilchen während der Rotation ständig neu ausgerichtet werden. Anders als bei der Erde (relativ stabile Auroragürtel) oder bei Jupiter/Saturn (vergleichsweise symmetrische Systeme) können Aurorazonen auf Uranus in komplexen Mustern über den Globus wandern. Webbs Kartierung macht diese Dynamik sichtbar: Zwei helle Bänder nahe den magnetischen Polregionen sowie eine Emissionslücke dazwischen sprechen für eine stark strukturierende Rolle der Feldlinien-Topologie.

Uranus-Rotationsachse (Schiefe ~98°)
              |
              v
Magnetachse (Tilt ~59°, Offset ~0,3 R)
              |
              v
Auroren: helle Bänder wandern komplex über den Globus

Ein Blick über Uranus hinaus: Neptun hat ebenfalls ein stark gekipptes und deutlich versetztes Magnetfeld (Größenordnung: Tilt ~47°, Offset ~0,55 R). Daher ist zu erwarten, dass seine Aurora-Geometrie ebenfalls „chaotischer“ ist als bei Jupiter oder Saturn – ein attraktives Ziel für zukünftige Beobachtungen.

Bedeutung für Eisriesen und Exoplaneten

Die neuen 3D-Profile liefern wesentliche Bausteine für den Energiehaushalt der Eisriesen. Indem Webb die aurorale Energiezufuhr (über H3+-Bildung und Emission) räumlich auflöst, können Modelle besser unterscheiden, welche Rolle Sonnenwind, magnetosphärische Ströme und saisonale Effekte spielen. Gerade bei Uranus ist das besonders interessant, weil der Planet nur wenig innere Wärme abstrahlt.

Für die Exoplanetenforschung sind Uranus und Neptun Prototypen: Viele der bisher entdeckten Planeten liegen in Größen-/Massenbereichen, die an (Sub-)Neptune erinnern. Wenn Magnetfelder und Ionosphären solcher Welten ähnlich komplex sein können, ist Uranus ein wichtiges „Naturlabor“, um Interpretationen von Atmosphärensignaturen und möglichen auroralen Emissionsmerkmalen zu kalibrieren.

Schließlich rücken die Resultate auch Missionskonzepte in den Fokus (z. B. Orbiter-/Sonden-Ideen für die 2030er Jahre). Ein Orbiter mit Atmosphärenprobe könnte Magnetometer- und In-situ-Daten liefern, die Webb-Befunde direkt validieren und die Kopplung zwischen Magnetosphäre und oberer Atmosphäre umfassend vermessen.

Ausblick und Schlussfolgerung

Die JWST-Kartierung der Uranus-Ionosphäre markiert einen Meilenstein: Erstmals lässt sich in großer Detailtiefe rekonstruieren, wie die Atmosphäre bis in mehrere Tausend Kilometer Höhe ionisiert, strukturiert und (punktuell) erwärmt wird. Die Profile stützen einen anhaltenden Abkühlungstrend seit den 1990er Jahren und zeigen, wie Uranus’ ungewöhnliches Magnetfeld aurorale Emissionen räumlich formt und dynamisch verschiebt.

Für die nächsten Jahre bieten sich mehrere Forschungsschritte an:

  • Mehrfachbeobachtungen mit JWST zu unterschiedlichen Jahreszeiten, um saisonale Kopplungseffekte zu testen.
  • Gezielte Suche nach H3+-Auroren am Neptun (JWST oder kommende Großteleskope), um den Eisriesen-Vergleich zu vervollständigen.
  • Langzeitmonitoring vom Boden (Variabilität der H3+-Emission) als Test für magnetosphärische Strom- und Heizmodelle.
  • Langfristig: Raumsondenmission (Orbiter + atmosphärische Sonde) zur direkten Feld- und Teilchenmessung.

In Summe entsteht ein neues, viel schärferes Bild von Uranus als dynamischem Magnetosphären-Atmosphären-System. Wer Polarlichter als physikalisches Phänomen – von der Erde bis zu fremden Welten – verstehen will, kommt an Uranus (und seinen Eisriesen-Verwandten) nicht vorbei.

Für weiterführende Lektüre

  • NASA: Webb Maps Uranus’ Upper Atmosphere (Image Article, 24. Feb. 2026)
  • ESA/Webb: Webb maps the mysterious upper atmosphere of Uranus (Science Release, 19. Feb. 2026)
  • University of Leicester: Pressemitteilung zur IR-Aurora-Entdeckung am Uranus (Okt. 2023)
  • H. Melin et al.: The H3+ ionosphere of Uranus: decades-long cooling (Phil. Trans. R. Soc. A, 2019)
  • H. Melin: The upper atmospheres of Uranus and Neptune (Phil. Trans. R. Soc. A, 2020)
  • NASA/JPL: Voyager 2 Explores Uranus (22. Jan. 2021)
  • Hinweis: Als Original-Studie zur Webb-Beobachtung wird in deinem Text Tiranti et al., Geophysical Research Letters (Feb. 2026) genannt.

Dienstag, 24. Februar 2026

BioLM-Score: Ein neuer Ansatz für Protein-Ligand-Scoring

Protein-Ligand-Scoring ist ein zentrales Element im strukturbasierten Wirkstoffdesign: Es bewerten das Bindungspotential kleiner Moleküle an Proteinziele (z.B. in Docking oder virtuellen Screenings). Traditionelle Methoden fallen meist in zwei Kategorien: physikalisch basierte (kraftfeldgestützte) Funktionen und empirische Funktionen[1]. Erstere berechnen freie Bindungsenergie mit aufwändigen Kraftfeldern (sehr genau, aber rechenintensiv[2]), letztere nutzen lineare Regression einfacher Terme (schnell, aber durch starre Formeln begrenzt[3]). In den letzten Jahren kamen tief lernende Ansätze hinzu – sie nutzen große Strukturdatensätze und nichtlineare Modelle[4]. Innerhalb ihres Trainingsbereichs erzielen diese Modelle oft bessere Genauigkeit als klassische Funktionen[5], leiden aber an schlechter Übertragbarkeit auf neue Proteine und meist geringer Interpretierbarkeit[4]. Insgesamt bleibt es eine große Herausforderung, eine Scoring-Funktion zu entwickeln, die Effizienz, Generalität und Interpretierbarkeit gleichzeitig vereint[6].



·         Physikbasierte Funktionen: Exakte Modelle (z.B. AutoDock, Vina) mit detaillierten Energie-Terms; Vorteil: hohe Genauigkeit bei Docking, Nachteil: sehr rechenaufwändig[2][7].

·         Empirische Funktionen: Simpler, linearer Aufbau (z.B. X-Score, ChemScore); Vorteil: schnell, Nachteil: kann komplexe Wechselwirkungen oft nicht erfassen[1].

·         Datengetriebene DL-Modelle: Nutzen neuronale Netze (z.B. Graph-NN) für end-to-end Vorhersagen von Bindungsaffinitäten[4]. Vorteil: erlernen nichtlineare Effekte und profitieren von großen Datenmengen. Nachteil: oft wenig robust gegenüber unbekannten Proteinen und nur schwer interpretierbar[4].

Neuere Ansätze zielen darauf ab, geomet­ris­che Wahrscheinlichkeitspotenziale (z. B. mittels Mixture-Density-Netzwerken, MDNs) direkt aus nativen Protein-Ligand-Komplexen zu lernen[8]. Diese Methoden prognostizieren Verteilungen von Atom-Abständen und bewahren damit starke geometrische Konsistenz. Allerdings sind diese Scores geometrisch plausibel, aber nicht notwendigerweise gleichbedeutend mit tatsächlicher Bindungsaffinität[8]. Zudem konzentrieren sich solche Methoden meist nur auf lokale 3D-Umgebungen und vernachlässigen globale biologische Informationen (z.B. Evolution aus Proteinsequenzen oder chemische Semantik aus Ligand-SMILES)[8].


BioLM-Score: Konzept und Architektur


BioLM-Score geht diese Probleme an, indem es geometrische Graphmodelle mit biochemischen Sprachmodellen verknüpft. Wie bei vielen graphbasierten Ansätzen werden Proteine und Liganden als Graphen repräsentiert: Atome bilden die Knoten und Bindungen bzw. Wechselwirkungen die Kanten
[9]. In einer zweigeteilten Architektur („dual-branch“) verarbeitet BioLM-Score diese Graphen zunächst getrennt durch strukturelle Encoder (Graph Neural Networks wie GatedGCN oder Graph-Transformer)[10]. Parallel dazu werden vortrainierte Sprachmodelle (BioLMs) eingesetzt – etwa ESM für Proteine und Chemformer für Ligand-SMILES – die zusätzliche Sequenz- und Strukturinformationen liefern[10][11].



Nach der Extraktion dieser Merkmale werden protein- und ligandenbezogene Embeddings fusioniert und in ein Mixture-Density-Netzwerk eingespeist. Dieses MDN modelliert multimodale Wahrscheinlichkeitsverteilungen für alle paarweisen Atoms-Abstände zwischen Protein und Ligand[12]. Der finale Score ergibt sich dabei als aggregierte logarithmische Wahrscheinlichkeit („log-likelihood“), dass die beobachteten Abstände einen realistischen (engl. native-like) Komplex repräsentieren[13][12]. Auf diese Weise verbindet BioLM-Score lokales, geometrisches Wissen mit globalem, semantischem Kontext: Die Vorhersagen sind sowohl geometrisch plausibel als auch durch die eingebetteten Sprachinformationen biologisch sinnvoll[14][13].

Die Autoren fassen die Innovation von BioLM-Score so zusammen: Es ist ein prinzipiengeleitetes und zugleich praktisches Scoring-Modell, das mit vereinfachter Architektur erhebliche Leistungsgewinne ermöglicht[15]. Abbildung 1 (siehe oben) illustriert schematisch die Architektur: Struktur-Encoder (GatedGCN/Transformer) plus Sprach-Encoder (ESM, Chemformer) führen zu fusionierten Knotendarstellungen, auf denen das MDN die Distanzverteilungen vorhersagt[16].

Evaluierung und Vergleich

Das BioLM-Score-Modell wurde auf etablierten Benchmarks geprüft. Als Referenz dient der CASF-2016 Datensatz (285 hochauflösende Protein-Ligand-Komplexe in 57 Zielgruppen)[17]. CASF-2016 bewertet Scoring-Funktionen anhand von vier Kennzahlen („Metriken“): Scoring-Power (genaue Affinitätsvorhersage), Ranking-Power (richtige Reihenfolge der Bindungsstärken), Docking-Power (Pose-Identifikation) und Screening-Power (Unterscheidung von Bindern/Nicht-Bindern)[18][19]. BioLM-Score erreicht in dieser Benchmark state-of-the-art Ergebnisse für alle vier Aufgaben[19]. Im Vergleich zu klassischen Methoden kann es somit die sonst üblichen Leistungstauschungen überwinden: So zeigen z.B. klassische Kraftfeld-Methoden (AutoDock Vina) zwar sehr gute Docking-Ergebnisse, versagen aber oft bei Scoring und Screening[7]. Generative MDN-Modelle (z.B. RTMScore) garantieren meist korrekte Posen, liefern aber nur wenig über den tatsächlichen Affinitätswert[20]. Selbst neuere Modelle wie GenScore, die Affinitätsdaten hinzuziehen, verwenden ausschließlich lokale Graph-Topologie und ignorieren globale biologische Kontexte[21]. Im Gegensatz dazu nutzt BioLM-Score die Sprachmodell-Einbettungen, um evolutive Protein-Signale und chemische Merkmale des Liganden in das geometrische Modell einzubringen[14][11]. Dadurch gelingt es, echte Ligandenpaare zuverlässiger zu identifizieren („geometry-affinity gap bridged“[14]), und es wird eine bessere Korrelation zur experimentellen Bindungsaffinität erzielt.

Zusätzlich wurde BioLM-Score auf DEKOIS 2.0 getestet – einem Benchmark für virtuelles Screening mit 81 verschiedenen Zielproteinen (je 30 bekannte Wirkstoffe, 1200 Dekoy-Moleküle pro Ziel)[22][23]. Auch hier zeigte sich, dass BioLM-Score als Scoring-Funktion eine effektive Trennschärfe zwischen Wirksubstanzen und Inaktiven liefert und dabei anderen modernen Ansätzen häufig überlegen ist.

Fazit

BioLM-Score bietet einen eleganten Kompromiss zwischen bisherigen Ansätzen: Es nutzt die Effizienz der Deep-Learning-Modelle und überwindet gleichzeitig deren Generalisierungsprobleme durch die Integration biologischer Sprachinformationen. Laut den Autoren stellt es „eine prinzipiengeleitete und praktische Alternative zu bestehenden Scoring-Funktionen“ dar, da es Effizienz, Generalisierbarkeit und Interpretierbarkeit vereine[15]. In der Praxis könnte BioLM-Score dazu beitragen, teure physik-basierte Simulationen in frühen Screening-Phasen zu ersetzen. Seine als Differenzialfunktion nutzbare Struktur (z.B. in einem angepassten Docking-Protokoll „BSDock“) gestattet es zudem, Posen und Konformationen gezielt zu optimieren[14][13]. Insgesamt ist BioLM-Score ein vielversprechender neuer Ansatz, der Deep Learning und Domänenwissen wirkungsvoll kombiniert und so das Rüstzeug für effizientere, zuverlässigere Wirkstoffentdeckung liefern kann.

Quellen: Original-Abstract und -Paper von Yang et al. (2026)[24][11]; CASF-2016-Benchmark[18][17]; DEKOIS 2.0-Benchmark[23][22]; Review zu Deep-Learning-Scoring[5]; SS-GNN (GNN für Protein-Liganden)[9].


[1] [2] [3] [4] [6] [7] [8] [10] [11] [12] [13] [14] [15] [16] [17] [19] [20] [21] [22] [24] BioLM-Score: Language-Prior Conditioned Probabilistic Geometric Potentials for Protein-Ligand Scoring

https://arxiv.org/html/2602.18476v1

[5]  Scoring Functions for Protein-Ligand Binding Affinity Prediction Using Structure-based Deep Learning: A Review - PMC

https://pmc.ncbi.nlm.nih.gov/articles/PMC7613667/

[9] Graph representation of the protein−ligand complex. (a) 3D structure of... | Download Scientific Diagram

https://www.researchgate.net/figure/Graph-representation-of-the-protein-ligand-complex-a-3D-structure-of-the-complex-b_fig1_371617470

[18] Comparative Assessment of Scoring Functions: The CASF-2016 Update - PubMed

https://pubmed.ncbi.nlm.nih.gov/30481020/

[23]  Use of DEKOIS 2.0 to gain insights for virtual screening - PMC

https://pmc.ncbi.nlm.nih.gov/articles/PMC3980182/

Das Q‑Neko‑Projekt (Nippon-Europe Quantum Koraborēshon)

Executive Summary

Das Q‑Neko‑Projekt (Nippon-Europe Quantum Koraborēshon) startet 2026 als großangelegte Forschungsinitiative zur Vertiefung der EU–Japan-Zusammenarbeit in Quantentechnologien und Hochleistungsrechnen (HPC). Es wird von CSC (Finnland) koordiniert und durch Horizon Europe/EuroHPC (EU) sowie das japanische SIP-Programm finanziert[1]. Ziel ist die Entwicklung von hybriden Computersystemen, die klassische Supercomputer mit Quantenrechnern verbinden. Dazu fördert Q‑Neko den Austausch von Forscher:innen, den Aufbau gemeinsamer Ressourcen und Standards sowie die Erstellung einer Technologieroadmap für sichere Lieferketten[2]. Partner sind führende Universitäten, Forschungszentren und Firmen aus EU und Japan (siehe Tabelle), die ihre jeweiligen Stärken einbringen. Das Projekt fokussiert sich auf Bereiche wie Materialwissenschaften, CO₂-Reduktion, Telekommunikation, Strömungsdynamik und Satellitenbildanalyse – allesamt Gebiete, in denen quantenunterstützte KI und HPC neue Impulse liefern sollen[3][4]. Das erste Kickoff in Helsinki (10.–12.2.2026) legte den formalen Startschuss. Die dort diskutierten Leitprinzipien „open by design, secure by default“ sowie die Zusagen von EU- und japanischen Vertretern zeigen die hohe politische Priorität[5].



Projektziele

Q‑Neko will das Zusammenspiel von klassischem HPC und Quantenbeschleunigung vorantreiben und so neue wissenschaftliche und industrielle Lösungen ermöglichen[6]. Konkret umfasst es fünf eng verzahnte Ziele: den Ausbau des personalen Austauschs zwischen EU und Japan, Aufbau gemeinsamer Infrastruktur und Know-how, Erarbeitung einer Roadmap zur Förderung sicherer Lieferketten, Schaffung einer Bibliothek quantenbasierter Lösungen für drängende Aufgaben sowie die Entwicklung robuster Benchmarks und Vorarbeiten zur Standardisierung im Bereich der HPC-Quanten-Integration[2]. Auch die Entwicklung eines integrierten Software-Stacks für HPC+KI+QC gehört dazu[7]. Dadurch soll die nächste Generation hybrider Computersysteme in die Anwendung überführt werden. Ziel ist es, Erkenntnisse in Bereiche wie Klimaschutz oder Materialdesign einfließen zu lassen – etwa durch quantenbeschleunigtes maschinelles Lernen bei der Auswertung großer Datensätze[8][6].

Finanzierung und Zeitplan

Q‑Neko wird über Horizon Europe und das EuroHPC-Programm der EU sowie Japans ressortübergreifendes SIP (Strategic Innovation Promotion) finanziert[9]. Die genaue Förderhöhe wurde nicht offengelegt. Es ist aber typisch, dass solche EU-Japan-Projekte Förderbeträge im mittleren bis zweistelligen Millionenbereich umfassen. Das Projekt läuft voraussichtlich 3–4 Jahre (2026–2029/30). Die Meilensteine könnten folgendermaßen aussehen (Beispielannahmen):

timeline
  2026 : Projektstart und Kickoff (Helsinki)
  2027 : Aufbau von Arbeitsgruppen, erste Benchmarks und Datenplattform
  2028 : Erstellung Roadmap, Veröffentlichung erster quantenbasierter Anwendungen
  2029 : Integrationstest von HPC+QC-Systemen, Pilotprojekte in Anwendungen
  2030 : Abschlussbericht, Ergebnisverbreitung und Follow-up-Plan

Governance-seitig leitet CSC aus Finnland das Konsortium und koordiniert die Arbeitsprogramme[10]. Ein Lenkungsausschuss mit Vertreter:innen aller Partner steuert das Projekt. Die enge politische Unterstützung (EU-Kommission, japanische Regierung) garantiert zudem regelmäßige Zwischenevaluierungen und Abstimmung mit den Digital-Partnerschaftsstrategien.

Partner und Rollen

Das Konsortium setzt sich aus 16 Partnern aus EU und Japan zusammen (siehe Tabelle). Jeder Partner bringt spezifische Kompetenzen ein – von Quantenhardware über Software bis zu Anwendungsexpertise. Unter anderem sind beteiligt: CSC (Koordinator, Infrastruktur/HPC), IQM (Quantenhardware), Forschungszentrum Jülich (Quantenalgorithmen, Satellitenbild-Auswertung[11]), DLR (Quantenoptimierung, Licht-Materie-Wechselwirkung[12]), CEA (Photonik/Hardware), Thales (sichere Quantenkommunikation), VSB/IT4Innovations (HPC-Integration und Benchmarks[13]), QunaSys (Quanten-Software, Hybridalgorithmen), Aalto Univ. (Quantenforschung), AIST/G‑QuAT (Japan, Quanten-KI) sowie Industriepartner wie Chodai und KDDI (Telekommunikation). In der folgenden Tabelle sind wichtige Partner, ihre Rollen und Beiträge zusammengefasst:

Partner

Rolle

Beitrag (Schwerpunkt)

CSC – IT Center for Science (Finnland)

Projektkoordination (EU-Seite)

Aufbau der gemeinsamen Infrastruktur für HPC+QC, Projektmanagement[10]

IQM Quantum Computers (Finnland)

Quantenhardware-Entwicklung

Entwicklung supraleitender Quantenchips und Prozessorarchitekturen

Forschungszentrum Jülich (Deutschland)

Quantenalgorithmen, Benchmarks

Quantum Machine Learning für Satellitenbildanalyse, Benchmarking (JUNIQ)[11][14]

DLR (Deutschland)

Software & Optimierung

Quantenoptimierungsalgorithmen, Licht-Materie-Interaktion, Software-Framework[12]

CEA (Frankreich)

Quantenhardware (Photonik)

Entwicklung von Quantencomputer-Komponenten (Photonik/Optik)

Thales (Frankreich)

Sicherheit, Kommunikation

Quantenbasierte Sensorik und sichere Kommunikationsnetze

Jij (Frankreich, unbekannt)

– (Details unklar)

– (keine Angaben)

LNE (Frankreich)

Metrologie & Standards

Entwicklung von Messmethoden und Standardisierungsprotokollen

VSB – TU Ostrava / IT4Innovations (CZ)

HPC-Integration & SW

Verbindung von Supercomputern mit Quantenrechnern, Software-Tools[13]

QunaSys (Japan)

Quantenalgorithmen, SW

Entwicklung hybrider Algorithmen (Quantum-Inspired Solutions)

Aalto-Universität (Finnland)

Quantenforschung

Grundlagenforschung im Quantencomputing

AIST/G-QuAT (Japan)

Quanten-KI, Algorithmen

Quantum AI/ML-Forschung; Förderung von Quanten-KI-Anwendungen[15]

Chodai Co. (Japan)

Kommunikationstechnologie

Aufbau von Hochleistungsnetzwerken (mögliche Quantenkommunikation)

KDDI Research (Japan)

Telekommunikation

Quantenkommunikation und Netzwerkinnovationen im Mobilfunkbereich

Technischer Fokus

Q‑Neko adressiert vor allem quantum-hybride Systeme. Im Zentrum steht die nahtlose Integration von Quantenprozessoren in bestehende HPC-Umgebungen. Möglich wird dies durch neuartige Schnittstellen, Software-Stacks und Benchmarks. Dabei werden sowohl (a) Quantenalgorithmen für KI/ML als auch (b) Hardwareinnovationen erforscht. Die Abbildung unten zeigt beispielhaft ein aktuelles Hochleistungsrechenzentrum, wie es als Ausgangspunkt dient.



Hochleistungsrechner, wie sie im Q‑Neko-Projekt mit Quantencomputern gekoppelt werden sollen (z.B. „Catalyst“ HPC-Cluster)
[16].

Im Bereich Quantencomputing (QC) gehören Themen wie Qubit-Architekturen, Fehlertoleranz und Quantum-Software zu den Schwerpunkten. Beispielsweise wird an Gate-basierten und annealenden Systemen geforscht. Die Visualisierung unten zeigt eine Blochkugel, ein Grundmodell für einen Qubit-Zustand, symbolisch für die Quantenberechnung.



Die Bloch-Sphäre als geometrische Darstellung eines Qubits (Zustände eines Zwei-Niveau-Systems) – Grundlage vieler Quantenalgorithmen
[17].

Parallel dazu steht die Weiterentwicklung des klassischen Computings. Dazu zählt die Anpassung von HPC-Architekturen, um Quantenprozessoren (QPU) einzubinden, sowie die Entwicklung von Middleware, die klassisches HPC mit Quantenbeschleunigung kombiniert[13]. Ein Beispiel ist das LRZ-Forschungsprojekt zur Verknüpfung eines 20-Qubit-Quantencomputers mit einem Supercomputer[18]. Q‑Neko geht hier weiter und will einen vollständigen Software-Stack für HPC+AI+QC schaffen[7]. Integrierte Workflows ermöglichen dann, dass beispielsweise KI-gestützte Simulationen Teile ihrer Rechenaufgaben an einen angeschlossenen Quantenbeschleuniger auslagern.

Erwartete Anwendungen und Impact

Das Projekt adressiert anspruchsvolle Anwendungsfelder: neue Materialien, CO₂-Reduktion, Telekommunikationsnetze, Strömungsdynamik (z.B. in Energie- und Luftfahrt) oder Satellitenbildanalyse[8][4]. In all diesen Bereichen können quantenbeschleunigte Algorithmen deutlich schneller Lösungen finden als klassische HPC-Systeme allein. Ein Beispiel ist der Einsatz von Quanten-Machine-Learning, um aus großen Sensordaten (z.B. Erdbeobachtung) verborgene Muster für Katastrophenschutz und Klimamodelle zu erkennen[11]. Q‑Neko möchte eine „Bibliothek“ solcher quantenunterstützter Lösungen zusammenstellen, aus der Industrie und Forschung schöpfen können[7]. Langfristig fördert das Projekt somit die Entstehung neuer Technologien und Märkte (z.B. Quantum Valley, wie es die EU-Strategie skizziert), stärkt Zulieferketten für kritische Technologien und unterstützt den Ökosystemaufbau für Quantencomputer in Europa und Japan[19][20].

Herausforderungen und Risiken

Ein wesentliches Risiko besteht in der Technologieentwicklung selbst: Quantenhardware und -software sind noch in der Experimentierphase (NISQ-Ära), und Durchbrüche sind ungewiss. Die Praxisrelevanz quantenbeschleunigter Ansätze muss sich erst durch erprobte Use-Cases beweisen. Weitere Herausforderungen sind Sicherheitsbedenken (Forschungsintegrität, Schutz geistigen Eigentums) und geopolitische Spannungen, die eine internationale Kooperation erschweren können. Genau deswegen wurden im Panel „open by design, secure by default“ betont[5]. Ein weiteres Risiko ist der Fachkräftemangel: Erfahrene Quantenforscher:innen sind rar. Das Projekt mildert dies durch Mobilitätsprogramme und Nachwuchs-Kooperationen – ein zentrales Ziel der EU-Japan-Digitalkooperation[15][5]. Da manche Details (z.B. Fördervolumen) noch nicht offengelegt sind, muss man mit realistischen Annahmen arbeiten. Beispielsweise könnte das Budget im mittleren zweistelligen Millionenbereich liegen, und Laufzeiten von 3–4 Jahren sind typisch für solche Vorhaben. Diese Annahmen sind jedoch nicht offiziell bestätigt und dienen nur der Orientierung.

Zusammenarbeit und Strategische Einbettung

Q‑Neko setzt auf intensive Kooperation: Gemeinsame Veröffentlichungen, Workshops und Datenaustausch sind vorgesehen. Das Projekt fördert den Austausch von Wissenschaftler:innen und Ingenieur:innen (Stipendien, Gastaufenthalte) zwischen EU und Japan[21]. Offene Software und Benchmarks (in internationalen Repositories) sollen geteilt werden. Standards in Quantenkommunikation und Messmethodik werden gemeinsam erarbeitet – Stichwort „Pre-Standardisierung“[7]. IP-Regelungen folgen den üblichen Horizon-EU-Richtlinien zur Gemeinsamen Nutzungsvereinbarung (CA), ermutigen aber zur Veröffentlichung (Open Science). Mobilitätsmechanismen sehen beispielsweise Co-Supervision von Nachwuchskräften über Kontinente hinweg sowie gemeinsame Sommerschulen vor.

Q‑Neko ist eng eingebettet in übergeordnete Strategien: So stützt es sich auf die EU-Japan Digitale Partnerschaft (seit 2022) und die dort vereinbarten Aktionspunkte zu Quanten und HPC[15][22]. Auch das 2025 unterzeichnete Letter of Intent zur quantentechnologischen Zusammenarbeit[15] gab den Anstoß. Auf EU-Seite stützt sich das Projekt auf Horizon Europe und die Aktivitäten des EuroHPC-Programms (z.B. supercompute-Initiativen wie LUMI) und auf die „Europäische Quantum-Strategie“ (EU-Quanten-Flaggschiff). Japan bringt seine SIP-Strategie ein, mit nationalen Programmen zu Quantenindustrialisierung[23]. Ein Beispiel für diese Abstimmung ist die geplante gegenseitige Nutzung von EU- und JP-Quantenrechnern, die im Rahmen der Digitalpartnerschaft bereits diskutiert wird[24]. Q‑Neko liefert konkrete Inhalte für diese strategischen Pläne.

Ergebnisse des Kick-off-Treffens in Helsinki

Beim Auftakttreffen vom 10.–12. Februar 2026 in Helsinki wurden die Projektziele vorgestellt und Arbeitsgruppen gebildet. Höhepunkt war ein hochrangig besetztes Panel am 10. Februar, in dem EU- und japanische Vertreter:innen aus Wissenschaft und Politik Strategien diskutierten. Unter dem Motto „Open by Design – Secure by Default“ erörterte man, wie die Kooperation offen und vertrauenswürdig gestaltet werden kann, ohne Forschungsvertraulichkeit zu gefährden[5]. Panelteilnehmer waren u.a. Frédéric Barbaresco (Thales, FR), Janne Hirvonen (Finnisches Außenministerium), Masahiro Horibe (AIST, JP), Hiroshi Nakata (Q-Star, JP) und Laura Taajamaa (finnisches Bildungsministerium)[25].

Mikael Johansson (CSC, Projektkoordinator) betonte die Bedeutung der vertrauensvollen Zusammenarbeit: „Q‑Neko wird das vielversprechende Zusammenspiel von klassischem Supercomputing und Quantenbeschleunigung in konkrete gesellschaftliche Wirkung überführen. Dabei ist die Zusammenarbeit vertrauensvoller Partner eine äußerst wertvolle Ressource“[6]. Masahiro Horibe (AIST, JP) ergänzte, dass die Bündelung europäischer und japanischer Stärken Innovationspfade stark beschleunigen könne: „Als Partner sehen wir enormes Potenzial darin, gemeinsam dieses technologische Versprechen in praktische Lösungen zu überführen“[26]. Konkrete Beschlüsse des Meetings umfassten u.a. die Festlegung der nächsten Arbeitspakete, erste Meilensteine für Roadmap und Benchmarks, sowie die Organisation geplanter Forschungsaufenthalte.

Weiterführende Literatur

·         Offizielle Pressemitteilungen und Projektseiten: CSC (Projektkoordination), DLR[27][2], FZ Jülich[11], IT4Innovations[28].

·         EU-Kommuniqués: EU-Japan Digital Partnership Statements[22], Letter of Intent Japan–EU (Mai 2025)[15].

·         Japanische Quellen: Cabinet Office (LoI)[19][20], METI/DI (HPC/Quantum-Partnerschaft)[22].

·         Weitere: Horizon Europe- und EuroHPC-Programme, Japan’s SIP für Quantenforschung, Berichte zu Quantentechnologien von CEA, AIST, IQM.

Quellen: Wissenschaftliche Pressemitteilungen und offizielle Webseiten wurden ausgewertet (u. a. CSC, DLR, FZJ, IT4Innovations, METI Japan), um die Projektinhalte und Strategiezusammenhänge darzustellen[27][2][29][22]. Anzeigen in Social Media oder private Medienbeiträge wurden nicht zitiert.


[1] [2] [3] [5] [6] [7] [8] [9] [10] [12] [15] [21] [25] [26] [27] Q-Neko-Projekt führt EU–Japan-Quantenkooperation in eine neue Ära

https://www.dlr.de/de/sc/aktuelles/nachrichten/q-neko-eu-japan-quantenkooperation

[4] [13] [28] [29] Europe and Japan strengthen collaboration in quantum technologies and supercomputing – Czechs also involved - IT4Innovations

https://www.it4i.cz/en/about/infoservice/news/europe-and-japan-strengthen-collaboration-in-quantum-technologies-and-supercomputing-czechs-also-involved

[11] [14] Q-Neko-Projekt führt Quanten-Kollaboration zwischen EU und Japan in neue Ära

https://www.fz-juelich.de/de/jsc/aktuelles/meldungen/kurznachrichten/q-neko-project

[16] File:The catalyst high performance computing (HPC).jpg - Wikimedia Commons

https://commons.wikimedia.org/wiki/File:The_catalyst_high_performance_computing_(HPC).jpg

[17] File:Bloch sphere.svg - Wikimedia Commons

https://commons.wikimedia.org/wiki/File:Bloch_sphere.svg

[18] Quantum Computing Systems: Design, Components, and ...

https://everydaysworld9980.medium.com/quantum-computing-systems-design-components-and-capabilities-b3fb3b4722cc?source=rss------quantum_physics-5

[19] [20] [23] Signing of the Letter of Intent on Japan-EU Cooperation in Quantum Science and Technology - Science, Technology and Innovation- Cabinet Office Home Page

https://www8.cao.go.jp/cstp/stmain/20250513ryoshi_en.html

[22] [24] Japan-EU Digital Partnership Council Held

https://www.meti.go.jp/english/press/2023/0703_002.html