Dienstag, 24. Februar 2026

BioLM-Score: Ein neuer Ansatz für Protein-Ligand-Scoring

Protein-Ligand-Scoring ist ein zentrales Element im strukturbasierten Wirkstoffdesign: Es bewerten das Bindungspotential kleiner Moleküle an Proteinziele (z.B. in Docking oder virtuellen Screenings). Traditionelle Methoden fallen meist in zwei Kategorien: physikalisch basierte (kraftfeldgestützte) Funktionen und empirische Funktionen[1]. Erstere berechnen freie Bindungsenergie mit aufwändigen Kraftfeldern (sehr genau, aber rechenintensiv[2]), letztere nutzen lineare Regression einfacher Terme (schnell, aber durch starre Formeln begrenzt[3]). In den letzten Jahren kamen tief lernende Ansätze hinzu – sie nutzen große Strukturdatensätze und nichtlineare Modelle[4]. Innerhalb ihres Trainingsbereichs erzielen diese Modelle oft bessere Genauigkeit als klassische Funktionen[5], leiden aber an schlechter Übertragbarkeit auf neue Proteine und meist geringer Interpretierbarkeit[4]. Insgesamt bleibt es eine große Herausforderung, eine Scoring-Funktion zu entwickeln, die Effizienz, Generalität und Interpretierbarkeit gleichzeitig vereint[6].



·         Physikbasierte Funktionen: Exakte Modelle (z.B. AutoDock, Vina) mit detaillierten Energie-Terms; Vorteil: hohe Genauigkeit bei Docking, Nachteil: sehr rechenaufwändig[2][7].

·         Empirische Funktionen: Simpler, linearer Aufbau (z.B. X-Score, ChemScore); Vorteil: schnell, Nachteil: kann komplexe Wechselwirkungen oft nicht erfassen[1].

·         Datengetriebene DL-Modelle: Nutzen neuronale Netze (z.B. Graph-NN) für end-to-end Vorhersagen von Bindungsaffinitäten[4]. Vorteil: erlernen nichtlineare Effekte und profitieren von großen Datenmengen. Nachteil: oft wenig robust gegenüber unbekannten Proteinen und nur schwer interpretierbar[4].

Neuere Ansätze zielen darauf ab, geomet­ris­che Wahrscheinlichkeitspotenziale (z. B. mittels Mixture-Density-Netzwerken, MDNs) direkt aus nativen Protein-Ligand-Komplexen zu lernen[8]. Diese Methoden prognostizieren Verteilungen von Atom-Abständen und bewahren damit starke geometrische Konsistenz. Allerdings sind diese Scores geometrisch plausibel, aber nicht notwendigerweise gleichbedeutend mit tatsächlicher Bindungsaffinität[8]. Zudem konzentrieren sich solche Methoden meist nur auf lokale 3D-Umgebungen und vernachlässigen globale biologische Informationen (z.B. Evolution aus Proteinsequenzen oder chemische Semantik aus Ligand-SMILES)[8].


BioLM-Score: Konzept und Architektur


BioLM-Score geht diese Probleme an, indem es geometrische Graphmodelle mit biochemischen Sprachmodellen verknüpft. Wie bei vielen graphbasierten Ansätzen werden Proteine und Liganden als Graphen repräsentiert: Atome bilden die Knoten und Bindungen bzw. Wechselwirkungen die Kanten
[9]. In einer zweigeteilten Architektur („dual-branch“) verarbeitet BioLM-Score diese Graphen zunächst getrennt durch strukturelle Encoder (Graph Neural Networks wie GatedGCN oder Graph-Transformer)[10]. Parallel dazu werden vortrainierte Sprachmodelle (BioLMs) eingesetzt – etwa ESM für Proteine und Chemformer für Ligand-SMILES – die zusätzliche Sequenz- und Strukturinformationen liefern[10][11].



Nach der Extraktion dieser Merkmale werden protein- und ligandenbezogene Embeddings fusioniert und in ein Mixture-Density-Netzwerk eingespeist. Dieses MDN modelliert multimodale Wahrscheinlichkeitsverteilungen für alle paarweisen Atoms-Abstände zwischen Protein und Ligand[12]. Der finale Score ergibt sich dabei als aggregierte logarithmische Wahrscheinlichkeit („log-likelihood“), dass die beobachteten Abstände einen realistischen (engl. native-like) Komplex repräsentieren[13][12]. Auf diese Weise verbindet BioLM-Score lokales, geometrisches Wissen mit globalem, semantischem Kontext: Die Vorhersagen sind sowohl geometrisch plausibel als auch durch die eingebetteten Sprachinformationen biologisch sinnvoll[14][13].

Die Autoren fassen die Innovation von BioLM-Score so zusammen: Es ist ein prinzipiengeleitetes und zugleich praktisches Scoring-Modell, das mit vereinfachter Architektur erhebliche Leistungsgewinne ermöglicht[15]. Abbildung 1 (siehe oben) illustriert schematisch die Architektur: Struktur-Encoder (GatedGCN/Transformer) plus Sprach-Encoder (ESM, Chemformer) führen zu fusionierten Knotendarstellungen, auf denen das MDN die Distanzverteilungen vorhersagt[16].

Evaluierung und Vergleich

Das BioLM-Score-Modell wurde auf etablierten Benchmarks geprüft. Als Referenz dient der CASF-2016 Datensatz (285 hochauflösende Protein-Ligand-Komplexe in 57 Zielgruppen)[17]. CASF-2016 bewertet Scoring-Funktionen anhand von vier Kennzahlen („Metriken“): Scoring-Power (genaue Affinitätsvorhersage), Ranking-Power (richtige Reihenfolge der Bindungsstärken), Docking-Power (Pose-Identifikation) und Screening-Power (Unterscheidung von Bindern/Nicht-Bindern)[18][19]. BioLM-Score erreicht in dieser Benchmark state-of-the-art Ergebnisse für alle vier Aufgaben[19]. Im Vergleich zu klassischen Methoden kann es somit die sonst üblichen Leistungstauschungen überwinden: So zeigen z.B. klassische Kraftfeld-Methoden (AutoDock Vina) zwar sehr gute Docking-Ergebnisse, versagen aber oft bei Scoring und Screening[7]. Generative MDN-Modelle (z.B. RTMScore) garantieren meist korrekte Posen, liefern aber nur wenig über den tatsächlichen Affinitätswert[20]. Selbst neuere Modelle wie GenScore, die Affinitätsdaten hinzuziehen, verwenden ausschließlich lokale Graph-Topologie und ignorieren globale biologische Kontexte[21]. Im Gegensatz dazu nutzt BioLM-Score die Sprachmodell-Einbettungen, um evolutive Protein-Signale und chemische Merkmale des Liganden in das geometrische Modell einzubringen[14][11]. Dadurch gelingt es, echte Ligandenpaare zuverlässiger zu identifizieren („geometry-affinity gap bridged“[14]), und es wird eine bessere Korrelation zur experimentellen Bindungsaffinität erzielt.

Zusätzlich wurde BioLM-Score auf DEKOIS 2.0 getestet – einem Benchmark für virtuelles Screening mit 81 verschiedenen Zielproteinen (je 30 bekannte Wirkstoffe, 1200 Dekoy-Moleküle pro Ziel)[22][23]. Auch hier zeigte sich, dass BioLM-Score als Scoring-Funktion eine effektive Trennschärfe zwischen Wirksubstanzen und Inaktiven liefert und dabei anderen modernen Ansätzen häufig überlegen ist.

Fazit

BioLM-Score bietet einen eleganten Kompromiss zwischen bisherigen Ansätzen: Es nutzt die Effizienz der Deep-Learning-Modelle und überwindet gleichzeitig deren Generalisierungsprobleme durch die Integration biologischer Sprachinformationen. Laut den Autoren stellt es „eine prinzipiengeleitete und praktische Alternative zu bestehenden Scoring-Funktionen“ dar, da es Effizienz, Generalisierbarkeit und Interpretierbarkeit vereine[15]. In der Praxis könnte BioLM-Score dazu beitragen, teure physik-basierte Simulationen in frühen Screening-Phasen zu ersetzen. Seine als Differenzialfunktion nutzbare Struktur (z.B. in einem angepassten Docking-Protokoll „BSDock“) gestattet es zudem, Posen und Konformationen gezielt zu optimieren[14][13]. Insgesamt ist BioLM-Score ein vielversprechender neuer Ansatz, der Deep Learning und Domänenwissen wirkungsvoll kombiniert und so das Rüstzeug für effizientere, zuverlässigere Wirkstoffentdeckung liefern kann.

Quellen: Original-Abstract und -Paper von Yang et al. (2026)[24][11]; CASF-2016-Benchmark[18][17]; DEKOIS 2.0-Benchmark[23][22]; Review zu Deep-Learning-Scoring[5]; SS-GNN (GNN für Protein-Liganden)[9].


[1] [2] [3] [4] [6] [7] [8] [10] [11] [12] [13] [14] [15] [16] [17] [19] [20] [21] [22] [24] BioLM-Score: Language-Prior Conditioned Probabilistic Geometric Potentials for Protein-Ligand Scoring

https://arxiv.org/html/2602.18476v1

[5]  Scoring Functions for Protein-Ligand Binding Affinity Prediction Using Structure-based Deep Learning: A Review - PMC

https://pmc.ncbi.nlm.nih.gov/articles/PMC7613667/

[9] Graph representation of the protein−ligand complex. (a) 3D structure of... | Download Scientific Diagram

https://www.researchgate.net/figure/Graph-representation-of-the-protein-ligand-complex-a-3D-structure-of-the-complex-b_fig1_371617470

[18] Comparative Assessment of Scoring Functions: The CASF-2016 Update - PubMed

https://pubmed.ncbi.nlm.nih.gov/30481020/

[23]  Use of DEKOIS 2.0 to gain insights for virtual screening - PMC

https://pmc.ncbi.nlm.nih.gov/articles/PMC3980182/

Das Q‑Neko‑Projekt (Nippon-Europe Quantum Koraborēshon)

Executive Summary

Das Q‑Neko‑Projekt (Nippon-Europe Quantum Koraborēshon) startet 2026 als großangelegte Forschungsinitiative zur Vertiefung der EU–Japan-Zusammenarbeit in Quantentechnologien und Hochleistungsrechnen (HPC). Es wird von CSC (Finnland) koordiniert und durch Horizon Europe/EuroHPC (EU) sowie das japanische SIP-Programm finanziert[1]. Ziel ist die Entwicklung von hybriden Computersystemen, die klassische Supercomputer mit Quantenrechnern verbinden. Dazu fördert Q‑Neko den Austausch von Forscher:innen, den Aufbau gemeinsamer Ressourcen und Standards sowie die Erstellung einer Technologieroadmap für sichere Lieferketten[2]. Partner sind führende Universitäten, Forschungszentren und Firmen aus EU und Japan (siehe Tabelle), die ihre jeweiligen Stärken einbringen. Das Projekt fokussiert sich auf Bereiche wie Materialwissenschaften, CO₂-Reduktion, Telekommunikation, Strömungsdynamik und Satellitenbildanalyse – allesamt Gebiete, in denen quantenunterstützte KI und HPC neue Impulse liefern sollen[3][4]. Das erste Kickoff in Helsinki (10.–12.2.2026) legte den formalen Startschuss. Die dort diskutierten Leitprinzipien „open by design, secure by default“ sowie die Zusagen von EU- und japanischen Vertretern zeigen die hohe politische Priorität[5].



Projektziele

Q‑Neko will das Zusammenspiel von klassischem HPC und Quantenbeschleunigung vorantreiben und so neue wissenschaftliche und industrielle Lösungen ermöglichen[6]. Konkret umfasst es fünf eng verzahnte Ziele: den Ausbau des personalen Austauschs zwischen EU und Japan, Aufbau gemeinsamer Infrastruktur und Know-how, Erarbeitung einer Roadmap zur Förderung sicherer Lieferketten, Schaffung einer Bibliothek quantenbasierter Lösungen für drängende Aufgaben sowie die Entwicklung robuster Benchmarks und Vorarbeiten zur Standardisierung im Bereich der HPC-Quanten-Integration[2]. Auch die Entwicklung eines integrierten Software-Stacks für HPC+KI+QC gehört dazu[7]. Dadurch soll die nächste Generation hybrider Computersysteme in die Anwendung überführt werden. Ziel ist es, Erkenntnisse in Bereiche wie Klimaschutz oder Materialdesign einfließen zu lassen – etwa durch quantenbeschleunigtes maschinelles Lernen bei der Auswertung großer Datensätze[8][6].

Finanzierung und Zeitplan

Q‑Neko wird über Horizon Europe und das EuroHPC-Programm der EU sowie Japans ressortübergreifendes SIP (Strategic Innovation Promotion) finanziert[9]. Die genaue Förderhöhe wurde nicht offengelegt. Es ist aber typisch, dass solche EU-Japan-Projekte Förderbeträge im mittleren bis zweistelligen Millionenbereich umfassen. Das Projekt läuft voraussichtlich 3–4 Jahre (2026–2029/30). Die Meilensteine könnten folgendermaßen aussehen (Beispielannahmen):

timeline
  2026 : Projektstart und Kickoff (Helsinki)
  2027 : Aufbau von Arbeitsgruppen, erste Benchmarks und Datenplattform
  2028 : Erstellung Roadmap, Veröffentlichung erster quantenbasierter Anwendungen
  2029 : Integrationstest von HPC+QC-Systemen, Pilotprojekte in Anwendungen
  2030 : Abschlussbericht, Ergebnisverbreitung und Follow-up-Plan

Governance-seitig leitet CSC aus Finnland das Konsortium und koordiniert die Arbeitsprogramme[10]. Ein Lenkungsausschuss mit Vertreter:innen aller Partner steuert das Projekt. Die enge politische Unterstützung (EU-Kommission, japanische Regierung) garantiert zudem regelmäßige Zwischenevaluierungen und Abstimmung mit den Digital-Partnerschaftsstrategien.

Partner und Rollen

Das Konsortium setzt sich aus 16 Partnern aus EU und Japan zusammen (siehe Tabelle). Jeder Partner bringt spezifische Kompetenzen ein – von Quantenhardware über Software bis zu Anwendungsexpertise. Unter anderem sind beteiligt: CSC (Koordinator, Infrastruktur/HPC), IQM (Quantenhardware), Forschungszentrum Jülich (Quantenalgorithmen, Satellitenbild-Auswertung[11]), DLR (Quantenoptimierung, Licht-Materie-Wechselwirkung[12]), CEA (Photonik/Hardware), Thales (sichere Quantenkommunikation), VSB/IT4Innovations (HPC-Integration und Benchmarks[13]), QunaSys (Quanten-Software, Hybridalgorithmen), Aalto Univ. (Quantenforschung), AIST/G‑QuAT (Japan, Quanten-KI) sowie Industriepartner wie Chodai und KDDI (Telekommunikation). In der folgenden Tabelle sind wichtige Partner, ihre Rollen und Beiträge zusammengefasst:

Partner

Rolle

Beitrag (Schwerpunkt)

CSC – IT Center for Science (Finnland)

Projektkoordination (EU-Seite)

Aufbau der gemeinsamen Infrastruktur für HPC+QC, Projektmanagement[10]

IQM Quantum Computers (Finnland)

Quantenhardware-Entwicklung

Entwicklung supraleitender Quantenchips und Prozessorarchitekturen

Forschungszentrum Jülich (Deutschland)

Quantenalgorithmen, Benchmarks

Quantum Machine Learning für Satellitenbildanalyse, Benchmarking (JUNIQ)[11][14]

DLR (Deutschland)

Software & Optimierung

Quantenoptimierungsalgorithmen, Licht-Materie-Interaktion, Software-Framework[12]

CEA (Frankreich)

Quantenhardware (Photonik)

Entwicklung von Quantencomputer-Komponenten (Photonik/Optik)

Thales (Frankreich)

Sicherheit, Kommunikation

Quantenbasierte Sensorik und sichere Kommunikationsnetze

Jij (Frankreich, unbekannt)

– (Details unklar)

– (keine Angaben)

LNE (Frankreich)

Metrologie & Standards

Entwicklung von Messmethoden und Standardisierungsprotokollen

VSB – TU Ostrava / IT4Innovations (CZ)

HPC-Integration & SW

Verbindung von Supercomputern mit Quantenrechnern, Software-Tools[13]

QunaSys (Japan)

Quantenalgorithmen, SW

Entwicklung hybrider Algorithmen (Quantum-Inspired Solutions)

Aalto-Universität (Finnland)

Quantenforschung

Grundlagenforschung im Quantencomputing

AIST/G-QuAT (Japan)

Quanten-KI, Algorithmen

Quantum AI/ML-Forschung; Förderung von Quanten-KI-Anwendungen[15]

Chodai Co. (Japan)

Kommunikationstechnologie

Aufbau von Hochleistungsnetzwerken (mögliche Quantenkommunikation)

KDDI Research (Japan)

Telekommunikation

Quantenkommunikation und Netzwerkinnovationen im Mobilfunkbereich

Technischer Fokus

Q‑Neko adressiert vor allem quantum-hybride Systeme. Im Zentrum steht die nahtlose Integration von Quantenprozessoren in bestehende HPC-Umgebungen. Möglich wird dies durch neuartige Schnittstellen, Software-Stacks und Benchmarks. Dabei werden sowohl (a) Quantenalgorithmen für KI/ML als auch (b) Hardwareinnovationen erforscht. Die Abbildung unten zeigt beispielhaft ein aktuelles Hochleistungsrechenzentrum, wie es als Ausgangspunkt dient.



Hochleistungsrechner, wie sie im Q‑Neko-Projekt mit Quantencomputern gekoppelt werden sollen (z.B. „Catalyst“ HPC-Cluster)
[16].

Im Bereich Quantencomputing (QC) gehören Themen wie Qubit-Architekturen, Fehlertoleranz und Quantum-Software zu den Schwerpunkten. Beispielsweise wird an Gate-basierten und annealenden Systemen geforscht. Die Visualisierung unten zeigt eine Blochkugel, ein Grundmodell für einen Qubit-Zustand, symbolisch für die Quantenberechnung.



Die Bloch-Sphäre als geometrische Darstellung eines Qubits (Zustände eines Zwei-Niveau-Systems) – Grundlage vieler Quantenalgorithmen
[17].

Parallel dazu steht die Weiterentwicklung des klassischen Computings. Dazu zählt die Anpassung von HPC-Architekturen, um Quantenprozessoren (QPU) einzubinden, sowie die Entwicklung von Middleware, die klassisches HPC mit Quantenbeschleunigung kombiniert[13]. Ein Beispiel ist das LRZ-Forschungsprojekt zur Verknüpfung eines 20-Qubit-Quantencomputers mit einem Supercomputer[18]. Q‑Neko geht hier weiter und will einen vollständigen Software-Stack für HPC+AI+QC schaffen[7]. Integrierte Workflows ermöglichen dann, dass beispielsweise KI-gestützte Simulationen Teile ihrer Rechenaufgaben an einen angeschlossenen Quantenbeschleuniger auslagern.

Erwartete Anwendungen und Impact

Das Projekt adressiert anspruchsvolle Anwendungsfelder: neue Materialien, CO₂-Reduktion, Telekommunikationsnetze, Strömungsdynamik (z.B. in Energie- und Luftfahrt) oder Satellitenbildanalyse[8][4]. In all diesen Bereichen können quantenbeschleunigte Algorithmen deutlich schneller Lösungen finden als klassische HPC-Systeme allein. Ein Beispiel ist der Einsatz von Quanten-Machine-Learning, um aus großen Sensordaten (z.B. Erdbeobachtung) verborgene Muster für Katastrophenschutz und Klimamodelle zu erkennen[11]. Q‑Neko möchte eine „Bibliothek“ solcher quantenunterstützter Lösungen zusammenstellen, aus der Industrie und Forschung schöpfen können[7]. Langfristig fördert das Projekt somit die Entstehung neuer Technologien und Märkte (z.B. Quantum Valley, wie es die EU-Strategie skizziert), stärkt Zulieferketten für kritische Technologien und unterstützt den Ökosystemaufbau für Quantencomputer in Europa und Japan[19][20].

Herausforderungen und Risiken

Ein wesentliches Risiko besteht in der Technologieentwicklung selbst: Quantenhardware und -software sind noch in der Experimentierphase (NISQ-Ära), und Durchbrüche sind ungewiss. Die Praxisrelevanz quantenbeschleunigter Ansätze muss sich erst durch erprobte Use-Cases beweisen. Weitere Herausforderungen sind Sicherheitsbedenken (Forschungsintegrität, Schutz geistigen Eigentums) und geopolitische Spannungen, die eine internationale Kooperation erschweren können. Genau deswegen wurden im Panel „open by design, secure by default“ betont[5]. Ein weiteres Risiko ist der Fachkräftemangel: Erfahrene Quantenforscher:innen sind rar. Das Projekt mildert dies durch Mobilitätsprogramme und Nachwuchs-Kooperationen – ein zentrales Ziel der EU-Japan-Digitalkooperation[15][5]. Da manche Details (z.B. Fördervolumen) noch nicht offengelegt sind, muss man mit realistischen Annahmen arbeiten. Beispielsweise könnte das Budget im mittleren zweistelligen Millionenbereich liegen, und Laufzeiten von 3–4 Jahren sind typisch für solche Vorhaben. Diese Annahmen sind jedoch nicht offiziell bestätigt und dienen nur der Orientierung.

Zusammenarbeit und Strategische Einbettung

Q‑Neko setzt auf intensive Kooperation: Gemeinsame Veröffentlichungen, Workshops und Datenaustausch sind vorgesehen. Das Projekt fördert den Austausch von Wissenschaftler:innen und Ingenieur:innen (Stipendien, Gastaufenthalte) zwischen EU und Japan[21]. Offene Software und Benchmarks (in internationalen Repositories) sollen geteilt werden. Standards in Quantenkommunikation und Messmethodik werden gemeinsam erarbeitet – Stichwort „Pre-Standardisierung“[7]. IP-Regelungen folgen den üblichen Horizon-EU-Richtlinien zur Gemeinsamen Nutzungsvereinbarung (CA), ermutigen aber zur Veröffentlichung (Open Science). Mobilitätsmechanismen sehen beispielsweise Co-Supervision von Nachwuchskräften über Kontinente hinweg sowie gemeinsame Sommerschulen vor.

Q‑Neko ist eng eingebettet in übergeordnete Strategien: So stützt es sich auf die EU-Japan Digitale Partnerschaft (seit 2022) und die dort vereinbarten Aktionspunkte zu Quanten und HPC[15][22]. Auch das 2025 unterzeichnete Letter of Intent zur quantentechnologischen Zusammenarbeit[15] gab den Anstoß. Auf EU-Seite stützt sich das Projekt auf Horizon Europe und die Aktivitäten des EuroHPC-Programms (z.B. supercompute-Initiativen wie LUMI) und auf die „Europäische Quantum-Strategie“ (EU-Quanten-Flaggschiff). Japan bringt seine SIP-Strategie ein, mit nationalen Programmen zu Quantenindustrialisierung[23]. Ein Beispiel für diese Abstimmung ist die geplante gegenseitige Nutzung von EU- und JP-Quantenrechnern, die im Rahmen der Digitalpartnerschaft bereits diskutiert wird[24]. Q‑Neko liefert konkrete Inhalte für diese strategischen Pläne.

Ergebnisse des Kick-off-Treffens in Helsinki

Beim Auftakttreffen vom 10.–12. Februar 2026 in Helsinki wurden die Projektziele vorgestellt und Arbeitsgruppen gebildet. Höhepunkt war ein hochrangig besetztes Panel am 10. Februar, in dem EU- und japanische Vertreter:innen aus Wissenschaft und Politik Strategien diskutierten. Unter dem Motto „Open by Design – Secure by Default“ erörterte man, wie die Kooperation offen und vertrauenswürdig gestaltet werden kann, ohne Forschungsvertraulichkeit zu gefährden[5]. Panelteilnehmer waren u.a. Frédéric Barbaresco (Thales, FR), Janne Hirvonen (Finnisches Außenministerium), Masahiro Horibe (AIST, JP), Hiroshi Nakata (Q-Star, JP) und Laura Taajamaa (finnisches Bildungsministerium)[25].

Mikael Johansson (CSC, Projektkoordinator) betonte die Bedeutung der vertrauensvollen Zusammenarbeit: „Q‑Neko wird das vielversprechende Zusammenspiel von klassischem Supercomputing und Quantenbeschleunigung in konkrete gesellschaftliche Wirkung überführen. Dabei ist die Zusammenarbeit vertrauensvoller Partner eine äußerst wertvolle Ressource“[6]. Masahiro Horibe (AIST, JP) ergänzte, dass die Bündelung europäischer und japanischer Stärken Innovationspfade stark beschleunigen könne: „Als Partner sehen wir enormes Potenzial darin, gemeinsam dieses technologische Versprechen in praktische Lösungen zu überführen“[26]. Konkrete Beschlüsse des Meetings umfassten u.a. die Festlegung der nächsten Arbeitspakete, erste Meilensteine für Roadmap und Benchmarks, sowie die Organisation geplanter Forschungsaufenthalte.

Weiterführende Literatur

·         Offizielle Pressemitteilungen und Projektseiten: CSC (Projektkoordination), DLR[27][2], FZ Jülich[11], IT4Innovations[28].

·         EU-Kommuniqués: EU-Japan Digital Partnership Statements[22], Letter of Intent Japan–EU (Mai 2025)[15].

·         Japanische Quellen: Cabinet Office (LoI)[19][20], METI/DI (HPC/Quantum-Partnerschaft)[22].

·         Weitere: Horizon Europe- und EuroHPC-Programme, Japan’s SIP für Quantenforschung, Berichte zu Quantentechnologien von CEA, AIST, IQM.

Quellen: Wissenschaftliche Pressemitteilungen und offizielle Webseiten wurden ausgewertet (u. a. CSC, DLR, FZJ, IT4Innovations, METI Japan), um die Projektinhalte und Strategiezusammenhänge darzustellen[27][2][29][22]. Anzeigen in Social Media oder private Medienbeiträge wurden nicht zitiert.


[1] [2] [3] [5] [6] [7] [8] [9] [10] [12] [15] [21] [25] [26] [27] Q-Neko-Projekt führt EU–Japan-Quantenkooperation in eine neue Ära

https://www.dlr.de/de/sc/aktuelles/nachrichten/q-neko-eu-japan-quantenkooperation

[4] [13] [28] [29] Europe and Japan strengthen collaboration in quantum technologies and supercomputing – Czechs also involved - IT4Innovations

https://www.it4i.cz/en/about/infoservice/news/europe-and-japan-strengthen-collaboration-in-quantum-technologies-and-supercomputing-czechs-also-involved

[11] [14] Q-Neko-Projekt führt Quanten-Kollaboration zwischen EU und Japan in neue Ära

https://www.fz-juelich.de/de/jsc/aktuelles/meldungen/kurznachrichten/q-neko-project

[16] File:The catalyst high performance computing (HPC).jpg - Wikimedia Commons

https://commons.wikimedia.org/wiki/File:The_catalyst_high_performance_computing_(HPC).jpg

[17] File:Bloch sphere.svg - Wikimedia Commons

https://commons.wikimedia.org/wiki/File:Bloch_sphere.svg

[18] Quantum Computing Systems: Design, Components, and ...

https://everydaysworld9980.medium.com/quantum-computing-systems-design-components-and-capabilities-b3fb3b4722cc?source=rss------quantum_physics-5

[19] [20] [23] Signing of the Letter of Intent on Japan-EU Cooperation in Quantum Science and Technology - Science, Technology and Innovation- Cabinet Office Home Page

https://www8.cao.go.jp/cstp/stmain/20250513ryoshi_en.html

[22] [24] Japan-EU Digital Partnership Council Held

https://www.meti.go.jp/english/press/2023/0703_002.html

Sonntag, 22. Februar 2026

Radioteleskop LOFAR

Executive Summary

Eine internationale Forschergruppe hat nach über zehn Jahren Beobachtung mit dem niederländischen Radioteleskop LOFAR (LOw Frequency ARray) die bislang umfangreichste Radio-Himmelsdurchmusterung vorgelegt. In der Fachzeitschrift Astronomy & Astrophysics berichten Shimwell et al. (2026) über die LoTSS Data Release 3, in der 13,7 Millionen Radioquellen im Norden des Himmels bei 120–168 MHz erfasst wurden[1][2]. Diese Datensätze umfassen 12.950 Stunden Beobachtungszeit (≈10,5 Jahre) und 18,6 Petabyte Rohdaten, verarbeitet mit vollautomatisierten Kalibrierungs- und Bildgebungs-Pipelines auf Supercomputern (u. a. JUWELS am Jülich Supercomputing Centre)[3][4]. Die Himmelskarte erreicht eine Winkelauflösung von 6″ (9″ unter 10° Deklination) und mittlere Empfindlichkeit 92 µJy/Beam[5][2]. Neben über 13,7 Millionen galaktischen Quellen (v.a. Sternentstehungsgalaxien und aktive Galaxienkerne) wurden seltene Objekte katalogisiert – etwa verschmelzende Galaxienhaufen, schwache Supernova-Überreste und Sterne mit starker Radioaktivität[6][7]. Die Daten sind öffentlich zugänglich (Kataloge, Bild-Mosaike, Rohdaten)[8][9] und bieten neue Einblicke in kosmische Magnetfelder, Teilchenbeschleunigung und die großräumige Galaxienverteilung. Dieser Artikel fasst Hintergrund, Methoden und Ergebnisse der LoTSS-DR3 vor dem wissenschaftlich interessierten Laien zusammen.



Hintergrund: LOFAR und Radio-Himmelsdurchmusterungen

LOFAR ist ein innovatives Niedrigfrequenz-Radioteleskop, das aus Tausenden einfacher Antennenelemente in Europa besteht. Die Signale aller Antennen werden über Glasfasernetze zusammengeführt und mithilfe von Supercomputern interferometrisch ausgewertet[10]. Im Gegensatz zu optischen Teleskopen „hört“ LOFAR Radiowellen im Bereich von etwa 10–250 MHz (für LoTSS: 120–168 MHz), wodurch Phänomene sichtbar werden, die im optischen Licht unsichtbar sind – etwa schwache Magnetfelder, kosmische Jets von Schwarzen Löchern und Supernova-Überreste[11][12]. Die LOFAR Two-metre Sky Survey (LoTSS) wurde initiiert, um den Nordhimmel großflächig bei ~150 MHz zu kartieren. Nach früheren Teilveröffentlichungen (z. B. DR1, DR2) liegt nun die dritte Datenfreigabe vor. Historisch gesehen folgt LoTSS auf andere Radio-Umfragen wie NVSS (1,4 GHz, 45″, 1,8 Mio Quellen)[13], FIRST (1,4 GHz, 5″, 0,95 Mio Quellen)[14], TGSS-ADR1 (150 MHz, 25″, 0,62 Mio Quellen)[15] oder VLASS (2–4 GHz, 2,5″, laufend, Ziel ∼69 µJy Rauschen)[16]. Im Vergleich erreicht LoTSS eine höhere Quellenanzahl bei tieferem Flux-Limit und feineren Details (siehe Tabelle unten).

LOFAR-Beobachtungen und Survey-Charakteristika

Mehr als 12.950 Stunden LOFAR-HBA-Beobachtungen wurden zwischen etwa 2014 und 2024 über 19.035 deg² (≈88 % des Nordhimmels) gesammelt[17][2]. Der Beobachtungsfrequenzbereich war 120–168 MHz mit Zentralfrequenz 144 MHz[17]. Die resultierenden Radiobilder (Stokes I) wurden zunächst feldweise kalibriert, um Instrumenteinstellungen und ionosphärische Verzerrungen zu korrigieren[18]. Anschließend kombinierte man die Bilder mosaikartig, wobei in den 6″-Auflösungskarten ein medianes RMS-Rauschen von etwa 92 µJy/Beam erreicht wurde[19][20]. Insgesamt entstand ein Quellenkatalog mit 13 667 877 Radioquellen (entsprechend 16 943 656 Gauß-Komponenten)[21][22]. Da die Datentiefe neu ist, wurden viele Objekte zum ersten Mal entdeckt. Beispielsweise erfasst LoTSS-DR3 nahezu alle kompakten Quellen mit Integrated-Flux >9×RMS (95 % Vollständigkeit)[20]. Die astrometrische Genauigkeit liegt bei ≈0,24″, die Systematik im Flusswert um ~2 %[23].

Datenverarbeitung: Kalibrierung und Hochleistungsrechnen

Die riesige Datenmenge (18,6 PB Rohdaten) erforderte komplexe Automatisierung und verteilte Superrechnerkapazität[24][4]. Die Arbeitsabläufe (Pipelines) bestehen aus einem vorpräfaktorisierten («direction-independent») und einem nachfolgend «direction-dependent» Kalibrierungs-Schritt, um zeitvariable ionosphärische Effekte zu korrigieren[18]. Dabei kommen etablierte Software-Werkzeuge zum Einsatz (z. B. Prefactor für erste Kalibrierung, killMS/DDFacet für Richtungskalibrierung und Imaging, WSClean für breite Feld-Bilder). Trotz teilweiser manueller Qualitätskontrolle laufen die Prozesse hochautomatisiert. Für die Auswertung wurden mehrere Supercomputer genutzt: Herausragend ist hier der JUWELS-Supercomputer am Jülich Supercomputing Centre (JSC), einer der schnellsten Rechner Europas. LOFAR-Daten (insbesondere die zahlreichen vis-Data) wurden dort abgelegt und verarbeitet. Cristina Manzano (JSC) hebt hervor, dass erstmals innerhalb eines Astronomieprojekts solche Datenmengen (terabytesweise pro Beobachtungsfeld) gespeichert und parallel verarbeitet wurden[4]. Insgesamt benötigte man über viele Jahre ~20 Millionen Kernstunden Rechenzeit, um die 13.000 Beobachtungsstunden durchzurechnen[24]. Parallel wurden Störquellen (RFI) vorverarbeitet und ausgesiebt, und aufwändige Ionosphärenkorrekturen implementiert. Letztlich konnte so eine beispiellose Bildqualität erzielt werden.

Ergebnisse: Quellenkatalog und Objekttypen

Die LoTSS-DR3-Durchmusterung liefert den umfassendsten Radioquellen-Katalog aller Zeiten. Sie enthält 13,7 Millionen Quellen im Norden des Himmels[1][25]. Das sind zumeist Galaxien, in denen entweder neue Sterne gebildet werden oder im Galaxienkern ein supermassives Schwarzes Loch Radiostrahlung emittiert (sogenannte „aktive Galaxien“). Durch die hohe Empfindlichkeit und Auflösung finden sich aber auch viele schwer fassbare, seltene Objekte. Beispielsweise entdeckte das Team verschmelzende Galaxienhaufen (diffuse Radiohalos), schwache Supernova-Überreste in unserer Milchstraße und hochenergetische Jets von Schwarzen Löchern in fernen Galaxien[6][7]. Auch magnetische Phänomene erscheinen deutlicher: Schockwellen in Gaswolken beschleunigen geladene Teilchen, was die breite Radioabbildung erklärt. Die neue Radiokarte ermöglicht daher diverse Detailstudien – von Regionen intensiver Sternentstehung bis hin zu kosmischen Magnetfeldern.



Abb. 1: Radioaufnahme des Galaxienhaufens Abell 1314. Die Graustufen zeigen das optische Bild, die orangen Bereiche LOFAR-Radiostrahlung (150 MHz) von Galaxien und Jets. LOFAR macht solche riesigen Strukturen sichtbar, die optisch kaum erkennbar sind
[26].

Die Forscher des LoTSS-Projekts haben die Quellen klassifiziert: Über 95 % sind kompakte Galaxien (viele mit aktiven Kernen), dazu kommen diffuse Strukturen in Galaxienhaufen und in der Milchstraße. Dominik Schwarz (Uni Bielefeld) betont, dass gerade die Gesamtstatistik von 13,7 Mio Quellen kosmologische Rückschlüsse erlaubt: Aus der Verteilung und Dichte der Radioquellen lassen sich Fragen der Galaxienentwicklung und selbst kosmologische Parameter adressieren (z. B. Hubble-Konstante, dunkle Energie)[27][28]. Aus früheren DR2-Daten (2022) zeigte sich bereits, dass LoTSS für solche Studien sehr gut geeignet ist. Jetzt verspricht die verbesserte Statistik noch verlässlichere Ergebnisse.



Abb. 2: Infrarot-optisches Bild der Radiogalaxie NGC 326 (Grau) mit LOFAR-Radioemission (gelb). NGC 326 ist ein Beispiel für eine aktive Galaxie mit ausgeprägten Jets
[29]. Ähnliche Strukturen sind im LoTSS-Katalog viele Millionen Mal zu finden.

Technische Details und Vergleich zu früheren Umfragen

Die LoTSS-DR3-Karte deckt 120–168 MHz ab – ein Frequenzbereich, in dem lange Wellenlängen und kosmische Magnetfelder stark dominieren. Mit 6″ Winkelauflösung (9″ bei niedriger Deklination) und 92 µJy/Beam Rauschen erreicht sie bisher unerreichte Detailtiefe. Zum Vergleich: Die NVSS-Survey (1,4 GHz, 45″, 0,45 mJy RMS) erfasste 1,8 Mio Quellen[13], die FIRST-Survey (1,4 GHz, 5″, ~0,15 mJy) ~0,95 Mio Quellen[14]. Die TGSS-ADR1 (150 MHz, 25″, ~3,5 mJy RMS) listete 0,62 Mio Quellen[15]. Die laufende VLASS (2–4 GHz, 2,5″, 69 µJy Ziel) wird einmal 33.885 deg² abdecken, erreichte bisher aber niedrigeres Flächenabbild. In allen Parametern – Quellezahl, Tiefenempfindlichkeit und Auflösung – stellt LoTSS-DR3 neue Bestmarken auf.

Survey

Frequenz

Auflösung

Quellenanzahl

Sensitivität (1σ)

Zeitraum

Referenz

LOFAR LoTSS-DR3

120–168 MHz

6″ (9″)

13,7 Mio (Nordhimmel)

92 µJy/Beam (Mitte)

2014–2024 (≈10,5 Jahre)

Shimwell+2026 (A&A)[2]

NVSS (Condon+)

1,4 GHz

45″

≈1,8 Mio

0,45 mJy/Beam (0,14 K)

1993–1998

Condon et al. 1998[13]

FIRST (Becker+)

1,4 GHz

5″

≈0,95 Mio

~0,15 mJy/Beam

1993–2011

White et al. 2014[14]

TGSS-ADR1

150 MHz

25″

≈0,62 Mio

~3,5 mJy/Beam (Median)

2010–2012

Intema et al. 2017[15]

VLASS (NRAO)

2–4 GHz

2,5″

--- (laufend)

120 µJy/Beam (Einzelepoch, 69 µJy)

2017–2024+

Lacy et al. 2020[16]

Wissenschaftliche Bedeutung und Ausblick

Die LoTSS-DR3-Daten bieten Astrophysikern und Kosmologen eine neue Grundlage. Die Quellenkarte erlaubt u. a.
- AGN-Evolution: Die große Zahl entdeckter Jets und Radiogalaxien hilft, die Häufigkeit und Lebenszyklen aktiver Galaxien zu untersuchen.
- Magnetfelder: Mit LOFAR lassen sich sehr schwache Magnetfeld-Strukturen sichtbar machen. Die bisherige Analyse zeigt, dass kosmische Stoßwellen extrem effizient Teilchen beschleunigen können (Implikation für Ionenos)
[6][26]. Auch Magnetfelder in fernen Galaxien oder sogar extrasolaren Planetensystemen könnten künftig erforscht werden (siehe Kommentar von D. Schwarz[27]).
- Kosmologie: Die Verteilung der Radioquellen kann dazu beitragen, großskalige Strukturen und Dunkle Energie zu studieren. Forscher erwarten Beiträge zu offenen Fragen wie der Hubble-Spannung und Natur der Dunklen Energie
[28][27].
- Astronomische Seltenheiten: Die Daten werden systematisch nach ungewöhnlichen Objekten durchsucht, z. B. seltene Transienten, PRS (relic/phoenix Halos in Haufen), oder ungewöhnliche Supernova-Überreste.

LoTSS-DR3 legt somit Grundstein für zahlreiche Folgeprojekte. Künftige Arbeiten könnten z. B. tiefergehende Polarisation-Analysen (Q, U, V-Daten) oder kombinierte Auswertungen mit optischen/IR-Surveys (z. B. Legacy Surveys, Euclid) umfassen. Auch ein LoTSS-DR4 ist in Planung, das noch mehr Frequenzen oder vollständige Südhalbkugel abdecken könnte.

Datenverfügbarkeit

Die gesamten LoTSS-DR3-Daten sind öffentlich verfügbar und lizenzfrei (CC BY 4.0). Neben den 13,7 Mio Quellen im Katalog stehen Stokes-I-Bildmosaike (6″ und 20″), Einzelbeobachtungsbilder, Polarisationsdaten (Q, U, V) und kalibrierte Visibilities bereit[8]. Eine interaktive Himmelskarte (HiPS) ermöglicht das einfache Browsen[9]. Die wichtigsten Datensätze und Links im Überblick:

Datensatz/Link

Beschreibung

URL

Format

Zugang

LoTSS-DR3 Quellkatalog (v1.0)

Alle 13,7 Mio Radioquellen (inkl. Gauß-Komponenten) der Nordhimmelskarte[2]

SURF DOI 10.25606/SURF.lotss-dr3[30][8]

FITS-Tabelle

Öffentlich (CC BY)

LoTSS-DR3 Gauß-Katalog (v1.0)

Enthält 16,94 Mio Gauß-Komponenten (für detailgenaue Modelle)

[Siehe SURF DOI oben]

FITS-Tabelle

Öffentlich (CC BY)

LoTSS-DR3 Mosaik-Bilder

Kombinierte 6″- und 20″-Bilder (Stokes I) des Nordhimmels[17]

LOFAR Surveys DR3-Seite oder SURF-Archiv

FITS-Mosaikbilder

Öffentlich (CC BY)

Kalibrierte Visibilities

Rohdaten (Measurement Sets) zur Weiterverarbeitung

Auf Anfrage (s. LoTSS-DR3 Website[30])

LOFAR MS

Öffentlich (auf Anfrage)

Interaktive HiPS-Karten

Allsky-HiPS der 6″/20″-Mosaike (für Aladin u. Ä.)[31]

LoTSS HiPS 6″ / 20″[31]

FITS-HiPS

Öffentlich (CC BY)

LoTSS-DR3 Webseite

Offizielle Datenrelease-Seite (Publikation, Docs, Kredite)

lofar-surveys.org/dr3.html[17]

HTML

Öffentlich

LOFAR Surveys Credits

Danksagungen und Literaturhinweise

Credits

HTML

Öffentlich

Beteiligte Institutionen und Publikation

An LoTSS-DR3 war ein großes internationales Konsortium beteiligt. Aus Deutschland sind die Universitäten Hamburg, Bielefeld, Bochum, Würzburg, die Thüringer Landessternwarte Tautenburg sowie das Jülich Supercomputing Centre (FZ Jülich) federführend mit dabei. Weitere Partner kommen u. a. aus den Niederlanden (ASTRON/Leiden Univ.), Italien, Großbritannien, Polen und weiteren LOFAR-Mitgliedsländern. In Deutschland sind die sechs deutschen LOFAR-Stationen durch das GLOW-Konsortium betrieben, dem neben den oben genannten Unis z. B. Bonn und Potsdam angehören[32][33]. Die Leitautoren der Publikation sind T. W. Shimwell (ASTRON) und M. J. Hardcastle (Univ. Hertfordshire) u. a.; insgesamt umfasst die Autorenschaft über hundert Wissenschaftler.

·         Publikationsdetails: Shimwell, Hardcastle et al. (2026): “The LOFAR Two-metre Sky Survey VII. Third Data Release”, in Astronomy & Astrophysics. DOI: 10.1051/0004-6361/202557749[34]. (ArXiv:2602.15949, eingereicht 17. Feb. 2026[35]).

·         Offizielle Pressemitteilungen (Deutsch): RUB Bochum[36], Uni Würzburg[37][38], Uni Bielefeld[39][9] und vermutlich weitere. Diese fassen Wichtiges in Laienverständlichem zusammen.

·         LOFAR Observatory & Datenserver: Die LOFAR Surveys Website stellt alle Daten öffentlich bereit (siehe Links oben). Zusätzlich sind Teilmengen über das SURF-Archiv (DOI) und Tools wie Aladin (für HiPS) abrufbar.

Mermaid-Zeitachse (ausgewählte Phasen):

gantt
    title LOFAR LoTSS-DR3 Projekt-Timeline
    dateFormat  YYYY
    section LOFAR-Bau und Planung
    LOFAR-Inbetriebnahme und Tests           :done, 2006, 2013
    LoTSS-Surveyplanung                     :active, 2014, 2018
    section Beobachtungen
    LoTSS Nordhimmelsurvey (120-168 MHz)    :2014, 2024
    section Datenverarbeitung
    Pipeline-Entwicklung (Kalibrierung etc.) :2015, 2020
    LoTSS-DR3 Datenreduktion                :2020, 2025
    section Veröffentlichung
    Analyse, Paper-Verfassung, Publikation  :2025, 2026

Quellen: Details entstammen der Originalarbeit von Shimwell et al. (A&A 2026) sowie zugehörigen Preprints und Pressemitteilungen[1][5][2][34]. Technische Details zum Survey und Datenzugang sind auf der LOFAR-Surveys-Webseite dokumentiert[17][8]. Weitere Informationen lieferte die Presse der beteiligten Universitäten (Hamburg, Bielefeld, Bochum, Würzburg, Tautenburg)[37][40]. Tabellen- und Bilddaten zu früheren Umfragen (NVSS, FIRST, TGSS, VLASS) stammen aus den jeweiligen Survey-Publikationen[13][15][16]. Alle zitierten Daten und Aussagen sind so belegt.


[1] [3] [5] [7] [10] [24] [30] Umfassende Karte des Radiohimmels veröffentlicht | Newsportal - Ruhr-Universität Bochum

https://news.rub.de/presseinformationen/wissenschaft/2026-02-19-astronomie-umfassende-karte-des-radiohimmels-veroeffentlicht

[2] [8] [20] [22] [23] [35] [2602.15949] The LOFAR Two-metre Sky Survey: VII. Third Data Release

https://arxiv.org/abs/2602.15949

[4] [6] [11] [32] [37] [38] Umfassende Karte des Radiohimmels veröffentlicht - Universität Würzburg

https://www.uni-wuerzburg.de/aktuelles/pressemitteilungen/single/news/radiohimmel-lotss/

[9] [12] [27] [28] [33] [34] [39] [40] Größte Sammlung kosmischer Radioquellen veröffentlicht – Aktuell Uni Bielefeld

https://aktuell.uni-bielefeld.de/2026/02/19/groesste-sammlung-kosmischer-radioquellen-veroeffentlicht/

[13] NVSS | Cavendish Astrophysics

https://www.astro.phy.cam.ac.uk/research/ResearchFacilities/surveys-and-catalogues/nvss

[14] The VLA FIRST Survey: Catalogs

http://sundog.stsci.edu/first/catalogs.html

[15] GMRTAS150M - Giant Metrewave Radio Telescope All-Sky 150-MHz Radio Source Catalog

https://heasarc.gsfc.nasa.gov/w3browse/all/gmrtas150m.html

[16] VLA Sky Survey — NRAO Science Site

https://science.nrao.edu/vlass

[17] [18] [19] [21] [25] [31] LOFAR surveys — releases

https://lofar-surveys.org/dr3.html

[26] LOFAR surveys — gallery_preview

https://lofar-surveys.org/gallery.html?file=static/gallery/A1314-grey.png

[29] LOFAR surveys — gallery_preview

https://lofar-surveys.org/gallery.html?file=static/gallery/ngc326.png

[36] Bochumer Forschungsteam legt die bislang umfassendste Himmelskarte vor

https://www.rvr.ruhr/news/startseite-news/news/bochumer-forschungsteam-legt-die-bislang-umfassendste-himmelskarte-vor/