Aktuelle Meldungen

Automatische Erkennung und Segmentierung von Spinalganglien in MRT-Bildern

Einem interdisziplinären Team um Magnus Schindehütte aus der Neuroradiologie unter der Leitung von Prof. Dr. Mirko Pham sowie dem Biozentrum der Universität Würzburg ist es erstmals gelungen, mithilfe von Deep-Learning-Algorithmen ein neuronales Netz zu trainieren, das Spinalganglien in MRT-Bildern automatisch segmentiert.

3 Bilder aus der Studie: Grafik vom Menschen mit Fokus auf Lendenwirbel 5 und Steißbein, MRT-Aufnahme und 3D-Bild
A) Schematischer Überblick über die lumbosakralen Spinalganglien (dorsal root ganglia, DRG) der Wirbelkörperhöhen L5 und S1. B) Darstellung der lumbosakralen DRG im MRT. C) 3D Rendering der DRG (gelb), der angrenzenden Nervenstrukturen (grau) und des Durasacks (weiß). © Aliya C. Nauroth-Kreß et al, Automated segmentation of the dorsal root ganglia in MRI, NeuroImage, 2025, https://doi.org/10.1016/j.neuroimage.2025.121189

Spinalganglien, kurz DRG (dorsal root ganglia), sind Ansammlungen sensorischer Nervenzellkörper im peripheren Nervensystem. Diese kombinierte MRT- und KI-basierte Methode ist ein erster Schritt, um künftig neuronale Aktivität in vivo sichtbar zu machen, beispielsweise über bildgebende Marker elektrischer Erregung. Die in der renommierten Fachzeitschrift NeuroImage veröffentlichte Studie ist insbesondere für die Schmerzforschung von Bedeutung. Das DRG ist die erste Station im Nervensystem, an der Schmerzreize verarbeitet und weitergeleitet werden – eine Schlüsselstelle für das Verständnis, die Diagnose und die Therapie von Schmerzerkrankungen. Durch die standardisierte Analyse können Nervenstrukturen von Patienten künftig besser auf krankhafte Veränderungen untersucht werden.

Details zur Forschung von Magnus Schindehütte liefert die Pressemeldung „Die Musik spielt nicht nur im Kopf, sondern auch im peripheren Nervensystem.

Aliya C. Nauroth-Kreß, Simon Weiner, Lea Hölzli, Thomas Kampf, György A. Homola, Mirko Pham, Philip Kollmannsberger, Magnus Schindehütte. Automated segmentation of the dorsal root ganglia in MRI. NeuroImage, Volume 311, 2025, 121189. ISSN: 1053-8119. doi.org/10.1016/j.neuroimage.2025.121189

Zur Publikation bei PubMed

Zur Pressemeldung

3 Bilder aus der Studie: Grafik vom Menschen mit Fokus auf Lendenwirbel 5 und Steißbein, MRT-Aufnahme und 3D-Bild
A) Schematischer Überblick über die lumbosakralen Spinalganglien (dorsal root ganglia, DRG) der Wirbelkörperhöhen L5 und S1. B) Darstellung der lumbosakralen DRG im MRT. C) 3D Rendering der DRG (gelb), der angrenzenden Nervenstrukturen (grau) und des Durasacks (weiß). © Aliya C. Nauroth-Kreß et al, Automated segmentation of the dorsal root ganglia in MRI, NeuroImage, 2025, https://doi.org/10.1016/j.neuroimage.2025.121189
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW
Virtuelle Realität verbessert langfristiges Lernen in der Notfallmedizin

In den ersten Berufsjahren stehen junge Ärztinnen und Ärzte oft vor der Herausforderung, unter Zeitdruck schnell Entscheidungen zu treffen, Aufgaben richtig zu priorisieren und auf wichtige praktische Erfahrungen zurückzugreifen. Gerade in Notfallsituationen sind diese Fähigkeiten von entscheidender Bedeutung. Genau hier setzt die Technologie der virtuellen Realität (VR) an. Sie ermöglicht realistische und interaktive Lernszenarien, in denen Studierende risikofrei anhand standardisierter Notfallfälle trainieren können.

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Die Arbeitsgruppe „Virtual Reality Simulation im Medizinstudium“ hat unter der Leitung von Tobias Mühling gemeinsam mit dem Münchner 3D-Visualisierungsunternehmen ThreeDee das VR-basierte Trainingsprogramm STEP-VR (Simulation-based Training of Emergencies for Physicians using Virtual Reality) entwickelt. In einer Studie wurden nun die kurz- und langfristigen Lerneffekte des VR-basierten Notfalltrainings untersucht. Die im renommierten Journal of Medical Internet Research veröffentlichten Ergebnisse zeigen, dass direkt nach dem Training die VR-Gruppe und die Kontrollgruppe beim Wissenstest ähnlich gut abschnitten. Nach 30 Tagen zeigte sich jedoch ein klarer Vorteil für die VR-Gruppe: Ihre Teilnehmerinnen und Teilnehmer konnten sich deutlich mehr Wissen merken. Insgesamt bewerteten die Studierenden das VR-Training auch als wirkungsvoller, spannender und hilfreicher.

Marco Lindner, Tobias Leutritz, Joy Backhaus, Sarah König, Tobias Mühling. Knowledge Gain and the Impact of Stress in a Fully Immersive Virtual Reality–Based Medical Emergencies Training With Automated Feedback: Randomized Controlled Trial. J Med Internet Res 2025;27:e67412, doi: 10.2196/67412, PMID: 40465566

Zur Publikation bei PubMed

Zur Pressemeldung

Studentin trägt VR-Brille und Handgeräte und bewegt sich damit im Untersuchungsraum der Lehrklinik; auf einer Liegt ist eine Puppe zur Untersuchung mit Patientenkittel.
VR-Simulation in der Lehrklinik des UKW

Kontakt, Öffnungszeiten, Sprechzeiten

Öffnungszeiten

Terminvereinbarung Palliativdienst
Montag bis Donnerstag: 7:30 Uhr bis 16 Uhr
Freitag: 7:30 Uhr bis 14:30 Uhr

 

Telefon

Palliativstation
+49 931 201-28861

Palliativdienst
+49 931 201-28860

E-Mail

Palliativstation
palliativstation@ ukw.de

Palliativdienst
palliativdienst@ ukw.de

Fax

Palliativstation
+49 931 201-28886

Palliativdienst
+49 931 201-28873


Anschrift

Universitätsklinikum Würzburg | Interdisziplinäres Zentrum Palliativmedizin | Haus B1 | Josef-Schneider-Straße 11 | 97080 Würzburg