paper place Archiv 2. Quartal 2025

Additiv gefertigter Übungszahn für Wurzelkanalbehandlungen

Die Zahnärztliche Prothetik am Uniklinikum Würzburg druckt Zähne, die den Studierenden eine neue, realistische, faire und kosteneffiziente Übungsmöglichkeit bieten. Die innovativen Übungszähne vereinen alle wichtigen Behandlungsschritte – von der Kariesentfernung über die Wurzelkanalbehandlung bis hin zur Kronenpräparation.

Aufnahmen vom Übungszahn und ein Querschnitt.
Konstruktion eines Übungszahnes basierend auf der Rekonstruktion eines echten Zahnes; v.l.n.r. Übersicht des ganzen Zahnes bestehend aus Schmelz und Dentin, Querschnitt des Zahnes, kompletter im 3D-Druckverfahren hergestellte Zahn. © Christian Höhne / UKW
Bild vom Zahn, Querschnitt und rot gefärbte Wurzelkanäle
Rekonstruktion eines echten Zahnes basierend auf einer Mikro-CT-Aufnahme; v.l.n.r. Übersicht des ganzen Zahnes, Querschnitt des Zahnes; Wurzelkanäle und Pulpa. © Christian Höhne / UKW
Röntgenaufnahmen vom Zahn
Der gedruckte Zahn besitzt ein realistisches Röntgenverhalten. Links Aussehen des Zahnes bei einem Zahnfilm mit allen erkennbaren Innenstrukturen und rechts bei einer dreidimensionalen Röntgenaufnahme in Form eines so genannten DVT´s. © Christian Höhne / UKW

Studien belegen den hohen Lerneffekt, die Akzeptanz bei Studierenden und den didaktischen Nutzen des universellen Übungszahns bei einer Kariesexkavation und beim Präparieren von Klebebrücken belegten bereits Studien im Journal BMC Medical Education und in Scientific Reports. Jetzt wurde die Erprobung des 3D-gedruckten Zahns bei der Wurzelkanalbehandlung veröffentlicht. 

38 Zahnmedizinstudierende bewerteten den 3D-gedruckten Zahn als eine signifikant bessere Übungsmöglichkeit als die üblichen transparenten Acrylblöcke, die oft zum Üben für Wurzelkanalbehandlungen zum Einsatz kommen, und fast ebenbürtig zu natürlichen Zähnen, insbesondere hinsichtlich Realismus, Handhabung und Lernwert. „Der gedruckte Zahn ist nicht nur realistisch und kosteneffizient, sondern auch fair. Mit dem neuen Übungszahn haben wir für alle Studierenden identische Prüfungs- und Lernbedingungen geschaffen“, resümiert Erstautorin Isabella Di Lorenzo. 

Auch Oberarzt Dr. Michael del Hougne M.Sc., Kursleiter im Bereich der klinischen Lehre, ist vom neuen Übungszahn begeistert. „Unsere Studierenden können an dem Modell sogar die elektrische Längenmessung des Wurzelkanals sehr realistisch üben. Dafür mussten wir jedoch etwas tricksen, um die benötigte Leitfähigkeit herzustellen, denn der Zahn ist aus Harz, das den Strom nicht leitet.“ Im nächsten Schritt sollen 3D-Zähne mit unterschiedlichen Wurzelkanalformen entwickelt werden, um die klinischen Herausforderungen, die sich aus der anatomischen Vielfalt ergeben, zu simulieren.

Weitere Informationen zum „3D-gedruckten Zahn, der alles kann“ liefert die gleichnamige Pressemeldung

Isabella Di Lorenzo, Michael del Hougne, Gabriel Krastl, Marc Schmitter & Christian Höhne. 3D printed tooth for endodontic training in dental education. Sci Rep 15, 20185 (2025). https://doi.org/10.1038/s41598-025-06081-y

Zur Publikation bei PubMed

Zur Pressemeldung

Aufnahmen vom Übungszahn und ein Querschnitt.
Konstruktion eines Übungszahnes basierend auf der Rekonstruktion eines echten Zahnes; v.l.n.r. Übersicht des ganzen Zahnes bestehend aus Schmelz und Dentin, Querschnitt des Zahnes, kompletter im 3D-Druckverfahren hergestellte Zahn. © Christian Höhne / UKW
Bild vom Zahn, Querschnitt und rot gefärbte Wurzelkanäle
Rekonstruktion eines echten Zahnes basierend auf einer Mikro-CT-Aufnahme; v.l.n.r. Übersicht des ganzen Zahnes, Querschnitt des Zahnes; Wurzelkanäle und Pulpa. © Christian Höhne / UKW
Röntgenaufnahmen vom Zahn
Der gedruckte Zahn besitzt ein realistisches Röntgenverhalten. Links Aussehen des Zahnes bei einem Zahnfilm mit allen erkennbaren Innenstrukturen und rechts bei einer dreidimensionalen Röntgenaufnahme in Form eines so genannten DVT´s. © Christian Höhne / UKW
Angstreaktionen werden durch die Eigenschaften einer virtuellen Figur gemildert

In einer Kooperationsstudie haben die Klinik für Psychiatrie, Psychotherapie und Psychosomatik und der Lehrstuhl für Mensch-Computer Interaktion der Universität Würzburg untersucht, wie sich die virtuelle soziale Anwesenheit auf autonome Angstreaktionen auswirkt.

Vier Aufnahmen des virtuellen Raumes mit besetzten Stühlen.
Die Verkörperungen der im Experiment verwendeten virtuellen Figur, v.l.n.r.: Wolke, Holzfigur, weiblich, männlich. Im ersten Versuch wurden die Probandinnen mit einem neutralen Klang konfrontiert, im zweiten Versuch mit einem aversiven Geräusch. © Weiß, Krop et al., Computers in Human Behavior, 2025.

Die Ergebnisse zeigten, dass die Anwesenheit eines virtuellen Charakters die autonome Angstreaktion (hier gemessen mit Hautleitwert) reduzieren kann, die Merkmale des virtuellen Charakters dabei aber eine wichtige Rolle spielen. Angstmindernde Effekte traten bei Anwesenheit eines weiblichen Charakters und bei Anwesenheit einer Holzpuppe mit sozialer Bedeutung auf, konnten aber bei Anwesenheit eines männlichen Charakters nicht beobachtet werden. Diese Erkenntnisse spielen eine wichtige Rolle für die Entwicklung virtueller Interventionen.

Details zur Studie und den Vorgängerstudien finden Sie in der Pressemeldung „Virtuelle Begleiter gegen reale Ängste“.

Martin Weiß, Philipp Krop, Lukas Treml, Elias Neuser, Mario Botsch, Martin J. Herrmann, Marc Erich Latoschik, Grit Hein. The buffering of autonomic fear responses is moderated by the characteristics of a virtual character. Computers in Human Behavior. Volume 168, 2025, 108657, ISSN 0747-5632, https://doi.org/10.1016/j.chb.2025.108657

Zur Pressemeldung

Vier Aufnahmen des virtuellen Raumes mit besetzten Stühlen.
Die Verkörperungen der im Experiment verwendeten virtuellen Figur, v.l.n.r.: Wolke, Holzfigur, weiblich, männlich. Im ersten Versuch wurden die Probandinnen mit einem neutralen Klang konfrontiert, im zweiten Versuch mit einem aversiven Geräusch. © Weiß, Krop et al., Computers in Human Behavior, 2025.
Ein negativer Ruf verringert das Vertrauen trotz vertrauenswürdigen Verhaltens

Zwischenmenschliche Vertrauensentscheidungen werden durch den Ruf einer Person beeinflusst. Es ist jedoch unklar, wie positive oder negative Erwartungen, die nicht zum tatsächlichen Verhalten eines Partners passen, im Verhalten und im Gehirn verarbeitet werden – und wie das unseren Alltag beeinflusst.

In dieser zweiteiligen Studie spielten 54 Teilnehmende ein Vertrauenspiel mit vier anonymen Partnern, die entweder als „kooperativ“ oder „individualistisch“ vorgestellt wurden – während ihre Hirnaktivität (EEG) gemessen wurde. Das Verhalten der Partner entsprach dann entweder ihrer vorherigen Beschreibung oder widersprach ihr. Anschließend wurde über drei Tage hinweg das alltägliche Vertrauen der Teilnehmenden im realen Leben erfasst.

Die Ergebnisse zeigten, dass negative Vorurteile zu weniger Vertrauen führten, selbst wenn sich die Person kooperativ verhielt. Positive Erwartungen blieben stabil, sofern sie bestätigt wurden – wenn nicht, sank das Vertrauen. Auch in einzelnen Durchgängen zeigte sich: Wer einen schlechten Ruf hatte, dem wurde selbst nach gutem Verhalten weiterhin weniger vertraut – dies spiegelte sich auch in geringerer Hirnaktivität (fronto-laterale Theta-Wellen) wider. Die individuellen Labormaße standen mit den Vertrauensentscheidungen in der realen Welt in Verbindung.

Kilian Stenzel, Martin Weiß, Grit Hein. A Negative Reputation Reduces Trust Despite Trustworthy Behavior. Psychophysiology. Volume 62, Issue 8. 2025. https://doi.org/10.1111/psyp.70102

Zur Publikation bei PubMed

 

Panikstörungen greifen tiefer ins Gehirn ein als soziale Angststörungen

Angststörungen betreffen die Art und Weise, wie verschiedene Hirnregionen miteinander „kommunizieren“. Bislang war aber unklar, ob und wie sich diese Veränderungen zwischen den verschiedenen Arten von Angststörungen unterscheiden.

Gehirn mit erhöhter Konnektivität in Rot und verringerter Konnektivität in Blau im Vergleich zur gesunden Kontrollgruppe und Konnektomringe mit erhöhter Konnektivität in Rot und verringerter Konnektivität in Blau im Vergleich zur gesunden Kontrollgruppe

Eine groß angelegte deutsche Studie mit 439 Patientinnen und Patienten sowie 105 gesunden Kontrollpersonen hat mittels funktioneller Magnetresonanztomographie (rsfMRI) untersucht, wie sich verschiedene Angststörungen auf die funktionelle Konnektivität im Gehirn auswirken.

Die Forschenden stellten fest, dass insbesondere Patientinnen und Patienten mit Panikstörung (PD) und/oder Agoraphobie (AG) deutliche Veränderungen in der Verbindung zwischen Hirnregionen des Abwehrsystems und präfrontalen Regulationsbereichen aufwiesen. Diese Veränderungen betrafen vor allem subkortikale-kortikale Netzwerke. Das heißt: Zwischen Angstzentren wie der Amygdala und Insula und dem Thalamus findet mehr Kommunikation statt, während die Verbindung zwischen Hirnregionen, die Angst kontrollieren sollen, reduziert ist. 

Im Gegensatz dazu zeigten Patientinnen und Patienten mit sozialer Angststörung (SD) nur geringfügige Veränderungen, speziell zwischen der Insula und dem orbitofrontalen Kortex – beide spielen eine Rolle bei der Bewertung von sozialer Bedrohung. 

Bei spezifischen Phobien (SP) wurden keine signifikanten Unterschiede zur Kontrollgruppe gefunden. 

Die Studie unterstreicht die Bedeutung krankheitsspezifischer neurologischer Muster als Grundlage für personalisierte Behandlungsansätze bei Angststörungen.

Langhammer, T., Hilbert, K., Adolph, D. et al. Resting-state functional connectivity in anxiety disorders: a multicenter fMRI study. Mol Psychiatry 30, 1548–1557 (2025). https://doi.org/10.1038/s41380-024-02768-2

Zur Publikation bei PubMed

Gehirn mit erhöhter Konnektivität in Rot und verringerter Konnektivität in Blau im Vergleich zur gesunden Kontrollgruppe und Konnektomringe mit erhöhter Konnektivität in Rot und verringerter Konnektivität in Blau im Vergleich zur gesunden Kontrollgruppe
Untersuchung des Einflusses von Mondphasen und Wetter auf die Sterblichkeit in einer Palliativstation über einen Zeitraum von zehn Jahren

Viele Menschen glauben, dass der Mond – vor allem der Vollmond – einen Einfluss auf das Sterben hat. Auch das Wetter - Temperatur, Luftdruck oder Luftfeuchtigkeit, wird oft mit der Sterberate in Verbindung gebracht. Ein Team des Interdisziplinären Zentrums Palliativmedizin wollte herausfinden, ob das wirklich stimmt – und hat dafür die Todesfälle der Palliativstation des Uniklinikums Würzburg untersucht.

Bild vom Vollmond in dunkelblauem Nachthimmel
© Canva

Insgesamt wurden über einen Zeitraum von 3652 Tagen 3120 schwerkranke Patientinnen und Patienten behandelt, von denen fast die Hälfte verstarb. 

Die Forschenden verglichen die täglichen Todeszahlen mit dem Mondkalender der NASA sowie den Aufzeichnungen der Wetterstation Würzburg (Temperatur, Luftdruck, Luftfeuchtigkeit).

Das Ergebnis: Weder der Vollmond noch andere Mondphasen hatten einen Einfluss auf die Anzahl der Todesfälle. Auch das Wetter zeigte keinen Zusammenhang mit der Sterberate. Selbst hohe oder niedrige Temperaturen führten nicht zu mehr Todesfällen auf der Palliativstation, möglicherweise, weil dort die Umgebungsbedingungen gut kontrolliert sind. 

Evelyn Mueller, Miriam Brönner, Frank Schuster, Birgitt van Oorschot, Carmen Roch. Exploring the influence of moon phases and weather on mortality in a palliative care unit over a ten year period. Sci Rep. 2025 May 24;15(1):18059. doi: 10.1038/s41598-025-03184-4

Zur Publikation bei PubMed

Bild vom Vollmond in dunkelblauem Nachthimmel
© Canva
Automatische Erkennung und Segmentierung von Spinalganglien in MRT-Bildern

Einem interdisziplinären Team um Magnus Schindehütte aus der Neuroradiologie unter der Leitung von Prof. Dr. Mirko Pham sowie dem Biozentrum der Universität Würzburg ist es erstmals gelungen, mithilfe von Deep-Learning-Algorithmen ein neuronales Netz zu trainieren, das Spinalganglien in MRT-Bildern automatisch segmentiert.

3 Bilder aus der Studie: Grafik vom Menschen mit Fokus auf Lendenwirbel 5 und Steißbein, MRT-Aufnahme und 3D-Bild
A) Schematischer Überblick über die lumbosakralen Spinalganglien (dorsal root ganglia, DRG) der Wirbelkörperhöhen L5 und S1. B) Darstellung der lumbosakralen DRG im MRT. C) 3D Rendering der DRG (gelb), der angrenzenden Nervenstrukturen (grau) und des Durasacks (weiß). © Aliya C. Nauroth-Kreß et al, Automated segmentation of the dorsal root ganglia in MRI, NeuroImage, 2025, https://doi.org/10.1016/j.neuroimage.2025.121189

Spinalganglien, kurz DRG (dorsal root ganglia), sind Ansammlungen sensorischer Nervenzellkörper im peripheren Nervensystem. Diese kombinierte MRT- und KI-basierte Methode ist ein erster Schritt, um künftig neuronale Aktivität in vivo sichtbar zu machen, beispielsweise über bildgebende Marker elektrischer Erregung. Die in der renommierten Fachzeitschrift NeuroImage veröffentlichte Studie ist insbesondere für die Schmerzforschung von Bedeutung. Das DRG ist die erste Station im Nervensystem, an der Schmerzreize verarbeitet und weitergeleitet werden – eine Schlüsselstelle für das Verständnis, die Diagnose und die Therapie von Schmerzerkrankungen. Durch die standardisierte Analyse können Nervenstrukturen von Patienten künftig besser auf krankhafte Veränderungen untersucht werden.

Details zur Forschung von Magnus Schindehütte liefert die Pressemeldung „Die Musik spielt nicht nur im Kopf, sondern auch im peripheren Nervensystem.

Aliya C. Nauroth-Kreß, Simon Weiner, Lea Hölzli, Thomas Kampf, György A. Homola, Mirko Pham, Philip Kollmannsberger, Magnus Schindehütte. Automated segmentation of the dorsal root ganglia in MRI. NeuroImage, Volume 311, 2025, 121189. ISSN: 1053-8119. doi.org/10.1016/j.neuroimage.2025.121189

Zur Publikation bei PubMed

Zur Pressemeldung

3 Bilder aus der Studie: Grafik vom Menschen mit Fokus auf Lendenwirbel 5 und Steißbein, MRT-Aufnahme und 3D-Bild
A) Schematischer Überblick über die lumbosakralen Spinalganglien (dorsal root ganglia, DRG) der Wirbelkörperhöhen L5 und S1. B) Darstellung der lumbosakralen DRG im MRT. C) 3D Rendering der DRG (gelb), der angrenzenden Nervenstrukturen (grau) und des Durasacks (weiß). © Aliya C. Nauroth-Kreß et al, Automated segmentation of the dorsal root ganglia in MRI, NeuroImage, 2025, https://doi.org/10.1016/j.neuroimage.2025.121189
Skalierbares Open-Source-Software-Toolkit für die automatisierte Bilderfassung mit dSTORM

Superhochauflösung in der Fluoreszenzmikroskopie ermöglicht winzige Strukturen biologischer Proben in unglaublicher Detailgenauigkeit zu betrachten. Trotz ihres Potenzials bleibt die Erfassung hochmoderner, superhochaufgelöster Bilder aufgrund des erforderlichen technischen Fachwissens, der zeitintensiven Verfahren und der komplexen Analyse eine Herausforderung.

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.

In dieser Studie präsentiert die Neurologie gemeinsam mit dem Rudolf-Virchow-Zentrum – Center für Integrative und Translationale Bildgebung (RVZ) ein skalierbares Open-Source-Software-Toolkit, das die Bilderfassung mit dSTORM automatisiert. Durch die Nutzung von Deep Learning zur Segmentierung kann das Toolkit Objekte in verschiedenen biomedizinischen Proben präzise identifizieren und gezielt anvisieren, selbst solche mit geringem Kontrast. Diese Automatisierung beschleunigt die Workflows dieser Bildgebung erheblich. Durch die Bereitstellung einer breit zugänglichen, benutzerfreundlichen Lösung können Forscherinnen und Forscher verschiedener Disziplinen die Leistungsfähigkeit der Super-Resolution-Mikroskopie nutzen, ohne eine umfangreiche Spezialausbildung zu benötigen.

Das eigenständige Programm, das in der Fachzeitschrift Biophysical Reports präsentiert wird und sogar den Titel erhalten hat, ermöglicht die zuverlässige Segmentierung biomedizinischer Bilder und übertrifft bestehende Lösungen. Integriert in die Bildgebungs-Pipeline verarbeitet es hochaufgelöste Daten in Minutenschnelle und reduziert so den manuellen Arbeitsaufwand. Anhand biologischer Beispiele wie Mikrotubuli in Zellkulturen und dem βII-Spektrin in Nervenfasern zeigen Janis T Linke und Katrin Heinze vom RVZ gemeinsam mit Luise Appeltshauser und Kathrin Doppler aus der Neurologie, dass der Ansatz die superauflösende Bildgebung schneller, robuster und benutzerfreundlicher macht, auch für Mikroskopie-Laien. Dies erweitert die Anwendungsmöglichkeiten in der Biomedizin, einschließlich Hochdurchsatz-Experimenten.

Janis T Linke, Luise Appeltshauser, Kathrin Doppler, Katrin G Heinze. Deep learning-driven automated high-content dSTORM imaging with a scalable open-source toolkit. Biophys Rep (N Y). 2025 Jun 11;5(2):100201. https://doi.org/10.1016/j.bpr.2025.100201. Epub 2025 Feb 28. PMID: 40023500; PMCID: PMC11986538.

Zur Publikation bei PubMed

 

Das Cover von Biophysical Reports zeigt leuchtende Mikrokugeln, die aussehen wie gelb-rote Ringe, auf schwarzem Hintergrund.
Titelbild: Künstlerische Komposition autonom aufgenommener dSTORM-Bilder von farbstoffbeschichteten Mikrokugeln (SpheroRulers), welche die im Vergleich zu einem herkömmlichen Weitfeldbild erreichte verbesserte räumliche Auflösung veranschaulichen.
Freigestellt Porträts der vier Forschenden, darüber die Logos von RVZ, IZKF und UKW
Erfolgreiche Kooperation von Janis Linke und Katrin G Heinze vom RVZ und Luise Appeltshauser und Kathrin Doppler aus der Neurologischen Klinik (v.l.n.r.)
Collage aus der publizierten Studie
Automatisierte STORM-Erfassung für High-Content-dSTORM-Daten: Durch die Integration von Deep Learning in die Superauflösungsbildgebung können Bilder völlig autonom erfasst werden. (A) Die Erfassung erfolgte nach einem automatischen vierstufigen Protokoll: High-Content-Bilderfassung, gefolgt von semantischer Bildsegmentierung, gefolgt von Objektidentifizierung und schließlich dSTORM-Bildgebung. (B und C) Zur Bildgebung von βII-Spektrin in Nervenaxonen wurden die Axone in einem separaten Farbkanal identifiziert, der für Neurofilamente gefärbt war. (B) Das High-Content-Bild zeigt viele Nervenaxone in einer DRG-Neuronenkultur. Maßstab 100 μm. (C) Das DNN konnte diese Axone für die spätere automatisierte Bildgebung segmentieren (grüne Überlagerung).
Bilder und Grafiken aus der Studie
Schnelle Ermittlung axonaler Periodizitäten: Zur schnelleren Ermittlung axonaler Periodizitäten hat das Team eine Erweiterung entwickelt, die nicht von ROI-Auswahlen oder korrekt ausgerichteten Bildausschnitten abhängig ist. (A) dSTORM-Bild von βII-Spektrin in neuronalen Axonen (B) Streudiagramm aller erkannten Emitter in einem zugeschnittenen Bereich von (A) (blau), überlagert mit allen paarweisen Abständen eines Emitters (orange). (C) Histogramm aller paarweisen Abstände aller Emitter von Bild (A) (blau). Gefiltert durch eine Spline-Anpassung an den Verlauf des Axons werden die Peaks deutlich, die die periodische Anordnung der Emitter darstellen (orange). Die Peaks sind mit roten Pfeilen markiert. 190,6 nm.