OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 12.03.2026, 19:27

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

RadBERT: Adapting Transformer-based Language Models to Radiology

2022·154 Zitationen·Radiology Artificial IntelligenceOpen Access
Volltext beim Verlag öffnen

154

Zitationen

7

Autoren

2022

Jahr

Abstract

Transformer-based language models tailored to radiology had improved performance of radiology NLP tasks compared with baseline transformer language models.<b>Keywords:</b> Translation, Unsupervised Learning, Transfer Learning, Neural Networks, Informatics <i>Supplemental material is available for this article.</i> © RSNA, 2022See also commentary by Wiggins and Tejani in this issue.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Topic ModelingArtificial Intelligence in Healthcare and EducationBiomedical Text Mining and Ontologies
Volltext beim Verlag öffnen