Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
RadBERT: Adapting Transformer-based Language Models to Radiology
2022·154 Zitationen·Radiology Artificial IntelligenceOpen Access
Volltext beim Verlag öffnen154
Zitationen
7
Autoren
2022
Jahr
Abstract
Transformer-based language models tailored to radiology had improved performance of radiology NLP tasks compared with baseline transformer language models.<b>Keywords:</b> Translation, Unsupervised Learning, Transfer Learning, Neural Networks, Informatics <i>Supplemental material is available for this article.</i> © RSNA, 2022See also commentary by Wiggins and Tejani in this issue.
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingArtificial Intelligence in Healthcare and EducationBiomedical Text Mining and Ontologies