OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 12.03.2026, 11:11

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Sample Size Considerations for Fine-Tuning Large Language Models for Named Entity Recognition Tasks: Methodological Study

2024·25 Zitationen·JMIR AIOpen Access
Volltext beim Verlag öffnen

25

Zitationen

8

Autoren

2024

Jahr

Abstract

Relatively modest sample sizes can be used to fine-tune LLMs for NER tasks applied to biomedical text, and training data entity density should representatively approximate entity density in production data. Training data quality and a model architecture's intended use (text generation vs text processing or classification) may be as, or more, important as training data volume and model parameter size.

Ähnliche Arbeiten