Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
An efficient strategy for fine-tuning large language models
2026·0 Zitationen·Frontiers in Artificial IntelligenceOpen Access
Volltext beim Verlag öffnen0
Zitationen
5
Autoren
2026
Jahr
Abstract
These findings support a practical process for resource-constrained domain adaptation: use DSS to efficiently construct datasets, then select the fine-tuning modality based on available compute (full-precision when feasible; LoRA or QLoRA when memory-limited). The proposed workflow offers a general guide for efficiently fine-tuning LLMs for domain-specific tasks with limited data availability.
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingMachine Learning and Data ClassificationArtificial Intelligence in Healthcare and Education