OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 12.03.2026, 12:07

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

An efficient strategy for fine-tuning large language models

2026·0 Zitationen·Frontiers in Artificial IntelligenceOpen Access
Volltext beim Verlag öffnen

0

Zitationen

5

Autoren

2026

Jahr

Abstract

These findings support a practical process for resource-constrained domain adaptation: use DSS to efficiently construct datasets, then select the fine-tuning modality based on available compute (full-precision when feasible; LoRA or QLoRA when memory-limited). The proposed workflow offers a general guide for efficiently fine-tuning LLMs for domain-specific tasks with limited data availability.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Topic ModelingMachine Learning and Data ClassificationArtificial Intelligence in Healthcare and Education
Volltext beim Verlag öffnen