Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.
Efficient Biomedical Text Summarization with Quantized LLAMA 2: Enhancing Memory Usage and Inference on Low Powered Devices
2024·0 Zitationen
Volltext beim Verlag öffnen0
Zitationen
5
Autoren
2024
Jahr
Abstract
The deployment of large language models (LLMs) on edge devices and non-server environments presents significant challenges, primarily due to constraints in memory usage, computational power, and inference time. This paper investigates the feasibility
Ähnliche Arbeiten
Autoren
Institutionen
Themen
Topic ModelingMachine Learning in HealthcareArtificial Intelligence in Healthcare and Education