OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 13.04.2026, 06:14

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Efficient Biomedical Text Summarization with Quantized LLAMA 2: Enhancing Memory Usage and Inference on Low Powered Devices

2024·0 Zitationen
Volltext beim Verlag öffnen

0

Zitationen

5

Autoren

2024

Jahr

Abstract

The deployment of large language models (LLMs) on edge devices and non-server environments presents significant challenges, primarily due to constraints in memory usage, computational power, and inference time. This paper investigates the feasibility

Ähnliche Arbeiten