OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 18.03.2026, 02:00

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Large Language Models Can Achieve Explainable and Training-Free One-Shot HRRP ATR

2025·0 Zitationen·IEEE Signal Processing Letters
Volltext beim Verlag öffnen

0

Zitationen

6

Autoren

2025

Jahr

Abstract

This letter introduces a pioneering, training-free and explainable framework for High-Resolution Range Profile (HRRP) automatic target recognition (ATR) utilizing large-scale pre-trained Large Language Models (LLMs). Diverging from conventional methods requiring extensive task-specific training or fine-tuning, our approach converts one-dimensional HRRP signals into textual scattering center representations. Prompts are designed to align LLMs’ semantic space for ATR via few-shot in-context learning, effectively leveraging its vast pre-existing knowledge without any parameter update.

Ähnliche Arbeiten

Autoren

Institutionen

Themen

Topic ModelingArtificial Intelligence in Healthcare and EducationExplainable Artificial Intelligence (XAI)
Volltext beim Verlag öffnen