OpenAlex · Aktualisierung stündlich · Letzte Aktualisierung: 15.03.2026, 10:43

Dies ist eine Übersichtsseite mit Metadaten zu dieser wissenschaftlichen Arbeit. Der vollständige Artikel ist beim Verlag verfügbar.

Benchmarking open-source large language models on Portuguese Revalida multiple-choice questions

2025·6 Zitationen·BMJ Health & Care InformaticsOpen Access
Volltext beim Verlag öffnen

6

Zitationen

9

Autoren

2025

Jahr

Abstract

10 out of the 31 LLMs attained better than human level of performance in the Revalida benchmark, with 9 failing to provide coherent answers to the task. Larger models exhibited superior performance overall. However, certain medium-sized LLMs surpassed the performance of some of the larger LLMs.

Ähnliche Arbeiten