Falcon LLM

Von Neuromancer, 21. September 2023

Falcon LLM ist ein generatives Großsprachenmodell (LLM), das dazu beiträgt, Anwendungen und Anwendungsfälle für eine zukunftssichere Welt weiterzuentwickeln. Heute bilden das Falcon 180B, 40B, 7.5B, 1.3B Parameter-KI-Modelle sowie unser hochwertiger REFINEDWEB-Datensatz eine Reihe von Angeboten.

Als Schlüsseltechnologie-Enabler sind wir fest davon überzeugt, dass Innovation gedeihen sollte. Deshalb haben wir uns dazu entschieden, alle unsere Falcon-Modelle Open Source oder Open Access zur Verfügung zu stellen. Wir führen unser neuestes Falcon 180B LLM als Open-Access-Modell für Forschung und kommerzielle Nutzung ein.

Falcon 180B ist ein extrem leistungsfähiges Sprachmodell mit 180 Milliarden Parametern, das auf 3,5 Billionen Tokens trainiert wurde. Es führt derzeit die Rangliste von Hugging Face für vortrainierte Open Large Language Models an und steht sowohl für Forschung als auch für kommerzielle Nutzung zur Verfügung.

Dieses Modell zeigt in verschiedenen Aufgaben wie Reasoning, Coding, Proficiency und Wissenstests außergewöhnliche Leistungen und übertrifft sogar Konkurrenten wie Meta's LLaMA 2.

Unter den Closed-Source-Modellen rangiert es gleich hinter OpenAI's GPT 4 und steht auf Augenhöhe mit Google's PaLM 2 Large, das Bard antreibt, obwohl es nur halb so groß ist wie das Modell.

Kommentare