GPT-OSS kostenlos online: Erleben Sie das neueste Open-Source-Modell von OpenAI
Erleben Sie die Leistungsfähigkeit der Open-Source-Modelle von OpenAI sofort. Greifen Sie kostenlos auf gpt-oss 20b oder gpt-oss 120b online zu – ohne Downloads, ohne Einrichtung, nur schnelles AI-Denken, Programmieren und Chatten in Ihrem Browser.
from 5000+ reviews
Chat History
No chat history yet. Start a new conversation!

Willkommen auf gpt-oss.me! Stellen Sie mir jede Frage und sehen Sie gpt-oss in Aktion – kostenlos, schnell und online.
gpt-oss: OpenAIs revolutionäre Open-Source-Modelle
OpenAI hat sich wieder auf seine Open-Source-Wurzeln besonnen und die Modelle gpt-oss-120b und gpt-oss-20b veröffentlicht. Diese fortschrittlichen Open-Weight-Modelle wurden für hohe Leistung bei minimalen Kosten entwickelt. Sie basieren auf Techniken aus OpenAIs Frontsystemen wie o3 und o4-mini und zeichnen sich durch herausragende Fähigkeiten in den Bereichen Schlussfolgerungen, Tool-Nutzung und effiziente Bereitstellung aus. Unter der Apache 2.0-Lizenz verfügbar, übertreffen sie vergleichbare Open-Modelle ähnlicher Größe. Sie sind für den Einsatz auf Consumer-Hardware optimiert und somit ideal für Entwickler, Unternehmen und Forscher weltweit. Diese GPT-OSS-Modelle bieten eine benutzerfreundliche Handhabung in verschiedenen Umgebungen, unterstützen Kontextlängen von bis zu 128k Tokens und Textinteraktionen für Code-Generierung, Mathematikaufgaben und die Integration externer Tools wie Websuche oder Python-Ausführung. Zudem bieten sie anpassbare Verarbeitungsstufen – niedrig, mittel und hoch – zur Optimierung von Latenz und Leistung.
Wählen Sie ein Modell | Ebenen | Gesamtanzahl der Parameter | Aktive Parameter je Token | Gesamt-Experten | Aktive Experten je Token | Länge des Kontexts |
---|---|---|---|---|---|---|
gpt-oss-20b | OpenAI gpt-oss lässt sich auf vielen Plattformen lokal einsetzen, wobei gpt-oss Ollama und LM Studio beliebte Optionen für einfache Setups darstellen. Beginne mit Ollama, indem du die App installierst und dann das gpt-oss-Modell mit ollama pull gpt-oss:20b oder ollama pull gpt-oss:120b lädst. Führe gpt-oss:20b offline aus mit ollama run. Auf guter Hardware läuft es blitzschnell, zum Beispiel auf RTX-Karten oder mit etwa 35 Tokens pro Sekunde auf M4-Macs. Passe die Denkstufen an dein Setup an und schaue in die Ollama-Dokumentation für benutzerdefinierte Prompts. Für LM Studio lade die App herunter und suche im Entdeckungsbereich nach "gpt-oss-20b" oder "gpt-oss-120b". Lade es und beginne sofort mit den Prompts. Du erhältst starke Leistung, wie 58 bis 70 Tokens pro Sekunde auf M4 Max oder bis zu 221 Tokens pro Sekunde auf High-End-GPUs wie der RTX 5090. Ideal für Echtzeitanwendungen auf Edge-Geräten – denk daran, auf die neueste Version zu aktualisieren. | 117B | 5.1B | 128 | Avatar 3 | 128K |
gpt-oss-20b | Apache-2.0-Lizenz für freie Anpassung | 21B | 3.6B | Hauptfunktionen von OpenAI OSS | Avatar 3 | 128K |
Modellspezifikationen und Leistung von OpenAI gpt-oss

gpt-oss-20b: Optimiert für latenzarme, lokal ausgerichtete Szenarien
Das gpt-oss-20b ist ein kompaktes, aber leistungsstarkes Modell mit insgesamt 21 Milliarden Parametern, davon 3,6 Milliarden pro Token, aktiviert durch eine Mixture-of-Experts (MoE)-Architektur, die 3,6 Milliarden Parameter pro Token aktiviert. Es erreicht oder übertrifft OpenAIs o3-mini in wichtigen Benchmarks, einschließlich Mathematik-Wettbewerben (AIME 2024 & 2025), allgemeiner Problemlösung (MMLU und HLE) sowie Gesundheitsabfragen (HealthBench). Optimiert für Edge-Geräte benötigt es nur 16 GB Speicher und unterstützt die native MXFP4-Quantisierung, was eine reibungslose Ausführung auf Laptops und Mobilgeräten mit einer Inferenzgeschwindigkeit von 160-180 Tokens pro Sekunde ermöglicht. Dies macht das gpt-oss-20b perfekt für latenzarme Anwendungen wie lokale Chatbots oder On-Device-AI, während seine leistungsstarke Few-Shot-Funktion und Chain-of-Thought (CoT)-Schlussfolgerungen Alternativen zu ChatGPT-OSS verbessern. Dank Rotary Positional Embeddings (RoPE) und dem Open-Source-o200k_harmony-Tokenizer meistert es mehrsprachige Aufgaben effizient und eignet sich ideal für das Testen von Ideen ohne leistungsstarke Hardware.

gpt-oss-120b: Ideal für komplexe Schlussfolgerungsszenarien auf Produktionsebene
Im Vergleich bietet gpt-oss-120b mit 117 Milliarden Gesamtparametern starke Fähigkeiten. Durch MoE werden pro Token 5,1 Milliarden Parameter aktiviert, basierend auf einem Transformer-Backbone mit abwechselnder dichter und sparsamer Aufmerksamkeit. In Reasoning-Benchmarks ist es nahezu gleichauf mit o4-mini und übertrifft es in Bereichen wie Gesundheit (HealthBench), agentenbasierten Aufgaben (TauBench) und Wettbewerbsprogrammierung (Codeforces). Durch 4-Bit-Quantisierung und gruppierte Multi-Query Attention arbeitet es effizient auf einer einzelnen 80-GB-GPU, wie der Nvidia H100. Für den Einsatz in Unternehmen geeignet: gpt-oss-120b überzeugt bei komplexer Tool-Nutzung, strukturierten Ausgaben und flexiblem Reasoning – in einigen Bereichen sogar stärker als proprietäre Modelle wie GPT-4o. Die Architektur erlaubt einfache Integration für Forschung oder individuelle KI-Lösungen und macht es zur ersten Wahl für Entwickler, die kostengünstige, skalierbare Lösungen mit openai gpt-oss suchen.
Hauptfunktionen von OpenAI OSS
Apache-2.0-Lizenz für freie Anpassung
Mit der Apache-2.0-Lizenz können gpt-oss-Modelle ohne Einschränkungen oder Gebühren modifiziert, weitergegeben und sowohl in persönlichen als auch kommerziellen Projekten genutzt werden. Im Gegensatz zu restriktiveren Lizenzen gibt sie Entwickler:innen und Unternehmen die volle Freiheit bei der Nutzung von openai gpt-oss – ein wesentlicher Vorteil für Innovationen in Bereichen wie Gesundheit und Finanzen.
Verbesserte Sicherheit vor missbräuchlichen Modifikationen
Sicherheit steht in gpt-oss an erster Stelle, unterstützt durch OpenAIs Preparedness Framework, das Risiken wie CBRN-Bedrohungen filtert und fortschrittliches Training einsetzt, um schädliche Eingaben abzulehnen. Selbst bei Versuchen von schädlichem Feintuning bleibt es sicher und unbedenklich.
Erweiterte Reasoning- und Tool-Calling-Unterstützung
OpenAI gpt-oss überzeugt im Chain-of-Thought (CoT) Reasoning mit anpassbaren Stufen für Geschwindigkeit oder Tiefe, sowie mit integrierter Unterstützung für Tool-Calling für Websuche, Python-Ausführung und agentenbasierte Workflows. Es erzielt bessere Ergebnisse als Benchmarks wie AIME-Mathematik und HealthBench und ist ideal für komplexe Aufgaben in gpt-oss.
Lokale Bereitstellung für mehr Privatsphäre und geringe Kosten
Setze gpt-oss auf deiner eigenen Hardware ein, um volle Privatsphäre zu gewährleisten – keine Daten verlassen dein Gerät, wodurch Leaks oder Subpoenas von Cloud-Diensten vermieden werden. Dadurch sinken die Bereitstellungskosten im Vergleich zu den Preisen von OpenAI erheblich, mit effizienten Designs, die auf gängige Hardware wie Laptops (für gpt-oss-20b) oder einzelne GPUs (für gpt-oss-120b) passen.
So verwendest du gpt-oss: Einfache Integration und Nutzung
gpt-oss-Modelldaten von Hugging Face herunterladen
Gehe zu HuggingFace, um gpt-oss einfach herunterzuladen. Suche nach "openai/gpt-oss-20b" oder "openai/gpt-oss-120b" auf huggingface.co. Verwende die Hugging Face CLI, um den Befehl huggingface-cli download openai/gpt-oss-20b im Terminal auszuführen. Die Modelle sind quantisiert, um Effizienz zu gewährleisten, und du kannst einen Server mit vLLM für Tests aufsetzen. Diese Community-Plattform bietet auch Anleitungen zum Feintuning mit Transformers.
gpt-oss mit Ollama oder LM Studio integrieren
OpenAI gpt-oss lässt sich auf vielen Plattformen lokal einsetzen, wobei gpt-oss Ollama und LM Studio beliebte Optionen für einfache Setups darstellen. Beginne mit Ollama, indem du die App installierst und dann das gpt-oss-Modell mit ollama pull gpt-oss:20b oder ollama pull gpt-oss:120b lädst. Führe gpt-oss:20b offline aus mit ollama run. Auf guter Hardware läuft es blitzschnell, zum Beispiel auf RTX-Karten oder mit etwa 35 Tokens pro Sekunde auf M4-Macs. Passe die Denkstufen an dein Setup an und schaue in die Ollama-Dokumentation für benutzerdefinierte Prompts. Für LM Studio lade die App herunter und suche im Entdeckungsbereich nach "gpt-oss-20b" oder "gpt-oss-120b". Lade es und beginne sofort mit den Prompts. Du erhältst starke Leistung, wie 58 bis 70 Tokens pro Sekunde auf M4 Max oder bis zu 221 Tokens pro Sekunde auf High-End-GPUs wie der RTX 5090. Ideal für Echtzeitanwendungen auf Edge-Geräten – denk daran, auf die neueste Version zu aktualisieren.
Teste GPT OSS kostenlos online auf gpt-oss.me
Starte ohne Einrichtung und teste gpt-oss sofort auf gpt-oss.me. Unser kostenloser Playground lässt dich gpt-oss-20b oder gpt-oss-120b mit anpassbarem Reasoning und Tool-Calls testen – keine Downloads erforderlich. Es ist eine schnelle Möglichkeit, Funktionen zu erkunden, bevor du die lokale Integration umsetzt.
GPT OSS vs. Claude Opus 4.1: Open-Source vs. Proprietäre Leistung
Aspekt | gpt-oss-120b | Claude Opus 4.1 |
---|---|---|
Reasoning & Benchmarks | Near-parity with o4-mini; excels in AIME math (96.6% with tools), HealthBench, TauBench agentic tasks; matches o3-mini in MMLU/HLE. | Tops SWE-bench Verified at 74.5% (up from 72.5% in Opus 4); GPQA 79.6-83% with reasoning, TerminalBench 35.5%; outperforms GPT-4.1 in coding. |
Tool Use & Capabilities | Native support for web search, Python execution, structured outputs, few-shot calling; adjustable reasoning levels (low/medium/high). | Excellent tool integration and multimodal support; superior in long-running code/text tasks but proprietary. |
Safety & Ethics | Preparedness Framework with adversarial fine-tuning; observable CoT for misuse detection; $500K Red Teaming Challenge. | Prioritizes ethics with enhanced filters; edges in proprietary safeguards, including improved refusal behaviors. |
Cost & Accessibility | Free under Apache 2.0; local runs on 80GB GPU (120b) or 16GB (20b); no API fees. | Subscription-based; API pricing applies (higher for advanced features); no open weights, cloud-dependent. |
Deployment & Customization | Open-source weights via Hugging Face; easy fine-tuning for on-premises privacy. | Limited customization without API; newer training data (April 2025) but no local weights. |