GPT-OSS онлайн бесплатно: попробуйте новейшую модель OpenAI с открытым исходным кодом
Оцените мощь моделей OpenAI с открытым исходным кодом прямо сейчас. Получите бесплатный доступ к gpt-oss-20b или 120b онлайн — без скачиваний и настроек. Быстрый ИИ для рассуждений, программирования и чата прямо в браузере.
from 5000+ reviews
Chat History
No chat history yet. Start a new conversation!

Добро пожаловать на gpt-oss.me! Спрашивайте что угодно и увидьте gpt-oss в работе — бесплатно, быстро и онлайн.
gpt-oss: революционные модели OpenAI с открытым исходным кодом
OpenAI вернулась к своим корням с открытым исходным кодом, выпустив gpt-oss-120b и gpt-oss-20b — две продвинутые модели с открытым исходным кодом, созданные для реальной работы при минимальных затратах. Обученные с использованием технологий, применяемых в передовых системах OpenAI, таких как o3 и o4-mini, эти модели отлично справляются с задачами рассуждений, использования инструментов и эффективного внедрения. Доступные по лицензии Apache 2.0, они превосходят аналогичные модели открытого кода по производительности и оптимизированы для потребительского оборудования, что делает их идеальными для разработчиков, компаний и исследователей по всему миру. Эти модели GPT OSS ориентированы на удобство использования в различных средах. Они поддерживают длину контекста до 128 тыс. токенов и текстовые взаимодействия для генерации кода, решения математических задач, а также интеграции с внешними инструментами, такими как поиск в интернете или выполнение Python-кода. Они также имеют настраиваемые уровни рассуждений — низкий, средний и высокий — для оптимизации времени отклика и производительности.
Модель | Слои | Всего параметров | Активные параметры на токен | Всего экспертов | Активные эксперты на токен | Длина контекста |
---|---|---|---|---|---|---|
gpt-oss-20b | OpenAI gpt-oss доступен для локального развертывания на различных платформах. Популярными решениями для простых настроек являются gpt-oss с Ollama и LM Studio. Начните с Ollama, установив приложение, а затем загрузите модель с помощью ollama pull gpt-oss:20b или ollama pull gpt-oss:120b. Работайте офлайн, запустив команду ollama run gpt-oss:20b. Модель работает быстро на хорошем оборудовании, например, на видеокартах RTX или с хорошей скоростью около 35 токенов в секунду на M4 Mac. Настройте уровни рассуждений в зависимости от вашего оборудования и ознакомьтесь с документацией Ollama для создания пользовательских запросов. Для LM Studio загрузите приложение и найдите "gpt-oss-20b" или "gpt-oss-120b" в разделе Discover. Скачайте модель и начните использовать её прямо сейчас. Вы получите отличную производительность, например, 58-70 токенов в секунду на M4 Max или до 221 на высококлассных GPU, таких как RTX 5090. Это отличный вариант для задач с низкой задержкой на устройствах с вычислительными мощностями на краю сети — не забудьте обновить до последней версии. | 117B | 5.1B | 128 | Аватар 3 | 128K |
gpt-oss-20b | Лицензия Apache 2.0 для свободной кастомизации | 21B | 3.6B | Основные характеристики OpenAI oss | Аватар 3 | 128K |
Характеристики и производительность gpt-oss от OpenAI

gpt-oss-20b: Разработана для сценариев с низкой задержкой и быстрой локализацией в приложениях
Модель gpt-oss-20b выделяется как компактная, но мощная модель с 21 миллиардом параметров, обрабатывающих 3,6 миллиарда параметров на каждый токен благодаря архитектуре Mixture-of-Experts (MoE). Она не уступает или превосходит o3-mini от OpenAI по ключевым бенчмаркам, включая математику соревнований (AIME 2024 и 2025), решение общих задач (MMLU и HLE) и медицинские запросы (HealthBench). Оптимизирована для работы на устройствах с ограниченными ресурсами, требует всего 16 ГБ памяти и поддерживает родную квантизацию MXFP4, обеспечивая бесперебойную работу на ноутбуках или мобильных устройствах с производительностью 160-180 токенов в секунду. Это делает gpt-oss-20b идеальной для приложений с низкой задержкой, таких как локальные чат-боты или ИИ на устройствах, в то время как её мощная функция вызова с несколькими примерами (few-shot) и рассуждения на основе цепочки мыслей (CoT) улучшает альтернативы ChatGPT с открытым исходным кодом. Благодаря Rotary Positional Embeddings (RoPE) и открытым токенизатором o200k_harmony, она эффективно справляется с многоязычными задачами, что идеально подходит для тестирования идей без необходимости в дорогостоящем оборудовании.

gpt-oss-120b: Подходит для сценариев с высокими требованиями к рассуждениям, подходящих для применения в производственных условиях
В отличие от этого, gpt-oss-120b обладает мощными возможностями с 117 миллиардами параметров, обрабатывающими 5,1 миллиарда параметров на токен с использованием MoE и трансформерной архитектуры с чередующимися плотным и разреженным вниманием. Он близок к o4-mini по бенчмаркам рассуждений и превосходит его в таких областях, как здравоохранение (HealthBench), оценка агентов (TauBench) и соревновательное программирование (Codeforces). Работает на одном GPU объёмом 80 ГБ, таком как Nvidia H100, и использует 4-битную квантизацию и многозапросное внимание для высокой эффективности. gpt-oss-120b идеально подходит для корпоративных рабочих процессов, включая сложное использование инструментов, структурированные выходные данные и настраиваемые усилия рассуждений, обгоняя собственные модели, такие как GPT-4o, в отдельных областях. Его архитектура поддерживает бесшовную интеграцию для исследований или кастомизированного ИИ, что делает его идеальным выбором для разработчиков, стремящихся использовать возможности openai gpt-oss в масштабируемых и экономичных решениях.
Основные характеристики OpenAI oss
Лицензия Apache 2.0 для свободной кастомизации
Лицензия Apache 2.0 позволяет свободно изменять, делиться и использовать модели gpt-oss для любых проектов — личных или коммерческих — без ограничений или сборов. В отличие от более строгих лицензий, она даёт разработчикам и компаниям возможность свободно настраивать openai gpt-oss, стимулируя инновации в таких областях, как здравоохранение и финансы.
Усиленная защита от вредоносных изменений
Безопасность — главный приоритет для gpt-oss, с использованием фреймворка OpenAI для фильтрации рисков, таких как угрозы CBRN, и применения передового обучения для отклонения вредоносных запросов. Даже если кто-то попытается провести злонамеренную настройку, тесты показывают, что безопасность остается на низком уровне риска.
Поддержка продвинутых рассуждений и вызова инструментов
OpenAI gpt-oss особо эффективен в цепочечных рассуждениях (CoT) с настраиваемыми уровнями скорости и глубины, а также поддерживает нативный вызов инструментов для веб-поиска, выполнения Python-скриптов и агентов. Он опережает бенчмарки, такие как AIME math и HealthBench, идеально подходя для сложных задач в области gpt-oss.
Локальное развертывание для конфиденциальности и низких затрат
Запускайте gpt-oss на своем оборудовании для конфиденциальности — данные не покидают ваше устройство, избегая утечек или повесток от облачных сервисов. Это снижает затраты на развертывание почти до нуля по сравнению с ценами OpenAI, с эффективными решениями, оптимизированными для использования на потребительских устройствах, таких как ноутбуки (для gpt-oss-20b) или одиночные GPU (для gpt-oss-120b).
Как начать работать с gpt-oss: Простая интеграция и онлайн-доступ
Загрузите веса gpt-oss с Hugging Face
Перейдите на Hugging Face для загрузки gpt-oss. Найдите "openai/gpt-oss-20b" или "openai/gpt-oss-120b" на huggingface.co. Используйте CLI Hugging Face: выполните команду huggingface-cli download openai/gpt-oss-20b в вашем терминале. Модели квантизированы для повышения эффективности, и вы можете запустить сервер с vLLM для тестирования. Этот хаб сообщества также предлагает инструкции по настройке с использованием Transformers.
Интеграция gpt-oss с Ollama и LM Studio
OpenAI gpt-oss доступен для локального развертывания на различных платформах. Популярными решениями для простых настроек являются gpt-oss с Ollama и LM Studio. Начните с Ollama, установив приложение, а затем загрузите модель с помощью ollama pull gpt-oss:20b или ollama pull gpt-oss:120b. Работайте офлайн, запустив команду ollama run gpt-oss:20b. Модель работает быстро на хорошем оборудовании, например, на видеокартах RTX или с хорошей скоростью около 35 токенов в секунду на M4 Mac. Настройте уровни рассуждений в зависимости от вашего оборудования и ознакомьтесь с документацией Ollama для создания пользовательских запросов. Для LM Studio загрузите приложение и найдите "gpt-oss-20b" или "gpt-oss-120b" в разделе Discover. Скачайте модель и начните использовать её прямо сейчас. Вы получите отличную производительность, например, 58-70 токенов в секунду на M4 Max или до 221 на высококлассных GPU, таких как RTX 5090. Это отличный вариант для задач с низкой задержкой на устройствах с вычислительными мощностями на краю сети — не забудьте обновить до последней версии.
Попробуйте GPT OSS бесплатно онлайн на gpt-oss.me
Пропустите настройку и испытайте gpt-oss сразу на gpt-oss.me. Наш бесплатный онлайн-ресурс позволяет протестировать gpt-oss-20b или gpt-oss-120b с настраиваемыми уровнями рассуждений и вызовами инструментов — без необходимости скачивания. Это быстрый способ изучить возможности перед локальной интеграцией.
GPT OSS и Claude Opus 4.1: Открытый исходный код и проприетарная мощность
Аспект | gpt-oss-120b | Claude Opus 4.1 |
---|---|---|
Reasoning & Benchmarks | Near-parity with o4-mini; excels in AIME math (96.6% with tools), HealthBench, TauBench agentic tasks; matches o3-mini in MMLU/HLE. | Tops SWE-bench Verified at 74.5% (up from 72.5% in Opus 4); GPQA 79.6-83% with reasoning, TerminalBench 35.5%; outperforms GPT-4.1 in coding. |
Tool Use & Capabilities | Native support for web search, Python execution, structured outputs, few-shot calling; adjustable reasoning levels (low/medium/high). | Excellent tool integration and multimodal support; superior in long-running code/text tasks but proprietary. |
Safety & Ethics | Preparedness Framework with adversarial fine-tuning; observable CoT for misuse detection; $500K Red Teaming Challenge. | Prioritizes ethics with enhanced filters; edges in proprietary safeguards, including improved refusal behaviors. |
Cost & Accessibility | Free under Apache 2.0; local runs on 80GB GPU (120b) or 16GB (20b); no API fees. | Subscription-based; API pricing applies (higher for advanced features); no open weights, cloud-dependent. |
Deployment & Customization | Open-source weights via Hugging Face; easy fine-tuning for on-premises privacy. | Limited customization without API; newer training data (April 2025) but no local weights. |