Почему эти модели устроены по-разному
ChatGPT и Claude — не просто конкуренты с разными ценниками. Это две разные философии обучения больших языковых моделей.
OpenAI строит GPT-5.5 как универсальный инструмент с широким охватом задач. Модель обучена на массивных мультимодальных данных и глубоко интегрирована с инструментальным стеком: function calling, Code Interpreter, web search, DALL-E. Архитектурно GPT-5.5 оптимизирован под короткие и средние контексты с высокой плотностью информации — отсюда MMLU 90.2 при относительно компактном выводе. Контекст в 1 000 000 токенов формально есть, но качество удержания внимания на хвостах окна заметно падает.
Аnthropos строит Claude на принципе Constitutional AI: модель обучается через итеративную самооценку по набору явно заданных принципов, а не только через RLHF от людей-оценщиков. Это даёт более предсказуемое поведение на длинных документах и осторожную, а не агрессивную фильтрацию. Claude Opus 4.7 демонстрирует HumanEval 95.4 против 92 у GPT-5.5 — разрыв не случаен: Anthropic целенаправленно улучшал качество рассуждений в коде через итерации внутренней критики.
Контекст 200 000 токенов у Claude меньше, чем у GPT-5.5, но качество обработки этого окна выше: модель удерживает референсы из начала документа в конце текста значительно точнее. Это структурная разница, а не маркетинговая. Для задач типа «проверь весь кодовый репозиторий» или «суммаризируй 400 страниц» это принципиально.