Следващото поколение модел Qwen 3.5 с отворен код на Alibaba е на фокус

По време на периода на Лунната Нова година през 2026 г. индустрията на изкуствения интелект е готова да навлезе във вълна от пускания на големи продукти – често оприличавани на „Гала на Пролетния фестивал на изкуствения интелект“ – като водещите китайски големи езикови модели правят внимателно наблюдавани изяви. Сред тях Qwen 3.5 на Alibaba се очаква да дебютира скоро.

Екипът на Qwen вече е изпратил свързани заявки за изтегляне на поддръжка към кодовата база на Hugging Face Transformers, ефективно потвърждавайки, че Qwen 3.5 наближава пускането. Очакват се поне два варианта, включително Qwen3.5-9B-Instruct и Qwen3.5-35B-A3B-Instruct.

Според наличната информация, Qwen 3.5 ще бъде надграден до естествен мултимодален голям модел, поддържащ не само текст, но и обработка на изображения и видео. Архитектурно се очаква да приеме нов хибриден механизъм за внимание. Предишната версия, Qwen 3, стартирана в края на април миналата година, беше широко смятана за най-мощния модел с отворен код по това време, което прави очакванията за Qwen 3.5 особено високи.

IMG_0609.png

Alibaba няма да бъде сама в прозореца за пускане на пазара по случай Лунната Нова година. DeepSeek V4 привлича най-голямо внимание, докато GLM-5 на Zhipu AI и MiniMax 2.2 на MiniMax също са дългоочаквани. Междувременно моделът за генериране на видео Jimeng Seedance 2.0 на ByteDance наскоро предостави изключителна производителност и беше описан от рецензенти в чужбина като най-силния наличен видео модел в момента, надминавайки Sora на OpenAI и серията Veo на Google.

В същото време OpenAI и Anthropic наскоро представиха съответно GPT-5.3 Codex и Claude Opus 4.6, запазвайки лидерството си в програмирането, базирано на AI. Сред китайските модели GLM-4.6 и MiniMax 2.1 на Zhipu AI се смятат за много рентабилни, но техните цялостни възможности за кодиране все още се считат за изоставащи от най-добрите международни модели – подчертавайки ключова област, в която местните разработчици на AI продължават да намаляват разликата.

Източник: MyDrivers

Source link

Like this:

Like Loading…

Нашия източник е Българо-Китайска Търговско-промишлена палaта

By admin