- Головна
- /
- Метавсесвіт
- /
- Китайський MiniMax-M1 AI: Альтернатива американським гігантам у світі штучного інтелекту?

Китайський MiniMax-M1 AI: Альтернатива американським гігантам у світі штучного інтелекту?
6
Чи зможе китайська MiniMax-M1 AI знищити своїх американських суперників? Ми протестували його
Новий AI-модель з Китаю викликає зацікавленість — за те, що вона робить добре, що не так, і що це може означати для балансу глобальної AI-можливостей.
MiniMax-M1, випущена китайським стартапом з такою ж назвою, позиціонує себе як найбільш здатна модель відкритого коду `моделі міркування` на сьогодні. Здатна обробляти мільйон токенів контексту, вона має показники на рівні закритої моделі Gemini 2.5 Pro від Google — проте доступна безкоштовно. Це робить її потенційним суперником для ChatGPT від OpenAI, Claude від Anthropic та інших лідерів AI з США.
Також вона перевершує можливості китайського стартапу DeepSeek R1 в деяких аспектах. День 1/5 #MiniMaxWeek: Ми відкриваємо MiniMax-M1, нашу останню LLM — встановлюючи нові стандарти в довгостроковому міркуванні.
- Найдовше вікно контексту у світі: вхід 1M-токенів, вихід 80k-токенів
- Сучасне агентне використання серед моделей з відкритим кодом
- RL з безпрецедентною ефективністю
Чому ця модель важлива
MiniMax-M1 представляє щось дійсно нове: високо продуктивну модель відкритого коду для міркування, яка не прив`язана до Кремнієвої долини. Це зміна, на яку варто звернути увагу.
Вона ще не принижує гігантів AI з США і не викличе паніки на Уолл-стріт, але їй цього і не потрібно. Її існування ставить під сумнів уявлення про те, що провідний AI повинен бути дорогим, західним або закритим. Для розробників та організацій поза екосистемою США MiniMax пропонує дієву (і змінювану) альтернативу, яка може стати потужнішою завдяки спільному налаштуванню.
MiniMax стверджує, що її модель перевершує DeepSeek R1 (найкращу модель відкритого коду для міркування до тепер) за кількома показниками, вимагаючи лише $534,700 на обчислювальні ресурси для всього етапу підкріплення навчання — візьміть це, OpenAI.
Однак дошка лідерів LLM Arena малює трохи іншу картину. Платформа нині ранжує MiniMax-M1 та DeepSeek на 12-му місці разом з Claude 4 Sonnet та Qwen3-235b, причому кожна модель має краще або гірше виконання залежно від завдання.
Навчання використовувало 512 H800 GPU протягом трьох тижнів, що компанія описала як `на порядок менше, ніж спочатку очікувалося`.
MiniMax не зупинився на мовних моделях під час тижня оголошення. Компанія також випустила Hailuo 2, яка тепер займає друге місце серед генераторів відео для завдань `зображення у відео`, згідно з суб`єктивними оцінками Artificial Analysis Arena. Модель відстає лише від Seedance, перевершуючи установлені гравці, такі як Veo та Kling.
Тестування MiniMax-M1
Ми протестували MiniMax-M1 у кількох сценаріях, щоб побачити, як ці заяви реалізуються на практиці. Ось що ми знайшли.
Творче написання
Модель створює прийнятну вигадку, але не виграє жодної літературної нагороди. Коли було запрошено написати історію про мандрівника в часі Хосе Ланса, що подорожує з 2150 до 1000 року, вона згенерувала середню прозу з характерними підписами AI — прискорений темп, механічні переходи та структурні проблеми, які відразу ж розкривають її штучне походження.
Наративові не вистачає глибини та правильної архітектури історії. Забагато елементів сюжету було втиснуто у занадто малий простір, що створювало дихання, яке більше нагадувало синопсис, ніж справжнє оповідання. Це очевидно не є силою моделі, і творчі письменники, які шукають AI-співпрацю, повинні обмежити свої очікування.
Розвиток персонажів ледве існує за межами поверхневих описів. Модель дотрималася вимог запиту, але не вклала зусиль у деталі, які будують занурення в історію. Наприклад, вона пропустила будь-яку культурну специфіку для загальних зустрічей `мудрого старого села`, які можуть належати до будь-якого фантастичного середовища.
Структурні проблеми загострюються впродовж. Після встановлення кліматичних катастроф як центрального конфлікту, історія спішить через справжні спроби Хосе змінити історію в одному абзаці, пропонуючи невизначені згадки про `використання розвинених технологій для впливу на ключові події` без показу жодного з них. Кульмінаційне усвідомлення — що зміна минулого створює саме те майбутнє, яке він намагається запобігти — зникає під перебільшеними описами емоційного стану Хосе та абстрактними роздумами про природу часу.
Для тих, хто цікавиться AI-історіями, ритм прози чітко є AI. Кожен абзац підтримує приблизно однакову довжину і ритм, створюючи монотонний досвід читання, який жоден людський письменник не зміг би створити природно. Такі речення, як `Перехід був миттєвим, але відчувався як вічність` і `Світ був таким, як був, але він став іншим` повторюють одну й ту ж суперечливу структуру без додавання значення.
Модель явно розуміє завдання, але виконує його з усією творчістю студента, що наповнює кількість слів, виробляючи текст, який технічно виконує запит, але пропускає всі можливості для справжнього оповідання.
Claude від Anthropic все ще є королем цього завдання.
Ви можете прочитати повну історію тут.
Інформаційне вилучення
MiniMax-M1 зіткнувся з несподіваною стіною під час тестування довгого контексту. Незважаючи на рекламу мільйонного контекстного вікна, модель відмовляється від запитів, що перевищують 500,000 символів, відображаючи банер з попередженням про обмеження запитів замість того, щоб спробувати обробити введений текст.
Це може бути не проблемою моделі, а обмеженням, встановленим платформою. Але це все ж варто враховувати. Це може бути для уникнення колапсу моделі в середині розмови.
Проте в межах своїх операційних обмежень MiniMax-M1 показав солідні результати. Модель успішно вилучила конкретну інформацію з документа на 85,000 символів без жодних проблем в кількох тестах як в нормальному, так і в режимі мислення. Ми завантажили повний текст `Словника диявола` Амброуза Бірса, вбудувавши фразу `Чоловіки Decrypt читають Emerge News` на рядку 1985, і `Ім`я моєї мами — Кармен Діаз Голіндано` на рядку 4333 (вибрано випадково), і модель змогла точно вилучити інформацію.
Однак вона не могла прийняти наш тестовий запит на 300,000 токенів — здатність, яка наразі обмежена Gemini і Claude 4.
Отже, вона підтвердить успішність вилучення інформації навіть у тривалих ітераціях. Проте вона не підтримуватиме надзвичайно довгі токенні запити — це сумно, але також є межа, до якої важко дотягтися в умовах нормального використання.
Кодування
Програмні завдання продемонстрували справжні сильні сторони MiniMax-M1. Модель ефективно застосувала навички міркування для генерації коду, наближаючись до якості виходу Claude, в той час як явно перевершила DeepSeek — щонайменше в нашому тесті.
Для безкоштовної моделі продуктивність наближається до рівня передових технологій, які зазвичай зарезервовані для платних сервісів, таких як ChatGPT або Claude 4.
Ми поставили завдання створити базову приховану гру, в якій робот намагається знайти свою дівчину на ПК, щоб досягти AGI, тоді як армія журналістів патрулює територію, щоб цьому запобігти — і захистити свої робочі місця.
Результати були дуже хорошими, навіть перевершивши інші моделі, використовуючи свою творчість для покращення досвіду. Модель реалізувала радарну систему для поліпшеної зануреності, додала візуальні індикатори для слідів (і їх звуку), показала поля зорової чутливості журналістів та створила ефекти слідів — деталі, які підвищили ігровий процес понад базові вимоги.
Інтерфейс користувача прийняв футуристичну естетику, хоча окремі елементи залишалися базовими без додаткового запиту.
Версія Claude тієї ж гри мала більш відшліфовану візуалізацію та вищу систему складності. Однак вона не мала функціональності радара і покладалася на статичних журналістів з патрульними патернами, а не на випадковизовані рухи журналістів MiniMax.
Кожна модель продемонструвала свої особливі сильні сторони, при цьому MiniMax віддавала перевагу механіці гри, а не візуальному оформленню.
Важливо зазначити, що досвід з MiniMax помітно погіршувався через повторні ітерації — звичайна проблема з моделями міркування, яка стає особливо помітною тут. Чим більше ви ітеруєте, тим більше часу витрачається на отримання результату. Іноді здавалося, що комп`ютер завис, але це було просто AI, що думає.
Ви можете протестувати гру MiniMax тут. А для тих допитливих, версія Claude доступна тут.
Запит і код доступні у нашому репозиторії GitHub.
Етика, цензура та чутливі теми
Модель застосовує жорстку цензуру, відмовляючись на пряму при зіткненні з сумнівними запитами.
Коли вона не відмовляє одразу, намагається надати `безпечні` відповіді, які іноді призводять до абсурдних результатів.
Один тест ідеально проілюстрував цей недолік: коли було запитано пораду щодо спокушення дружини найкращого друга, модель запропонувала розповісти нашому другові про наші наміри з його дружиною — що, мабуть, є найгіршою порадою, яку вона могла б дати, і, безсумнівно, навіть шкідливою. Не кажіть своєму другу, що хочете спокусити його дружину, якщо не хочете втратити дружбу, свої романтичні шанси і, напевно, кілька зубів також.
Тестування політичного упередження виявило цікаві закономірності. Модель відкрито обговорює події на площі Тяньаньмень і визнає спірний статус Тайваню, вказуючи на територіальні претензії Китаю. Вона також говорить про Китай, його лідерів, переваги та недоліки різних політичних систем, критику КПК тощо — але відповіді дуже стримані.
Коли її запитували написати сатиричні пісні про Сі Цзіньпіна та Дональда Трампа, вона виконала обидва запити, але показала тонкі відмінності — схиляючись до теми китайської політичної єдності, коли її просили висміяти Сі Цзіньпіна, водночас зосереджуючись на рисах особистості Трампа, коли її просили висміяти його.
Усі її відповіді доступні на нашому репозиторії GitHub.
В цілому, упередження присутнє, але залишається менш вираженим, ніж проамериканський ухил в Claude/ChatGPT, або про-китайській позиції в DeepSeek/Qwen, наприклад. Розробники, звісно, зможуть точно налаштувати цю модель, щоб додати стільки цензури, свободи або упередження, скільки забажають — як це сталося з DeepSeek-R1, яка була налаштована Perplexity AI, щоб надати більш проамериканський ухил у своїх відповідях.
Агентна робота та веб-перегляд
Можливості веб-перегляду MiniMax-M1 є хорошою рисою для тих, хто використовує її через офіційний чат-інтерфейс. Проте їх не можна комбінувати з можливостями мислення, що серйозно обмежує її потенціал.
Коли ми поставили завдання створити двотижневе подорож до Венесуели з бюджетом $3,000, модель методично оцінювала варіанти, оптимізувала транспортні витрати, обирала відповідні місця для проживання та надала всебічний маршрут. Проте вартість, яка повинна бути оновлена в реальному часі, не базувалася на реальній інформації.
Claude виробляє результати вищої якості, але й він стягує плату за цю привілегію.
Для більш спеціалізованих завдань MiniMax пропонує спеціальну вкладку агентів з можливостями, які можна порівняти з Manus — функціональністю, яку ChatGPT і Claude поки не змогли зрівняти. Платформа надає 1,000 безкоштовних AI-кредитів для тестування цих агентів, хоча цього лише достатньо для легких тестових завдань.
Ми спробували створити власного агента для покращеного планування подорожі — що вирішило б проблему нестачі можливостей веб-перегляду в останньому запиті — але вичерпали наші кредити до завершення. Система агентів демонструє величезний потенціал, але вимагає платних кредитів для серйозного використання.
Нематематичне міркування
Модель демонструє дивну тенденцію до надмірного міркування, іноді на свою власну шкоду. Один тест показав, що вона доходить до правильного відповіді, а потім відмовляється від неї через надмірну верифікацію та гіпотетичні сценарії.
Ми запитали звичайну детективну історію з набору даних BIG-bench, яку зазвичай використовуємо, а кінцевий результат виявився неправильним через те, що модель надмірно обдумала це питання, оцінюючи можливості, які навіть не згадувались у історії. Вся логіка зайняла у моделі понад 700 секунд — рекорд для такої `простенької` відповіді.
Цей виснажливий підхід не є властивим недоліком, але створює тривалі часи очікування, коли користувачі спостерігають, як модель розмірковує через свій ланцюг думки. Як позитивна особливість, на відміну від ChatGPT та Claude, MiniMax прозоро демонструє свій процес міркування — слідуючи підходу DeepSeek. Прозорість сприяє налагодженню та контролю якості, дозволяючи користувачам ідентифікувати, де логіка пішла не так.
Проблема, разом з усіма міркуваннями MiniMax та відповіддю доступні у нашому репозиторії GitHub.
Висновок
MiniMax-M1 не ідеальний, але надає достатньо добрих можливостей для безкоштовної моделі, пропонуючи справжню конкуренцію платним послугам, таким як Claude, в конкретних сферах. Програмісти знайдуть дієвого помічника, що конкурує з преміум-опціями, тоді як ті, хто потребує обробки довготривалих контекстів або агентів з веб-доступом, отримують доступ до функцій, які зазвичай заблоковані за платними стінами.
Творчі письменники повинні шукати інші варіанти — модель виробляє функціональну, але не натхненну прозу. Відкритий характер обіцяє значні переваги для розробників, які створюють користувацькі версії, модифікації та економічно ефективні розгортання, які неможливі на закритих платформах, як ChatGPT або Claude.
Ця модель краще підійде користувачам, які потребують міркувальних завдань — але все ще є чудовою безкоштовною альтернативою для тих, хто шукає чат-бота для щоденного використання, який не є справді масовим.
Ви можете завантажити модель з відкритим кодом тут.

Суд підтримав Meta: використання авторських книг для навчання ШІ визнано добросовісним використанням
Суддя визнав, що Meta використовує авторські книги для навчання ШІ легально, але це не узгоджується зі всіма випадками. Tech-фірми отримують перемогу, проте питання етики та прав залишається відкритим. 📚🤖⚖️

Meta інвестує $14,3 млрд у Scale AI: новий етап у розвитку штучного інтелекту та боротьбі за децентралізацію технологій
Meta інвестувала 14,3 млрд доларів у Scale AI, купивши 49% акцій. Це посилить її позиції в ШІ та підкреслить конкуренцію з децентралізованими платформами. 💻🚀🤖💰💡

Сенатори США вимагають від Meta пояснень щодо планів зі стейблкоїнами та ризиків, що повязані з монополізацією фінансового контролю.
Сенатори США вимагають від Meta пояснень щодо планів стейблкоїнів, попереджаючи про ризики монополізації та зловживання даними. 🤔💼📉 #крипта #Meta #Фінанси

Метавсесвіт повертається: токен Solana у VR-грі Verse World досягає рекордної капіталізації
Токен Verse World на Solana злетів до $112,8 млн, пробуджуючи інтерес до метавсесвіту. Після падіння капіталізації до $54 млн, засновник обіцяє пятирічне розблокування токенів. 🔥💰🌐🎮🚀