
Підрозділ Samsung зі штучного інтелекту вражає світ. Нещодавно компанія представила Tiny Recursive Model (TRM) — надкомпактну нейромережу, яка змогла перевершити набагато більші мовні моделі, включно з Google Gemini 2.5 Pro, DeepSeek R1 та OpenAI o3-mini, у складних тестах логічного мислення. Про це пише Wccftech.
Що таке Tiny Recursive Model
У науковій роботі “Less is More: Recursive Reasoning with Tiny Networks” Samsung описала нову архітектуру штучного інтелекту, яка спростовує традиційне правило чим більше — тим краще.
TRM складається всього з 7 мільйонів параметрів, тоді як великі LLM-моделі мають мільярди, але попри це демонструє вражаючу точність.
Ключова ідея — рекурсивне мислення: модель використовує власні відповіді як вхідні дані для наступного циклу обчислень, поступово покращуючи результат. Такий підхід створює самокоригувальний цикл, який нагадує процес, коли людина перечитує свій текст, виправляючи помилки на кожному кроці.
Як працює TRM

Модель Samsung Tiny Recursive Model має лише два шари нейронної мережі, але завдяки рекурсивному навчанню кожен її вихід використовується як вхід для наступного кроку, що створює цикл самовдосконалення. TRM імітує роботу глибокої архітектури без значних витрат пам’яті чи обчислювальних ресурсів, а з кожною ітерацією покращує точність результатів. За словами розробників, збільшення кількості шарів призводило до перенавчання, тоді як спрощена структура з більшою кількістю рекурсій показала кращі результати та стабільнішу продуктивність.

