На ICML 2025 у Ванкувері, Google Research представив TimesFM-ICF — ШІ для прогнозування часових рядів, що покращує точність на 6,8% та працює у 16 разів швидше, обіцяючи зміни для SEO та e-commerce.
ICML 2025 — одна из ведущих мировых площадок, где ученые, инженеры и исследователи делятся прорывными идеями в области машинного обучения.
Обновления алгоритмов Google — это сейсмические силы в SEO, способные быстро изменить рейтинги поиска. Обновления 2023 года, включая ноябрьское широкое ядро ...
Our in-context fine-tuning approach improves the performance TimesFM (base) over all other benchmark models, and achieves the same performance ...
Google is proud to be a Diamond Sponsor of ICML 2025, where researchers from Google Research, Google Deepmind and more will be contributing at all levels.
Google AI Mode is transforming search. Find out how it impacts your business, your SEO, and what you need to do now to avoid losing traffic.
Ванкувер, Канада, 9 жовтня 2025 - На щорічній Міжнародній конференції з машинного навчання (ICML 2025), що пройшла у Ванкувері з 13 по 19 липня 2025 року, підрозділ Google Research представив новаторську архітектуру штучного інтелекту під назвою TimesFM-ICF. Цей підхід обіцяє радикально змінити спосіб прогнозування часових рядів, забезпечуючи точність, раніше можливу лише при інтенсивному налаштуванні моделей, проте без потреби у традиційному перенавченні. Інакше кажучи, ця технологія може стати каталізатором суттєвих змін у таких галузях, як SEO, електронна комерція та логістика.
Прогрес у передбаченні часових рядів має вирішальне значення для багатьох сфер - від фінансового аналізу до планування ланцюгів поставок. Традиційні рішення, зокрема Facebook Prophet або Amazon DeepAR, часто вимагають великого обсягу даних для навчання, ручного коригування під кожен новий набір даних чи компромісів у продуктивності. TimesFM-ICF (In-Context Fine-tuning) від Google усуває ці обмеження, впроваджуючи так зване «контекстне точне налаштування». Це досягається за рахунок інтелектуального використання до 50 прикладів із релевантних часових рядів, що дозволяє моделі досягати результативності, порівнянної з налаштованими моделями, залишаючись «zero-shot» - тобто без оновлення градієнтів чи навчальних циклів.
У центрі TimesFM-ICF лежить модифікована Transformer-архітектура з декодером. На відміну від традиційного підходу, коли модель тренується на одному часовому ряді, нова система дозволяє подавати кілька пов'язаних рядів як контекстні приклади поряд із цільовим рядом. Цей процес подібний до «few-shot» промптингу великих мовних моделей (LLM).
Ключові архітектурні новації TimesFM-ICF включають:
«Наш підхід in-context fine-tuning підвищує продуктивність TimesFM (базової моделі) порівняно з усіма іншими еталонними моделями і досягає рівня TimesFM-FT - моделі, що окремо точно налаштовує TimesFM (базову) на тренувальному зрізі кожного завдання перед прогнозуванням», - йдеться в доповіді Google.
Застосування TimesFM-ICF виходить далеко за межі академічних досліджень. Для SEO-спеціалістів, маркетологів і аналітиків електронної комерції ця технологія відкриває нові можливості:
За результатами досліджень, TimesFM-ICF демонструє покращення на 6,8 % у порівнянні з базовою TimesFM, досягаючи продуктивності налаштованої моделі без жодного навчання. Крім того, її застосування виявилося 16 разів швидшим за традиційне точне налаштування (25 хв проти 418 хв), а ефективність зберігається навіть при малому числі контекстних прикладів (від 5 до 50).
TimesFM-ICF, хоча ще не випущена у відкритий доступ, має стати ключовим інструментом для компаній, які прагнуть максимально використовувати дані в прийнятті рішень. Її архітектура відкриває нові горизонти для:
Базова TimesFM вже доступна в репозиторії Google Research на GitHub та у PyPI, проте версія TimesFM-ICF з функцією «контекстного навчання» ще не випущена. Презентація на ICML 2025 підкреслює активну роботу Google над подальшим розвитком ШІ, зокрема у сфері обробки та прогнозування часових рядів. Це ставить перед бізнесом завдання не лише стежити за новими технологіями, а й активно готуватися до їх інтеграції, створюючи власні «бібліотеки контексту» і плани міграції.
Додаткову інформацію про дослідження Google та інші прориви в галузі машинного навчання, представлені на ICML 2025, можна знайти в офіційних матеріалах конференції на сайті icml.cc та research.google. З публікацією наукової статті про TimesFM-ICF можна ознайомитися за посиланням: In-Context Fine-Tuning for Time-Series Foundation Models.
ICML 2025 — одна из ведущих мировых площадок, где ученые, инженеры и исследователи делятся прорывными идеями в области машинного обучения.
Обновления алгоритмов Google — это сейсмические силы в SEO, способные быстро изменить рейтинги поиска. Обновления 2023 года, включая ноябрьское широкое ядро ...
Our in-context fine-tuning approach improves the performance TimesFM (base) over all other benchmark models, and achieves the same performance ...
Google is proud to be a Diamond Sponsor of ICML 2025, where researchers from Google Research, Google Deepmind and more will be contributing at all levels.
Google AI Mode is transforming search. Find out how it impacts your business, your SEO, and what you need to do now to avoid losing traffic.
Питання та відповіді