Serhii Zabolotnii
← All posts
AILLMархітектураграф знаньпам'ятьretrievalагенти

Пам'ять теж має архітектуру: як Ayona/OpenClaw перейшла від нотаток до керованої системи знань

Чому AI-системі недостатньо просто накопичувати файли пам'яті, і що змінюється, коли пам'ять стає керованою архітектурою. Частина 6.

Пам’ять AI-системи ламається не лише тоді, коли вона щось забуває. Частіше вона ламається тоді, коли починає пам’ятати все підряд без структури, пріоритетів і правил канонічності.

У попередніх текстах цього циклу я вже писав про архітектуру, пайплайн довіри, композицію агентів, публічний шаблон і пошук під тиском бенчмарків. Але під усіма цими шарами є ще один, менш видовищний і водночас фундаментальний. Це архітектура пам’яті.

Поки система маленька, майже завжди здається, що достатньо кількох файлів пам’яті, папки з нотатками і семантичного пошуку. На короткій дистанції цього вистачає. На довгій починається інше: артефактів стає сотні, зв’язків тисячі, одна й та сама істина живе в кількох місцях, пошук приносить правдоподібне, але неканонічне, а пам’ять із опори повільно перетворюється на джерело шуму.

Саме в цій точці Ayona/OpenClaw за останні дні перейшла в новий стан. Не від «пам’ять з’явилася» до «пам’ять працює», а від набору корисних носіїв пам’яті до більш керованої архітектури пам’яті з графом у центрі. У логіці всієї серії це вже не текст про композицію агентів і не бенчмарк-стаття про пошук. Це окремий наступний крок: керування пам’яттю як несуча конструкція всієї системи.

Проблема: AI-пам’ять деградує двома способами

У погано організованій AI-системі пам’ять деградує двома симетричними шляхами.

Перший, очевидний, це коротка пам’ять. Система постійно живе в межах поточної сесії, забуває попередні рішення, повторює вже зроблені висновки, не бачить безперервності між задачами. Це типова слабкість майже будь-якого чат-бота.

Другий, менш очевидний, але не менш небезпечний, це аморфна пам’ять. Коли ми намагаємося вирішити проблему забування, починаємо складати все: щоденні записи, підсумки, процесні нотатки, маркери пам’яті, знімки задач, архітектурні нотатки, сліди налагодження, персональні домовленості, інциденти, стабільні інваріанти, випадкові ідеї. У якийсь момент система начебто «має багато пам’яті», але фактично втрачає детермінізм. Одна й та сама річ може існувати в п’яти місцях. Пошук починає діставати правдоподібне, але неканонічне. Пам’ять стає не опорою, а джерелом дрейфу.

Це важливий урок: пам’ять без семантичного контракту майже неминуче стає шумом.

Від скидання пам’яті до семантичного контракту

Ключовий зсув в Ayona/OpenClaw відбувся не тоді, коли з’явився ще один файл пам’яті. Ключовий зсув відбувся тоді, коли пам’ять почала описуватися не тільки як набір носіїв, а як система шарів із чіткими ролями.

Семантичний контракт виглядає так:

Memory Layer Contract — 7 шарів пам'яті Ayona/OpenClaw Рис. 1. Семантичний контракт 7 шарів пам’яті: від graph truth (SSoT) до AyonaDream consolidation.

  • 02_distill/** — графова істина, канонічний дім для багаторазових знань, архітектурних рішень, структурованих інсайтів і пов’язаних карток.
  • MEMORY.md — площина керування, а не склад. Тут живуть поведінкові інваріанти, критичні інфраструктурні якорі, стабільні домовленості і вказівники в глибші шари.
  • ACTIVE_TASKS.md — операційний кеш для живих задач, а не ще одна база знань.
  • memory/YYYY-MM-DD.md — хронологія, а не довгострокова істина.
  • 99_process/** — процедурна пам’ять: runbooks, документи інцидентів, політики, чеклісти.
  • 90_memory/** — модульна тематична пам’ять між короткою площиною керування і великим графовим/процесним контуром.
  • AyonaDream — цикл консолідації, що періодично переглядає накопичений контекст і переносить стабільні патерни з оперативних шарів у графову істину.

На папері це звучить просто. Але його сила не в простоті формулювання, а в тому, що він забороняє змішувати ролі. MEMORY.md більше не має права повільно перетворюватися на архів. Щоденні записи не повинні прикидатися канонічною пам’яттю. ACTIVE_TASKS.md не повинен ставати кладовищем закритих задач. Процесні документи не мають дублювати індекс пам’яті. Саме це і є дорослішання архітектури: не просто більше файлів, а менше семантичної двозначності.

Пам’ять із графом у центрі: чому граф став ядром, а не побічним артефактом

Раніше граф знань у таких системах часто лишається чимось декоративним. Гарна візуалізація, цікаві зв’язки, ще один спосіб подивитися на вміст. Але в зрілій AI-системі графовий шар не повинен бути опцією. Він повинен бути топологією пам’яті.

У поточній архітектурі Ayona/OpenClaw саме граф є місцем, де зберігається те, що має цінність повторного використання і цінність зв’язків: знання, рішення, концепти, задачі, перехресні зв’язки між кластерами. Це важливо з двох причин.

По-перше, граф дозволяє відповідати не лише на питання «що ми знаємо», а й на питання «як це пов’язано». Пласка пам’ять цього не вміє. Вона зберігає тексти, але не топологію.

По-друге, проєктування з графом у центрі дає пошуку нормальний старт. Замість жадібного завантаження всього підряд або сліпого семантичного пошуку по великому корпусу система може спочатку звузити релевантний підпростір, а вже потім дочитувати точкові артефакти. Це знижує шум, економить контекст і робить міркування менш випадковим.

Саме тому останні зміни були спрямовані не просто на поповнення графа новими вузлами, а на посилення його як субстрату пам’яті.

Що реально змінилося в останньому циклі

За останні дні в Ayona/OpenClaw відбулося кілька змін, які легко недооцінити, якщо дивитися на них окремо. Разом вони означають, що пам’ять у системі стала не просто більшою, а більш керованою.

1. Канонічна таксономія

Граф отримав жорсткішу канонічну таксономію, закріплену в config/ontology.yaml як єдиному джерелі істини. 9 типів вузлів (knowledge, insight, task, project, direction, process, decision, person, longterm), 10 типів зв’язків, 10 кластерів — усе це тепер не локальна звичка, а узгоджена схема, від якої залежать валідатори, скрипти й пошук.

Архітектурний сенс цього кроку простий: у системі знань дрейф майже завжди починається не з великих катастроф, а з маленьких «ну тут я назву це трохи інакше». Через місяць це вже не дрібниця, а новий хаотичний діалект всередині тієї самої пам’яті.

Канонічна таксономія не робить систему красивішою. Вона робить її менш крихкою.

Ще одна важлива зміна — це перехід від надмірного використання слабких зв’язків до більш типізованих відношень. Для графа знань це критично. Поганий граф не той, у якому мало зв’язків. Поганий граф той, у якому майже всі зв’язки семантично однакові.

Якщо все пов’язане з усім через умовне RELATED_TO, граф перестає бути субстратом міркування і стає просто мережею посилань. Типізовані відношення повертають йому смислову структуру: що з чого випливає, що що валідує, що від чого залежить, що що розширює, що є частиною чого.

Іншими словами, граф перестає бути плоскою картою суміжності й стає ближчим до моделі мислення системи.

3. Нормалізація метаданих і розв’язання вікі-посилань

Markdown-корпус майже завжди починає жити своїм життям. Хтось пише один формат посилань, хтось інший, десь метадані акуратні, десь ні, десь ідентифікатор збігається, десь уже дрейф. Якщо це не вирівнювати, пошук працює наче по вмісту, але насправді весь час чіпляється за технічну неоднорідність.

Нормалізація метаданих і розв’язання вікі-посилань стали кроком до того, щоб корпус знань був не лише зрозумілий людині, а й зчитуваний машиною. Для AI-системи це не дрібниця. Це різниця між «система може якось прочитати ці документи» і «система може стабільно опиратися на них як на інфраструктуру».

4. Матеріалізовані зв’язки як міст між markdown-істиною і пошуковим шаром

Один із найцікавіших зсувів — це винесення зв’язків із декларативного markdown-рівня в пошуковий/базовий рівень через матеріалізацію frontmatter.related.

До цього зв’язки існували переважно як частина markdown-істини. Це вже корисно. Але коли ті самі зв’язки стають доступними і в пошуковому контурі, система починає краще працювати не лише як набір текстів, а як структурована пам’ять із доступними шляхами зв’язків.

Це важливо, бо майбутнє таких систем не в тому, щоб мати окремо хороший граф і окремо хороший пошук, а в тому, щоб ці два шари підсилювали один одного. Детальніше про це, включно з ролями OpenClaw, Hermes і GBrain, я винесу в наступну частину.

Provenance & Audit Flow Рис. 2. Пайплайн аудиту пам’яті: від сирого markdown-корпусу через 5 етапів нормалізації до верифікованого графа.

5. Тести цілісності та інструменти аудиту

Можливо, найменш видовищна, але одна з найважливіших змін — це поява явних тестів цілісності пам’яті та набору інструментів аудиту.

На практиці це означає: пам’ять тепер не лише існує, а перевіряється. Парсинг YAML-метаданих, канонічні теги, перевірка ідентифікаторів зв’язків, правила узгодженості, скрипти аудиту, дашборд, витяг хронології — це все переводить пам’ять з категорії «корисний корпус» у категорію «підтримувана система з власною спостережуваністю».

Для AI memory це великий рубіж. Без цього пам’ять підтримується через надію і ручну уважність. Із цим, через інженерну дисципліну.

6. Походження як частина моделі довіри

Окремий, але показовий епізод стосувався розбіжностей походження між картками адаптацій. Частина карток жила з датою 2026-04-12, частина вже була нормалізована під 2026-04-16. Формально це виглядало як дрібна проблема метаданих. По факту, це було порушення узгодженості ідентичності вузлів.

У системі з графом у центрі походження не є косметикою. Коли ідентифікатор, часова мітка або ціль зв’язку роз’їжджаються, пошкоджується не лише акуратність. Пошкоджується довіра до того, що граф справді канонічний. Саме тому канонізація дат походження була не просто операцією очищення, а ще одним кроком до керування пам’яттю.

Canonical Home Matrix Рис. 3. Матриця канонічного дому: кожен тип знання має єдиний канонічний дім, визначений кеш і правила промоції.

Що я свідомо не розгортаю в цій частині

У цьому циклі з’явилася ще одна велика тема, яка заслуговує окремого тексту: повноцінна архітектурна взаємодія між OpenClaw, Hermes і GBrain.

Вона вже присутня в поточній системі як реальний архітектурний шар, але якщо змішати її тут із керуванням пам’яттю, стаття почне тягнути в два різні боки. Тому в цій частині я свідомо тримаю фокус на пам’яті: семантичний контракт, граф як центр, канонічність, походження, верифікація і перевірюваність.

Окрему наступну статтю я хочу присвятити саме іншому сюжету: хто в Ayona є авторитетом пам’яті, хто є шаром виконання, як працює синхронізація знань, як граф знань співвідноситься з пошуковою базою, і чому дво-інстансна модель виявилася сильнішою за уявлення про «одного універсального агента».

Чому це важливо не лише для внутрішньої інженерії

На цьому місці легко сказати: це все внутрішня кухня. Чому читачеві має бути цікаво, як саме організовано субстрат пам’яті або нормалізацію метаданих?

Тому що саме такі речі відділяють AI-систему, яка красиво говорить, від AI-системи, якій можна довіряти складнішу роботу.

Коли ми кажемо «асистент пам’ятає», за цим має стояти архітектура: що саме пам’ятає, де це живе, що є канонічним, що є кешем, що є лише хронологією, як виявляється дрейф, як верифікуються зв’язки, як пошук відрізняє стабільне правило від випадкової нотатки, як система не плутає інцидент із інваріантом.

Інакше «пам’ять» лишається маркетинговим словом.

Сильні AI-системи майбутнього виграватимуть не лише за рахунок більшого контекстного вікна або сильнішого бенчмарку міркувань. Вони виграватимуть тому, що зможуть підтримувати керовану довгострокову когнітивну структуру без перетворення її на сміттєзвалище.

Три уроки з цього етапу

Урок 1. Пам’ять має бути не більшою, а більш канонічною

Найгірша відповідь на проблеми пригадування — це просто складати більше контексту. Зазвичай це дає короткий ефект і довгу деградацію. Правильна відповідь — не лише більше пам’яті, а кращий семантичний контракт між її шарами.

Урок 2. Граф знань має сенс лише тоді, коли він перевірюваний

Граф сам по собі не рятує. Якщо відношення аморфні, таксономія розпливається, походження не підтримується, а дрейф метаданих проходить непоміченим, граф стає декоративним. Його сила починається там, де є канонічна схема, типізовані зв’язки, тести цілісності й інструменти аудиту.

Урок 3. Пошук починається не з ембедингів, а з правильної архітектури пам’яті

Можна поставити будь-яку хорошу модель ембедингів, але якщо система не знає, де в неї істина, де кеш, де хронологія, а де процедурна пам’ять, пошук весь час буде витягувати напівправду. Пошук працює лише настільки добре, наскільки добре організована пам’ять, по якій він іде.

Що ще лишається незавершеним

Було б неправдою сказати, що на цьому етапі архітектура вже завершена.

Є щонайменше три відкритих ризики.

Перший — надмірна нормалізація. Коли багато інструментів вирівнюють великий корпус, завжди існує ризик, що разом із шумом випадково пригладиться й локальний смисл.

Другий — дублювання між оглядовими архітектурними документами і графовою істиною. Якщо не тримати дисципліну, системний документ може почати жити як паралельне джерело істини замість оглядового синтезного шару.

Третій — інструменти випереджають ритуал. Тобто ситуація, коли інженерні інструменти вже сильні, але операційний ритуал їх використання ще не достатньо стабільний. У такій фазі система технічно здатна бути дисциплінованою, але ще не завжди дисциплінована на практиці.

Це не причина знецінювати зроблене. Навпаки. Це ознака того, що система перейшла з ранньої фази, де головна проблема — «чи є в нас хоч якась архітектура», у фазу, де головне питання вже інше: наскільки добре ця архітектура керує власною складністю.

Висновок

Коли ми говоримо про AI-пам’ять, її легко звести до зручної метафори: асистент запам’ятовує важливе і стає кориснішим. На практиці питання складніше. Не чи система пам’ятає, а як саме вона пам’ятає, де живе істина, як виявляється дрейф і хто контролює канонічність.

Останній етап розвитку Ayona/OpenClaw показав для мене просту річ: пам’ять AI-системи, це не додаток до архітектури. Це одна з її центральних несучих конструкцій.

Поки пам’ять лишається набором файлів, система здається розумною лише на короткій дистанції. Коли ж пам’ять отримує семантичний контракт, топологію графа, дисципліну походження, верифікацію і перевірюваність, AI починає поводитися не як вдалий чат, а як система, у якої є шанси на довгу й надійну роботу.

І, можливо, саме тут лежить один із головних уроків усієї AI-native інженерії: недостатньо побудувати модель, яка добре думає. Потрібно ще побудувати пам’ять, яка думає правильно в часі.