Каліфорнійський університет у Берклі представив новий метод навчання AI — GEPA, який уже прийнято ICLR 2026 як Oral-публікацію. GEPA не оновлює ваги моделі, не потребує тренувань із GPU: достатньо одного LLM, який багаторазово переписує підказки AI-системи, спираючись на «читання тренувальних записів». У 6 завданнях GEPA в середньому випереджає популярні методи підкріплювального навчання GRPO на 6%, а в найкращому випадку — на 20%. Кількість необхідних тренувальних спроб (rollouts) менша у 35 разів. Після того як дослідження, зібране AI-інженерною спільнотою, поширили у X, воно викликало жваве обговорення; нині GEPA інтегровано в DSPy як оптимізатор першого класу.
Що робить GEPA: використовує тренувальні записи як навчальні матеріали, а не лише дивиться на бали
Традиційні методи підкріплювального навчання (наприклад, GRPO) працюють так: AI один раз запускають виконувати завдання, за результатом дають оцінку «+1 або -1», а далі ці бали багаторазово використовують для корекції ваг моделі. Проблема в тому, що під час виконання завдання процес AI зазвичай містить тисячі токенів міркувань, виклики інструментів, повідомлення про помилки — усі ці багаті деталі стискаються до одного числа, а інформація про хід процесу губиться. Тому RL доводиться запускати десятки тисяч разів, щоб досягти збіжності.
GEPA робить навпаки: після кожного запуску завдання AI передає іншому «LLM для рефлексії» весь перебіг процесу (reasoning, виклики інструментів, записи про помилки) без змін. LLM для рефлексії працює як досвідчений інженер, який читає log виконання: він знаходить, на якому кроці сталася помилка, чому вона сталася, і як слід змінити підказку, а потім безпосередньо переписує промпт для відповідного модуля. За однакової кількості запусків GEPA витягує значно більше корисних сигналів, ніж RL із його одиничним числом-оцінкою.
Чому виходить краще: перетворює «оцінювання» на «читання всього перебігу»
GEPA у 6 завданнях у середньому перемагає GRPO на 6%, а в найкращому випадку — на 20%. У порівнянні з іншим популярним оптимізатором підказок MIPROv2 GEPA також випереджає на понад 10% (на базі математичних задач AIME-2025 підвищення на 12%). Найкритичніше — вартість навчання: щоб досягти зіставної продуктивності, GEPA потрібно набагато менше rollouts (один повний запуск завдання) — у 35 разів.
Інші дані: після інтеграції GEPA з DSPy «Full Program Adapter» може оптимізувати весь DSPy-програмний код (включно із signature, модулями та керуванням потоком), і на математичному бенчмарку MATH досягає 93% точності — суттєво більше за початковий варіант DSPy з ChainOfThought, який має 67%. GEPA також особливо добре показує себе в multi-module робочих процесах (AI-agent із послідовним з’єднанням кількох модулів): він точніше «фокусується» на конкретному модулі, що дає помилку, і переписує підказку саме для нього, замість того щоб коригувати весь системний контур.
Хто першим почне використовувати: DSPy як громадянин першого класу, GitHub уже відкрив код
Код GEPA відкрито на GitHub: його інтегровано в DSPy як dspy.GEPA, а також окремо опубліковано як Python library. Дослідницька команда представлена в UC Berkeley, Stanford, Notre Dame, Anthropic та інших організаціях; серед авторів paper є Matei Zaharia (співзасновник Databricks, один із ключових авторів DSPy) та Omar Khattab (один із ключових авторів DSPy).
Для спільноти розробників GEPA пропонує новий підхід до проблеми «маємо багато rollout, але не знаємо, як їх використати»: більшість команд уже накопичила тисячі й десятки тисяч записів про запуски agent для виконання задач, але, окрім перегляду кількох прикладів під час баг-дебагу, немає системного способу перетворити ці записи на покращення моделі. Наступний пункт спостереження — як GEPA буде впроваджуватися в реальних корпоративних agentic-робочих процесах (наприклад, автоматизація клієнтської підтримки чи автопочинка програм), і чи з’являться незалежні від DSPy реалізації GEPA.
Ця стаття «Berkeley GEPA розбір»: без оновлення ваг AI вчиться виконувати нові завдання, потребуючи в 35 разів менше тренувань, ніж RL, — була опублікована найпершою на платформі «ланцюгових новин» ABMedia.
Пов'язані статті
OpenAI запускає Codex Pets — AI-компаньйон у віртуальному світі з можливістю кастомної генерації
MoonPay запускає картку MoonAgents для AI-агентів у мережі Mastercard
xAI запускає API для клонування голосу, який підтримує понад 80 голосів у 28 мовах
MoonPay запускає MoonAgents Card — віртуальну Mastercard для агентів ШІ та користувачів у п’ятницю
MoonPay запускає MoonAgents Card у мережі Mastercard у п’ятницю
Nubank планує інвестувати 8,2 мільярда доларів у Бразилію у 2026 році, збільшивши витрати на ШІ та розширення кредитування удвічі