HBM після AI-пам’яті: вузьке місце — це HBF? Лауреат премії Тюрінга Девід Паттерсон: міркування знову визначать архітектуру зберігання

Конкуренція за AI-чипи впродовж останніх двох років майже повністю крутиться навколо HBM, але зі зсувом AI застосувань від тренування моделей до масштабного інференсу наступна вузька ланка з постачання може бути вже не тільки HBM, а HBF (High Bandwidth Flash, високошвидкісна швидкодіюча флеш-пам’ять). Лауреат премії Тюрінга, професор UC Berkeley Девід Паттерсон 30 квітня у Сан-Франциско заявив, що HBF, ймовірно, стане ключовою технологією пам’яті для зростання попиту в наступному циклі — і навіть сформує нову вузьку ланку.

(Що змінила Vera Rubin від Nvidia? Розбір “війни пам’яті” в епоху SK hynix, Samsung, Micron, SanDisk)

Чому Девід Паттерсон вірить у HBF

Обговорення AI-пам’яті майже повністю зосереджені на HBM (high bandwidth memory), але зі зсувом AI застосувань від тренування моделей до масштабного інференсу наступна вузька ланка з постачання може бути вже не тільки HBM, а HBF (High Bandwidth Flash, високошвидкісна швидкодіюча флеш-пам’ять).

Паттерсон — постать світового рівня в інформатиці, якого вважають одним із важливих дизайнерів RISC-архітектури. Говорячи про наступний етап після HBM, він зазначив, що хоча в HBF ще є чимало технічних викликів, які потрібно вирішити, HBF, який просувають такі компанії, як SK hynix і SanDisk, має характеристику “надавати великі обсяги за нижчого енергоспоживання”. У майбутніх AI-системах ключова змінна буде не лише обчислювальна потужність, а те, чи зможуть дані ефективно зберігатися, плануватися та підводитися до системи.

Що таке HBF? Складати NAND Flash, а не заміняти HBM — це розподіл ролей

Найбільша різниця між HBF і HBM — у типі базового матеріалу пам’яті. HBM — це вертикальне штабелювання DRAM, щоб забезпечити високошвидкісний доступ до даних, потрібний для GPU та AI-акселераторів; вона переважно відповідає за “швидке підживлення даними обчислювальних блоків”. Натомість HBF створюють шляхом штабелювання енергонезалежної пам’яті NAND Flash; його ключова перевага не в граничній швидкості, а в тому, що він забезпечує більші обсяги даних за нижчими витратами та нижчим енергоспоживанням.

Інакше кажучи, HBM вирішує проблему “швидкості” в процесі AI-обчислень, а HBF — проблему “місткості” в міру того, як AI-системи стають дедалі більш масштабними. Саме тому HBF не є простою заміною HBM, а формує новий розподіл ролей у пам’яті. HBM відповідає за негайний швидкісний обмін даними; HBF — за потреби в зберіганні великих обсягів проміжних даних, контексту та даних, які багаторазово викликаються під час інференсу.

Ринок AI-інференсу розширюється — і попит на HBF виходить на перший план

Причина, чому до HBF у 2026 році прикута більше уваги, у тому, що центр ваги AI-ринку поступово зміщується з тренування в бік інференсу. AI-тренування — це коли великі масиви даних подають моделі, щоб вона вивчила параметри й закономірності; AI-інференс — коли після завершення тренування модель на основі введення користувача дає відповіді, виконує задачі, “пам’ятає” попередні репліки та безперервно ухвалює рішення.

У сценаріях інференсу AI має не лише разово відповідати на запитання, а зберігати попередні діалоги, робочий контекст, результати оцінок, журнали викликів інструментів і навіть проміжні дані, що виникають між різними задачами. Ці дані великі за обсягом і їх потрібно багаторазово читати та оновлювати.

Проблема в тому, що якщо тримати всі ці дані в HBM, це занадто дорого, а місткість — нереалістична. HBM підходить для обробки високошвидкісних даних, які потрібні негайно, але не підходить для того, щоб нести на собі весь обсяг контексту й проміжних станів, що з’являються в процесі інференсу. Коли AI Agent, довгі контекстні моделі, мультимодальний інференс і корпоративні AI-воркфлоу стають поширеними, системі потрібні не просто швидші типи пам’яті, а більший пул високошвидкісних даних. Саме тому HBF і розглядають як перспективний варіант.

SK hynix і SNDK просувають стандартизацію — до 2038 року попит на HBF може перевищити HBM

Прагнучи збільшити пропускну здатність, SK hynix і SanDisk співпрацювали над розробкою HBF. Це різновид 3D-штабелювання технології, схожої на HBM, але із використанням NAND-кристин; її мета — забезпечити пропускну здатність у рази вищу, ніж у традиційних SSD, і спеціально орієнтована на AI-інференс.

Професор електротехніки та електроніки KAIST у Кореї Кім Чон Хо також зазначав на технічному брифінгу з HBF у лютому, що в епоху ПК головним був CPU, у смартфонну епоху — низьке енергоспоживання, а в епоху AI — пам’ять. Він чітко розділив ролі HBM і HBF: HBM визначає швидкість, HBF визначає місткість. Кім Чон Хо також спрогнозував, що з 2038 року попит на HBF може перевищити попит на HBM.

Логіка цього прогнозу така: чим більшим стає ринок AI-інференсу, тим більшими стають потреби в обробці негайного контексту, історичних даних і станів задач. Якщо розширювати лише HBM, це не тільки дорого, а й змусить загальні енергозатрати системи та навантаження на корпус/упаковку зростати далі. Якщо HBF зможе досягти прориву в пропускній здатності, компонуванні/упаковці, довговічності та стандартизації, він може стати новим ключовим рівнем пам’яті для AI-центрів обробки даних.

Від HBM до HBF: перегони за AI переходять від “рахувати швидко” до “пам’ятати й керувати”

Раніше, коли ринок обговорював AI-півпровідники, фокус здебільшого був на GPU, передових технологіях виробництва та постачанні HBM. Особливо після різкого зростання попиту на AI-сервери Nvidia HBM певний час була ключовим індикатором для оцінки конкурентоздатності виробників пам’яті на кшталт SK hynix, Samsung і Micron. Але застереження Паттерсона нагадують ринку, що вузькі місця AI-інфраструктури стають складнішими.

Коли AI ще перебуває на стадії перегонів за тренування великих моделей, головне — “накачати” GPU високою пропускною здатністю пам’яті. Але коли AI переходить до масштабного інференсу та застосувань Agent, питання стають такими: як модель довго утримує контекст? як зберігати стан задач із низькими витратами? як зробити потік даних між GPU, HBM, SSD, Flash і мережевим сховищем більш ефективним?

Тому наступний етап перегонів у AI-пам’яті може бути вже не лише боротьбою за потужності HBM, а переформатуванням усієї ієрархії пам’яті. HBM усе ще важлива, бо саме вона визначає, чи зможуть AI-чипи швидко виконувати обчислення; але поява HBF означає, що AI-системам починає потрібна нова “шарова” технологія даних між традиційним зберіганням і високошвидкісною пам’яттю. Вона не обов’язково буде найшвидшою, але може знайти новий баланс між місткістю, енергоспоживанням і вартістю.

Це також означає, що наступним ключовим словом у ланцюгу постачання AI може стати не лише “high bandwidth memory”, а “high bandwidth flash”. HBM вирішує вузькі місця для негайних обчислень AI, тоді як HBF може вирішити більш “ненажерливі” вузькі місця з пам’яті для епохи інференсу.

Ця стаття: після HBM який саме вузький бік AI-пам’яті — це HBF? Лауреат премії Тюрінга Девід Паттерсон: інференс переозначить архітектуру зберігання

Вперше опубліковано на: 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Акції Riot зростають на 8% після розширення угоди з AMD щодо дата-центрів

Акції Riot Platforms зросли на 8% після розширення партнерства з AMD у сфері дата-центрів і покращення умов фінансування, що відображає стратегічний перехід майнера біткоїнів до штучного інтелекту та дата-центрів

GateNews2год тому

У Міннесоті заборонили інструменти на базі ШІ для створення інтимних зображень без згоди та запровадили штрафи до $500K

За даними Decrypt, законодавчі органи штату Міннесота ухвалили законопроєкт 2 травня, який забороняє вебсайтам і застосункам надавати інструменти ШІ, що генерують інтимні зображення без згоди щодо ідентифікованих осіб. Закон забороняє платформам дозволяти користувачам отримувати доступ або використовувати такі інструменти «діпфейк» і забороняє

GateNews4год тому

Користувачі ChatGPT тепер можуть отримувати доступ до підписок на платформі OpenClaw, — оголошує Сем Альтман

Згідно з оголошенням Сема Альтмана сьогодні, користувачі ChatGPT тепер можуть входити на платформу агентів OpenClaw, використовуючи свої акаунти ChatGPT, і напряму отримувати доступ до наявних підписок ChatGPT на цій платформі.

GateNews5год тому

xAI запускає Grok із користувацькими голосами та дає змогу за одну хвилину клонувати власний AI-голос

За даними Beating, xAI запустила Grok Custom Voices і Voice Library, дозволивши користувачам записати одну хвилину аудіо в консолі xAI, щоб згенерувати custom voice_id для використання з API Grok TTS і Voice Agent. Функція підтримує застосунки, зокрема агентів служби підтримки клієнтів, створення контенту,

GateNews6год тому

Розробницька конференція Anthropic Code With Claude 5/6 у Сан-Франциско: прямий ефір, безкоштовна реєстрація

Anthropic 1 травня оголосила, що перша розробницька конференція для розробників «Code with Claude» відбудеться з 6 травня у Сан-Франциско та вперше розшириться на два додаткові міста: Лондон (19/5) і Токіо (10/6). Місця на трьох очних майданчиках розігрували жеребкуванням: усі квитки вже відбір було завершено, але реєстрація на стріми залишається відкритою для всіх. Щоб відповісти на перевантаження попиту на очну участь, у Сан-Франциско додатково відкрили захід 7/5 «Extended» — він призначений для незалежних розробників та засновників на ранніх етапах. Три події туру: 5/6 Сан-Франциско, 5/19 Лондон, 6/10 Токіо Code with Claude — це розробницька конференція, яку проводить Anthropic; сан-францисський майданчик уже проводить її вдруге. Вміст усіх 3 подій однаковий: цілий день очних воркшопів, демо найновіших функцій і все розмаїття можливостей Claude

ChainNewsAbmedia6год тому

OpenAI опублікувала дані за перший тиждень роботи GPT-5.5: темпи зростання доходів від API досягли рекорду, Codex виріс удвічі

OpenAI 1 травня на офіційному акаунті опублікувала 3 показники після запуску GPT-5.5 тиждень тому: самостійна оцінка як «найпотужніший реліз в усій історії», швидкість зростання API-виручки щонайменше вдвічі вища за показники будь-якого попереднього релізу моделі, а Codex у межах менш ніж 7 днів подвоїв виручку. OpenAI пов’язує це з тим, що попит з боку корпоративного сегменту на інструменти для agentic coding (агентного програмування) постійно зростає, і що разом із відповіддю, синхронною з 30 квітня GPT-5.5-Cyber, OpenAI потрапила в той самий продуктовий ритм, що й Anthropic Mythos. 3 пункти з опублікованих даних: темпи зростання API-виручки, подвоєння виручки Codex за 7 днів, найпотужніший реліз 3 ключові цифри, які OpenAI цього разу оприлюднила, взяті з офіційних твітер-повідомлень і не супроводжуються детальними фінансовими звітами: перше, GPT-5.5 — це «найсильніший за історію приріст доходів» мод

ChainNewsAbmedia6год тому
Прокоментувати
0/400
Немає коментарів