У контексті активного розвитку штучного інтелекту спостерігається зростання потреби у потужних обчислювальних майданчиках. Це, в свою чергу, стає викликом для компаній, що виробляють мікросхеми та оперативну пам’ять.
Компанія Nvidia, яка займає провідні позиції у цій ніші, вже відчуває тиск збільшеного попиту на свої високопродуктивні обчислювальні модулі. Ці модулі вимагають не лише високоефективних графічних процесорів, а й швидкої оперативної пам’яті. З цієї причини Nvidia прагне посилити співпрацю з компанією SK Hynix.
Meta, яка зараз робить акцент на розвитку технологій ШІ, також активно залучає ресурси для серверних рішень. Meta планує інтегрувати генеративні системи ШІ у свої платформи соціальних мереж та інші сервіси. З метою забезпечення цього напряму, компанія створила потужний суперкомп’ютер AI Research SuperCluster і продовжує інвестувати в обчислювальні технології. В рамках співпраці з SK Hynix обговорюються питання постачання пам’яті DDR5, на ку зараз є великий попит.
Що стосується Nvidia, то вони зацікавлені у модулях пам’яті HBM та новітніх HBM3e для своїх наступних поколінь графічних модулів. З планами на випуск мільйонів нових прискорювачів у 2024 році, Nvidia активно працює над оптимізацією ланцюжків постачання та пріоритизує виробництво спеціалізованих чипів на підприємствах, таких як TSMC.
Джерело: Wccftech