🧠 Nvidia заявила, що розгляне можливість інвестування в IPO OpenAI, повідомив Хуан CNBC ↗
Дженсен Хуанг з Nvidia публічно дав зрозуміти, що компанія все ще готова підтримати наступний мегазалучення коштів OpenAI – і навіть можливо провести IPO. Це несе в собі енергетику «у нас все гаразд, все гаразд»... але це також частина послання.
Говорять про масштаб: продовжують ходити чутки про масштабний раунд (і величезну оцінку), а також у звітах натякають, що OpenAI розглядає альтернативи деяким з найновіших чіпів Nvidia. Ніхто не говорить вголос про «розпад», але на кухні відчувається ледь помітний запах диму.
🏭 Генеральний директор Intel каже, що компанія вироблятиме графічні процесори, популяризовані Nvidia ↗
Генеральний директор Intel Ліп-Бу Тан каже, що Intel націлилася на графічні процесори – головні інструменти сучасного штучного інтелекту часів золотої лихоманки. І так, це вступ на територію Nvidia у вільних черевиках.
Intel також залучила старшого архітектора (раніше працював у Qualcomm) для керівництва розробкою графічних процесорів, спочатку зосередившись на центрах обробки даних. Підтекст очевидний: якщо ви хочете повернутися до розмови про обчислення зі штучним інтелектом, вам потрібна серйозна історія про графічні процесори, а не просто презентація.
🕵️♀️ ICO оголошує про розслідування щодо Grok ↗
Британський наглядовий орган із захисту даних офіційно розслідує обробку персональних даних, пов’язану з Grok, а також потенціал системи для створення шкідливих сексуалізованих зображень. Ця друга частина — тривожний дзвіночок, який можна почути з кінця вулиці.
У розслідуванні називають як сутність X, яка контролює дані в контексті ЄС/ЄЕЗ, так і сам xAI – по суті: «хто його створив, хто ним керував, хто його випустив?» Це один із тих моментів, коли «швидкі дії» зустрічаються з «паперовою роботою, яка кусається»
💻 OpenAI переходить до моделі автономних команд із запуском Codex Desktop ↗
Повідомляється, що OpenAI запустила настільний додаток Codex для macOS, представивши його не стільки як автозаповнення, скільки як керування невеликими агентами кодування, які виконують завдання паралельно. Це або майбутнє програмного забезпечення, або дуже дорогий спосіб винаходити нові класи помилок.
Суть проєкту — «тривалі завдання» плюс нагляд, з такими елементами, як «пісочниця» та інструменти для керування робочим процесом, щоб агенти не топтали ваше сховище. Це зміна позиції: ви не друкуєте, ви режисуєте — як на знімальному майданчику, де актори час від часу переписують сценарій.
🧯 «Поширення діпфейків та нові супутники ШІ»: сім висновків з останнього звіту про безпеку штучного інтелекту ↗
З'явився великий міжнародний звіт про безпеку штучного інтелекту, в якому фактично йдеться про зростання можливостей, але контроль все ще нестабільний. У звіті зазначається «нерівна» продуктивність (блискуча в одну секунду, впевнена помилка в наступну), що здається… болісно знайомим.
Також згадується прискорення поширення діпфейків, зростання популярності компаньйонів зі штучним інтелектом (з , пов'язаної з м'якою емоційністю ) та незручна проблема подвійного використання в біохімічних знаннях. Суть така: двигун став швидшим, а кермо — ні.
Найчастіші запитання
Що Nvidia сказала про інвестування в IPO OpenAI, і чому це важливо?
Генеральний директор Nvidia Єнсен Хуанг заявив, що компанія розгляне можливість інвестування, якщо OpenAI врешті-решт стане публічною компанією, що є сигналом того, що ці відносини залишаються стратегічно важливими. У цьому циклі новин про технології штучного інтелекту підтекстом є масштаб: більші раунди фінансування, як правило, призводять до більшого попиту на обчислення. Це також читається як тихе запевнення ринків, що великі партнерства у сфері штучного інтелекту можуть залишатися стабільними навіть під конкурентним тиском.
Чи шукає OpenAI альтернативи найновішим чіпам Nvidia?
Звіти свідчать про те, що OpenAI розглядає альтернативи деяким найновішим чіпам Nvidia, і це може вказувати на кілька практичних мотивів. У багатьох розробках команди оцінюють кількох постачальників, щоб знизити витрати, уникнути вузьких місць у постачанні або налаштувати продуктивність для певних робочих навантажень. Це не означає автоматичного розриву – частіше це відображає переваги, надмірність та постійну оптимізацію в умовах швидкозмінного апаратного ландшафту.
Чому Intel раптом робить акцент на графічних процесорах для робочих навантажень штучного інтелекту?
Генеральний директор Intel Ліп-Бу Тан заявив, що Intel вироблятиме графічні процесори, спочатку зосередившись на центрах обробки даних, що є явним кроком на основну територію Nvidia. Графічні процесори – це «випробувальна база» для сучасного навчання та логічного висновку ШІ, тому надійний план розвитку графічних процесорів – це прямий шлях назад до розмови про обчислення. Ці новини про технології ШІ також свідчать про те, що Intel хоче конкурувати за глибиною платформи, а не лише за процесорами.
Що розслідує британське ICO щодо Grok та xAI?
Управління комісара з питань інформації Великої Британії (ICO) оголосило про початок офіційного розслідування обробки персональних даних, пов’язаних із Grok, та потенціалу системи для створення шкідливих зображень сексуального характеру. У розслідуванні зазначено як особу X, яка контролює дані в контексті ЄС/ЄЕЗ, так і xAI, зосереджуючись на тому, хто за що відповідає. Типовими результатами у таких випадках є запити на інформацію, необхідні зміни в процесах та потенційні правоохоронні заходи.
Що таке Codex Desktop, і як «агенти кодування» змінюють повсякденну роботу?
Codex Desktop описується як додаток для macOS, позиціонований не стільки як автозаповнення, скільки як спосіб контролю паралельних, тривалих завдань кодування. Поширений підхід полягає в тому, щоб ставитися до агентів як до молодших співробітників: призначати роботу з вузьким обсягом завдань, вимагати контрольних точок та переглядати результати перед об'єднанням. Такі інструменти, як пісочниця та захисні огородження робочого процесу, важливі, оскільки агентні системи можуть швидко змінюватися, а також можуть створювати нові, несподівані режими збоїв.
Які найважливіші висновки з останнього звіту про безпеку штучного інтелекту (діпфейки, супутники, подвійне використання)?
У звіті підкреслюється, що можливості штучного інтелекту розвиваються прискорено, тоді як контроль залишається нерівномірним, включаючи «нестабільну» продуктивність, яка може коливатися від відмінної до впевнено неправильної. Також у звіті висвітлюються прискорені діпфейки, зростаюче використання штучного інтелекту, що сумісно з ризиками емоційної прив’язаності, та проблеми подвійного використання біологічних/хімічних знань. У відповідь організації зазвичай інвестують у моніторинг, ред-теймінг, захисні поліси та чіткі шляхи ескалації, коли моделі поводяться непередбачувано.