🔐 OpenAI виявляє проблему безпеки, пов'язану зі стороннім інструментом, і повідомляє, що доступ до даних користувачів не здійснювався ↗
OpenAI заявила, що скомпрометований сторонній інструмент розробника вплинув на процес, який компанія використовує для сертифікації своїх програм для macOS як легітимних. Компанія заявила, що не знайшла жодних доказів доступу до даних користувачів, компрометації її систем чи IP-адрес або зміни її програмного забезпечення – що є вирішальним моментом. ( Reuters )
Практичні наслідки все ще досить серйозні. OpenAI ротував сертифікати та вжив заходів для посилення правил, щоб фальшиві, але переконливі додатки ChatGPT не стали більшою проблемою, ніж потрібно. Отже, це не порушення, але одне з тих моментів, коли потрібно «оновити додаток зараз». ( OpenAI )
🧯 Сем Альтман відповідає на «провокаційну» статтю в New Yorker після нападу на його будинок ↗
Сем Альтман публічно виступив проти різко критичного профілю жителя Нью-Йорка після очевидної атаки на його будинок, назвавши деякі його частини оманливими та особистими. Все це виглядало надзвичайно сирим для посади генерального директора – радше оборонним, ніж відшліфованим, можливо, навмисно. ( TechCrunch )
Водночас поліція заарештувала підозрюваного у зв'язку з нападом Молотова, пов'язаним з резиденцією Альтмана в Сан-Франциско, при цьому не повідомлялося про постраждалих. Тож історія миттєво перейшла від критики в ЗМІ до фізичної безпеки – наразі це стало справжньою частиною історії ШІ. ( AP News )
🏗️ Колишні лідери OpenAI Stargate планують приєднатися до Meta Platforms ↗
Повідомляється, що троє високопосадовців, пов'язаних з інфраструктурними проєктами OpenAI Stargate, прямують до Meta. Це не просто відтік талантів – це відтік талантів у рамках обчислювальної війни, який проявляється по-різному, коли всі борються за центри обробки даних, чіпи та потужності.
Найняті співробітники свідчать про те, що Meta не просто витрачає багато грошей на моделей, а й намагається поглинути людей, які знають, як будувати промислову сантехніку під ними. Можливо, на перший погляд це сухе питання, але саме тут зараз зосереджена значна частина перегонів. ( Bloomberg )
🛡️ Огляд Клода Міфоса ↗
Anthropic заявила, що її нова модель Mythos достатньо потужна в кібербезпеці, тому вона не випускає її широко, принаймні поки що. Натомість вона спрямовується в жорстко контрольовані оборонні зусилля, оскільки компанія вважає, що модель може виявляти небезпечні недоліки програмного забезпечення в масштабах, які, ну, дещо тривожать. ( Red Anthropic )
Ця обережність вже поширюється. Згідно з повідомленнями, американські чиновники та великі фірми розглядають стрибок можливостей моделі як справжню проблему безпеки інфраструктури, а не просто як черговий показний запуск. Цього разу цикл штучного інтелекту вдягнений у захисну шапку. ( Axios )
☁️ CoreWeave укладає угоду з Anthropic про хмарні технології штучного інтелекту, акції зростають ↗
CoreWeave заявила, що надасть Anthropic хмарні обчислювальні потужності за багаторічною угодою, яка, як очікується, буде запущена пізніше цього року. Це ще одне нагадування про те, що зразкові компанії все ще швидкі лише настільки, наскільки швидкий інфраструктурний конвеєр під ними – гламурне програмне забезпечення, жорсткі фізичні вузькі місця.
Для Anthropic угода посилює доступ до обчислень для лінійки Claude. Для CoreWeave це ще одна ознака того, що спеціалізовані гравці хмарних технологій штучного інтелекту продовжують перетягувати бізнес у абсолютного лідера розробників моделей, який, що дещо дивно, тримається. ( Reuters )
💸 Підтримувана Nvidia SiFive досягла оцінки в 3,65 мільярда доларів за відкриті чіпи штучного інтелекту ↗
SiFive отримала раунд інвестицій у розмірі 400 мільйонів доларів за оцінкою в 3,65 мільярда доларів, що є великим свідченням довіри до відкритого дизайну чіпів для систем штучного інтелекту. Це ще не означає, що трон Nvidia хитається, ні, але це показує, що інвестори все ще хочуть альтернативних шляхів до апаратного забезпечення штучного інтелекту.
Ширший сенс важко не помітити. Штучний інтелект — це вже не просто історія про моделі чи навіть про чіпи, він перетворюється на боротьбу за те, які шари залишаються відкритими, які — власницькими, і кому платять на кожній зупинці конвеєра. ( TechCrunch )
Найчастіші запитання
Що сталося з проблемою безпеки програми OpenAI для macOS?
OpenAI заявила, що скомпрометований сторонній інструмент розробника вплинув на процес підписання, який використовується для сертифікації її додатків macOS. Компанія також заявила, що не знайшла жодних доказів доступу до даних користувачів, компрометації її систем чи інтелектуальної власності або зміни її програмного забезпечення. Центральною проблемою була довіра та автентичність додатків, а не підтверджене порушення інформації про клієнтів.
Чи варто мені оновлювати додаток ChatGPT для macOS після цього інциденту з OpenAI?
Так, оновлення програми — це практичний висновок. OpenAI ротував сертифікати та спростив процес, тому фальшиві, але переконливі програми ChatGPT з меншою ймовірністю спричинять плутанину чи ризик. У таких випадках найбезпечнішим кроком є використання останньої офіційної версії та уникання завантаження програм для робочого столу з неофіційних джерел або дзеркальних сайтів.
Чому проблема зі стороннім інструментом розробника має значення, якщо дані не були викрадені?
Оскільки довіра до програмного забезпечення залежить не лише від доступу до даних. Якщо інструмент, що бере участь у сертифікації програм, скомпрометований, це може викликати сумніви щодо того, чи можуть користувачі надійно ідентифікувати легітимне програмне забезпечення. У багатьох виробничих середовищах такі проблеми мають значення, оскільки вони впливають на безпеку розповсюдження, довіру до оновлень та ризик переконливих спроб видавання себе за іншу особу.
Чому Meta так важливою справою є найм колишніх керівників OpenAI Stargate та інших інфраструктурних проектів ШІ для компанії, що наймають колишніх керівників OpenAI Stargate?
Ці найми вказують на конкуренцію під рівнем моделі, де центри обробки даних, чіпи, потужність та потужності для розгортання мають таке ж значення, як і дослідницькі таланти. Інфраструктура штучного інтелекту стає стратегічною перевагою, а не просто допоміжною функцією. У статті йдеться про те, що Meta намагається зміцнити промислову сторону ШІ, а не просто додати більше дослідників моделей.
Що таке модель Mythos від Anthropic, і чому компанія обмежує її випуск?
Anthropic описав Mythos як достатньо просунуту систему в кібербезпеці, що дозволяє їй триматися під жорстким контролем, а не поширюватися широко. Занепокоєння, схоже, полягає в тому, що потужна система для пошуку недоліків програмного забезпечення може запропонувати захисну цінність, водночас підвищуючи ризики зловживання. Поширеним підходом у таких ситуаціях є обмежений доступ, вузьке розгортання та ретельніший нагляд.
Чому угоди щодо інфраструктури штучного інтелекту та фінансування відкритих чіпів важливі для ширшого ринку штучного інтелекту?
Вони показують, що гонка штучного інтелекту все більше залежить від доступу до обчислень та вибору обладнання, а не лише від функцій чат-ботів. Угода CoreWeave-Anthropic підкреслює, як модельні компанії все ще залежать від хмарних потужностей, тоді як фінансування SiFive сигналізує про інтерес інвесторів до альтернатив у стеку чипів штучного інтелекту. Разом ці кроки свідчать про те, що інфраструктура штучного інтелекту стає основним полем битви за зростання та контроль.