⚖️ Anthropic подає до суду, щоб заблокувати внесення до чорного списку Пентагону через обмеження використання штучного інтелекту ↗
Anthropic подала до суду свою суперечку з Пентагоном після того, як її назвали ризиком для ланцюга поставок. Компанія стверджує, що цей крок був незаконною помстою за відмову послабити обмеження щодо автономної зброї та внутрішнього спостереження, що робить цю суперечку однією з найзапекліших точок розпалу в політиці ШІ на даний момент. ( Reuters )
Уряд хоче гнучкості для «будь-якого законного використання», тоді як Anthropic стверджує, що приватним лабораторіям все ще слід дозволити проводити жорсткі межі безпеки. Це стало одним із найчіткіших тестів на те, чи може компанія зі штучним інтелектом сказати «ні» військовим умовам, не будучи за це розгромленою. ( Reuters )
🧑💻 Співробітники OpenAI та Google підтримують позов Anthropic проти Пентагону ↗
Цей позов швидко отримав підтримку також з боку конкуруючих лабораторій. Майже 40 співробітників OpenAI та Google підтримали Anthropic у записці amicus curiae (дружини суду), стверджуючи, що заходи помсти проти фірм за порушення правил безпеки ШІ суперечать суспільним інтересам. ( The Verge )
Отже, так, конкуренти раптово опинилися на одному боці — принаймні в цьому питанні. У заявці основна увага приділяється масовому спостереженню та ненадійній автономній зброї, що робить всю цю справу не схожою на стандартну снайперську атаку Кремнієвої долини, а радше на справжню галузеву лінію на піску... чи, можливо, багнюці. ( The Verge )
🛡️ OpenAI купує Promptfoo для захисту своїх ШІ-агентів ↗
OpenAI заявила про купівлю Promptfoo, стартапу, що спеціалізується на захисті великих мовних моделей від атак зловмисників. План полягає в тому, щоб інтегрувати її технологію в OpenAI Frontier, корпоративну платформу компанії для агентів штучного інтелекту. ( TechCrunch )
Це показовий крок. Усі хочуть, щоб агентний ШІ робив більше, швидше і всюди, але аспект безпеки відстає, чи то трохи, чи то сильно. Ця угода свідчить про те, що OpenAI вважає, що наступна велика гонка буде не лише за розумніших агентів, а й за безпечніших. ( TechCrunch )
🧪 Anthropic запускає інструмент для перевірки коду, щоб контролювати перевантаження коду, згенерованого штучним інтелектом ↗
Anthropic запустив Code Review всередині Claude Code, спрямований на команди, які потопають у пул-реквестах, створених інструментами штучного інтелекту. Він використовує кілька агентів паралельно для сканування коду, позначення логічних проблем, ранжування серйозності та залишання коментарів безпосередньо на GitHub. ( TechCrunch )
Суть досить проста: ШІ генерує код швидше, ніж люди можуть його осмислено переглянути, тому тепер ШІ має переглянути ШІ. Трохи хитросплетіння, але практичне. Anthropic каже, що воно орієнтоване на корпоративних користувачів, які вже бачать величезний обсяг коду від Claude Code. ( TechCrunch )
💰 Підтримувана Nvidia Nscale оцінюється в 14,6 мільярда доларів у новому раунді фінансування ↗
Британська компанія Nscale, що займається розробкою інфраструктури штучного інтелекту, залучила 2 мільярди доларів у раунді серії C, досягши оцінки в 14,6 мільярда доларів. Серед спонсорів були Aker, 8090 Industries, Nvidia, Citadel, Dell та Jane Street, що є досить вагомим вотумом довіри. ( Reuters )
Це важливо, бо це не черговий запуск моделі чи налаштування чат-бота. Це власне й важлива сторона буму — обчислення, інфраструктура, потужності, вся важка техніка за лаштунками. Можливо, не гламурно, але саме туди зараз хлине велика кількість грошей. ( Reuters )
🧠 AMI Labs Яна Лекуна залучає 1,03 мільярда доларів для створення моделей світу ↗
Нове підприємство Яна Лекуна, AMI Labs, залучило 1,03 мільярда доларів при оцінці до внесення коштів у 3,5 мільярда доларів. Компанія прагне створити «світові моделі» – системи штучного інтелекту, призначені для навчання на самій реальності, а не переважно на мові. ( TechCrunch )
Це прямий філософський удар по нинішньому консенсусу, що базується на LLM, і до того ж досить різкий. ЛеКун роками стверджував, що сучасні мовні моделі не допоможуть нам досягти інтелекту людського рівня, тому це підвищення перетворює цей аргумент на дуже дорогий експеримент. ( TechCrunch )
🇨🇳 Китайські технологічні центри просувають агента штучного інтелекту OpenClaw, незважаючи на попередження безпеки ↗
Кілька місцевих урядів Китаю підтримують OpenClaw, агента штучного інтелекту, який швидко поширюється, незважаючи на проблеми безпеки, пов'язані з його доступом до персональних даних. Тож офіційний настрій, схоже, такий: так, ризики є – і так, давайте все одно його масштабувати. ( Reuters )
Цей розкол і є головною темою. Місцеві центри прагнуть економічного зростання та імпульсу екосистеми, тоді як регулятори попереджають про витік даних. Це вже знайома схема ШІ – спочатку спринт, потім прибирання огорожі, або так здається. ( Reuters )
Найчастіші запитання
Чому Anthropic судиться з Пентагоном через обмеження використання штучного інтелекту?
Anthropic стверджує, що Пентагон назвав це ризиком для ланцюга поставок після того, як компанія відмовилася від ширших умов, які могли б поширюватися на автономну зброю та внутрішнє спостереження. Таким чином, позов стосується не лише статусу постачальника. Він перевіряє, чи може лабораторія штучного інтелекту дотримуватися чітких обмежень безпеки та все ще конкурувати за державні роботи, не будучи покараною.
Чому співробітники OpenAI та Google підтримують Anthropic у цій суперечці щодо безпеки ШІ?
У записці amicus curiae (друга сторони) зазначено, що багато людей у конкуруючих лабораторіях розглядають це як проблему безпеки ШІ, що створює прецедент, а не просто боротьбу між однією компанією та одним агентством. Їх турбує, що покарання постачальника за дотримання «червоних ліній» може тиснути на ширший ринок, щоб той послабив запобіжні заходи. На практиці це може вплинути на те, як укладатимуться майбутні контракти на використання ШІ в оборонній та державній сферах.
Що може змінити справа Антропо-Пентагону для політики ШІ та оборонних контрактів?
Якщо Anthropic переможе, компанії зі штучним інтелектом можуть мати сильніші позиції для визначення неприйнятного використання навіть під час продажу в чутливі урядові середовища. Якщо ж вона програє, агентства можуть отримати важелі впливу, щоб вимагати від постачальників ширших умов «законного використання». У будь-якому разі, цей спір, ймовірно, вплине на формулювання закупівель, оцінку ризиків та те, як запобіжні заходи вписані в оборонні угоди.
Чому OpenAI купила Promptfoo для ШІ-агентів?
Promptfoo відомий тестуванням великих мовних моделей на предмет запитів з боку конкурентів та інших вразливостей безпеки. Інтеграція такого інструментарію в платформу корпоративних агентів OpenAI свідчить про те, що компанія розглядає безпечніше розгортання як конкурентну перевагу, а не як побічне завдання. Оскільки агенти ШІ беруть на себе більш суттєву роботу, тестування на стійкість та зловживання стає набагато важче ігнорувати.
Як команди можуть безпечніше впоратися з потоком коду, згенерованого штучним інтелектом?
Нова функція Anthropic Code Review у Claude Code призначена для команд, перевантажених пул-реквестами, що генеруються інструментами штучного інтелекту. Вона використовує кілька агентів паралельно для виявлення логічних проблем, ранжування їхньої серйозності та залишання коментарів на GitHub. Зазвичай такі інструменти допомагають сортувати обсяг, але люди-рецензенти все ще важливі для архітектури, контексту та остаточного затвердження.
Чому саме зараз в інфраструктуру штучного інтелекту вкладається стільки коштів?
Останній раунд фінансування Nscale підкреслює, що індустрія штучного інтелекту все ще вкладає величезні кошти в обчислення, інфраструктуру та потужності. Ці витрати можуть бути менш помітними, ніж показний запуск моделі, але вони лежать в основі всього іншого. Коли попит на навчання та розгортання продовжує зростати, компанії, що продають кирки та лопати, часто стають одними з найбільших переможців.
Що таке світові моделі, і чому Янн ЛеКун робить ставку на них?
Моделі світу – це системи штучного інтелекту, розроблені для навчання на основі поведінки світу, а не для того, щоб покладатися переважно на мовні дані. Це важливо, оскільки Янн ЛеКун давно стверджує, що мовні моделі самі по собі навряд чи зможуть досягти людського рівня інтелекту. AMI Labs перетворює цю точку зору на значну комерційну ставку на інший шлях для передових досліджень у галузі штучного інтелекту.
Чому китайські технологічні центри підтримують OpenClaw, незважаючи на попередження безпеки?
Історія OpenClaw демонструє знайомий розкол на швидкозмінних технологічних ринках: місцеві органи влади прагнуть зростання, субсидій та імпульсу екосистеми, тоді як регулятори турбуються про витік даних та безпеку. Підтримка агента, незважаючи на попередження, свідчить про те, що в деяких місцях переважають економічні стимули. Для спостерігачів це ще одне нагадування про те, що впровадження часто відбувається швидше, ніж нагляд.