🦞 Засновник OpenClaw Штайнбергер приєднується до OpenAI, бот з відкритим кодом стає фондом ↗
Пітер Штайнбергер переходить до OpenAI, щоб просувати «персональних агентів», тоді як сам OpenClaw залишається в рамках певного фонду, щоб залишатися з відкритим вихідним кодом (і підтримуваним). Такий поділ… доволі розумний — найняти розробника, зберегти проєкт публічним.
Презентація OpenClaw напрочуд практична: сортування електронної пошти, оформлення страхових документів, реєстрація на рейси, надокучливі завдання адміністрування життя. Він також набрав популярності на GitHub, і ця популярність викликала побоювання щодо безпеки, особливо якщо люди використовують його недбало.
🪖 Пентагон «втомився» від опору Anthropic щодо використання військовими моделі штучного інтелекту Клода та може розірвати зв'язки, йдеться у звіті ↗
Основна суперечка: Пентагон хоче широкого доступу «для всіх законних цілей», а Anthropic все ще намагається жорстко обмежити повністю автономну зброю та масове спостереження. Це той тип розбіжностей, який звучить філософськи, поки хтось не скаже: «Ми можемо вас замінити»
Один недооцінений недолік – чиновники не хочуть, щоб модель раптово блокувала робочі процеси посеред процесу, і вони не хочуть вічно обговорювати крайні випадки (справедливо… але також і ох). Тут справжня напруга навколо питання «хто тримає ключі», і вона не є ледь помітною.
🧠 Модель створення стартапу для прогнозування людської поведінки ↗
Сімайл залучила 100 мільйонів доларів для створення моделі «обмеженого навчання», спрямованої на прогнозування можливих дій людей, зокрема, дуже конкретно, на передбачення ймовірних питань у таких речах, як оголошення прибутків. Вузька ціль, великі амбіції, дещо моторошне поєднання.
Цей підхід спирається на інтерв'ю з реальними людьми та дані поведінкових досліджень, а потім проводить симуляції за допомогою агентів штучного інтелекту, призначених для відображення реальних уподобань. Це як створення моделі погоди для людських рішень… що здається неможливим, поки це не стає реальністю.
🧑⚖️ Новина: Білий дім тисне на законодавця штату Юта, щоб той відхилив законопроект про прозорість ШІ ↗
Ініціатива щодо прозорості штучного інтелекту на рівні штату Юта отримує пряму критику з боку Білого дому, де чиновники закликають спонсора законопроекту не просувати його. Законопроект повністю зосереджений на прозорості та безпеці дітей – з цим важко сперечатися, виходячи лише з суто візуального підтексту.
Але більша боротьба стосується юрисдикції: хто має право встановлювати правила, штати чи федеральний уряд. І так, це сварка — ніби двоє людей хапаються за одне кермо та наполягають, що вони спокійніші.
🎬 ByteDance обіцяє запобігти несанкціонованому використанню IP-адреси у відеоінструменті зі штучним інтелектом після погрози Disney ↗
Компанія Disney надіслала заборону на використання генератора відео зі штучним інтелектом від ByteDance, і ByteDance заявила, що посилює запобіжні заходи для запобігання несанкціонованому використанню інтелектуальної власності та зображень. Скарга, нібито, полягає в тому, що інструмент може відображати знайомих персонажів франшизи так, ніби вони просто... стікери загального надбання.
Це зіткнення, яке всі передбачали: інструменти для створення вірусного відео на основі штучного інтелекту розвиваються швидко, студії ведуть судові процеси, а фраза «ми додамо запобіжні заходи» стає мовою вибачень за замовчуванням. І ось, технології виглядають як магія, а юридична сторона справи — як гравітація.
Найчастіші запитання
Що означає, що засновник OpenClaw приєднався до OpenAI, тоді як OpenClaw перейшов до фонду?
Це сигналізує про розкол між особою, яка створює «персональних агентів», та проектом, який залишається під державним управлінням. Приєднання Штайнбергера до OpenAI передбачає, що він зосередиться на просуванні продуктів у стилі агентів. Розміщення OpenClaw у фонді має на меті зберегти його відкритий вихідний код та сталу підтримку. На практиці цей крок спрямований на збереження довіри спільноти, тоді як розробник працює там, де є ресурси.
Чому агенти штучного інтелекту в стилі OpenClaw зосереджені на таких справах, як електронна пошта та оформлення документів?
Оскільки робота «адміністратора життя» є повторюваною, заснованою на правилах та трудомісткою, вона є практичною ціллю для автоматизації. Наведені тут приклади – сортування електронної пошти, оформлення страхових документів та реєстрація на рейси – це вузькоформатні завдання з чіткими критеріями успіху. Така зосередженість може дати агентам відчуття цінності швидше, ніж більш відкриті асистенти. Це також підкреслює, чому ретельний контроль доступу важливий, коли агенти торкаються особистих облікових записів.
Як можна розгорнути агент штучного інтелекту з відкритим кодом, такий як OpenClaw, не створюючи проблем безпеки?
Ставтеся до нього як до програмного забезпечення, яке може переглядати конфіденційні дані, а не як до іграшкового скрипта. Поширений підхід полягає в блокуванні облікових даних, обмеженні дозволів до необхідного мінімуму та веденні журналів і журналів аудиту. Запускайте його в обмеженому середовищі та відокремте від систем з високим рівнем цінності. Багато проблем безпеки виникають через недбале розгортання, особливо коли люди розкривають кінцеві точки або токени без надійних засобів захисту.
Чому Пентагон незадоволений обмеженнями Anthropic щодо військового використання Claude?
Суперечка зосереджена на сфері застосування та контролі: Пентагон хоче широкого доступу «для всіх законних цілей», тоді як Anthropic описується як така, що дотримується жорстких обмежень щодо повністю автономної зброї та масового спостереження. Чиновники також не хочуть, щоб моделі блокували робочі процеси посеред процесу або вимагали нескінченних переговорів щодо крайніх випадків. Ця суперечка менш абстрактна, ніж здається – вона стосується того, хто вирішує, що модель може робити в реальних операціях.
Як стартапи намагаються передбачити поведінку людини за допомогою штучного інтелекту, і чому це здається суперечливим?
У цьому прикладі, Simile, використовується модель «обмеженого навчання», спрямована на прогнозування можливих дій людей, включаючи передбачення ймовірних питань у таких контекстах, як звіти про прибутки. Описаний підхід поєднує інтерв'ю з даними поведінкових досліджень та симуляціями за допомогою агентів штучного інтелекту, призначених для відображення реальних уподобань. Це виглядає моторошно, оскільки переводить штучний інтелект від реагування на людей до їх прогнозування. Завдання полягає в тому, щоб обмежувати твердження та уникати надмірної впевненості.
Що відбувається, коли відеоінструменти на основі штучного інтелекту генерують персонажів, захищених авторським правом, як у зіткненні ByteDance та Disney?
Зазначена закономірність знайома: студія видає наказ про припинення діяльності, а платформа реагує посиленням запобіжних заходів для запобігання несанкціонованому використанню інтелектуальної власності або подібності. У багатьох інструментах запобіжні заходи означають жорсткіші фільтри контенту, покращене виявлення впізнаваних персонажів та чіткіше забезпечення дотримання правил користування. Основний конфлікт полягає між швидкістю та відповідальністю – генерація вірусів відбувається швидко, а дотримання прав діє подібно до сили тяжіння. Очікуйте більше таких зіткнень, оскільки відеогенератори поширюються.