🧯 OpenAI наймає нового керівника відділу готовності, щоб спробувати передбачити та пом'якшити шкоду від штучного інтелекту ↗
OpenAI опублікував посаду «Керівника відділу готовності» – по суті, людини, якій доручено уявити найгірші ймовірні способи використання моделей фронтиру, а потім побудувати захисні бар'єри, які витримають тиск (а не лише вібрації та PDF-файли політики).
У списку чітко зосереджено увагу на моделюванні загроз, оцінці та заходах щодо їх пом'якшення як на реальному операційному конвеєрі. Це робота з безпеки, оформлена як розробка програмного забезпечення – заспокійливо на одному диханні, трохи лякаюче на наступному, оскільки це говорить про те, що ризики тепер мають продуктову форму.
🧑⚖️ Китай опублікував проєкт правил для регулювання штучного інтелекту з взаємодією, подібною до людської ↗
Китайський кіберрегулятор поширив проєкт правил, спрямованих на сервіси штучного інтелекту, що імітують людські особистості та емоційно залучають користувачів – балакучих компаньйонів, кокетливих помічників, всю цю зону «чи ви справжні?».
Один момент, що впадає в око: постачальники послуг повинні будуть попереджати про надмірне використання та втручатися, якщо користувачі виявляють ознаки залежності. Це надзвичайно прямо стосується психологічного ризику – ніби хтось подивився на тренд «друга ШІ» та вирішив, що не без ременів безпеки.
🧩 Бувай, GPT-5. Привіт, Квен ↗
Wired вважає, що Qwen завойовує серця не тим, що є найкращим еталонним звіром, а тим, що він має відкриту вагу та легкий у використанні – що, на практиці, і є тим, що будівельники продовжують обирати. Це «інструмент, який ви дійсно можете тримати в руках», а не той, що за оксамитовою мотузкою.
У статті це розглядається як ширший зсув: відкриті моделі, які акуратно вписуються в продукти (і допрацьовуються власними силами), можуть мати більше значення, ніж незначні покращення в рейтингах. Трохи пікантно, можливо, трохи недоброзичливо до закритих лабораторій… але атмосфера залишається.
🎁 Обмеження використання OpenAI та Anthropic подвійного ШІ у святковому посиленні для розробників: все, що вам потрібно знати ↗
OpenAI та Anthropic тимчасово збільшили ліміти використання своїх інструментів, орієнтованих на кодування, надаючи окремим передплатникам більше можливостей для виконання складніших робочих процесів без негайного обмеження їхньої кількості.
Mint зазначає, що підвищення спрямоване на досвідчених користувачів, а потім все повертається до норми після закінчення акційного вікна. Це приємний момент «ось ще енергії», а також тихе нагадування про те, що потужність все ще є скінченним, відчутним обмеженням.
💻 Співзасновник Google DeepMind Шейн Легг встановлює «правило ноутбука», щоб визначити, чи може штучний інтелект замінити вашу роботу ↗
Шейн Легг висунув відверту евристику: якщо роботу можна повністю виконати за допомогою ноутбука (екран, клавіатура, мікрофон, камера тощо), то це той вид когнітивної роботи, в якому все частіше може працювати розширений штучний інтелект.
Він також трохи підстрахувався, зазначивши, що деяка «повністю онлайн» робота все ще спирається на людський зв’язок та особистість. Тож так, правило чітке… але це не гільйотина, а радше штормове попередження.