Індонезія блокує доступ до чат-бота Маска зі штучним інтелектом Grok через діпфейкові зображення ↗
Індонезія тимчасово заблокувала Grok після того, як його використовували для створення діпфейків сексуального характеру без згоди, зокрема зображень, спрямованих на жінок та дітей. Уряд представив це як проблему прав людини та громадської безпеки, а не як незначну технічну незручність.
Суть у тому, що якщо інструмент може «роздягнути» реальних людей за командою, то тягар доказування перевертається. Платформи повинні продемонструвати, що вони можуть цьому запобігти, а не просто обіцяти, що вони думають про це.
Ілон Маск каже, що Велика Британія хоче придушити свободу слова, оскільки X може бути заборонений ↗
Міністри Великої Британії відкрито запровадили штрафи – і навіть заблокували X – після того, як Grok використовували для створення сексуально відвертих зображень без його згоди. Маск відкинув звичне формулювання свободи слова… але правова ситуація у Великій Британії переходить з «клубу дебатів» у «кількість термінів виконання»
Ofcom підштовхують до швидких дій, і законодавці вказують на ту саму похмуру закономірність: як тільки зображення поширюються, шкода не чекає терпляче на оновлення політики.
🧑💻 Повідомляється, що OpenAI просить підрядників завантажувати реальні роботи з попередніх проектів ↗
Повідомляється, що OpenAI разом із партнером з даних для навчання просить підрядників завантажувати реальні робочі артефакти з минулих (і поточних) проектів – наприклад, документи, електронні таблиці, презентації, репозиторії. Заявлена мета – оцінити та вдосконалити агентів ШІ для виконання офісних завдань.
Проблема очевидна і трохи сюрреалістична: підрядникам наказують самостійно видаляти конфіденційну інформацію. Це велика довіра до швидкоплинного конвеєра — як попросити когось з любов'ю знешкодити бомбу за допомогою кухонних рукавиць.
🗂️ OpenAI просить підрядників завантажувати роботи з минулих проектів для оцінки ефективності агентів штучного інтелекту ↗
В окремому звіті розглядається та сама схема та причини, чому вона викликає занепокоєння у юристів з питань конфіденційності та інтелектуальної власності. Навіть якщо всі діють добросовісно, інструкція «видалити конфіденційні матеріали» є нечіткою, коли йдеться про справжні корпоративні документи.
Це також натякає на ширшу стратегію: агенти ШІ вже не просто балакучі другі пілоти — їх навчають імітувати заплутану, багатофайлову реальність справжньої роботи. Практично, так. Також трохи… ой.
🏦 Allianz та Anthropic Forge укладають глобальне партнерство для розвитку відповідального штучного інтелекту у страхуванні ↗
Allianz та Anthropic оголосили про глобальне партнерство, зосереджене на трьох напрямках: продуктивність співробітників, автоматизація операцій за допомогою агентного штучного інтелекту та дотримання вимог за проектом. Страхування — це паперова робота з зубами, тому «агентський» тут по суті означає автоматизацію складних робочих процесів без втрати аудиторських слідів.
Суть така: зробіть класну автоматизацію, але зберігайте чеки. У регульованих галузях це єдиний спосіб масштабуватися, не перетворюючись на піньяту про відповідальність.
🕵️♂️ Заява у відповідь Grok AI на X ↗
Британський регулятор захисту даних повідомляє, що звернувся до X та xAI, щоб отримати роз'яснення щодо того, як вони обробляють персональні дані та захищають права людей, враховуючи занепокоєння щодо контенту, створеного Grok. Йдеться не лише про «модерацію контенту», а й про те, чи законно обробляються дані людей та чи захищаються їхні права.
Це той тип регуляторного кроку, який звучить ввічливо, а потім непомітно стає надзвичайно серйозним, якщо відповіді даються нечітко... або ухиляються, або й те, й інше.
Найчастіші запитання
Чому Індонезія заблокувала доступ до Grok AI?
Індонезія тимчасово заблокувала Grok після того, як повідомлялося, що його використовували для створення діпфейків сексуального характеру без згоди, включаючи зображення, спрямовані на жінок та дітей. Чиновники представили цей крок як проблему прав людини та громадської безпеки, а не незначну технологічну суперечку. Основний меседж полягає в тому, що принцип «ми це виправимо пізніше» не спрацьовує, коли інструменти можуть завдати негайної, незворотної шкоди.
Що розглядає Велика Британія після появи діпфейків, згенерованих Grok, на X?
Міністри Великої Британії публічно обговорювали штрафи та навіть можливість блокування X після того, як Grok був використаний для створення сексуально відвертих зображень без його згоди. Політичний та регуляторний тон зміщується в бік забезпечення дотримання вимог, а не відкритих дебатів. Законодавці постійно повертаються до питання часу: як тільки зображення поширюються, жертвам загрожує шкода задовго до того, як платформи публікують оновлену політику.
Що означає, коли регулятори «перекладають тягар доказування» на інструменти обробки зображень зі штучним інтелектом?
Ідея «зміни тягаря доказування» полягає в тому, що платформам, можливо, доведеться продемонструвати, що вони можуть запобігти конкретній шкоді, як-от створенню зображень «роздягання» без згоди, а не просто обіцяти запобіжні заходи. На практиці це підштовхує компанії до демонстративного контролю, вимірюваного забезпечення дотримання правил та чіткого реагування на збої. Це також сигналізує про те, що «намір» має менше значення, ніж відчутні результати та повторюване запобігання.
Як платформи можуть зменшити ризик неконсенсуальних діпфейків, згенерованих штучним інтелектом?
Поширеним підходом є багаторівнева профілактика: обмеження запитів та виводів, пов’язаних із реальними людьми, блокування запитів на стиль «роздягання», а також виявлення та зупинення спроб створення сексуалізованих зображень без згоди. Багато конвеєрів додають обмеження швидкості, посилений моніторинг ідентичності та зловживань, а також швидкі робочі процеси видалення контенту після його поширення. Метою є не лише формулювання політики, а й інструменти, які витримують використання з боку зловмисників.
Чому завантаження реальних робочих документів підрядниками OpenAI викликає тривогу?
У звітах йдеться, що OpenAI (разом з партнером з навчальних даних) просить підрядників завантажувати реальні робочі артефакти – документи, електронні таблиці, презентації та репозиторії – для оцінки та вдосконалення агентів штучного інтелекту для офісних завдань. Занепокоєння полягає в тому, що підрядникам наказують самостійно видаляти конфіденційну інформацію, що може призвести до помилок. Юристи з питань конфіденційності та інтелектуальної власності стурбовані тим, що ця інструкція «видалення конфіденційної інформації» є занадто неоднозначною для реальних корпоративних матеріалів.
Яке значення має партнерство Allianz з Anthropic у сфері «агентського штучного інтелекту» у страхуванні?
Allianz та Anthropic описали глобальне партнерство, зосереджене на продуктивності працівників, автоматизації операцій з використанням агентного штучного інтелекту та дотриманні вимог на етапі проектування. Робочі процеси в страхуванні є складними та жорстко регульованими, тому «агентський» часто передбачає автоматизацію багатоетапних процесів без втрати підзвітності. Акцент на журналах аудиту та «зберігання квитанцій» відображає практичну реальність: автоматизація масштабується в регульованих галузях лише тоді, коли вона залишається перевіреною та захищеною.