🛡️ Британські регулятори поспішають оцінити ризики останньої моделі антропного штучного інтелекту, повідомляє FT ↗
Повідомляється, що британські фінансові регулятори швидко працюють над новою моделлю Mythos від Anthropic через побоювання, що вона може виявити серйозні слабкі місця в критично важливих системах. У переговорах беруть участь Банк Англії, FCA, Казначейство та Національний центр кібербезпеки, що є досить вражаючим складом для одного попереднього перегляду моделі.
Викликає занепокоєння те, що Mythos надзвичайно вправно знаходить вразливості програмного забезпечення, хоча Anthropic стверджує, що розгортання жорстко обмежене та спрямоване на роботу з захисту. Очікується, що банки, страховики та біржі отримають брифінг, тому тепер це більше схоже не на лабораторні плітки, а на політику інфраструктури.
🤖 На конференції HumanX усі говорили про Клода ↗
Здавалося, що Anthropic задав тон на HumanX — така була історія. Під час панелей, розмов з постачальниками та балачок у коридорах Клод постійно з'являвся як взірець для людей, яких найбільше хотіли для бізнесу та робочих процесів кодування.
Що впадало в око, так це відносна тиша навколо ChatGPT. У статті натякається, що OpenAI все ще має масштаб і гроші, але настрій на конференції схилився до Клода як інструменту з більш різким потягом до підприємств на даний момент – або так здається.
📄 Клод для Word від Anthropic – це ще один виклик програмній імперії Microsoft ↗
Anthropic випустила бета-версію Claude for Word, глибше занурюючи читача в повсякденне офісне програмне забезпечення, замість того, щоб залишатися обмеженим інструментом для розробників. Він може відповідати на запитання щодо документа за допомогою інтерактивних посилань на розділи, редагувати вибраний текст без порушення форматування та обробляти відстежувані зміни.
Цільова аудиторія досить чітка: команди, які багато працюють з документами, особливо юридичні та фінансові. Це робить це більше, ніж просто додаванням функції – це прямий поштовх у домашню зону Microsoft і досить зухвалий крок.
🌐 ШІ-боти займаються стріп-майнінгом в Інтернеті, і Anthropic лідирує в цьому ↗
Новий погляд на дані Cloudflare стверджує, що компанії, що займаються штучним інтелектом, витягують з Інтернету набагато більше, ніж повертають. Ключовою статистикою є співвідношення сканування до перенаправлень – як часто боти парсять сторінки порівняно з тим, як часто вони відправляють користувачів назад – і Anthropic має особливо погані результати.
За повідомленнями, співвідношення Anthropic становить 8800 до 1, а OpenAI також високий, але значно нижчий. Ширший висновок важко виправдати: стара веб-угода полягала в тому, щоб спочатку сканувати нас, а потім надсилати нам трафік. Механізми відповідей ШІ зберігають першу частину, а другу розвіюють у тумані.
⚔️ Огляд ескалації глобальної гонки озброєнь на базі штучного інтелекту, оскільки США, Китай, Росія та інші країни поспішають створювати автономну зброю та оборонні системи на базі штучного інтелекту ↗
Останні новини про військово-технічну діяльність у сфері штучного інтелекту присвячені не стільки яскравим демонстраціям, скільки стратегічному прискоренню. Великі держави одночасно просувають автономні та штучно-підтримувані оборонні системи, що створює враження естафети, де всі схопили естафету і забули про гальма.
Це піднімає звичні питання – контроль, ескалація, підзвітність – але зараз з більшою терміновістю. Як тільки штучний інтелект глибше вбудовується в цільове впорядкування, спостереження та прийняття рішень на полі бою, слово «експериментальне» починає звучати як паперова етикетка на чомусь, що вже рухається.
🏭 Японський SoftBank запускає підрозділ для розробки власного штучного інтелекту ↗
SoftBank об’єднався з Sony, Honda та іншими японськими компаніями, щоб створити нове підприємство зі штучного інтелекту, зосереджене на «фізичному штучному інтелекті» – моделях, призначених для керування машинами та роботами, а не лише для текстових відповідей. Це відрізняється від звичайного конкурсу чат-ботів і, можливо, цікавіший напрямок.
Амбіції величезні, і, як повідомляється, зусилля спрямовані на створення дуже великої базової моделі та довгий шлях до промислового використання. Це частково національна технологічна стратегія, частково політ на мій мій, частково механічне аніме із засіданнями ради директорів.
Найчастіші запитання
Чому британські регулятори уважно вивчають модель Mythos від Anthropic?
Згідно з повідомленнями, влада Великої Британії розглядає Mythos як потенційну загрозу, оскільки він може бути надзвичайно вправним у пошуку вразливостей програмного забезпечення. Повідомляється, що в обговореннях беруть участь Банк Англії, FCA, Казначейство та Національний центр кібербезпеки. Таке поєднання установ сигналізує про стурбованість щодо можливого впливу на критично важливі системи, зокрема у фінансовій сфері та інфраструктурі.
Чим відрізняється модель Anthropic Mythos від звичайного релізу ШІ?
Занепокоєння полягає не лише в тому, що це нова модель, а й у тому, що вона видається особливо здатною в захисній роботі безпеки, пов’язаній з виявленням слабких місць програмного забезпечення. Anthropic, як повідомляється, стверджує, що доступ до неї суворо обмежений, що свідчить про те, що розгортання відбувається обережніше, ніж широкий запуск для споживачів. На практиці це створює враження, що воно ближче до контрольованої функції безпеки, ніж до стандартного оновлення чат-бота.
Чому Клоду приділяли стільки уваги на конференції HumanX?
Згідно зі статтею, Клод неодноразово згадувався на панелях, у розмовах з постачальниками та неформальних дискусіях як потужний варіант для бізнесу та робочих процесів кодування. У статті представлено, що Anthropic мав помітний імпульс серед корпоративних користувачів на цьому заході. Також натякається, що настрій навколо HumanX був більш стриманим на ChatGPT, хоча OpenAI все ще має значний масштаб та ресурси.
Що насправді робить Claude for Word для команд, які працюють з великим обсягом документів?
Бета-версія, описана тут, розроблена для роботи всередині документів, а не просто для створення окремого тексту. Вона може відповідати на запитання щодо документа з посиланнями на розділи, редагувати вибрані уривки без порушення форматування та обробляти відстежені зміни. Це робить її особливо актуальною для юридичних, фінансових та інших команд, яким потрібен ретельний перегляд, а не чорновий варіант.
Що співвідношення сканування до перенаправлень говорить про ботів зі штучним інтелектом та веб?
У статті це співвідношення представлено як спосіб порівняння того, скільки компаній, що використовують штучний інтелект, сканують веб-сайти, і того, як часто вони відправляють користувачів назад. У цьому контексті дуже високе співвідношення свідчить про вилучення з невеликим зворотним трафіком. Anthropic описується як такий, що має особливо низькі показники за цим показником, що загострює ширшу критику щодо того, що системи відповідей на основі штучного інтелекту можуть послаблювати старішу веб-біржу індексації в обмін на реферали.
Чому люди пов'язують прогрес ШІ як з автономною зброєю, так і з фізичним ШІ?
У статті вказується на дві пов'язані тенденції: уряди прискорюють розробку оборонних систем на основі штучного інтелекту, а компанії, такі як SoftBank, підтримують моделі, призначені для керування машинами та роботами. Разом вони показують, що штучний інтелект виходить за рамки чату та пошуку та ставить під загрозу фізичні системи, які можуть відчувати, приймати рішення та діяти. Це порушує важливіші питання щодо контролю, підзвітності, промислового використання та того, як швидко ці системи переходять від експериментального до операційного стану.