🏛️ Уряд створить нову лабораторію, щоб Велика Британія залишалася на швидкій смузі проривів у галузі штучного інтелекту ↗
Велика Британія створює державну лабораторію фундаментальних досліджень штучного інтелекту, презентуючи її як роботу «блакитного неба» – таку, що є ризикованою, повільною та іноді окупається так, що всі інші виглядають так, ніби задрімали. ( GOV.UK )
Основна увага приділяється не лише «більшим моделям, більшій кількості графічних процесорів» – вона спрямована на вирішення проблеми постійних недоліків, таких як галюцинації, коротка пам'ять і непередбачуване мислення, а також на надання дослідникам доступу до серйозних обчислень через Ресурс досліджень штучного інтелекту. Звучить дуже розумно… і також, тихо, як спроба запобігти миттєвому вивезенню найкращих умів Великої Британії в інше місце. ( GOV.UK )
🧨 Генеральний директор Nvidia натякає на припинення інвестицій в OpenAI та Anthropic ↗
Дженсен Хуанг сигналізує, що Nvidia може не продовжувати інвестувати в передові лабораторії штучного інтелекту таким самим чином – динаміка IPO (і масштаб перевірок, що обговорюються) ускладнює реалізацію такого типу фінансування. ( Reuters )
Варто відзначити зміну тону: Nvidia є королем кирок і лопат у всьому цьому бумі, проте вона натякає, що «володіння частинами майнерів» вже не завжди є головним. Або, можливо, це просто голосне підстрахування, що генеральні директори роблять, як дихають. ( Reuters )
🧩 Ексклюзив: Велика технологічна група підтримує Anthropic у боротьбі з Пентагоном, оскільки інвестори наполягають на деескалації конфлікту щодо гарантій ШІ ↗
Протистояння Anthropic з Пентагоном перетворюється на справжню скороварку – інвестори, як повідомляється, хочуть знизити температуру, тоді як компанія намагається дотримуватися своєї позиції щодо формулювань запобіжних заходів (особливо щодо спостереження). ( Reuters )
Підтекст історії майже голосніший за сам текст: в епоху штучного інтелекту формулювання контрактів — це не «юридична прискіпливість», а, по суті, продуктова політика, і саме вона вирішує, чи стане модель інструментом, зброєю чи величезним тягарем. ( Reuters )
🪖 Сем Альтман визнає, що OpenAI не може контролювати використання штучного інтелекту Пентагоном ↗
Альтман, як повідомляється, сказав співробітникам, що OpenAI не може контролювати, як Пентагон використовує свій ШІ після його розгортання, що відбувається з глухим стуком, оскільки воно точно називає страх, навколо якого кружляють люди. ( The Guardian )
Ширшим фоном є ескалація тертя між «ми допоможемо, але з правилами» та «ми допоможемо, крапка», а також внутрішня та громадська негативна реакція, коли військове прийняття здається поспішним або опортуністичним. Етика тут не стільки чітка лінія, скільки розлита мокрою фарбою – кожен наступає на це, а потім сперечається, чия це доля. ( The Guardian )
🧬 Нова стипендія зі штучного інтелекту в геноміці з Інститутом Сангера та Google DeepMind ↗
Інститут Веллкома Сангера запускає академічну стипендію, що фінансується DeepMind, зосереджену на застосуванні штучного інтелекту в геноміці, яка позиціонується як перший у своєму роді слот для стипендіата DeepMind у цій конкретній галузі. ( sanger.ac.uk )
Цікавим (і, чесно кажучи, трохи освіжаючим) є акцент на маловивчених проблемах геноміки, де штучний інтелект ще не скрізь присутній, а також чітке зауваження про те, що DeepMind не керує дослідженнями цього співробітника. Це як дати комусь ракету та сказати: «Іди та відкрий щось», а не «Іди та оптимізуй нашу дорожню карту» ( sanger.ac.uk ).
Найчастіші запитання
Що таке Лабораторія фундаментальних досліджень штучного інтелекту, що підтримується урядом Великої Британії, і чим вона займатиметься?
Підтримувана урядом Лабораторія фундаментальних досліджень штучного інтелекту позиціонується як дослідницька ініціатива «блакитного неба» – робота з високим рівнем ризику, яка може зайняти час, щоб окупитися. Замість того, щоб зосереджуватися лише на масштабуванні дедалі більших моделей, вона прагне вирішити такі постійні проблеми, як галюцинації, коротка пам'ять та непередбачуване мислення. Ідея полягає в тому, що прориви походять від фундаментальних принципів, а не лише від додавання більшої кількості графічних процесорів.
Як Британська лабораторія фундаментальних досліджень штучного інтелекту може допомогти дослідникам отримати доступ до серйозних обчислень?
Поряд із Британською лабораторією фундаментальних досліджень штучного інтелекту, план передбачає доступ до значних обчислювальних ресурсів через Ресурс досліджень штучного інтелекту. На практиці це означає, що дослідники можуть проводити експерименти, які в іншому випадку були б обмежені вартістю або інфраструктурою. Це також дозволяє командам тестувати ідеї в масштабах, де такі проблеми, як надійність та стійкість, стають конкретними, а не лише теоретичними.
Чому Велика Британія робить акцент на галюцинаціях, короткій пам'яті та непередбачуваному мисленні?
Ці слабкі місця проявляються під час розгортання та можуть швидко підірвати довіру. Заявлена спрямованість передбачає, що метою є не лише можливості, а й надійність – зменшення кількості вигаданих результатів, покращення обробки моделей довших контекстів та зменшення нестабільності міркувань. Така робота часто є повільнішою та ризикованішою, тому її називають фундаментальним дослідженням.
Про що насправді сигналізує зміна тону Nvidia щодо інвестування в OpenAI або Anthropic?
У звіті це трактується як натяк на те, що Nvidia може не продовжувати інвестувати в передові лабораторії таким самим чином, особливо враховуючи динаміку IPO та величезні розміри чеків, які ускладнюють цю стратегію. Навіть будучи лідером у сфері апаратного забезпечення штучного інтелекту, компанія натякає, що частки власності не завжди є найкращим кроком. Це також може бути обережним сигналом, що є поширеним явищем у коментарях керівників.
Чому суперечка Anthropic з Пентагоном щодо «формули захисту» є такою важливою справою?
Ключовий момент статті полягає в тому, що формулювання контракту може стати політикою продукту, особливо коли воно стосується спостереження та інших чутливих застосувань. Повідомляється, що інвестори хочуть деескалації конфлікту, тоді як компанія намагається дотримуватися своєї позиції щодо запобіжних заходів. У багатьох випадках впровадження штучного інтелекту ці пункти визначають, для чого може використовуватися система, і які ризики компанія фактично приймає.
Що означає, коли Сем Альтман каже, що OpenAI не може контролювати, як Пентагон використовує ШІ?
Це описує практичне обмеження: після розгортання інструменту, його початковий розробник може мати обмежені можливості керувати подальшим використанням. Це має велике значення, оскільки вказує на основний страх, який люди викликають щодо військового впровадження – правила можуть існувати на етапі укладання договору, але їх забезпечення може бути складним. Це також відображає ширшу суперечність між «допомогою з обмеженнями» та «допомогою, незважаючи ні на що»