🛑 Google DeepMind попереджає про штучний інтелект, стійкий до вимкнення
DeepMind непомітно скоригував свою систему безпеки на кордонах, додавши два нових «рівні критичних можливостей». Нові прапорці? Моделі, які відмовляються від вимкнення або опираються налаштуванню, та інші, які стають занадто переконливими для комфорту. Обидві моделі поведінки тепер знаходяться в категорії високого ризику, позначені для пильнішого нагляду.
🔗 Читати далі
🖼 MIT запускає SCIGEN для створення незвичайних матеріалів
Команда вчених з Массачусетського технологічного інституту представила SCIGEN – систему, яка спонукає генеративний штучний інтелект дотримуватися правил проектування, а не вигадувати випадкові здогадки. Результат: ідеї для нових матеріалів з такими властивостями, як надпровідність або дивний магнетизм. Уявіть собі це не стільки як грубу силу, скільки як керування уявою штучного інтелекту по прямій лінії.
🔗 Читати далі
🌐 Збентеження виштовхує браузер Comet в Індію
Стартап Perplexity, що спеціалізується на пошуку на базі штучного інтелекту, запустив свій браузер Comet для передплатників Pro в Індії (22 вересня). Це наполовину стандартний браузер, наполовину помічник — ніби стирається межа між переглядом веб-сторінок та отриманням миттєвих машинно підібраних відповідей.
🔗 Читати далі
🏛 Суддя у Великій Британії відкрито використовував штучний інтелект для скорочення файлів справи
У податковому трибуналі британський суддя визнав, що спирався на Microsoft Copilot для розгляду юридичних позовів. Він чітко заявив, що фактичне обґрунтування та вердикт залишаються його власними, але це все одно є невеликою новинкою у судових залах Великої Британії.
🔗 Читати далі
📊 Мільярди, спрямовані у фізичну основу ШІ
Meta, Microsoft, Google… усі вони вкладають величезні суми в центри обробки даних, енергоємні чіпи та охолодження, щоб підтримувати роботу двигунів штучного інтелекту. Навіть менші штати США (наприклад, Нью-Гемпшир) використовують модернізацію енергосистеми як приманку для залучення цього капіталу.
🔗 Читати далі
🌍 Заклики до глобальних «червоних ліній» ШІ стають все гучнішими
Понад 200 вчених та політичних лідерів спільно виступили з пропозицією запровадити міжнародні правила щодо штучного інтелекту до 2026 року. Вони вимагають заборони екстремальних випадків, таких як пов'язаний ШІ з ядерною зброєю, широкомасштабне спостереження та інші жахливі сценарії. По суті: встановіть межі, перш ніж ситуація зайде надто далеко.
🔗 Читати далі