Новини ШІ 18 січня 2026 року

Підсумки новин про ШІ: 18 січня 2026 року

💰 Секвоя тихо стрибає в мега-раунд Anthropic

За повідомленнями, Sequoia, яка вже співпрацює з кількома великими лабораторіями штучного інтелекту, приєднується до гігантського зібрання Anthropic. Це такий крок, який піднімає всю балаканину про «конфлікти, а не конфлікти» на новий рівень, незалежно від того, визнає хтось це чи ні.

Кажуть, що раунд також включатиме інші важкі перевірки, що підштовхне Anthropic ще далі у цю смугу високого рівня з мега-оцінкою. Настрої бульбашок залишаються. Це також може бути новою нормою, що дратує.

📢 ChatGPT починає фліртувати з рекламою — цього разу по-справжньому

Повідомляється, що OpenAI тестує рекламу для деяких користувачів зі США на дешевших рівнях, тоді як на вищих рівнях реклама залишається вільною. Обіцянка полягає в тому, що реклама не впливатиме на відповіді – теоретично це обнадійливо, навіть попри те, що рефлекс довіри трохи сіпається.

Головний підтекст простий: логічний висновок – це дорого, і одних лише підписок може бути недостатньо… або так здається. Однак, коли ви вперше бачите слово «спонсоровано» поруч із чат-ботом, щось змінюється у вашій голові. Атмосфера змінюється.

📚 Видавці намагаються насилу вплинути на позов Google щодо навчання за допомогою штучного інтелекту

Група видавців намагається приєднатися до позову, який звинувачує Google у використанні творів, захищених авторським правом, для навчання своїх систем штучного інтелекту. Ця судова боротьба продовжує розширюватися, як тріщина в льоду, яку ви постійно чуєте, але не можете точно знайти.

Якщо суд їх допустить, справа може загостритися навколо того, що мають означати «дозвіл» та «оплата» для навчальних даних. Усі хочуть прецеденту – бажано такого, який, звісно, ​​буде на їхню користь.

🕳️ Повідомляється, що трюк «швидкого введення» псує роботу Gemini через дані зустрічей

Дослідники описали атаку в стилі «непрямого впровадження запиту», коли шкідливі інструкції ховаються всередині звичайного на вигляд контенту, а потім помічник виконує їх пізніше, коли користувач запитує щось невинне. Ніякого шкідливого програмного забезпечення, жодної магії – лише текст, що перетворився на зброю, надзвичайно елегантний і водночас доволі огидний.

Це нагадування про те, що «LLM читає ненадійний текст» — це не мила функція, а ціла поверхня загрози. Як-от дозволяти незнайомцям цілий день підсовувати нотатки до кишень, а потім дивитися на здивування, коли одна з них виявляється пасткою.

🎮 Генеральний директор Razer каже, що геймерам «вже подобається штучний інтелект» – вони просто ненавидять цей ярлик

У своїй доповіді на CES Razer розглядав штучний інтелект як практичний інструмент для робочих процесів розробки ігор – контроль якості, ітерації тощо – плюс деякі концепції, схожі на помічників, які здаються наполовину корисними, наполовину науково-фантастичними.

Вони також фактично визнають проблему брендингу: гравці не хочуть «помиїв штучного інтелекту», але вони хочуть розумніших інструментів та плавнішого ігрового процесу. Назвіть це «допомогою», і люди кивають. Назвіть це «штучним інтелектом», і люди іноді тягнуться до вил.

⚖️ Суд встановлює правила для адвокатів, які використовують генеративний штучний інтелект

Суд опублікував рекомендації, які по суті зводяться до: звісно, ​​використовуйте genAI, але робота все одно належить вам. Ви не можете передати своє професійне судження генератору тексту, а потім бути шокованим, коли він впевнено щось винаходить.

Цікаво, що розкриття інформації не вимагається, хіба що суддя запитує про це, але справжньою основою є повідомлення про відповідальність. Штучний інтелект може складати чернетки та впорядковувати… а також галюцинувати, як надмірно впевнений стажер зі схильністю до художньої літератури.

Найчастіші запитання

Що означає приєднання Sequoia до мегараунду Anthropic для інвестицій у ШІ та конфліктів?

Це говорить про те, що великі інвестори можуть продовжувати підтримувати кілька провідних лабораторій штучного інтелекту одночасно, що, як і слід було очікувати, відроджує дебати на тему «конфлікти, а не конфлікти». Коли один і той самий фонд взаємодіє з кількома лабораторіями, люди починають ретельно перевіряти стимули, доступ та конкурентні переваги. Повідомлений мегараунд також підкреслює тенденцію до величезних чеків та завищених оцінок, навіть попри те, що «вібрації бульбашки» все ще висять у повітрі.

Чи отримує ChatGPT рекламу на безкоштовних або дешевших рівнях, і чи вплине це на відповіді?

У звіті йдеться, що OpenAI тестує рекламу для деяких користувачів із США на нижчих рівнях оплати, тоді як високооплачувані рівні залишаються без реклами. Також стверджується, що реклама не впливатиме на відповіді, що звучить обнадійливо на папері, але все ж може змінити сприйняття довіри людьми. Підтекст економічний: логічний висновок – це дорого, а підписки можуть не покривати все назавжди.

Чому видавці намагаються приєднатися до позову Google щодо навчання за допомогою штучного інтелекту?

Група видавців прагне приєднатися до позову, в якому стверджується, що Google використовував твори, захищені авторським правом, для навчання систем штучного інтелекту. Якщо суд дозволить їм це зробити, справа може загостритися навколо того, як мають виглядати «дозвіл» та «оплата» за навчальні дані. Більша кількість сторін часто означає більший тиск на чіткий прецедент, особливо щодо того, хто отримує компенсацію та за яких умов.

Що таке атака «непрямого швидкого впровадження» і чому вона є такою важливою темою в новинах про штучний інтелект?

Це атака, під час якої шкідливі інструкції приховані всередині звичайного на вигляд контенту, а помічник виконує їх пізніше, коли користувач робить невинний запит. Основна проблема полягає в тому, що модель зчитує ненадійний текст, перетворюючи повсякденні документи та повідомлення на потенційну поверхню загрози. Це переконливо, оскільки може працювати без традиційного шкідливого програмного забезпечення — лише з використанням мови, що є зброєю, вбудованої в контент.

Чому геймери не люблять ярлик «штучний інтелект», але все одно хочуть використовувати інструменти штучного інтелекту?

Генеральний директор Razer стверджує, що геймерам вже подобаються практичні переваги – швидше перевірка якості, плавніша ітерація та помічники робочого процесу – але вони негативно реагують на брендинг. Проблема часто виникає через «непотреби штучного інтелекту» або контент, який здається невибагливим та неавтентичним. Переосмислення його як «допоміжної» або корисної функції може створити враження інструменту, який покращує ігровий досвід, а не замінює креативність.

Що означають правила суду для адвокатів, які використовують генеративний штучний інтелект, і чи повинні вони розкривати це?

Описані рекомендації прості: юристи можуть використовувати генеративний штучний інтелект, але вони залишаються відповідальними за роботу та не можуть передавати професійну оцінку генератору тексту. Ризик полягає в галюцинаціях – впевнено вигаданих фактах чи цитатах – тому перевірка та відповідальність залишаються центральними. Повідомляється, що розкриття інформації не є обов'язковим, якщо суддя не запитує, але повідомлення все одно таке: ви відповідаєте за результат.

Вчорашні новини про ШІ: 17 січня 2026 року

Знайдіть найновіший штучний інтелект в офіційному магазині помічників зі штучним інтелектом

Про нас

Повернутися до блогу