🏫 У деяких школах чат-боти опитують учнів про їхню роботу. Але революція штучного інтелекту непокоїть вчителів ↗
Деякі австралійські школи випробовують різкіший варіант «покажи свою роботу»: учні виконують завдання, а потім чат-бот зі штучним інтелектом перепитує їх, щоб перевірити, чи зрозуміли вони те, що вони надіслали. Це, по суті, усне письмове знайомство, але машина запитує: «Що ти маєш на увазі?», поки ти не почнеш нервувати.
Більше занепокоєння викликає нерівномірне впровадження: галузевий документ попереджає, що ті, хто швидко впроваджує технології, можуть швидко випередити інших, поки вони відстають, створюючи двошвидкісну систему освіти. Вчителі також продовжують звертати увагу на знайомі – і досі серйозні – проблеми: конфіденційність, добробут і те, як запобігти перетворенню «допомоги штучного інтелекту» на «штучний інтелект зробив це».
👮 Столична поліція використовує інструменти штучного інтелекту, надані Palantir, для виявлення неправомірних дій співробітників поліції ↗
Лондонська столична поліція використовує штучний інтелект, наданий Palantir, для аналізу внутрішніх моделей роботи персоналу – хвороб, відсутності на роботі, понаднормової роботи – шукаючи сигнали, які можуть корелювати з проблемами професійних стандартів. Проект представлений як обмежений у часі пілотний проект, і, що найважливіше, столична поліція стверджує, що люди все ще приймають фактичні рішення... але це «все ще» виконує багато роботи.
Федерація поліції не в захваті, називаючи це «автоматизованою підозрою» та попереджаючи про непрозорі інструменти, які неправильно інтерпретують стрес і робоче навантаження як правопорушення. Це один із тих моментів, коли технологія звучить акуратно на слайді, потім ви уявляєте, як вона відчувається на місці, і вона різко колється.
🛡️ Британський регулятор конфіденційності попереджає про зображення, створені штучним інтелектом, у спільній заяві ↗
Британське ICO разом з іншими регуляторами висловило спільне попередження щодо зображень, створених штучним інтелектом, які зображують ідентифікованих людей без їхньої згоди – загалом: не сприймайте «це штучно» як чарівну відмовку. Послання полягає в тому, щоб якомога раніше створити захисні механізми та залучити регулятори, замість того, щоб робити класичний технологічний крок – спочатку відправити товар, а потім вибачитися.
Вони також наголошують на підвищених ризиках для дітей, що має сенс, адже як тільки ця штука поширюється, це як намагатися повернути блискітки назад у банку. Ідея полягає в тому, що конфіденційність і гідність покликані вижити в циклі моди, або так здається.
🪖 Міністр оборони США Хегсет викликає генерального директора Anthropic для складних переговорів щодо військового використання Claude, повідомляє Axios ↗
Агентство Reuters повідомляє, що міністр оборони США має намір зустрітися з генеральним директором Anthropic для, як повідомляється, більш конфронтаційної розмови про військове використання Claude. Повідомляється, що Пентагон хоче, щоб великі постачальники штучного інтелекту розміщували моделі в секретних мережах з меншою кількістю обмежень, а Anthropic чинить опір будь-якому послабленню запобіжних заходів.
Підтекст читається як класична дилема «діяти швидко, але… з ракетами». Якщо сторони не зможуть домовитися про захисні бар'єри, відносини можуть напружитися або навіть розірватися, проте Anthropic також сигналізує, що переговори з урядом залишаються конструктивними, тож це напружена, але (поки що) ситуація не є повноцінним текстом про розрив.
🧠 ChatGPT – Нотатки до випуску ↗
У нотатках до випуску OpenAI вказано на розширене контекстне вікно для режиму «Обдумування», що означає, що ви можете передавати моделі більше тексту та підтримувати зв’язність довших потоків, не втрачаючи при цьому попередні деталі. Якщо ви коли-небудь бачили, як модель «забуває» щось, що ви буквально щойно сказали (біль), то ця стаття спрямована саме на це.
Це дуже хітове оновлення, яке непомітно змінює практичне: довші документи, складніші проекти, розтягнуті дослідницькі сесії. Не гламурно, але саме така зміна сантехніки раптово робить весь будинок більшим.
Найчастіші запитання
Що означає, коли школи використовують чат-ботів для «допитування» учнів щодо завдань?
У деяких австралійських школах учні виконують завдання, а потім обговорюють їх з чат-ботом на базі штучного інтелекту, який перевіряє їхні міркування. Це працює як усне засідання, спонукаючи учнів пояснити, що вони написали і чому. Мета полягає в перевірці розуміння, а не лише результатів. Це також може виявити прогалини, коли учень не може захистити ключові твердження.
Як чат-боти зі штучним інтелектом у школах можуть створити «двошвидкісну» систему освіти?
У галузевому звіті застерігається, що школи, які швидко впроваджують нові технології, можуть вирватися вперед, тоді як школи, що розвиваються повільніше, ще більше відстають. Якщо деякі школи впроваджують інструменти штучного інтелекту для оцінки розуміння, підтримки навчання або запобігання зловживанням, вони можуть швидше підвищити результати. Іншим може не вистачати бюджету, кадрового потенціалу або чіткої політики для впровадження порівнянних систем. Таке нерівномірне впровадження може поглибити існуючі розриви в ресурсах та досягненнях.
Як вчителі намагаються запобігти перетворенню «допомоги ШІ» на «ШІ зробив це»?
Поширений підхід полягає в тому, щоб змістити оцінювання в бік процесу та пояснення, а не лише готового продукту. Запитання, чернетки, рефлексії або усні перевірки у стилі чат-бота можуть ускладнити здання роботи, яку ви не розумієте. Вчителі також можуть встановити чіткіші межі щодо прийнятної допомоги, такої як мозковий штурм проти повного переписування. Акцент залишається на демонстрації розуміння, а не на контролі кожного інструменту.
Які проблеми конфіденційності та добробуту виникають під час використання штучного інтелекту в класах?
Вчителі постійно висловлюють занепокоєння щодо того, які дані учнів збираються, де вони зберігаються та хто має до них доступ. Існують також побоювання щодо їхнього благополуччя, якщо учні відчувають постійний контроль або тиск з боку машинних опитувань. Діти є особливою групою ризику, оскільки конфіденційна інформація може поширюватися або зберігатися в системах неочікуваним чином. Багато шкіл прагнуть запровадити запобіжні заходи на ранній стадії, а не намагатися вдосконалити їх пізніше.
Як столична поліція використовує штучний інтелект, наданий Palantir, для виявлення потенційних неправомірних дій офіцерів?
Лондонська столична поліція використовує штучний інтелект, наданий Palantir, для аналізу моделей поведінки працівників, таких як хвороби, прогули та понаднормова робота. Мета полягає у виявленні сигналів, які можуть корелювати з проблемами професійних стандартів. Проект описується як обмежений у часі пілотний проект, і поліція стверджує, що люди все ще приймають рішення. Критики стверджують, що інструмент може виглядати як «автоматизована підозра», якщо він сприймає стрес як правопорушення.
Чому поліцейські профспілки стурбовані «автоматизованою підозрою» від інструментів нагляду за допомогою штучного інтелекту?
Федерація поліції стурбована тим, що непрозорі моделі можуть робити висновки про неправомірні дії на основі закономірностей, які мають нешкідливі пояснення. Піки робочого навантаження, проблеми зі здоров'ям та стрес можуть впливати на відвідуваність або понаднормову роботу, не маючи на увазі правопорушення. Якщо логіка інструменту непрозора, офіцерам стає важче оскаржувати позначки, а менеджерам – калібрувати справедливі пороги. Навіть за наявності людських рішень, автоматизовані сигнали все одно можуть впливати на результати.
Про що попереджає британське ICO щодо зображень, створених штучним інтелектом, яких можна ідентифікувати?
Британський регулятор конфіденційності разом з іншими регуляторами попередив, що «синтетичний» не означає без наслідків. Якщо зображення, створене штучним інтелектом, зображує ідентифіковану особу без її згоди, ризики для конфіденційності та гідності все ще існують. Регулятори наголошують на ранньому впровадженні запобіжних заходів та залученні нагляду, а не на першочерговому впровадженні. Вони також вказують на підвищені ризики для дітей, коли шкода може швидко зростати після поширення контенту.
Що стоїть за повідомленнями про тиск Пентагону на Anthropic щодо військового використання Клода?
Агентство Reuters повідомляє, що міністр оборони США має намір зустрітися з генеральним директором Anthropic для проведення жорсткіших переговорів щодо військового використання Claude. Повідомляється, що Пентагон хоче, щоб великі постачальники штучного інтелекту розмістили моделі в секретних мережах з меншою кількістю обмежень. Anthropic чинить опір послабленню гарантій, вказуючи на конфлікт щодо захисних огорож. Відносини виглядають напруженими, хоча обидві сторони сигналізують про те, що переговори залишаються конструктивними.
Що змінилося в нотатках до випуску ChatGPT щодо довжини контексту в режимі «Обдумування»?
У нотатках до випуску OpenAI вказано на розширене контекстне вікно для режиму «Обдумування», що дозволяє розмістити більше тексту в одному потоці. На практиці це може допомогти з довгими документами, складними проектами та багатоетапними дослідженнями, де важливі попередні деталі. Це скоріше оновлення в стилі сантехніки, ніж яскрава функція. Головною перевагою є менша кількість втрачених деталей протягом триваліших сеансів.