Відповідність EU AI Act
1. Вступ
Акт Європейського Союзу про штучний інтелект (Регламент (ЄС) 2024/1689) встановлює комплексну нормативну базу для розробки та впровадження систем AI на європейському ринку. Як постачальник продуктів на основі AI, що обслуговує організації ЄС, ТОВ «Sinaptic AI» («Sinaptic») зобов'язується повністю дотримуватися EU AI Act.
Цей документ описує, як Sinaptic класифікує свої продукти відповідно до ризик-орієнтованої рамки EU AI Act, процедури оцінки відповідності, які ми дотримуємось, наші механізми прозорості та людського нагляду, наші практики технічної документації та системи пост-ринкового моніторингу.
2. Класифікація ризиків продуктів Sinaptic
EU AI Act класифікує системи AI на чотири категорії ризику: неприйнятний, високий, обмежений та мінімальний. Sinaptic оцінив кожен зі своїх продуктів за цими категоріями на основі цільового призначення, сфери застосування та потенційного впливу на основоположні права.
2.1 Browser DLP — Мінімальний ризик
Класифікація: Мінімальний ризик (Розділ IV)
Browser DLP є інструментом запобігання втраті даних, який класифікує та відстежує передачу даних у веб-браузерах. Він не приймає автономних рішень, що впливають на права або доступ окремих осіб до послуг. Компонент AI здійснює класифікацію даних (наприклад, ідентифікацію персональних даних, фінансових даних, інтелектуальної власності) та застосовує попередньо налаштовані правила, встановлені адміністратором організації.
Обґрунтування: Browser DLP функціонує як інструмент безпеки, що виконує політики, визначені людьми. Він не здійснює біометричну ідентифікацію, соціальний скоринг або будь-яку обробку, що підпадає під категорії високого або неприйнятного ризику. Класифікація AI працює як допоміжний інструмент для адміністраторів-людей, які зберігають кінцевий авторитет щодо дій із забезпечення виконання.
2.2 Sinaptic AI Intent Firewall® — Обмежений ризик
Класифікація: Обмежений ризик (Розділ IV, з конкретними зобов'язаннями щодо прозорості)
Sinaptic AI Intent Firewall® перехоплює та оцінює дії AI-агентів перед їх виконанням. Хоча сама система є AI, що оцінює дії інших систем AI, її основна функція полягає у забезпеченні меж безпеки, а не у прямій взаємодії з фізичними особами. Класифікація обмеженого ризику зумовлена зобов'язаннями щодо прозорості, що виникають через те, що система приймає рішення про те, чи повинні дії бути виконані.
Обґрунтування: Sinaptic AI Intent Firewall® працює в контексті AI-до-AI з людським наглядом. Він не взаємодіє безпосередньо з кінцевими користувачами у спосіб, який можна сплутати з людською взаємодією. Однак, оскільки він приймає автоматизовані рішення, які можуть непрямо вплинути на осіб (блокуючи або дозволяючи дії AI-агентів), ми застосовуємо зобов'язання щодо прозорості обмеженого ризику для забезпечення чітких журналів аудиту та пояснень.
2.3 Sinaptic® DROID+ — Змінний ризик (залежить від сценарію використання)
Класифікація: Змінний — від мінімального до високого ризику залежно від контексту розгортання
Sinaptic® DROID+ є платформою для розгортання та управління AI-агентами. Класифікація ризику будь-якого конкретного розгортання Sinaptic® DROID+ залежить від конкретного сценарію використання та сфери, в якій працює агент:
- Мінімальний ризик: Агенти, що виконують внутрішню автоматизацію робочих процесів, агрегацію даних або завдання звітності.
- Обмежений ризик: Агенти, що взаємодіють з зовнішніми сторонами (потребують розкриття того, що взаємодія здійснюється AI).
- Високий ризик: Агенти, розгорнуті у сферах, перелічених у Додатку III EU AI Act, таких як працевлаштування, оцінка кредитоспроможності або доступ до основних послуг.
Обґрунтування: Як постачальник платформи, Sinaptic забезпечує, що Sinaptic® DROID+ включає технічні можливості, необхідні для виконання вимог будь-якої категорії ризику. Для розгортань високого ризику ми надаємо інструменти оцінки відповідності, шаблони документації та інфраструктуру моніторингу, необхідну регламентом.
3. Оцінка відповідності
Для продуктів або розгортань, класифікованих як високий ризик, Sinaptic дотримується процедур оцінки відповідності, визначених EU AI Act:
- Система управління якістю: Sinaptic підтримує систему управління якістю, що охоплює весь життєвий цикл AI, від проєктування через впровадження та виведення з експлуатації, відповідно до вимог статті 17.
- Система управління ризиками: Система управління ризиками діє протягом усього життєвого циклу кожної системи AI високого ризику, ідентифікуючи, аналізуючи, оцінюючи та зменшуючи ризики відповідно до статті 9.
- Управління даними: Навчальні, валідаційні та тестові набори даних підпорядковуються практикам управління, що забезпечують релевантність, репрезентативність, точність та повноту, як зазначено в статті 10.
- Технічна документація: Всеохоплююча технічна документація готується до розміщення на ринку, охоплюючи архітектуру системи, проєктні специфікації, процес розробки, методологію валідації та метрики продуктивності відповідно до статті 11 та Додатку IV.
- Ведення записів: Системи AI високого ризику автоматично генерують та зберігають журнали (стаття 12), що забезпечують відстежуваність функціонування системи протягом її життєвого циклу.
- Внутрішня оцінка відповідності: За необхідності Sinaptic проводить внутрішню оцінку відповідності відповідно до Додатку VI або залучає нотифікований орган, де це вимагається Додатком III.
- Декларація відповідності ЄС: Для кожної системи AI високого ризику Sinaptic готує Декларацію відповідності ЄС відповідно до статті 47, що підтверджує відповідність системи всім застосовним вимогам.
4. Зобов'язання щодо прозорості
Sinaptic виконує зобов'язання щодо прозорості, встановлені EU AI Act, через наступні заходи:
- Розкриття AI: Коли агенти Sinaptic® DROID+ взаємодіють з фізичними особами, організація-розгортач отримує чіткі механізми для розкриття участі AI. Sinaptic надає налаштовувані повідомлення про розкриття, що інформують користувачів про їхню взаємодію з системою AI.
- Пояснення рішень: Sinaptic AI Intent Firewall® надає чіткі, зрозумілі для людини пояснення кожного рішення дозволу/відмови, включаючи конкретні правила та сигнали, що сприяли визначенню.
- Інформація про модель: Для кожного компонента AI ми документуємо та надаємо доступ до призначення моделі, можливостей, обмежень та відомих упереджень через картки моделей та технічну документацію.
- Інструкції з використання: Чіткі інструкції з використання надаються розгортачам наших систем AI, даючи їм змогу зрозуміти цільове призначення системи, можливості та обмеження, та використовувати систему відповідно до регламенту.
- Маркування згенерованого контенту: Коли системи AI генерують синтетичний контент (наприклад, текст, згенерований агентами Sinaptic® DROID+), контент є машинозчитуваним як згенерований AI, що дозволяє подальшу ідентифікацію.
5. Людський нагляд
Відповідно до статті 14 EU AI Act, Sinaptic проєктує свої системи AI так, щоб вони ефективно контролювалися фізичними особами протягом періоду використання системи. Наша рамка людського нагляду включає:
- Розуміння та моніторинг: Продукти включають панелі моніторингу та інструменти, що дозволяють наглядачам повністю розуміти можливості та обмеження системи AI та належним чином контролювати її роботу.
- Можливість втручання: Оператори-люди можуть втручатися в роботу системи AI в будь-який час, включаючи можливість скасування, призупинення або припинення роботи системи через засоби аварійної зупинки.
- Інтерпретація результатів: Результати AI представляються у спосіб, що дозволяє фізичним особам правильно їх інтерпретувати, включаючи показники достовірності, індикатори невизначеності та контекстну інформацію.
- Робочі процеси ескалації: Налаштовувані правила ескалації автоматично направляють рішення з високими ставками або низькою достовірністю на перевірку людиною перед вживанням заходів.
- Заходи проти упередженості автоматизації: Інтерфейси користувача розроблені для запобігання надмірній залежності від результатів AI, включаючи представлення альтернативних інтерпретацій та вимогу активного підтвердження людиною для наслідкових дій.
6. Технічна документація
Sinaptic готує та підтримує технічну документацію для кожної системи AI відповідно до статті 11 та Додатку IV EU AI Act. Документація охоплює:
- Загальний опис системи AI, включаючи її цільове призначення, осіб, залучених до її проєктування та розробки, та дату розробки.
- Детальний опис елементів системи AI та процесу її розробки, включаючи методології навчання, навчальні дані, проєктні рішення та припущення.
- Детальну інформацію про моніторинг, функціонування та контроль системи AI, включаючи рівні її продуктивності та точності, відомі або передбачувані обставини, що можуть призвести до ризиків, та заходи людського нагляду.
- Опис відповідності метрик продуктивності, що використовуються для конкретної системи AI.
- Детальний опис системи управління ризиками.
- Опис будь-яких змін, внесених до системи протягом її життєвого циклу.
- Інформацію про дані, використані для навчання, валідації та тестування, включаючи методологію збору даних та процедури управління даними.
7. Пост-ринковий моніторинг
Sinaptic оперує системою пост-ринкового моніторингу, пропорційною характеру та рівню ризику кожної системи AI, відповідно до вимог статті 72:
- Безперервний моніторинг продуктивності: Автоматизований моніторинг відстежує продуктивність системи, точність та патерни поведінки, сповіщаючи інженерні команди про деградацію або аномалії.
- Звітність про інциденти: Ми встановили процедури для повідомлення про серйозні інциденти та несправності відповідним органам ринкового нагляду відповідно до статті 73.
- Збір зворотного зв'язку: Ми систематично збираємо зворотний зв'язок від розгортачів та користувачів щодо продуктивності системи, неочікуваної поведінки та потенційних ризиків.
- Періодичні перегляди: Дані пост-ринкового моніторингу переглядаються щонайменше щоквартально для оцінки того, чи продовжує система AI відповідати вимогам та чи залишається її класифікація ризику відповідною.
- Коригувальні дії: Якщо моніторинг виявляє невідповідність або неприйнятні ризики, ми впроваджуємо коригувальні дії, включаючи оновлення моделей, обмеження функцій або відкликання продукту за необхідності.
Для систем AI високого ризику план пост-ринкового моніторингу документується як частина технічної документації та оновлюється протягом життєвого циклу системи.
8. Регуляторна взаємодія
Sinaptic проактивно взаємодіє з регуляторними розробками, пов'язаними з EU AI Act, включаючи участь у консультаціях зацікавлених сторін, моніторинг рекомендацій Європейського офісу AI та національних компетентних органів, та адаптацію нашої рамки відповідності по мірі прийняття імплементаційних актів та гармонізованих стандартів. Ми підтримуємо внутрішню систему відстеження регуляторних змін для забезпечення своєчасної адаптації до нових вимог та рекомендацій.
Запит інформації про відповідність
Для запитань щодо нашої відповідності EU AI Act або для запиту технічної документації зверніться до нас за адресою hello@sinaptic.ai.