Офіційний журнал Європейського Союзу опублікував Регламент (UE) 2024/1689 Європейського Парламенту та Ради від 13 червня 2024 року, який встановлює гармонізовані правила щодо штучного інтелекту (Акт) . Закон є першим основним законодавчим актом у світі щодо штучного інтелекту (інший важливий нормативний акт у США, виконавчий указ президента Джо Байдена від 30 жовтня 2023 року, є набагато менш інтенсивним, що стосується його зобов’язань, і не походять із парламентського джерела). Проте Закон передбачає не лише контрольні та регуляторні механізми, він також встановлює рекламні заходи (такі як регуляторні «пісочниці» та заходи для підтримки розвитку систем ШІ МСП), спрямовані на заохочення розвитку технології щодо штучного інтелекту в соціальному плані.
Введення комплексу в дію
Закон не буде застосовуватися в цілому до 2 серпня 2026 року, протягом 24 місяців з моменту набуття ним чинності (що відбудеться через двадцять днів після його публікації), але деякі його положення будуть застосовуватися в різний час, а саме:
Обсяг матеріалу
Що стосується матеріальної сфери застосування, Закон випливає з широкого визначення штучного інтелекту та залишає поза сферою застосування лише певні конкретні прояви цих систем. В основному такі системи не підпадають під дію Закону: (i) системи, які розміщені на ринку, введені в експлуатацію або використовуються з модифікаціями або без них для військових цілей, оборони чи національної безпеки (це виключення поширюється на використання результати виробництва систем штучного інтелекту, які не розміщені на ринку чи введені в експлуатацію в ЄС); та (ii) системи чи моделі штучного інтелекту, включно з їхніми вихідними результатами, спеціально розроблені та введені в експлуатацію виключно з метою наукових досліджень і розробок . Закон пояснює, що він не застосовуватиметься до будь-яких наукових досліджень і розробок систем або моделей штучного інтелекту до їх розміщення на ринку або введення в експлуатацію, хоча це виключення не включає тестування в реальних умовах.
Основний зміст Закону: механізм контролю та регулювання
У сфері контролю та регулювання Закон про штучний інтелект класифікує системи штучного інтелекту відповідно до ризику, який вони можуть створити, і способів їх використання.
Він встановлює три рівні ризику для систем і один конкретний рівень для моделей загального використання.
1) Неприйнятний ризик : ця категорія застосовується до дуже обмеженого набору особливо шкідливих практик штучного інтелекту, які суперечать цінностям ЄС, оскільки вони порушують основні права, а отже, заборонені. Ці заборонені способи використання або практики (викладені в статті 5 Закону) включають, наприклад, соціальний рейтинг для державних і приватних цілей, використання підсвідомих методів, використання вразливості окремих осіб, біометричну категоризацію осіб або визнання емоцій фізичних осіб на робочому місці та в навчальних закладах (за винятком медичних міркувань або причин безпеки);
2) Високий ризик : обмежена кількість систем штучного інтелекту, визначених у Законі, класифікується як високий ризик і, у свою чергу, включається в дві категорії:
Ці системи підлягають жорсткому регулюванню , яке впливає на їх постачальників, а також різною мірою на інших учасників, які беруть участь у їхньому ланцюжку створення вартості (уповноважених представників, імпортерів, дистриб’юторів, розгортачів), тому вони не можуть уникнути відповідальності.
Спершу вони повинні провести оцінку відповідності обов’язковим вимогам надійного штучного інтелекту (тобто якості даних, документації та можливості відстеження, прозорості, людського контролю, точності, кібербезпеки та надійності – стійкості до помилок, збоїв, невідповідностей). Цю оцінку може проводити сам постачальник, якщо він відповідає гармонізованим правилам чи специфікаціям, встановленим ЄС, або уповноваженим органом відповідно до процедури, викладеної в Додатку VII. Якщо результат оцінки є позитивним, декларується відповідність системи Закону (декларація про відповідність ЄС, яку постачальник повинен надати до наглядових органів, які вимагають її) і їй надається маркування CE. Системи високого ризику також реєструються в державному реєстрі (за винятком випадків, коли вони використовуються державними органами для правоохоронних або міграційних цілей, у цьому випадку доступ до реєстру обмежено зі зрозумілих причин).
Системи управління якістю та ризиками повинні застосовуватися навіть після того, як продукція була випущена на ринок.
3) Низький рівень ризику : інші системи штучного інтелекту, в принципі, можуть бути розроблені та використані відповідно до законодавства, і підпадають під відносно простий обов’язок інформаційного режиму та дотримання прав інтелектуальної власності, авторського права та суміжних прав (встановлюється статтею 53). Переважна більшість систем штучного інтелекту, які використовуються зараз або будуть використовуватися в майбутньому, потрапляють до цієї категорії. У цих випадках постачальники цих систем можуть добровільно дотримуватися добровільних кодексів поведінки або продемонструвати дотримання своїх зобов’язань щодо прозорості та поваги до прав інтелектуальної власності іншими способами під наглядом Європейської Комісії.
Проте, як виняток, спеціальні зобов’язання щодо прозорості (стаття 50) покладаються на певні системи з низьким рівнем ризику, де існує явна небезпека введення в оману або маніпулювання користувачами (наприклад, через використання чат-ботів або методів глибокої підробки, за допомогою яких отриманий вміст буде неправдивим здаються людині справжніми або правдивими). У цих випадках Закон вимагає, наприклад, щоб користувачі усвідомлювали, що вони взаємодіють з машиною або що вміст, до якого вони піддаються, був створений або маніпульований штучно.
Нарешті, стосовно моделей штучного інтелекту загального призначення Закон враховує системний ризик , який може виникнути внаслідок їх використання, у тому числі від великих генеративних моделей штучного інтелекту. Ці системи можна використовувати для кількох завдань, які можуть становити системні ризики, якщо вони мають потужні можливості або еквівалентний вплив (моделі штучного інтелекту загального призначення, навчені із загальною продуктивністю комп’ютера понад 10^25 FLOPS – ChatGPT 4 або GEMINI – включають системні ризики). З огляду на те, що ці потужні моделі можуть спричинити серйозні нещасні випадки або неналежним чином використовуватися для масштабних кібератак, Закон накладає додаткові зобов’язання щодо оцінки та пом’якшення ризиків, звітування про інциденти та захисту кібербезпеки (стаття 55), при цьому постачальники цих систем також використовують належну практику коди для демонстрації дотримання цих зобов’язань.
Дотримання прав інтелектуальної власності, авторського права та суміжних прав
Пункти 104-109 і стаття 53 Закону безпосередньо впливають на авторське право. Їх слід читати в поєднанні з Директивою 2019/790 і, зокрема, зі статтею 4(3), тобто: більш загальний виняток або обмеження для інтелектуального аналізу тексту та даних (на відміну від більш конкретного, що міститься в статті цієї Директиви ).
Зокрема, у пункті 105 зазначено, що «моделі штучного інтелекту загального призначення, зокрема великі генеративні моделі штучного інтелекту, здатні генерувати текст, зображення та інший вміст, створюють унікальні інноваційні можливості, але також викликають проблеми для художників, авторів та інших творців і способів їх творчий вміст створюється, поширюється, використовується та споживається. Розробка та навчання таких моделей вимагають доступу до величезних обсягів тексту, зображень, відео та інших даних. Методи інтелектуального аналізу тексту та даних можуть широко використовуватися в цьому контексті для пошуку та аналізу такого вмісту, який може бути захищений авторським правом і суміжними правами. Будь-яке використання вмісту, захищеного авторським правом, потребує дозволу відповідного власника прав, якщо не застосовуються відповідні винятки та обмеження авторського права. Директива (ЄС) 2019/790 запровадила винятки та обмеження, що дозволяють відтворення та вилучення творів чи інших об’єктів з метою аналізу тексту та даних за певних умов. Згідно з цими правилами, правовласники можуть залишити свої права на свої твори чи інші об’єкти, щоб запобігти інтелектуальному аналізу тексту та даних, якщо це не робиться з метою наукового дослідження. Якщо право на відмову було явно зарезервовано відповідним чином, постачальники моделей штучного інтелекту загального призначення повинні отримати дозвіл від власників прав, якщо вони хочуть виконувати інтелектуальний аналіз тексту та даних над такими роботами».
Серед іншого, Декларація 106 передбачає, що «постачальники моделей штучного інтелекту загального призначення повинні запровадити політику для дотримання законодавства Союзу щодо авторського права та суміжних прав, зокрема для визначення та дотримання резервування прав, виражених правовласниками відповідно до статті 4(3) Директиви (ЄС) 2019/790. Будь-який постачальник, який розміщує модель штучного інтелекту загального призначення на ринку Союзу, повинен дотримуватися цього зобов’язання, незалежно від юрисдикції, в якій відбуваються акти, що стосуються авторського права, що є основою для підготовки цих моделей штучного інтелекту загального призначення».
У пункті 107 зазначено, що «Для підвищення прозорості даних, які використовуються під час попереднього навчання та навчання моделей ШІ загального призначення, включаючи текст і дані, захищені законом про авторське право, достатньо, щоб постачальники таких моделей складали та оприлюднити достатньо детальний виклад вмісту, який використовується для навчання моделі ШІ загального призначення. (…) цей короткий виклад має бути загалом вичерпним за обсягом, а не технічно детальним, щоб полегшити сторонам із законними інтересами, включаючи власників авторських прав (…)»
Ця законодавча база викладена в статті 53 (1). Під назвою «Зобов’язання для постачальників режиму ШІ загального призначення» він передбачає, що «Постачальники моделей штучного інтелекту загального призначення повинні запровадити політику для дотримання законодавства Союзу щодо авторського права та суміжних прав, зокрема для визначення та дотримання, у тому числі за допомогою найсучасніших технологій, резервування прав, виражених відповідно до статті 4(3) Директиви (ЄС) 2019/790». Слід зазначити, що поняття загальної моделі штучного інтелекту визначено в статті 3 (63) Регламенту 2024/1689 таким чином, щоб охоплювати моделі штучного інтелекту на основі навчання.
Крім того, постачальники режиму штучного інтелекту загального призначення також зобов’язані «скласти та оприлюднити достатньо детальний опис вмісту, який використовується для навчання моделі штучного інтелекту загального призначення, відповідно до шаблону, наданого Офісом штучного інтелекту».
Структура адміністративного контролю та система покарань
Щоб забезпечити ефективність усіх цих нормативних актів, Закон зобов’язує держави-члени призначити один або декілька компетентних органів для нагляду за дотриманням зобов’язань, які він накладає.
На європейському рівні Європейський офіс АІ , створений Рішенням Комісії від 24 січня 2024 року (OJ-Z-2024-70007), буде наглядовим органом і матиме важливі функції, зокрема щодо нагляду за загальними моделі ШІ призначення.
Повноваження, які влада матиме для забезпечення ефективності Закону про AI, включають повноваження накладати штрафи. Штрафи за порушення Закону про штучний інтелект встановлюються у відсотках від річного обороту компанії-порушника за попередній фінансовий рік або заздалегідь визначеної суми , якщо вона вища та може зрости до 35 мільйонів євро або 7% від прибутку порушника зафіксованого в загальному світовому річному обороті за попередній фінансовий рік, якщо ця сума вища.
За матеріалами сайтів https://www.lexology.com/library/detail.aspx?g=0daa025b-e5b1-4d1d-8e71-1154a076f69b та http://ipkitten.blogspot.com/
« Повернутись до списку новин