BlOG

Інновації та безпека: ключові аспекти першого закону про штучний інтелект

AI Regulation

13 березня 2024 року Європейський парламент прийняв історичний документ – Закон про штучний інтелект (Artificial Intelligence Act). Підтриманий більшістю голосів – 523 за, 46 проти і 49 утрималися – це перший законодавчий акт у світі, що регулює використання штучного інтелекту. Його метою є поліпшення функціонування внутрішнього ринку та сприяння впровадженню людино-центрованого та надійного штучного інтелекту, забезпечуючи при цьому високий рівень захисту здоров’я, безпеки та основних прав, закріплених у Хартії основних прав, зокрема демократії, правової держави та охорони навколишнього середовища від шкідливих наслідків систем штучного інтелекту в Європейському Союзі, а також підтримка інновацій. Пріоритетом є забезпечення того, що системи штучного інтелекту будуть безпечними, прозорими, можуть бути відслідковуваними, не дискримінаторними та екологічно безпечними. Зокрема Регламент встановлює:

  • гармонізовані правила щодо введення на ринок, введення в експлуатацію та використання систем штучного інтелекту;
  • заборони деяких практик у сфері штучного інтелекту;
  • конкретні вимоги до систем штучного інтелекту високого ризику та обов’язки операторів таких систем;
  • гармонізовані правила щодо прозорості для певних систем штучного інтелекту;
  • правила моніторингу ринку, управління моніторингом ринку та забезпечення виконання;
  • заходи щодо підтримки інновацій, включаючи стартапи.

Дефініція поняття «система штучного інтелекту»

Законодавець наголошує на важливості чіткого визначення даного поняття та його узгодження з роботою міжнародних організацій, що працюють у цій сфері з метою забезпечення правової визначеності, сприяння міжнародній конвергенції та широкому прийняттю, одночасно забезпечуючи гнучкість для адаптації до швидкого технологічного розвитку в цій галузі. Крім того, дане поняття має ґрунтуватися на ключових характеристиках систем штучного інтелекту, які відрізняють їх від більш простих традиційних програмних систем, а саме на їх здатності робити висновки. Ця здатність робити висновки відноситься до процесу отримання вихідних даних (результатів), а також до здатності систем штучного інтелекту отримувати моделі чи алгоритми з вхідних даних. З огляду на це «система штучного інтелекту» визначається як машинна система, призначена для роботи з різними рівнями автономності, яка може проявляти адаптивність після розгортання та яка, для явних або неявних цілей, на основі вхідних даних робить висновок як генерувати результати, такі як прогнози, контент, рекомендації або рішення, які можуть впливати на фізичне або віртуальне середовище.

Диференціація в залежності від потенційних ризиків та очікуваного впливу

Законодавство передбачає різні правила для різних рівнів (ступенів) ризику, встановлюючи обов’язки для розробників та користувачів в залежності від характеру потенційного ризику технологій штучного інтелекту. Деякі системи штучного інтелекту будуть заборонені через наявність неприпустимого ризику, оскільки вони вважаються загрозою для людей. До них належать:

  • когнітивно-поведінкове маніпулювання людьми або окремими групами;
  • соціальне скорингування (оцінка, класифікація) людей за поведінкою, соціально-економічним статусом або особистими характеристиками;
  • біометрична ідентифікація та категоризація людей;
  • системи біометричної ідентифікації осіб в загальнодоступних місцях, які створюють або розширюють бази даних розпізнавання обличь за допомогою нецільового збирання зображення зображень з Інтернету чи записів із камер відеоспостереження.

Виключення можуть бути дозволені з метою підтримання правопорядку. Використання систем дистанційної біометричної ідентифікації осіб в загальнодоступних місцях може бути дозволено лише у таких виняткових випадках, як цілеспрямований пошук конкретних жертв викрадення, торгівлі людьми чи сексуальної експлуатації людей, розшук зниклих безвісти, для запобігання конкретній, суттєвій та неминучій загрозі життю чи безпеці фізичних осіб або загрозі терористичного нападу тощо. Використання таких систем буде можливим за попереднім дозволом суду або незалежного адміністративного органу, рішення якого є обов’язковим для держави-члена, в якій планується їх використання.

Системи штучного інтелекту, які негативно впливають на безпеку або фундаментальні права, вважатимуться з високим ризиком і розділятимуться на дві категорії:

а) системи штучного інтелекту, які використовуються в продуктах, які підпадають під дію законодавства Європейського Союзу щодо безпеки продуктів (іграшки, авіація, автомобілі, медичне обладнання та ліфти);

б) системи штучного інтелекту, що належать до певних сфер, які повинні бути зареєстровані в базі даних Європейського Союзу:

  • управління та експлуатація критичної інфраструктури;
  • освіта та професійна підготовка;
  • працевлаштування, управління працівниками та доступ до самозайнятості;
  • доступ і користування основними приватними та державними послугами і пільгами;
  • правозастосовна діяльність;
  • міграція, притулок та прикордонний контроль;
  • допомога в правовому тлумаченні та застосуванні законодавства.

Загалом, закон про штучний інтелект встановлює пріоритет вимог щодо безпеки, прозорості та контролю за системами штучного інтелекту. Ці заходи спрямовані на забезпечення безпечного та етичного розвитку штучного інтелекту у майбутньому, з метою захисту прав та добробуту громадян.

Aurika Paskar

Ауріка Паскар

доцент кафедри процесуального права