BlOG

Алгоритмічні технології в юриспруденції та юридичній практиці: сучасні виклики

Intersection of AI ethics and law

Прогресивний розвиток суспільних відносин неодмінно призводить до появи нових форм правового регулювання. У сучасному світі алгоритмічні технології стали фундаментальною частиною життєвої інфраструктури, яка охоплює різні аспекти суспільного життя – від фінансових транзакцій і охорони здоров’я до правосуддя та надання послуг громадянам. Такі технології сприяють підвищенню ефективності, зручності та доступності взаємодії між суб’єктами, однак разом із цим породжують низку правових викликів, зокрема щодо забезпечення прозорості та підзвітності їх функціонування.

Центральне місце займає проблема алгоритмічної непрозорості, яка є однією з ключових викликів сучасного правового регулювання технологій. Окрім того, актуальними є питання дискримінації та упередженості в алгоритмах, що здатні підсилювати соціальні нерівності, а також питання відповідальності за помилки, допущені алгоритмічними системами, що є критично важливим для забезпечення правової підзвітності в умовах зростаючого використання цифрових алгоритмів у юридичних процедурах.

Значимими є алгоритмічні системи, які застосовуються в судочинстві, правозастосуванні та адміністративних процедурах, де вони впливають на ухвалення рішень, розподіл ресурсів та визначення правових наслідків. Аналіз таких алгоритмів є важливим для розуміння того, як вони інтегруються в правові системи, які виклики виникають при їх використанні та яким чином можна забезпечити їх прозорість і підзвітність відповідно до вимог права.

Алгоритмічні технології відіграють ключову роль у сучасному цифровому світі, де автоматизовані рішення стають все більш поширеними в різних сферах суспільного життя. У цьому контексті особливу важливість набувають прозорість та підзвітність таких технологій. Прозорість забезпечує доступ до інформації, яка дає змогу зовнішнім суб’єктам контролювати й оцінювати функціонування алгоритмічних систем, тоді як підзвітність передбачає можливість впливу на результати через санкції або інші механізми контролю. Розуміння цих аспектів є необхідним для ефективного управління алгоритмічними системами й забезпечення їхньої етичності та відповідності правовим нормам. Прозорість можна визначити як «доступність інформації про суб’єкта, що дозволяє іншим суб’єктам контролювати роботу чи результативність цього суб’єкта». У цьому визначенні відображається підхід Джошуа А. Кролла до прозорості, де ключова увага зосереджена на доступності інформації як основі для контролю з боку зовнішніх суб’єктів. Іншими словами, прозорість стосується інформації, пов’язаної як з результатами, так і з процедурами, які використовуються суб’єктом, і є взаємною, оскільки передбачає обмін інформацією між учасниками відносин. Прозорість, отже, забезпечує інформаційну основу для етичного обговорення поведінки системи зовнішніми суб’єктами. Важко уявити собі ґрунтовну дискусію про алгоритмічну систему без надання відповідним зацікавленим сторонам інформації про те, що ця система робить і як вона працює. Проте важливо підкреслити, що прозорість не є достатньою для забезпечення відповідальності алгоритмів. Справжня відповідальність залежить, серед інших факторів, від суб’єктів, які мають мандат і повноваження діяти на основі інформації, отриманої завдяки прозорості, у вагомий спосіб. Прозорість не повинна розглядатися як універсальний засіб для забезпечення ефективної відповідальності алгоритмів — вона має бути частиною керівних режимів, які в деяких випадках можуть вимагати пояснень або мати можливість накладати санкції.

Що ж саме ми намагаємося зробити прозорим? Основна увага приділяється системам алгоритмічного прийняття рішень. Алгоритм, за визначенням Оксфордського словника англійської мови, – це «процес або набір правил, яких слід дотримуватися при обчисленнях або інших операціях з вирішення завдань, особливо за допомогою комп’ютера». Однак важливо зробити крок далі і зрозуміти, як ці алгоритми застосовуються на практиці. Алгоритмічні технології — це інструменти, які використовують алгоритмічний процес для прийняття певних рішень, таких як оцінка, ранжування, класифікація або асоціація, що може потім призводити до подальших дій і поведінки системи. Такі системи можна вважати такими, що демонструють штучний інтелект (ШІ), оскільки вони сприяють виконанню завдань, які зазвичай виконують люди, хоча це розмежування не є особливо важливим для опису алгоритмічної прозорості. Алгоритмічні системи необхідно розуміти як сукупність неживих (технологічних) суб’єктів, інтегрованих з людськими суб’єктами, такими як розробники, творці даних, обслуговувачі та оператори, в складні соціотехнічні комплекси. Навіть якщо розглядати системи на кінцевому рівні автономії, які діють у певний момент без людського контролю, все одно можна виявити людський вплив на етапі їх розробки. Якщо кінцевою метою прозорості є відповідальність, тоді вона має допомогти визначити різні позиції людської участі та відповідальності в цих великих і складних соціотехнічних комплексах. Зрештою, саме люди повинні нести відповідальність за поведінку алгоритмічних систем. Правові доктрини можуть допомогти визначити межі відповідальності розробників і операторів таких систем, а також накласти юридичні зобов’язання щодо пояснення алгоритмічних рішень і можливості їх оскарження, що сприятиме дотриманню принципів верховенства права й підзвітності.

Oleksandr Maksymiuk

Олександр Максимюк

к.ю.н., доцент кафедри теорії права та прав людини

Назар Проданюк

аспірант 2-го року навчання спеціальності 081 Право