ArticlePDF Available

TOWARDS THE ISSUE ON IMPROVING THE PROTECTION OF INFORMATION RIGHTS OF INDIVIDUALS IN RELATIONS CONNECTED WITH THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES

Authors:

Abstract

The article examines the peculiarities of the application of methods provided by the legislation of Ukraine to protect the information rights of individuals from violations related to the use of artificial intelligence technologies; the ways to improve these methods taking into account the requirements of European Union law are developed. The author identifies the legal properties of artificial intelligence technologies, clarifies their impact on the choice of ways to protect the relevant nature of the violated information rights. The purpose of the article is to study the main areas of improvement of methods aimed at protecting information rights of individuals in the relations connected with the use of artificial intelligence technologies. The object of the study is public relations, which arise in connection with the use of methods to protect the information rights of individuals, violated by the misuse of artificial intelligence technologies in various spheres of public life. For this research, general scientific methods of cognition have been used, namely dialectical, system-structural, normal-logical, as well as such special methods as historical, comparative-legal, sociological, etc. Based on the results of the study, the author proposes a system of special ways to protect the information rights of individuals from violations related to the use of artificial intelligence technologies. The author also analyzes the grounds for their use. In addition, the article proposes the ways to improve the application of general methods of protection of human rights, enshrined in Article 5 of the Code of Administrative Procedure and Article 16 of the Civil Code of Ukraine, taking into account the illegal consequences of artificial intelligence technologies application. The recommendations on how to improve the legislation of Ukraine, the norms of which determine the mechanism for the protection of information human rights are formulated in the conclusions. In addition, the author has developed some recommendations for the restoration of information rights of individuals who suffer from violations of the use of artificial intelligence technologies. Keywords: protection of information rights, information offense, information rights, artificial intelligence technologies, individual
~ 36 ~ ВІСНИК Київського національного університету імені Тараса Шевченка
ISSN 1728-3817
Bulletin of Taras Shevchenko National University of Kyiv.
Legal Studies, 2022; 1 (120): 36-39
УДК 343.211.3:004.738.5: 681.3.06
DOI: https://doi.org/10.17721/1728-2195/2022/1.120-7
ISSN 1728-2195
© Taras Shevchenko National University of Kyiv,
Publishing center "Kyiv University", 2022
О. Заярний, д-р юрид. наук, проф.
ORCID ID: 0000-0003-4549-7201
Київський національний університет імені Тараса Шевченка, Київ, Україна
ДО ПИТАННЯ УДОСКОНАЛЕННЯ СПОСОБІВ
ЗАХИСТУ ІНФОРМАЦІЙНИХ ПРАВ ФІЗИЧНИХ ОСІБ У ВІДНОСИНАХ,
ПОВ'ЯЗАНИХ ІЗ ЗАСТОСУВАННЯМ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ
Досліджено особливості застосування передбачених законодавством України способів захисту інформаційних
прав фізичних осіб від порушень, пов'язаних із застосування технологій штучного інтелекту, розроблено шляхи удо-
сконалення цих способів з урахуванням вимог законодавства Європейського Союзу. Визначено юридичні властивості
технологій штучного інтелекту, з'ясовано їхній вплив на обрання способів захисту, відповідних характеру поруше-
них інформаційних прав.
Виокремлено та досліджено основні напрями удосконалення закріпленої в нормах законодавства України системи
способів захисту інформаційних прав фізичних осіб у відносинах, пов'язаних із застосуванням технологій штучного
інтелекту, формулювання на цій основі окремих рекомендацій з удосконалення національного законодавства України
у цій сфері правового регулювання. Об'єктом дослідження є суспільні відносини, що виникають у зв'язку із застосу-
ванням способів захисту інформаційних прав фізичних осіб, порушених внаслідок неправомірного застосування тех-
нологій штучного інтелекту у різних сферах суспільного життя. Застосовано загальнонаукові методи пізнання: діа-
лектичний, системно-структурний, нормально-логічний, а також спеціальні методи: історичний, порівняльно-
правовий, соціологічний тощо.
За результатами проведеного дослідження запропоновано систему спеціальних способів захисту інформаційних
прав фізичних осіб від порушень, пов'язаних із застосуванням технологій штучного інтелекту, проаналізовано під-
стави їхнього застосування. Водночас запропоновано шляхи удосконалення застосування загальних способів захис-
ту прав людини, закріплених у ст. 5 Кодексу адміністративного судочинства та ст. 16 Цивільного кодексу України з
урахуванням протиправних наслідків застосування технологій штучного інтелекту. У висновках сформульовано
рекомендації щодо напрямів удосконалення законодавства України, нормами якого визначено механізм захисту інфор-
маційних прав людини. Крім цього, розроблено окремі рекомендації щодо поновлення інформаційних прав фізичних
осіб, які зазнають порушення у зв'язку із застосуванням технологій штучного інтелекту.
Ключові слова: захист інформаційних прав, інформаційне правопорушення, інформаційні права, технології штуч-
ного інтелекту, фізична особа.
Вступ. Упровадження інформаційно-комунікаційних
технологій, частиною яких є технології штучного інтеле-
кту, в різні сфери суспільного життя є невід'ємною
складовою розвитку соціально-економічної, науково-
технічної, оборонної, правової й іншої діяльності [1].
Як одна з найбільш проривних і перспективних техно-
логій, штучний інтелект, як об'єкт інформаційно-правового
регулювання, обумовив для законотворчої і правозасто-
совної діяльності нові завдання. Їхній вияв головним чи-
ном спричинений самою суттю, властивостями й умовами
застосування штучного інтелекту, існуванням спеціальних
ризиків, пов'язаних із цією технологією.
Водночас розвиток зазначених технологій зумовлює
істотні зміни в усіх сферах суспільного життя, які відчу-
вають не лише багато професій, але й видів суспільної
діяльності [2, c. 364].
Зазначена тенденція істотно позначилася на реалі-
зації сучасного механізму захисту інформаційних прав
фізичних осіб.
Постановка проблеми. Здатність технологій штуч-
ного інтелекту до відтворення окремих елементів люд-
ської поведінки, забезпечення підтримки ухвалення
юридично значущих рішень, експертної оцінки юридич-
них фактів [2, c. 364], істотно ускладнила або зробила
неможливим застосування традиційних способів захис-
ту інформаційних прав фізичної особи.
Окрім цього, в останні роки в юридичній літературі
загострилася дискусія щодо юридичної спрямованості
способів захисту інформаційних прав, тобто, до кого
мають застосовувати відповідні інструментиносіїв
технологій штучного інтелекту (роботів, інформаційних
систем) чи їхніх власників або розпорядників [3, c. 187].
Усе це вказує на безумовний науковий інтерес до по-
рушеної проблематики та її актуальність для сучасного
механізму захисту інформаційних прав фізичних осіб.
Окреслена проблематика була предметом дослі-
дження таких учених-правників і практиків, як: Д. Ал-
лейн, О. Баранов, А. Кастільо, Р. Лінес, Д. Міятович,
П. Морхат, Н. Невеянс, У. Пагалалло, Н. Петіт та ін.
Проте, незважаючи на дедалі більший інтерес до
проблематики правового застосування технологій
штучного інтелекту, натепер залишається багато про-
блем, що вимагають доктринальної розробки і законо-
давчого забезпечення.
Метою статті є виокремлення та дослідження осно-
вних напрямів удосконалення закріпленої в нормах за-
конодавства України системи способів захисту інфор-
маційних прав фізичних осіб у відносинах, пов'язаних із
застосуванням технологій штучного інтелекту, форму-
лювання на цій основі окремих рекомендацій з удоско-
налення національного законодавства України у цій
сфері правового регулювання.
Об'єкт дослідженнясуспільні відносини, що вини-
кають у зв'язку із застосуванням способів захисту інфо-
рмаційних прав фізичних осіб, порушених внаслідок
неправомірного застосування технологій штучного ін-
телекту в різних сферах суспільного життя.
У процесі підготовки статті застосовано загальнона-
укові методи пізнання: діалектичний, системно-струк-
турний, нормально-логічний, а також спеціальні методи:
історичний, порівняльно-правовий, соціологічний тощо.
Виклад основного матеріалу. Першим поштовхом
для вивчення штучного інтелекту стала сформована
А. Тюрінгом теза, відповідно до якої за наявності необ-
хідної комп'ютерної програми можна зімітувати будь-яку
© Заярний О., 2022
ЮРИДИЧНІ НАУКИ. 1(120)/2021 ~ 37 ~
ISSN 1728-2195
логіку мислення, тим самим замінивши її дії, які вважа-
лися непридатними для виконання машиною, на ті, які б
могла виконати машина [4, c. 60].
Через деякий час науковці почали розглядати по-
ряд із технічними і філософські аспекти штучного
інтелекту, де основним питанням стало: "Чи здатна
машина мислити?" [5, c. 434]. Мається на увазі мис-
лити так само як і людина.
А. Тюрінг щодо цієї проблеми вважав: "У майбутньо-
му комп'ютери будуть здатні до наслідування поведінки
людини, копіювати її настільки, щоб увести в оману
справжнього індивіда" [4, c. 59]. Саме тут гостро постає
проблема розуміння природи людини. Прибічники меха-
нічних теорій у філософії стверджують, що тварини, як і
будь-які інші істотице складний механізм [6, c. 65].
Іншими словами, штучний інтелект має бути упо-
дібненням людського розуму і філософські науки
розкривають суть штучного інтелекту через категорію
людини. Завдяки такому порівнянню із людиною і її
інтелектом зумовлюється значна різносторонність
явища штучного інтелекту.
Академік В. Глушков оперував поняттям штучний
розум, у яке закладав штучно створені системи довіль-
ної природи, призначені розв'язувати складні задачі
широкого класу. Крім того, штучний розум використо-
вують для позначення технічних систем, які реалізують
операції сприйняття, зберігання й переробки інформації
і формують на цій основі доцільну поведінку в широко-
му класі середовищ [7, c. 569].
Останнім часом як синонім технологіям штучного ін-
телекту почали використовувати термін когнітивні тех-
нології. Надбаннями ж тривалих вивчень технологій
штучного інтелекту стали такі їхні сучасні визначення:
Штучний інтелектце виділення центральним
механізмом перебору й розгляд механізму створення
понять і системи класифікацій у їхній пам'яті (Є. Хант);
організація знань про світ з використанням спеціалізо-
ваних структур, що відображають реальні зв'язки та
відношення між предметами і явищами в зовнішньому
середовищі (П. Вінстон) [8, c. 21].
Штучний інтелектфункціональні можливості
електронно-обчислювальних машин розв'язувати типові
для людини задачі з метою підвищення ефективності
здійснення різних форм інтелектуальної (творчої) дія-
льності [9, c. 34].
Перше визначення сформульовано представни-
ками точних наук й корелюється з питанням "Як фун-
кціонує штучний інтелект?", другепредставниками
філософських учень і відповідає на питання "Чи зда-
тна машина мислити?".
У науковій літературі прийнято виділяти два рівні
еволюції штучного інтелекту, у фундамент яких покла-
дено співвідношення природного та штучного інтелекту:
абсолютний (або сильний) штучний інтелект
повний аналог природного інтелекту [10, c. 12]. Це ста-
дія когнітивного розвитку технологій штучного інтелек-
ту, коли програма або машина отримує самосвідомість,
співчуття оточуючим, здатність розв'язувати задачі і
робити судження в умовах невизначеності, інші високі
аспекти природного інтелекту;
неабсолютний (або слабкий) штучний інтелект
не володіє всім спектром когнітивних можливостей при-
родного інтелекту. Здатен виконувати складні мисленні
операції в межах закритої системи знань або на вико-
нання наперед передбачених завдань.
Перспективи створення сильного штучного інтелекту
викликають жваву дискусію в науковій спільноті. В ос-
нову своїх доводів противники завжди закладають тве-
рдження про нездатність робота усвідомлювати власні
дії, тільки підкорюючись зводу правил (комп'ютерній
програмі). Х. Дрейфус упевнений, що поведінка людини
залежить від інтерпретації конкретної ситуації, тому під
час імітації мислення машиною виникає процес нескін-
ченного звернення до правил, масив яких неможливо
прописати у вихідному коді [11, с. 202].
Дж. Сірл висловлював схоже припущення: механіч-
не відтворення закладених алгоритмів не породжує
здібностей мислити [12, с. 21]. Крім того, станом на те-
перішній час дослідниками не створено нічого подібного
на абсолютний штучний інтелект. Також не доведено на
експериментальному рівні здатність машини набути
будь-яких виявів свідомості.
Саме неабсолютний штучний інтелект нині є об'єк-
том інформаційно-правового регулювання.
У наш час сфера застосування технологій штуч-
ного інтелекту постійно розширюється, так само як і
зростає коло завдань, для виконання яких застосо-
вують цю технологію.
Штучний інтелект використовують, насамперед, для
виконання одноманітних повторюваних завдань, оброб-
ки значних обсягів даних, проведення статистичного
аналізу, генерування зразків документів, аналізу й мо-
делювання поведінки визначеного кола об'єктів спосте-
реження, заміни роботи людини на окремих напрямах
діяльності, таких як надання окремих адміністративних,
консультативних послуг, узагальнення інформації тощо.
Поділяючи систему способів захисту прав фізичної
особи на публічно-правові (ч. 1 ст. 5 Кодексу адмініст-
ративного судочинства України від 06.07.2005 в ред.
Закону України від 03.10.2017 р. 2147-VIII) [13] та
приватно-правові (ст. 16 Цивільного кодексу України
від 16.01.2003 року 435-IV [14], чинне законодавст-
во України не завжди охоплює механізмом правового
захисту увесь комплекс суб'єктивних прав. Зазначене
твердження значною мірою є актуальним саме щодо
інформаційних прав, передусім пов'язаних із забез-
печенням невтручання в особисте сімейне життя,
доступом до публічної інформації, свободою думки
та слова, на об'єкти інтелектуальної власності. У
взаємозв'язку із функціональними властивостями
технологій штучного інтелекту ці й багато інших ін-
формаційних прав фізичної особи піддаються істот-
ним порушенням з боку розробників, постачальників
чи володільців відповідних технологій.
Звертаючи увагу на окреслений конфлікт між техно-
логіями штучного інтелекту й інформаційними правами
людини, комісар Ради Європи з прав людини
Д. Міятович у своїй доповіді "Захист прав людини в
епоху штучного інтелекту", опублікованій у м. Страсбург
(Франція) 3 липня 2018 р. робить важливе застережен-
ня. Його суть полягає в такому: "… Якщо штучний інте-
лект почне відігравати занадто велику роль у житі лю-
дини, що передбачає виявлення повторюваних алгори-
тмів поведінки, то це може обернутися проти користу-
вачів, призвести до несправедливості, а також до об-
межень прав людини. Проблема ускладняється відсут-
ністю прозорості, підзвітності й інформації про те, як ці
системи влаштовані, як вони функціонують і в якому
напрямі можуть розвиватися в майбутньому. Ми повід-
омляємо інформацію про своє здоров'я, політичні пере-
конання, сімейне життя, навіть не знаючи, хто користу-
ватиметься цими даними, з якою метою і яким чином", –
зазначає Д. Міятович [15].
Розвиток поглядів комісара Ради Європи з прав лю-
дини щодо впливу технологій штучного інтелекту на
забезпечення захисту інформаційних прав фізичної
~ 38 ~ ВІСНИК Київського національного університету імені Тараса Шевченка
ISSN 1728-3817
особи дозволяє нам виокремити три основні напрями
удосконалення існуючої системи способів захисту від-
повідної категорії прав людини у сфері використання
технологій штучного інтелекту: інструментарний, юрис-
дикційний та етичний.
Перші два із зазначених напрями удосконалення
способів захисту інформаційних прав за своєю суттю є
юридичними, тоді як останній напряметичним (мора-
льно-психологічним).
На наш погляд, інструментарний (матеріально-
правовий) напрям має виявлятися як у нормативному і
правозастосовному розширенні наявної в нормах зако-
нодавства України системи способів захисту інформа-
ційних прав фізичної особи, так і закріпленні нових спо-
собів впливу на порушників відповідної категорії прав
фізичної особи, безпосередньо пов'язаних зі сферою
застосування технологій штучного інтелекту. У першо-
му випадку йдеться про застосування судом таких спо-
собів захисту інформаційних прав, як:
заборона вчинення певних дій (застосування техно-
логій штучного інтелекту для обробки інформації про фі-
зичну особу або з метою надання публічних послуг);
зобов'язання вчинити певні дії, зокрема забезпе-
чити прозорість алгоритму під час ухвалення рішень
технологіями штучного інтелекту й альтернативні спо-
соби надання публічних послуг без застосування тех-
нологій штучного інтелекту та припинити подальшу екс-
плуатацію технологій штучного інтелекту;
визнання протиправними рішень, дій чи без-
діяльності суб'єктів владних повноважень, прийнятих з
використанням відповідних інформаційних технологій;
одностороння відмова від виконання зобов'язань
тощо.
Щодо спеціальних способів захисту інформаційних
прав фізичної особи у сфері застосування технологій
штучного інтелекту, то їхнє закріплення, на нашу думку,
слід здійснювати на рівні норм окремих законів України,
якими регулюються однорідні суспільні відносини у
сфері застосування технологій штучного інтелекту. У
значенні прикладів відповідної категорії способів захис-
ту інформаційних прав, серед іншого, можна вказати на
встановлення додаткових гарантій недискримінації
прав споживачів продукції, що надається з використан-
ням технологій штучного інтелекту, встановлення суми
заздалегідь погоджених збитків, право на відшкодуван-
ня яких буде мати носій суб'єктивних інформаційних
прав, визначення обов'язків для володільців технологій
штучного інтелекту використовувати технології лише з
відкритим програмним кодом, встановлення меж допус-
тимої обробки інформації про фізичну особу тощо.
Процесуальний (судовий) напрям удосконалення
системи способів захисту інформаційних прав фізичної
особи полягає не лише у визначенні предметної юрис-
дикції спорів, пов'язаних із застосуванням технологій
штучного інтелекту в інформаційних відносинах, але й
із визначенням категорій судів, яким будуть підсудні
відповідні категорії справ. Аналіз національного зако-
нодавчого підходу до визначення змісту критеріїв, що
формують основу процесуального напряму удоскона-
лення способів захисту інформаційних прав фізичної
особи у процесі застосування технологій штучного інте-
лекту, вказує на відсутність спеціального процесуаль-
ного регулювання відповідного кола проблемних пи-
тань. Аналіз уже наявних у світовій практиці окремих
процесуальних норм щодо порушених питань вказує на
те, що законодавство зарубіжних держав виходить пе-
реважно з виключної підсудності справ, пов'язаних із
застосуванням технологій штучного інтелекту стосовно
фізичних осібза місцем їхнього постійного проживан-
ня у приватно-правових спорах та за юридичною адре-
сою місця знаходження суб'єкта владних повноважень.
Щодо суб'єктів господарювання, підсудність справ, по-
в'язаних із захистом інформаційних прав у сфері засто-
сування технологій штучного інтелекту, переважно ви-
значають як альтернативнуза вибором сторін спору.
На наш погляд, зазначені нормативні підходи до ви-
значення підвідомчості та підсудності справ, пов'язаних
із захистом інформаційних прав фізичної особи у сфері
застосування технологій штучного інтелекту, є обґрун-
тованими і можуть бути покладені в основу процесуа-
льного напряму удосконалення відповідного правового
механізму в Україні.
Нині одним із найбільш розроблених і практично ре-
алізованих у світовій практиці використання технологій
штучного інтелекту є етичний напрям забезпечення
захисту інформаційних прав фізичної особи. У його ос-
нові перебувають внесені до актів м'якого права етичні
норми та принципи, що містять адресовані розробникам
або постачальникам вимоги із забезпечення дотриман-
ня інформаційних прав фізичної особи, заклики до не-
дискримінації за ознаками застосування технологій
штучного інтелекту чи відмови від їхнього застосування.
Зокрема, згідно з п. 10, 11 та 13 Азеломарських
принципів штучного інтелекту, схвалених у січні 2017 р.
на конференції "Beneficial AI 2017", що проходила в
США (Каліфорнія), високоавтономні системи штучного
інтелекту мають проєктувати так, щоб їхні цілі і поведін-
ка узгоджувалися з людськими цінностями в усіх аспек-
тах їхньої роботи, були сумісними з ідеалами людської
гідності, прав, свобод і культурної різноманітності.
Водночас у п. 13 згаданого документа зазначено,
що застосування штучного інтелекту до особистих да-
них не має необґрунтовано обмежувати реальну або
сприйману свободу людей [16].
Отже, етичний напрям удосконалення способів за-
хисту інформаційних прав фізичної особи у сфері за-
стосування технологій штучного інтелекту виявляється
через встановлення етичних вимог і професійних об-
межень у застосуванні відповідних технологій у кон-
тексті дотримання прав людини.
З метою забезпечення подальшої практичної реалі-
зації принципів і норм використання технологій штучно-
го інтелекту в різних сферах суспільного життя, запобі-
гання ризиків, пов'язаних з їхнім використанням і роз-
робкою, формування системи надійних міжнародних
юридичних гарантій захисту прав споживачів послуг, що
надаються на основі алгоритмів машинного навчання,
міністрами економічного розвитку державчленів G-20
8 липня на міжнародному саміті державчленів G-20 у
м. Цукобе (Японія) було зроблено спільну заяву. Осно-
вна теза цієї заяви полягає в тому, що: "Для підвищен-
ня довіри до технологій штучного інтелекту і повної ре-
алізації їхнього потенціалу необхідно, щоб у центрі ви-
користання штучного інтелекту стояла людина" [17].
Зазначена теза є цементуючою для усіх напрямів
удосконалення способів захисту інформаційних прав
фізичної особи у сфері застосування технологій штуч-
ного інтелекту. Її практична реалізація надає правам і
свободам людини, зокрема й інформаційних, змістоут-
ворювального значення правотворчій і правозастосов-
ній діяльності держави.
Висновки. Дослідження проблематики удосконален-
ня способів захисту інформаційних прав фізичної особи у
сфері застосування технологій штучного інтелекту пока-
зало, що нині їхнє розв'язання перебуває не лише у
площині удосконалення норм процесуального законо-
ЮРИДИЧНІ НАУКИ. 1(120)/2021 ~ 39 ~
ISSN 1728-2195
давства України, але й у сфері розвитку судової практики
усіх юрисдикцій. Поряд із законодавчим закріпленням
спеціальних способів захисту інформаційних прав фізич-
ної особи, що враховують функціональні особливості
технологій штучного інтелекту, важливо також на рівні
правозастосування розширити зміст уже наявних публіч-
но-правових і приватно-правових способів захисту су-
б'єктивних прав відповідно до можливого протиправного
впливу на поведінку учасників інформаційних відносин.
Список використаних джерел
1. Про схвалення Концепції розвитку штучного інтелекту в Україні :
Розпорядження Кабінету Міністрів України від 02.12.2020 1556-р.
(ред. від 02.12.2020). URL: https://zakon.rada.gov.ua/laws/show/1556-
2020-%D1%80/print (дата звернення: 14.01.2022).
2. Zaiarnyi O. Directions for improving the legal liability of medical
organizations for artificial intelligence systems application. Medicine and
Law. 2018. Vol. 37. 2. P. 363–382. URL: https://heinonline.org/hol-cgi-
bin/get_pdf.cgi?handle=hein.journals/mlv37&section=30 (дата звернення:
14.01.2022).
3. Морхат П.М. Искусственный интеллект: правовой взгляд : моно-
графия. Москва : Буки Веди, 2017. 258 с.
4. Turing A.M. Systems of Logic Based on Ordinals : diss. … PhD :
presented in 1938, May. 1938. 183 р.
5. Turing A. Computing Machinery and Intelligence. Mind. 1950. 49.
P. 431–438.
6. Декарт Р. Сочинения : в 2 т. / пер. с лат. и франц. Т. 1 / сост.,
ред., вступ. ст. В.В. Соколова. Москва : Мысль, 1989. 481 с.
7. Енциклопедія кібернетики : у 2 т. / відп. ред. В.М. Глушков. Т. 2 (М-Я).
Київ : Головна редакція української радянської енциклопедії, 1973. 726 с.
8. Системи штучного інтелекту : навч. посіб. / КНУТШ. Київ : Київсь-
кий університет, 2000. 218 с.
9. Бостром Н. Искусственный интеллект. Этапы. Угрозы. Стратегии
/ пер. с англ. С. Филина. Москва : Манн, Иванов, Фербер, 2016. 420 с.
10. Швирков О.І. Проблема штучного інтелекту і людиновимірність
штучних інтелектуальних систем : автореф. дис. ... канд. філос. наук :
09.00.09 / КНУ імені Тараса Шевченка. Київ, 2006. 23 с.
11. Dreyfus H.L. What Computers Can't Do: A Critique of Artificial
Reason. New York : Harper & Row, 1972. 382 р.
12. Searle J.R. Is the Brain's Mind a Computer Program? Scientific
American. 1990. No 262 (1). 416 р.
13. Кодекс адміністративного судочинства України від 06.07.2005. в
ред. закону України від 03.10.2017 р. 2147-VIII. Голос України.
28.11.2017. 221/222.
14. Цивільний кодекс України : Закон України від 16.01.2003 435-IV.
Відомості Верховної Ради України. 2003. 40–44. Ст. 356.
15. Міятович Д. Доповідь Комісара Ради Європи з прав людини:
"Захист прав людини в епоху штучного інтелекту". Страсбург (Франція)
03 липня 2018 р. URL: https://www.coe.int/ru/web/commissioner/-
/safeguarding-human-rights-in-the-era-of-artificial-intelligence#main-content
(дата звернення: 14.01.2022).
16. Asilomar AI Principles. URL: https://futureoflife.org/ai-principles/
(дата звернення: 14.01.2022).
17. Спільна заява міністрів економічного розвитку державчленів
G-20 щодо подальшого застосування штучного інтелекту. Цукобе (Япо-
нія). 8 липня 2019. URL: https://www.unn.com.ua/uk/news/1805849-krayini-
g20-pogodili-printsipi-povodzhennya-z-shtuchnim-intelektom (дата звер-
нення: 14.01.2022).
References
1. Pro skhvalennia Kontseptsii rozvytku shtuchnoho intelektu v Ukraini:
Rozporiadzhennia Kabinetu Ministriv Ukrainy vid 02.12.2020 roku 1556-r.
(Redaktsiia vid 02.12.2020 roku) [On approval of the Concept of development
of artificial intelligence in Ukraine: Order of the Cabinet of Ministers of Ukraine
dated 02.12.2020 1556-r. (Edited on December 2, 2020)]. URL:
https://zakon.rada.gov.ua/laws/show/1556-2020-%D1%80/print (in Ukrainian).
2. Zaiarnyi, O. (2018). Directions for improving the legal liability of
medical organizations for artificial intelligence systems application. Medicine
and Law. Vol.37. 2. P.363-382. URL: https://heinonline.org/hol-cgi-
bin/get_pdf.cgi?handle=hein.journals/mlv37&section=30 (in English).
3. Morkhat P.M. Yskusstvennыi yntellekt: pravovoi vzghliad:
monohrafyia [Artificial intelligence: a legal view: a monograph]. Moskva:
Buky Vedy, 2017. 258 s. (in Russian).
4. Turing A.M. (1938). Systems of Logic Based on Ordinals [Text]
diss. … PhD : presented in 1938, May / Turing Alan Mathison. 183 р. (in
English).
5. Turing A. (1950). Computing Machinery and Intelligence. Mind.
49. P. 431-438 (in English).
6. Dekart, R. (1989). Sochynenyia v 2t. [Essays in 2 vols]: Per. s lat. y
frants. T. 1 / [sost., red., vstup. st. V.V. Sokolova]. M. Mysl. 481 с. (in Russian).
7. Entsyklopediia kibernetyky [Encyclopedia of Cybernetics] / Vidpov.
red. Hlushkov V.M. T.2 (M-Ya). K.: Holovna redaktsiia ukrainskoi radianskoi
entsyklopedii, 1973. 726 с. (in Ukrainian).
8. Systemy shtuchnoho intelektu [Artificial intelligence systems] :
Navchalnyi posibnyk / KNUTSh. Kyiv : Kyivskyi universytet, 2000. 218 с. (in
Ukrainian).
9. Bostrom, Nyk. (2016). Yskusstvennыi yntellekt. Etapy. Uhrozy.
Stratehyy. [Artificial intelligence. Stages. Threats. Strategies.]: per. S anhl.
S. Fylyna. M. : Mann, Yvanov, Ferber, 420 с. (in Russian).
10. Shvyrkov, O. I. (2006). Problema shtuchnoho intelektu i
liudynovymirnist shtuchnykh intelektualnykh system [The problem of artificial
intelligence and human dimension of artificial intelligent systems] : avtoref.
dys ... kand. filos. nauk : 09.00.09 / KNU imeni Tarasa Shevchenka. K.,
2006. 23 с. (in Ukrainian).
11. Dreyfus, H.L. (1972). What Computers Can't Do: A Critique of
Artificial Reason. New York: Harper & Row, 382 р. (in English).
12. Searle, J.R. (1990). Is the Brain's Mind a Computer Program? //
Scientific American. No 262(1). 416 р. (in English)
13. Kodeks administratyvnoho sudochynstva Ukrainy vid 06.07.2005. v
red. zakonu Ukrainy vid 03.10.2017 r. 2147-VIII [Code of Administrative
Procedure of Ukraine of July 6, 2005] / Holos Ukrainy vid 28.11.2017
221/222. (in Ukrainian)
14. Tsyvilnyi kodeks Ukrainy [The Civil Code of Ukraine]: Zakon
Ukrainy vid 16.01.2003 435-IV. Vidomosti Verkhovnoi Rady Ukrainy.
2003. №№ 40-44. St.356 (in Ukrainian).
15. Dunia Miiatovych. Dopovid Komisara Rady Yevropy z prav liudyny:
"Zakhyst prav liudyny v epokhu shtuchnoho intelektu" [Report of the Council
of Europe Commissioner for Human Rights: "Protecting human rights in the
age of artificial intelligence"]. Strasburh (Frantsiia) 03 lypnia 2018 r. URL:
https://www.coe.int/ru/web/commissioner/-/safeguarding-human-rights-in-
the-era-of-artificial-intelligence#main-content (in Ukrainian).
16. Asilomar AI Principles. URL: https://¬futureoflife.org/¬ai-principles.
(in English)
17. Spilna Zaiava Ministriv ekonomichnoho rozvytku Derzhav-chleniv
G-20 shchodo podalshoho zastosuvannia shtuchnoho intelektu [Joint
Statement by the Ministers of Economic Development of the G-20 Member
States on the continued use of artificial intelligence]. Tsukobe (Iaponiia).
8 lypnia 2019 roku. URL: https://www.unn.com.ua/uk/news/1805849-krayini-
g20-pogodili-printsipi-povodzhennya-z-shtuchnim-intelektom (in Ukrainian).
Надійшла до редакції 31.01.22
O. Zaiarnyi, Dr Sci. (Law), Associate Prof.
Taras Shevchenko National University of Kyiv, Kyiv, Ukraine
TOWARDS THE ISSUE ON IMPROVING THE PROTECTION OF INFORMATION RIGHTS OF INDIVIDUALS
IN RELATIONS CONNECTED WITH THE USE OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES
The article examines the peculiarities of the application of methods provided by the legislation of Ukraine to protect the information rights of
individuals from violations related to the use of artificial intelligence technologies; the ways to improve these methods taking into account the
requirements of European Union law are developed.
The author identifies the legal properties of artificial intelligence technologies, clarifies their impact on the choice of ways to protect the
relevant nature of the violated information rights.
The purpose of the article is to study the main areas of improvement of methods aimed at protecting information rights of individuals in the
relations connected with the use of artificial intelligence technologies.
The object of the study is public relations, which arise in connection with the use of methods to protect the information rights of individuals,
violated by the misuse of artificial intelligence technologies in various spheres of public life.
For this research, general scientific methods of cognition have been used, namely dialectical, system-structural, normal-logical, as well as such
special methods as historical, comparative-legal, sociological, etc.
Based on the results of the study, the author proposes a system of special ways to protect the information rights of individuals from violations
related to the use of artificial intelligence technologies. The author also analyzes the grounds for their use. In addition, the article proposes the
ways to improve the application of general methods of protection of human rights, enshrined in Article 5 of the Code of Administrative Procedure
and Article 16 of the Civil Code of Ukraine, taking into account the illegal consequences of artificial intelligence technologies application.
The recommendations on how to improve the legislation of Ukraine, the norms of which determine the mechanism for the protection of
information human rights are formulated in the conclusions. In addition, the author has developed some recommendations for the restoration of
information rights of individuals who suffer from violations of the use of artificial intelligence technologies.
Keywords: protection of information rights, information offense, information rights, artificial intelligence technologies, individual.
Article
Full-text available
Background. The article conducts scientific exploration of the legal foundations of the world of the digital environment as a certain system of interconnections of its elements. Methods. Problems of a methodological nature are raised, in particular, issues of legal semantics of the digital environment. The questions of the legal nature of the digital environment and its components are touched upon. Results. The appeal to theoretical problems of the concept of the digital environment is caused by the desire to explore the direction in which modern jurisprudence is developing on the way of regulating modern relations in the IT sphere. The emphasis is on the methodology for defining the concept of the digital environment. Issues of human interaction with elements of the digital environment and legal aspects of regulation of private legal relations related to the circulation of digital things and the provision of digital services are disclosed. Сonclusions. The concept of "environment" is defined in its objective and subjective sense. The formation of the digital environment is proposed to be considered according to the three-level criterion: pre-convention, convention, post-convention. Analyzing the elements of the digital environment, it is indicated that not only digital things, but also certain technological systems are its components. It is proposed to consider the elements of the digital environment in their narrow and broad sense. The article provides the author's definition of the concept of "digital environment".
Chapter
Alan Turing was one of the most influential thinkers of the 20th century. In 1935, aged 22, he developed the mathematical theory upon which all subsequent stored-program digital computers are modeled. At the outbreak of hostilities with Germany in September 1939, he joined the Government Codebreaking team at Bletchley Park, Buckinghamshire and played a crucial role in deciphering Engima, the code used by the German armed forces to protect their radio communications. Turing's work on the version of Enigma used by the German navy was vital to the battle for supremacy in the North Atlantic. He also contributed to the attack on the cyphers known as "Fish," which were used by the German High Command for the encryption of signals during the latter part of the war. His contribution helped to shorten the war in Europe by an estimated two years. After the war, his theoretical work led to the development of Britain's first computers at the National Physical Laboratory and the Royal Society Computing Machine Laboratory at Manchester University. Turing was also a founding father of modern cognitive science, theorizing that the cortex at birth is an "unorganized machine" which through "training" becomes organized "into a universal machine or something like it." He went on to develop the use of computers to model biological growth, launching the discipline now referred to as Artificial Life. The papers in this book are the key works for understanding Turing's phenomenal contribution across all these fields. The collection includes Turing's declassified wartime "Treatise on the Enigma"; letters from Turing to Churchill and to codebreakers; lectures, papers, and broadcasts which opened up the concept of AI and its implications; and the paper which formed the genesis of the investigation of Artifical Life.
Article
The main directions of legal liability of medical organizations are reviewed on the basis of the current regulation of artificial intelligence in the field of health protection. The research examines medical organizations which use the corresponding systems in their practice. Certain criteria for differentiation between the liability of those providing medical services, the developers (suppliers) of artificial intelligence systems and the limits of lawful use of this type of information, in the field of health, are also evaluated. The aim of the article is to formulate scientific proposals to improve the legal liability mechanism of medical organizations for the offences committed using the artificial intelligence and to define the most effective types of penalties, taking into account the peculiarities of design, development, technical support and operation of the corresponding information systems as well as the identification of the most common violations that occur as a result of their application in health care.
Chapter
I propose to consider the question, “Can machines think?”♣ This should begin with definitions of the meaning of the terms “machine” and “think”. The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous. If the meaning of the words “machine” and “think” are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, “Can machines think?” is to be sought in a statistical survey such as a Gallup poll.
Article
In recent decades, the question of whether a machine can think has been given a different interpretation entirely. The question that has been posed in its place is, Could a machine think just by virtue of implementing a computer program Is the program by itself constitutive of thinking This is a completely different question because it is not about the physical, causal properties of actual or possible physical systems but rather about the abstract, computational properties of formal computer programs that can be implemented in any sort of substance at all, provided only that the substance is able to carry the program. A fair number of researchers in artificial intelligence (AI) believe the answer to the second question is yes. They believe further-more that they have a scientific test for determining success or failure: the Turing test devise by Alan M. Turing, the founding father of artificial intelligence. The Turing test, as currently understood, is simply this: if a computer can perform is such a way that an expert cannot distinguish its performance from that of a human who has a certain cognitive ability-say, the ability to do addition or to understand Chinese - then the computer also has thatmore » ability. So the goal is to design programs that will simulate human cognition in such a way as to pass the Turing test. What is more, such a program would not merely be a model of the mind; it would literally be a mind, in the same sense that a human mind is a mind. By no means does every worker in artificial intelligence accept so extreme a view. A more cautious approach is to think of computer models as being useful in studying the mind in the same way that they are useful in studying the weather, economics or molecular biology. To distinguish these two approaches, the authors call the first strong AI and the second weak AI. It is important to see just how bold an approach strong AI is.« less
Искусственный интеллект: правовой взгляд : монография. Москва : Буки Веди
  • П М Морхат
Морхат П.М. Искусственный интеллект: правовой взгляд : монография. Москва : Буки Веди, 2017. 258 с.
Systems of Logic Based on Ordinals : diss. … PhD : presented in 1938
  • A M Turing
Turing A.M. Systems of Logic Based on Ordinals : diss. … PhD : presented in 1938, May. 1938. 183 р.
Міятович Д. Доповідь Комісара Ради Європи з прав людини
  • Відомості Верховної Ради України
Відомості Верховної Ради України. 2003. № 40-44. Ст. 356. 15. Міятович Д. Доповідь Комісара Ради Європи з прав людини: "Захист прав людини в епоху штучного інтелекту". Страсбург (Франція) 03 липня 2018 р. URL: https://www.coe.int/ru/web/commissioner/-/safeguarding-human-rights-in-the-era-of-artificial-intelligence#main-content (дата звернення: 14.01.2022).
Yskusstvennыi yntellekt: pravovoi vzghliad: monohrafyia [Artificial intelligence: a legal view: a monograph
  • P M Morkhat
Morkhat P.M. Yskusstvennыi yntellekt: pravovoi vzghliad: monohrafyia [Artificial intelligence: a legal view: a monograph]. Moskva: Buky Vedy, 2017. 258 s. (in Russian).