Повернутися у блог

Комісія ЄС спрощує подання позову, якщо позивач постраждав через продукт штучного інтелекту

Європейська комісія запропонувала нові правила, щоб допомогти людям, які постраждали від продуктів з використанням штучного інтелекту (АІ) та цифрових пристроїв.

Директива про відповідальність АІ зменшить тягар доведення для людей, які подають до суду на інциденти, пов'язані з такими продуктами. Безпілотні автомобілі, голосові помічники та пошукові системи можуть потрапити під дію Директиви. Фахівці стверджують, що це створить правову базу, яка відповідає цифровій епосі.

У разі ухвалення правила Комісії можуть працювати разом із запропонованим ЄС Законом про штучний інтелект - першим у своєму роді законом, який встановлює обмеження на те, як і коли можна використовувати системи АІ.

Системи штучного інтелекту “навчаються” на великих обсягах даних чи інформації, щоб дозволити машинам виконувати завдання, які вважаються справою людського інтелекту.

Директива про відповідальність АІ запроваджує «презумпцію причинно-наслідкового зв'язку». Це означає, що жертвам не доведеться розплутувати складні системи штучного інтелекту, щоб довести свою правоту, якщо можна показати причинно-наслідковий зв'язок із продуктивністю продукту АІ та пов'язаною з цім шкодою.

Протягом тривалого часу соціальні мережі переховувалися за застереженням, що вони є просто платформами для матеріалів інших людей і, отже, не несуть відповідальності за зміст. Сьогодні ЄС не хоче повторення цього сценарію, коли компанії, які виробляють, наприклад, дрони, можуть вийти з-під контролю, якщо вони завдадуть шкоди лише тому, що їхній продукт - це дрон, а не елементи АІ.

Директива говорить чітко: якщо ваш продукт налаштований так, щоб завдавати незручностей або завдавати шкоди, то вам потрібно взяти на себе відповідальність, якщо це станеться.

Сьогодні звучить думка, що положення Директиви – це жорстоко стосовно нової галузі, адже якщо автомобіль розбивається через механіку всередині транспортного засобу, це залежить від виробника, а поведінка водія у цьому випадку – це інше питання. Якщо цей проект буде прийнято, вся увага буде звернена на перший тестовий приклад, який покаже, чи є реалістичним у принципі “велике регулювання” великих технологій.

За даними Європейської комісії, використання АІ з високим ризиком може включати інфраструктуру або продукти, які можуть безпосередньо вплинути на чиєсь життя та засоби для існування. Розкриття інформації про такі продукти дозволить постраждалим краще зрозуміти відповідальність за їх використання.

Хоча такі положення у директиві можуть викликати невдоволення у бізнесі, Сара Кемерон, директор з правових питань технологій у юридичній фірмі Pinsent Masons, заявила, що правила допомогли прояснити відповідальність за продукти з підтримкою АІ як для споживачів, так і для бізнесу.

«Основною перешкодою для впровадження штучного інтелекту підприємствами були складність, автономія та непрозорість (так званий “ефект чорної скриньки”) АІ, що створюють невизначеність щодо встановлення відповідальності», - вважає Сара Кемерон, - Пропозиція гарантує, що коли системи несправні та викликають фізичну шкоду або втрату даних, можна запросити компенсацію у постачальника системи АІ або будь-якого виробника, який інтегрує цю систему  в інший продукт».

 

Джерело

Підписуйтесь на наші канали у соц.мережах:

LinkedIn

Instagram

Facebook

Telegram

Twitter

Medium

Звертайтесь до нас та отримуйте консультацію

Обирайте напрямок і зв'язуйтесь з нами: business@avitar.legal, +380 (50) 356 74 94

Data Protection Compliance for your business

IP Assets Management and Protection

E-commerce Compliance

Web Accessibility

18.11.2022 16:45

Почнімо разом щось  абсолютно нове!

Звʼязатися з нами
Телефон
+380 (50) 356 74 94
Соціальні мережі
fin..Наш блог

Давайте обговоримо ваш проект

Ваш запит успішно відправлено
Помилка відправки запиту
Натискаючи “Дозволити все”, ви погоджуєтеся зберігати файли cookies на своєму пристрої для покращення навігації сайту, аналізу використання сайту та надання допомоги у наших маркетингових заходах.
Варіанти видів cookies

Відправити

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Дізнайтеся більше про cookies та передачу даних у нашій
Політиці файлів cookies.