Повернутися у блог

Комісія ЄС спрощує подання позову, якщо позивач постраждав через продукт штучного інтелекту

Почнемо разом щось  абсолютно нове!

Європейська комісія запропонувала нові правила, щоб допомогти людям, які постраждали від продуктів з використанням штучного інтелекту (АІ) та цифрових пристроїв.

Директива про відповідальність АІ зменшить тягар доведення для людей, які подають до суду на інциденти, пов'язані з такими продуктами. Безпілотні автомобілі, голосові помічники та пошукові системи можуть потрапити під дію Директиви. Фахівці стверджують, що це створить правову базу, яка відповідає цифровій епосі.

У разі ухвалення правила Комісії можуть працювати разом із запропонованим ЄС Законом про штучний інтелект - першим у своєму роді законом, який встановлює обмеження на те, як і коли можна використовувати системи АІ.

Системи штучного інтелекту “навчаються” на великих обсягах даних чи інформації, щоб дозволити машинам виконувати завдання, які вважаються справою людського інтелекту.

Директива про відповідальність АІ запроваджує «презумпцію причинно-наслідкового зв'язку». Це означає, що жертвам не доведеться розплутувати складні системи штучного інтелекту, щоб довести свою правоту, якщо можна показати причинно-наслідковий зв'язок із продуктивністю продукту АІ та пов'язаною з цім шкодою.

Протягом тривалого часу соціальні мережі переховувалися за застереженням, що вони є просто платформами для матеріалів інших людей і, отже, не несуть відповідальності за зміст. Сьогодні ЄС не хоче повторення цього сценарію, коли компанії, які виробляють, наприклад, дрони, можуть вийти з-під контролю, якщо вони завдадуть шкоди лише тому, що їхній продукт - це дрон, а не елементи АІ.

Директива говорить чітко: якщо ваш продукт налаштований так, щоб завдавати незручностей або завдавати шкоди, то вам потрібно взяти на себе відповідальність, якщо це станеться.

Сьогодні звучить думка, що положення Директиви – це жорстоко стосовно нової галузі, адже якщо автомобіль розбивається через механіку всередині транспортного засобу, це залежить від виробника, а поведінка водія у цьому випадку – це інше питання. Якщо цей проект буде прийнято, вся увага буде звернена на перший тестовий приклад, який покаже, чи є реалістичним у принципі “велике регулювання” великих технологій.

За даними Європейської комісії, використання АІ з високим ризиком може включати інфраструктуру або продукти, які можуть безпосередньо вплинути на чиєсь життя та засоби для існування. Розкриття інформації про такі продукти дозволить постраждалим краще зрозуміти відповідальність за їх використання.

Хоча такі положення у директиві можуть викликати невдоволення у бізнесі, Сара Кемерон, директор з правових питань технологій у юридичній фірмі Pinsent Masons, заявила, що правила допомогли прояснити відповідальність за продукти з підтримкою АІ як для споживачів, так і для бізнесу.

«Основною перешкодою для впровадження штучного інтелекту підприємствами були складність, автономія та непрозорість (так званий “ефект чорної скриньки”) АІ, що створюють невизначеність щодо встановлення відповідальності», - вважає Сара Кемерон, - Пропозиція гарантує, що коли системи несправні та викликають фізичну шкоду або втрату даних, можна запросити компенсацію у постачальника системи АІ або будь-якого виробника, який інтегрує цю систему  в інший продукт». 

Джерело

Підписуйтесь на наші канали у соц.мережах:

LinkedIn
Instagram
Facebook
Telegram
Twitter
Medium

Звертайтесь до нас та отримуйте консультацію

Обирайте напрямок і зв'язуйтесь з нами: business@avitar.legal, +380 (50) 356 74 94

Data Protection Compliance for your business
IP Assets Management and Protection
E-commerce Compliance
Web Accessibility

Автори:

Джулія Корендюк

,

18.11.2022 16:45
Іконка хрестик закрити

Давайте обговоримо ваш проект

Запит успішно відправлено
Помилка відправки запиту
By clicking "Allow all" you agree to store cookies on your device to enhance website navigation, analyse usage and assist in our marketing efforts
Варіанти видів cookies

Відправити

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Дізнайтеся більше про cookies та передачу даних у нашій
Політиці файлів cookies.