Повернутися у блог

Поліцейські звіти, написані ШІ: прихована загроза правосуддю у 2025 році

Почнемо разом щось  абсолютно нове!

Two women looking at a laptop screen displaying code, one pointing to the screen, with the Avitar logo overlaid.

Ще у 2024 році правозахисники попереджали: якщо передати написання поліцейських рапортів генеративному штучному інтелекту, це неминуче вдарить по системі кримінального правосуддя. У 2025-му ці застереження перестали бути гіпотезами. ШІ увійшов у повсякденну роботу поліції — швидше, ніж суспільство встигло усвідомити ризики, а законодавці — встановити запобіжники.

Причина такого стрімкого поширення водночас проста і тривожна. Найпопулярніший інструмент для написання поліцейських звітів — Axon Draft One — розроблений компанією Axon, яка одночасно є найбільшим постачальником нагрудних бодікамер для поліції у США. Камери, софт і генеративний ШІ продаються одним «пакетом». У результаті технологічний вибір перетворюється на нав’язаний стандарт — без реальної можливості для міст чи громад сказати «ні».

2025 рік приніс і погані, і добрі новини. Але погані, на жаль, мають системний характер.

Погані новини: непрозорий ШІ в центрі правосуддя

Головна проблема AI-звітування полягає не в новизні технології і навіть не в її помилках. Справжня загроза — у непрозорості, неможливості перевірки та потенційній маніпулятивності. І це при тому, що саме поліцейські звіти часто стають підставою для арештів, обвинувачень і реального позбавлення людини свободи.

Показовим став крок прокуратури округу Кінг (штат Вашингтон), яка у 2025 році прямо заборонила поліції використовувати генеративний ШІ для написання рапортів. У внутрішній записці прокурори зазначили: вони не виступають проти інновацій, але мають «обґрунтовані сумніви щодо продуктів, які існують сьогодні», і тому не прийматимуть поліцейські наративи, створені з допомогою ШІ. Фактично прокуратура визнала: такі інструменти несумісні з вимогами справедливого процесу.

Axon Draft One: дизайн проти підзвітності

У 2025 році правозахисні організації детально дослідили, як саме працює Axon Draft One. Висновок виявився тривожним: система спроєктована так, щоб унеможливити подальшу перевірку.

Процес виглядає просто:
офіцер завантажує аудіо з бодікамери → система створює чернетку звіту → поліцейський редагує текст → експортує фінальну версію.

Але ключовий момент прихований у деталях: первинна AI-чернетка не зберігається. Вона зникає без сліду.

Це означає, що згодом неможливо з’ясувати, які частини тексту створив алгоритм, а які — людина. Якщо в суді виникають суперечності між показами офіцера і його ж рапортом, завжди залишається зручне пояснення: «це написав ШІ». Довести протилежне практично нереально.

Ще більш цинічно звучать пояснення самого виробника. Представники Axon відкрито визнавали: відсутність збережених чернеток — це свідоме дизайн-рішення, покликане уникнути «проблем із розкриттям інформації» для поліції та прокуратури. Інакше кажучи, технологію оптимізували не для правосуддя, а для мінімізації контролю.

Невидимий ШІ і параліч громадського нагляду

Така архітектура породжує ще одну серйозну проблему: громадськість часто навіть не знає, що в її місті поліція використовує ШІ для написання звітів. А якщо й знає — майже не має інструментів для перевірки.

Запити на доступ до публічної інформації часто виявляються безрезультатними, адже немає жодних слідів використання алгоритму. Саме тому у 2025 році правозахисники почали готувати спеціальні гіди, які допомагають формулювати максимально точні запити, щоб хоча б частково з’ясувати масштаби використання AI-звітування.

У підсумку виникає небезпечна асиметрія: поліція і постачальники технологій знають усе, а суспільство — майже нічого.

Добрі новини: регуляторний опір почався

Попри це, 2025 рік приніс і важливі позитивні зрушення. Опір AI-звітуванню перестав бути маргінальним — і почав давати конкретні результати.

Два штати — Юта і Каліфорнія — ухвалили перші закони, які прямо обмежують використання генеративного ШІ в поліцейських рапортах.

Закон штату Юта (SB 180) запровадив базову, але принципову вимогу: якщо звіт створений повністю або частково з допомогою ШІ, це має бути прямо зазначено, а офіцер зобов’язаний письмово підтвердити, що перевірив текст на точність.

Каліфорнія пішла значно далі. Її закон (SB 524):

  • зобов’язує прямо розкривати використання ШІ у звітах;
  • забороняє постачальникам продавати або передавати дані, завантажені поліцією в AI-системи;
  • вимагає зберігати первинні AI-чернетки, щоб судді, адвокати захисту та аудитори могли бачити, що саме створив алгоритм, а що — людина.

Фактично Каліфорнія першою на законодавчому рівні визнала: без трасування внеску ШІ справедливий процес неможливий.

Чому питання AI-поліції критичне для України

Для України досвід США у 2025 році є надзвичайно показовим. Після 2022 року правоохоронні органи та міські адміністрації активно впроваджують цифрові системи безпеки: відеокамери, аналітику трафіку, автоматичне розпізнавання номерних знаків, «розумні» платформи для поліції. Використання генеративного ШІ для написання звітів уже не виглядає віддаленим майбутнім — його ризики стають цілком реальними.

Як і в США, такі рішення часто ухвалюються адміністративно, без публічного обговорення. У результаті ключові елементи кримінального процесу перетворюються на «технічні» питання — і фактично виводяться з-під демократичного контролю. Непрозорі AI-звіти можуть призвести до того, що суди спиратимуться на документи, які неможливо перевірити або відстежити.

Для України це має кілька вимірів. По-перше, існує прямий ризик порушення прав людини — права на свободу, захист і справедливий суд. По-друге, відсутність незалежного аудиту створює асиметрію знань: поліція й постачальники технологій бачать усе, громадськість — майже нічого. По-третє, залежність від одного вендора і закриті алгоритми можуть призвести до втрати контролю над доказовими даними — аудіо та відео.

Досвід США показує: навіть без нових законів ризики можна стримувати через громадський тиск, прозорі рішення і аудит. Для України це чіткий сигнал: ШІ в правозастосуванні потребує правил, контролю і підзвітності вже зараз.

Висновок: AI у поліцейських звітах — це не технічна дрібниця, а політичне й правове питання. Україна має шанс не повторити чужі помилки, якщо закладе прозорі рамки й контроль до того, як технологія стане «нормою».

2026 і далі: що нас чекає

Очевидно, що Каліфорнія і Юта — лише початок. У 2026 році дедалі більше штатів або обмежать, або повністю заборонять використання ШІ для написання поліцейських звітів. Причина проста: ставки занадто високі.

Поліцейський рапорт — це не допоміжна нотатка і не внутрішній чернетковий документ. Це текст, який запускає механізм кримінального переслідування. Передавати його створення непрозорому алгоритму без можливості аудиту — це не інновація, а системний ризик.

2025 рік показав головне: питання AI у поліції — це питання підзвітності, прав людини і довіри до правосуддя. І якщо суспільство не встановить чіткі межі сьогодні, завтра ці межі визначатимуть уже не громадяни — а постачальники технологій.

Працюєте з цифровою безпекою, правозастосуванням або захистом персональних даних?
Якщо вам потрібен аналіз ризиків AI-рішень для поліції, аудит контрактів або стратегія регулювання — звертайтеся. Допоможу зробити так, щоб технології працювали на справедливість, а не проти неї.

Підписуйтесь на наші канали у соціальних мережах:

LinkedIn

Instagram

Facebook

Telegram

Medium

Зв'яжіться з нами: business@avitar.legal

Автори:

Віолетта Лосєва

,

26.1.2026 16:46
Іконка хрестик закрити

Давайте обговоримо ваш проект

Запит успішно відправлено
Помилка відправки запиту
By clicking "Allow all" you agree to store cookies on your device to enhance website navigation, analyse usage and assist in our marketing efforts
Варіанти видів cookies

Відправити

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Дізнайтеся більше про cookies та передачу даних у нашій
Політиці файлів cookies.
No items found.