Камеры «Безопасного города» подключают к нейросетям: стоит ли опасаться за приватность
В 2026 году в Петербурге к нейросетевому комплексу видеоаналитики «Городовой» планируют подключить около 80 тысяч камер системы «Безопасный город». Это позволит автоматически фиксировать часть нарушений без участия оператора. Разбираемся, как устроена система, где её границы и о чём действительно стоит думать в контексте приватности.
Как развивался «Городовой»
Нейросетевой комплекс «Городовой» работает в Санкт-Петербурге с июня 2023 года. Сначала в дело пошли мобильные патрули: автомобили с камерами объезжали улицы, а нейросеть анализировала видео — посторонние надписи на нежилых зданиях, критические повреждения дорожного полотна, несогласованные кондиционеры. Система выявляла и другие нарушения, хотя их устранение не входит в компетенции ГАТИ.
После успеха мобильного мониторинга к «Городовому» начали подключать потоки с камер «Безопасного города». С 2024 года подключили до 20 тысяч видеорегистраторов в Центральном, Адмиралтейском, Петроградском и Василеостровском районах. Эффективность нейросети в выявлении аномалий специалисты не ставят под сомнение: модель обучают на примерах «чистой» территории (без мусора, без граффити), после чего она отслеживает участок и фиксирует отклонения. Для ИИ такая задача не считается сложной.
Теперь речь идёт о подключении ещё примерно 80 тысяч камер. О тотальном переводе всего видеонаблюдения на нейросети пока не говорят.
Где ограничения
Далеко не каждая камера в городе входит в систему «Безопасный город» — многие установлены владельцами зданий и помещений. Оснащать каждый такой объект нейросетевым детектором не требуется и не планируется. Кроме того, возможности упираются в качество видеозаписи (день/ночь, фокус на движении), мощность вычислителей и задержку получения результата: нейросети потребляют много ресурсов, и «как быстро получать данные» зависит от железа.
О тотальном контроле ИИ над жизнью в рамках текущего законодательства речи не идёт. Среди причин — необходимость живого оператора: нейросеть может научиться сигнализировать о подозрительной активности, но у неё нет субъектности и ответственности за результат. Кто-то должен принять решение и отреагировать. Сейчас система докладывает оператору, и без человека обходиться не может — по крайней мере до той поры, пока общество и регуляторы не примут сценарии вроде автоматического вылета беспилотников по сигналу ИИ (с учётом того, что часть срабатываний будет ложной). При этом само наличие таких технологий уже повышает ощущение контроля и может снижать число нарушений.
Что умеют нейросети по видео
На современном, в том числе не самом мощном железе нейросети способны распознавать лица в темноте, при частичном сокрытии маской или очками, выделять людей по походке, одежде, голосу, жестам. Распознавание лиц часто выполняется лучше, чем живыми операторами, в том числе в толпе и при расфокусе; для части сценариев достаточно компьютера за тысячу долларов и меньше.
Эти возможности уже используются при розыске людей: достаточно передать полиции фото человека — по камерам (в том числе в метро) можно отследить, где он появлялся. Технология не гипотетическая, её применяют ведомства.
Функционал «Городового» расширяется: с осени 2025 года система, например, отслеживает снежные шапки и наледь на крышах, опасные для прохожих. Дальнейшее распространение нейросетей по городским камерам способно усилить безопасность хотя бы в части коммунальных и инфраструктурных рисков.
Приватность и контроль
Технически возможности для глубокого распознавания и профилирования есть; часть из них уже в работе. Вопрос не только в «может ли ИИ», но и в том, кто принимает решения, кто имеет доступ к данным и как они хранятся. Пока ключевое звено — человек-оператор и регламенты использования. Опасаться за приватность имеет смысл в контексте прозрачности этих регламентов и контроля за тем, чтобы технологии не выходили за установленные рамки.