Главный радиочастотный центр при Роскомнадзоре планирует обязать социальные сети превентивно ограничивать распространение резонансного контента, созданного искусственным интеллектом. Платформам предлагают дать право замораживать просмотры подозрительных видео и изображений до момента, пока их подлинность не подтвердят сами герои публикаций или упомянутые в них организации.
Представитель ГРЧЦ Станислав Махортов объяснил, что текущие механизмы не справляются со скоростью виральности дипфейков, которые распространяются быстрее привычных инфоповодов. Регулятор настаивает на внедрении инструментов для автоматического выявления ИИ-контента и маркировки материалов еще до их массового показа. В ведомстве подчеркивают: платформы должны получить легальную возможность временно скрывать спорные публикации, чтобы избежать манипуляций общественным мнением.Участники рынка настроены скептически. Представители крупных ИТ-компаний указывают на отсутствие технологий, способных безошибочно отличать сгенерированный контент от реального. Эксперты, включая партнера Zarya Ventures Александра Пономарева, предупреждают: автоматические фильтры часто ошибаются, блокируя подлинные кадры, что неизбежно приведет к волне судебных исков от пользователей и брендов. Гендиректор «Социальной лаборатории» Наталия Тылевич добавляет, что создание такой системы потребует колоссальных затрат и вряд ли будет полностью автоматизировано, так как потребует гибридного подхода — сочетания ИИ-анализа и ручной модерации.

Комментарии (0)
Пока нет комментариев. Будьте первым!