В Совете Федерации разрабатывают законопроект о регулировании искусственного интеллекта в образовательной среде. Инициатива, получившая название «санитарные правила», призвана не запретить технологии, а ограничить их бесконтрольное использование на фоне статистики, согласно которой до 87% студентов уже делегируют задачи нейросетям.
Инициатива обсуждалась на общественном совете при Минцифры. По словам главы InfoWatch Натальи Касперской, рабочая группа при Совфеде уже готовит соответствующий документ. Основная цель — создать барьеры для «бездумного» применения нейросетей, которое, по мнению экспертов, угрожает качеству подготовки кадров и обесценивает дипломы.Цифровой плагиат и риски для рынка труда
Статистика использования ИИ в учебном процессе демонстрирует серьезный разрыв: если система «Антиплагиат» фиксирует нейросети в работах 25% учащихся, то анонимные опросы РАНХиГС показывают цифры в 80–87%. Касперская подчеркивает, что такая ситуация лишает работодателей понимания реальной квалификации выпускников. При этом под угрозой замещения со стороны алгоритмов оказываются не только студенты, но и состоявшиеся специалисты: юристы, журналисты и младшие программисты.
В Минцифры подчеркивают, что регулирование должно быть гибким и отраслевым. Исполнительный директор «Антиплагиата» Евгений Лукьянчиков отмечает, что технически выявить сгенерированный текст со стопроцентной точностью невозможно, поэтому важнее развивать академическую этику. В бизнес-среде подход еще более прагматичен. В компании Cloud.ru указывают, что умение работать с ИИ-агентами сегодня является преимуществом при найме, а не поводом для дисквалификации.
Параллельно правительство готовит более масштабный закон о правовом режиме ИИ. Документ, который в марте 2026 года прошел стадию общественных обсуждений, затронет:
- обязательную маркировку сгенерированного контента;
- вопросы авторского права на произведения нейросетей;
- критерии отнесения алгоритмов к категории «российских»;
- ответственность за использование технологий в преступных целях.

Комментарии (0)
Пока нет комментариев. Будьте первым!