12 ноября 2025 года в Пензенской ТПП прошел семинар на тему «Как законно использовать искусственный интеллект».
Спикером выступила Екатерина Горшкова, основатель ООО Юридическая компания «Право цифровых технологий», автор юридических статей в АиФ, Газета.РУ, MEL. RU, член Ассоциации юристов России.
На мероприятии обсудили, как законно использовать инструменты ИИ, а также авторские и исключительные права на материалы, созданные с помощью искусственного интеллекта.
Екатерина Горшкова отметила, что к 2026 году ожидается дальнейшая эволюция ИИ в сторону автономности и интеграции не только в повседневную жизнь, но и в бизнес-процессы. По данным OpenAI, ChatGPT обрабатывает более миллиарда запросов в неделю и имеет свыше 200 млн пользователей.
Российское законодательство в этой области находится пока в стадии активного становления, ведутся дискуссии о необходимости принятия отдельного закона об ИИ, обсуждаются вопросы ответственности за действия ИИ-систем.
Сегодня искусственный интеллект способен создавать творческие произведения, включая тексты, музыку, изображения и видео. Права произведений, созданных искусственным интеллектом, должны быть защищены, при этом возникает вопрос, кому будут принадлежать авторские права. Многие специалисты отвечают на него по-разному, единая позиция пока не сложилась.
Спикер обратила особое внимание, что внедряя ИИ в бизнес-процессы, компаниям важно помнить об основных рисках использования сгенерированного нейросетями контента: правовых, юридических, репутационных и рисков в области качества.
Так, слушателям семинара были даны практические рекомендации по легальному использованию ИИ в своей работе.
В первую очередь, необходимо дорабатывать результат генерации, чтобы снизить риск прямого копирования. Очень важно до публикации проверить оригинальность сгенерированного контента. К примеру, изображения можно проверить по поиску по картинке, а тексты — с помощью сервисов антиплагиата, например Text.ru или Advego.
Для работы безопаснее выбирать крупные нейросети и избегать модели с неизвестным происхождением данных. Кроме того, внимательно изучать пользовательские соглашения нейросетей, их соблюдать и следить за обновлениями.
Если это требуется законом или правилами этики, необходимо указать, что контент был создан с использованием ИИ.
Также Екатерина Горшкова рекомендовала с осторожностью использовать персональные данные при генерации запросов, работая с нейросетями.
На семинаре спикеру задали большое количество вопросов, обсуждались практические ситуации.