«Чтобы нейросеть обучалась, ей нужно использовать массив исходных материалов, например, фотографии или текст. Возникает вопрос: нужно ли нам расценивать такое использование исходных данных как нарушение интеллектуальных прав? Отвечая на него, становится ясно, что нам все равно придется чем-то жертвовать — либо интересами правообладателей, либо проектами нейросетей, которые вынуждены обучаться на чужих работах», — рассуждает он.
Эксперт также говорит, что даже при условии нахождения компромисса и возможности допустить обучение нейросети на чужих работах непременно возникает другой вопрос: нарушает ли права на эти работы использование результата, генерируемого ИИ? Ведь не всегда можно понять, чьи работы и как были использованы для генерации материала.
«Еще один пробел [в законодательстве] — права пользователей. Сейчас провайдер ИИ-системы может оставить за собой все права на результат ее работы. Для пользователя это будет означать запрет дальнейшего использования материала, который был сгенерирован его интеллектуальными усилиями. Вряд ли такой подход можно назвать справедливым, если самим нейросетям дадут поблажки при использовании чужих исходных материалов», — продолжает Максим Али.
Кроме того, одно из ключевых ограничений для ИИ кроется в области защиты персональных данных, потому что компании не вправе принимать решения в отношении клиентов и других субъектов персональных данных исключительно на базе автоматизированной обработки данных.
«Обойти это можно двумя путями. Первый — сделать так, чтобы итоговое решение принимал живой человек, пусть и с помощью предварительных выводов от ИИ. Второй — получить от субъекта данных согласие по специальной форме. Но тогда компании нужно будет разъяснить порядок принятия автоматизированного решения, дать субъекту данных возможность заявить возражения и ответить на них в течение месяца. Поскольку персональными данными пронизаны многие информационные системы, эти ограничения будут актуальны для многих компаний», — предупредил эксперт.