«Природа ИИ такова, что уязвимости в модель, которую мы эксплуатируем, попадают через данные. Данные могут быть «отравлены», есть такой термин. Они могут попасть через предобученные модели, фреймворки, и, наконец, сама модель может быть дообучена или изменена с целью, чтобы она была уязвима», - сказал Аветисян на международной конференции по искусственному интеллекту AI Journey.
Он подчеркнул необходимость разработки новых научно-технологических оснований для обеспечения безопасности и надежности ИИ. Аветисян отметил, что уязвимости могут возникнуть из-за «загрязненных» данных, и в результате ИИ может быть обманут или использован злоумышленниками. Он также отметил, что в России был принят Кодекс этики в сфере ИИ, направленный на обеспечение безопасности решений на основе ИИ.
Ранее «Телеспутник» писал о том, что Кодекс этики разработан и постоянно совершенствуется на платформе Альянса в области искусственного интеллекта совместно с представителями академической общины. Альянс в области искусственного интеллекта объединяет ведущие технологические компании с целью совместного развития и внедрения искусственного интеллекта в образовании, научных исследованиях, а также в практической деятельности бизнеса. Кодекс этики уже подписали такие крупные компании, как «Сбер», «Яндекс», VK, Росбанк и другие ведущие компании.