Ошибки ИИ могут казаться исправимым недостатком. Однако это его базовая, системная проблема. Россиянам стоит радоваться и даже гордиться тому, что отечественный «Яндекс» объявил об интеграции своей оригинальной модели ОИИ в поисковик, пойдя по стопам американских Google и Microsoft. Ранее премьер Мишустин заявил, что у GigaChat (нейросеть «Сбера») и иностранного ChatGPT разные «мозги». Якобы отечественный обучен «на великой русской литературе». Но на самом деле принципы больших языковых моделей идентичны в главном.
В прошлом году главред издания Tom’s Hardware Аврам Пилч заявил, что обновленная поисковая система Google, задействующая нейросеть, по сути, основана на «движке плагиата» (plagiarism engine). Ее новостные сводки, созданные с помощью ИИ, часто дословно копируют тексты с сайтов, но размещают их над ссылками на источники, лишая последние трафика. Если новая модель поиска войдет в норму, то нанесет непредсказуемый ущерб, предупредил он. Google может уничтожить сложившуюся экосистему распространения информации в Сети или изменить ее так, что под угрозой окажется само существование интернета.
Но основная проблема в том, что среди ответов чат-ботов, например ChatGPT, высока доля неверных, которые при этом кажутся чрезвычайно логичными. То есть вранье искусственного интеллекта обнаружить очень трудно. Такая дезинформация крайне коварна именно потому, что представляет собой глубоко скрытый фейк.
В рекламе виртуального ассистента AutoGPT описано, как умело он генерит исследование рынка обуви для активного отдыха. Буквально за минуту машина описывает всех основных конкурентов — Columbia, Salomon и Merrell, перечисляя плюсы и минусы их продукции. Например, Columbia — известный и уважаемый бренд снаряжения. Их водонепроницаемая обувь выполнена в разных стилях. Цены конкурентоспособны и пр. Это настолько банально, что практически бесполезно. К тому же, не совсем верно.
Никакой реальной ценности в таком тексте нет, ведь в нем не упоминаются такие важные факторы, как разница между мужской и женской обувью, эргономика, материалы. AutoGPT оценивает бренды с высоким присутствием в интернете как более достойные и неверно трактует факты. В целом здесь нет никакой экспертизы, а лишь догадки на основе информации из Сети.
Если задать те же вопросы опытному продавцу-консультанту в спортивном магазине, то он даст на них совсем иные ответы. А вот советы ИИ с высокой вероятностью приведут к травмам. Потому что они не основаны на реальном опыте и глубоких знаниях.
Каких бы высот ни достигали технологии, для правильной интерпретации информации всегда требуется дополнительное человеческое время и опыт. Да, люди тоже лгут. Но если машины заглушат людей, то останется все меньше возможностей исправлять коллективные заблуждения и ошибки, учиться новому, честно конкурировать.
В эссе профессора Рича Саттона «Горький урок» 2019 года говорится о том, что десятилетия исследований доказали: лучший способ совершенствовать системы ИИ — не пытаться создать именно интеллект. Для решения любых задач нужно просто добавить вычислительных мощностей и данных. Машинные вычисления изначально превосходят возможности человека.
Беда в том, что искусственный интеллект создает мнимое изобилие. Подобное мы видели и раньше. К примеру, доступность «Википедии» перевесила точность бумажной энциклопедии «Британника».
По всему видно, что ОИИ никакой не прорыв, а лишь новый этап в борьбе за информацию: кто и как ее создает, как получает и кто кому платит. Все чаще звучат мнения, что переполнение Сети мусором, сгенерированным ИИ, окажется даже полезным, стимулировав развитие дорогостоящих человеческих ресурсов. Люди охотнее будут оплачивать и посещать доверенные качественные ресурсы.
Но станет ли от этого мир лучше? К счастью, ОИИ — не единственный вид машинного интеллекта. С быстрым развитием в России нейросетевых систем контроля, мониторинга, автопилотирования, распознавания нужно фокусироваться не столько на жестком ограничении ОИИ, сколько на поддержке широкого внедрения полезных интеллектуальных машинных систем — таких, которые делают мир более предсказуемым и комфортным.