Достижим ли «максимально правдивый ИИ» Элона Маска? Преодоление предвзятости в ИИ-технологиях имеет решающее значение для кибербезопасности, но сделать это может быть непросто.
Беспокойство по поводу предвзятости в новых инструментах искусственного интеллекта получило новую порцию воздуха, когда миллиардер Элон Маск рассказал о своих планах по созданию «максимально правдивого ИИ» в качестве альтернативы поддерживаемому Microsoft проекту OpenAI ChatGPT и технологии Bard от Google.
В интервью Такеру Карлсону из Fox News в начале этого месяца Маск выразил обеспокоенность тем, что, по его словам, ChatGPT обучают лгать и быть политкорректным, среди прочего. Он описал так называемый «TruthGPT» как третий вариант, который вряд ли «уничтожит людей» и предложит «лучший путь к безопасности» по сравнению с другими инструментами генеративного ИИ.
Маск не назвал никаких сроков выхода своего чатбота, однако он уже создал новую фирму по разработке ИИ под названием X.AI и, по сообщениям, начал нанимать сотрудников по разработке ИИ из компании OpenAI, создавшей ChatGPT, а также из Google и ее материнской компании Alphabet.
Между тем, конечно, предвзятость ИИ влияет и на риск кибербезопасности.
Всплытие знакомой проблемы.
Комментарии Маска Карлсону повторяют некоторые чувства, которые он и сотни других технологических лидеров, специалистов по этике и академиков выразили в открытом письме к компаниям, занимающимся ИИ, в марте. В письме содержался призыв к организациям, занимающимся исследованиями и разработками в области ИИ, приостановить свою работу как минимум на шесть месяцев, чтобы у политиков была возможность установить определенные ограждения для использования этой технологии. Приводя свои аргументы, Маск и другие участники указали на возможность того, что предвзятые инструменты ИИ могут наводнить «наши информационные каналы пропагандой и неправдой», как на одну из главных проблем.
Сюзанна Хикс, стратег по данным и научный сотрудник Международной ассоциации специалистов по защите частной жизни (IAPP), говорит, что основная проблема предвзятости в ИИ и машинном обучении заключается в том, что она проистекает из принятия решений человеком. Все модели ИИ обучаются на основе чрезвычайно больших массивов данных и не запрограммированы на определенный ответ. Как правило, предвзятость возникает в данных, которые люди выбирают для ввода в модель.
«Если в модель вводятся необъективные данные, то и выходные данные, скорее всего, будут необъективными» - говорит Хикс. «Предвзятость также может быть внесена из-за отсутствия данных или из-за того, что специалисты по обработке данных выбирают переменную в качестве прокси для чего-то другого, чем является элемент данных» - заявляет она. В качестве примера Хикс приводит алгоритм машинного обучения, который может принять количество «кликов», сделанных пользователем при просмотре Netflix, за положительный показатель. «Я могу нажимать на фильмы, чтобы прочитать их описание и решить, что мне это не нравится, но модель может неправильно интерпретировать этот клик как показатель «нравится».
Аналогичным образом, служба кредитования, использующая искусственный интеллект для определения права на получение кредита, может в итоге отказать в непропорционально большом количестве кредитов людям из почтового индекса с высоким уровнем преступности, если этот почтовый индекс был частью набора данных в обучающей модели инструмента искусственного интеллекта. «В этом случае почтовый индекс используется как косвенный показатель поведения человека и тем самым дает необъективный результат» - сообщает Хикс.
Эндрю Барратт, вице-президент компании Coalfire, говорит, что его собственное тестирование инструмента для генерации текста в изображение стало одним из примеров предвзятости, которая существует в новых технологиях ИИ. Когда он попросил инструмент создать фотореалистичное изображение счастливого человека, наслаждающегося солнцем, инструмент создал только светлые оттенки кожи и черты лица, хотя предоставленные им данные не содержали никакого расового контекста. По его словам, одна из проблем в будущем заключается в том, что поставщики платформ ИИ, стремящиеся монетизировать свои технологии, могут внести предвзятость в свои модели таким образом, чтобы это было выгодно рекламодателям или поставщикам платформ.
Когда вы монетизируете услугу, вы, как правило, хотите максимизировать потенциал монетизации при любом дальнейшем развитии этой услуги, говорит Кришна Вишнубхотла, вице-президент по продуктовой стратегии компании Zimperium. Часто эта эволюция может начать отклоняться от первоначальных целей или пути развития - именно эту озабоченность Маск высказал по поводу ChatGPT в своем интервью Карлсону. «Здесь кроется проблема, о которой говорит Элон» - заявляет Вишнубхотла.
Предвзятое отношение к кибербезопасности в искусственном интеллекте.
Хотя Маск и другие не называли конкретных последствий предвзятости ИИ для кибербезопасности, эта тема существует уже давно, и к ней стоит вернуться в эпоху ChatGPT. Как отметила Аарти Боркар, бывший руководитель IBM и Microsoft, а ныне сотрудник венчурного фонда, в новаторской колонке для Fast Company в 2019 году, поскольку ИИ становится главным инструментом безопасности, предвзятость является одной из форм риска.
«Когда модели ИИ основаны на ложных предположениях о безопасности или неосознанных предубеждениях, они не просто угрожают безопасности компании» - написал Боркар. «ИИ, настроенный на определение доброкачественного или вредоносного сетевого трафика на основе факторов, не связанных с безопасностью, может пропустить угрозы, позволяя им проникать в сеть организации. Он также может блокировать сетевой трафик, запрещая критически важные для бизнеса коммуникации».
Поскольку ChatGPT с энтузиазмом внедряется в продукты кибербезопасности, риск ошибочной скрытой предвзятости может еще больше способствовать ложным срабатываниям, нарушению конфиденциальности и зияющим дырам в киберзащите. Кроме того, киберпреступники могут отравить ИИ, чтобы повлиять на эффективность защиты.
«Если ИИ взломать и манипулировать им, чтобы он предоставлял информацию, которая кажется объективной, но на самом деле является хорошо замаскированной предвзятой информацией или искаженной точкой зрения, то ИИ может стать опасной... машиной» - говорится в Harvard Business Review.
Таким образом, возникает вопрос, действительно ли может существовать абсолютно беспристрастный ИИ, и что для этого нужно сделать.
Устранение предвзятости в искусственном интеллекте.
По словам Хикса, первый шаг к устранению предвзятости данных - это понимание ее потенциальной возможности в ИИ и машинном обучении. Это означает понимание того, как и какие переменные данных включаются в модель.
Многие так называемые модели «черного ящика», такие как нейронные сети и деревья решений, предназначены для самостоятельного изучения закономерностей и принятия решений на основе своих наборов данных. Они не требуют от пользователя или даже разработчика полного понимания того, как модель могла прийти к определенному выводу, говорит она.
«ИИ и машинное обучение во многом полагаются на модели «черного ящика», поскольку они могут обрабатывать огромные объемы данных и выдавать очень точные результаты» - отмечает Хикс. «Но важно помнить, что они именно такие – «черные ящики» - и у нас нет понимания того, как они приходят к предоставленному результату».
Авторы статьи в блоге Всемирного экономического форума в октябре прошлого года утверждали, что наука о данных с открытым исходным кодом (OSDS) - где заинтересованные стороны сотрудничают на прозрачной основе - может быть одним из способов борьбы с предвзятостью в ИИ. Подобно тому, как программное обеспечение с открытым исходным кодом изменило программное обеспечение, OSDS может открыть данные и модели, которые используют инструменты ИИ, считают авторы. Когда данные и модели ИИ будут открыты, ученые, изучающие данные, получат возможность «выявлять ошибки и неэффективность, а также создавать альтернативные модели, в которых приоритет отдается различным метрикам для разных случаев использования» - пишут они.
Предложенный ЕС путь классификации рисков ИИ.
В предложенном Европейским союзом законе об искусственном интеллекте используется другой подход. Он призывает к созданию системы классификации ИИ, в которой инструменты ИИ будут классифицироваться в зависимости от уровня риска, который они представляют для здоровья, безопасности и основных прав человека. Технологии ИИ, представляющие неприемлемо высокий риск, такие как биометрические системы идентификации в режиме реального времени, будут запрещены. Те, которые считаются представляющими ограниченный или минимальный риск, такие как видеоигры и спам-фильтры, будут подлежать некоторому базовому надзору. Проекты ИИ с высоким риском, такие как автономные транспортные средства, должны быть подвергнуты строгим требованиям тестирования и продемонстрировать соблюдение определенных стандартов качества данных. К инструментам генеративного ИИ, таким как ChatGPT, также будут предъявляться некоторые из этих требований.
Подход NIST.
В США Национальный институт стандартов и технологий (NIST) рекомендовал заинтересованным сторонам расширить рамки поиска источников предвзятости в ИИ. В дополнение к процессам машинного обучения и данным, используемым для обучения инструментов ИИ, отрасли следует рассмотреть общественные и человеческие факторы, говорится в специальной публикации NIST о необходимости стандартов для выявления и управления предвзятостью в ИИ.
«Предвзятость не является ни новым, ни уникальным явлением для ИИ, и невозможно добиться нулевого риска предвзятости в системе ИИ» - отметили в NIST. Чтобы уменьшить часть риска, NIST разработает стандарты для «выявления, понимания, измерения, управления и уменьшения предвзятости».
Источник: https://www.darkreading.com