PrivateGPT борется с раскрытием конфиденциальной информации в ChatGPT

4 мая 2023 г. 13:30
 400

В попытке предотвратить попадание личных данных в ИИ, ChatGPT блокирует получение более 50+ типов персональных данных и другой конфиденциальной информации.

В попытке предотвратить попадание личных данных в ИИ, ChatGPT блокирует получение более 50+ типов персональных данных и другой конфиденциальной информации.

На фоне опасений, что сотрудники могут вводить конфиденциальную информацию в модель искусственного интеллекта ChatGPT, поставщик услуг по обеспечению конфиденциальности данных запустил инструмент редактирования, направленный на снижение риска для компаний от непреднамеренного раскрытия данных клиентов и сотрудников.

Новая платформа Private AI «PrivateGPT» интегрируется с высококлассным чат-ботом OpenAI, автоматически редактируя 50+ типов персональных данных в режиме реального времени, когда пользователи вводят текст в чат с ChatGPT.

PrivateGPT находится в центре процесса чата, удаляя из запросов пользователей все, начиная от медицинских данных и информации о кредитных картах до контактных данных, дат рождения и номеров социального страхования, прежде чем отправить их в ChatGPT. Когда ChatGPT отвечает, PrivateGPT заново заполняет ПДн в ответе, чтобы сделать опыт более прозрачным для пользователей, согласно заявлению, сделанному на этой неделе создателем PrivateGPT - компанией Private AI.

«Генеративный ИИ будет иметь место в наших организациях и обществах только в том случае, если будут существовать правильные инструменты для его безопасного использования» - заявила Патриция Тейн, соучредитель и генеральный директор Private AI. «Делясь личной информацией со сторонними организациями, компании теряют контроль над тем, как эти данные хранятся и используются, подвергая себя серьезному риску нарушения нормативных требований».

Риски конфиденциальности и ChatGPT.

Каждый раз, когда пользователь вводит данные в чат с ChatGPT, эта информация попадает в набор данных LLM сервиса, который используется для обучения следующего поколения алгоритма. Проблема заключается в том, что эта информация может быть получена позднее, если не будет обеспечена надлежащая безопасность данных в сервисе.

«Аспект использования ИИ всех данных в качестве исходного материала для других запросов представляет собой "черный ящик" неопределенности в отношении того, как и где именно окажутся данные компании, и полностью нарушает жесткую защиту данных, лежащую в основе большинства современных компаний» - предупреждает Рой Акерман, соучредитель и генеральный директор компании Rezonate.

Следует отметить, что риск утечки данных не является теоретическим: в марте компания OpenAI признала ошибку, которая привела к раскрытию истории чатов пользователей, после того как снимки экрана приватных чатов стали появляться на Reddit.

OpenAI предупредила пользователей о необходимости быть избирательными при использовании ChatGPT: «Мы не можем удалить конкретные подсказки из вашей истории. Пожалуйста, не делитесь в разговорах конфиденциальной информацией» - говорится в руководстве пользователя OpenAI.

Тем не менее, сотрудники все еще учатся тому, как соблюдать конфиденциальность при использовании ChatGPT, даже несмотря на головокружительное количество пользователей (сервис достиг 100 миллионов пользователей в рекордно короткие сроки, всего через два месяца после запуска).

В недавнем отчете служба безопасности данных Cyberhaven обнаружила и заблокировала запросы на ввод конфиденциальных данных в ChatGPT от 4,2% из 1,6 миллиона работников компаний-клиентов, включая конфиденциальную информацию, данные клиентов, исходный код и регламентированную информацию.

В качестве конкретного примера этого явления в начале месяца стало известно, что инженеры Samsung сделали три значительные утечки в ChatGPT: багги исходного кода базы данных полупроводников, код для выявления дефектов в определенном оборудовании Samsung и протокол внутреннего совещания.

«Широкое внедрение языковых моделей ИИ становится общепризнанным средством ускорения создания и анализа кода» - говорит Акерман. «Однако утечка данных чаще всего является побочным продуктом этой скорости, эффективности и качества. Разработчики по всему миру стремятся использовать эти технологии, однако руководство со стороны инженерного управления еще не выработало правила «до» и «после» использования ИИ, чтобы обеспечить соблюдение и сохранение конфиденциальности данных».

Источник: https://www.darkreading.com

Системы Информационной Безопасности