В попытке предотвратить попадание личных данных в ИИ, ChatGPT блокирует получение более 50+ типов персональных данных и другой конфиденциальной информации.
На фоне опасений, что сотрудники могут вводить конфиденциальную информацию в модель искусственного интеллекта ChatGPT, поставщик услуг по обеспечению конфиденциальности данных запустил инструмент редактирования, направленный на снижение риска для компаний от непреднамеренного раскрытия данных клиентов и сотрудников.
Новая платформа Private AI «PrivateGPT» интегрируется с высококлассным чат-ботом OpenAI, автоматически редактируя 50+ типов персональных данных в режиме реального времени, когда пользователи вводят текст в чат с ChatGPT.
PrivateGPT находится в центре процесса чата, удаляя из запросов пользователей все, начиная от медицинских данных и информации о кредитных картах до контактных данных, дат рождения и номеров социального страхования, прежде чем отправить их в ChatGPT. Когда ChatGPT отвечает, PrivateGPT заново заполняет ПДн в ответе, чтобы сделать опыт более прозрачным для пользователей, согласно заявлению, сделанному на этой неделе создателем PrivateGPT - компанией Private AI.
«Генеративный ИИ будет иметь место в наших организациях и обществах только в том случае, если будут существовать правильные инструменты для его безопасного использования» - заявила Патриция Тейн, соучредитель и генеральный директор Private AI. «Делясь личной информацией со сторонними организациями, компании теряют контроль над тем, как эти данные хранятся и используются, подвергая себя серьезному риску нарушения нормативных требований».
Риски конфиденциальности и ChatGPT.
Каждый раз, когда пользователь вводит данные в чат с ChatGPT, эта информация попадает в набор данных LLM сервиса, который используется для обучения следующего поколения алгоритма. Проблема заключается в том, что эта информация может быть получена позднее, если не будет обеспечена надлежащая безопасность данных в сервисе.
«Аспект использования ИИ всех данных в качестве исходного материала для других запросов представляет собой "черный ящик" неопределенности в отношении того, как и где именно окажутся данные компании, и полностью нарушает жесткую защиту данных, лежащую в основе большинства современных компаний» - предупреждает Рой Акерман, соучредитель и генеральный директор компании Rezonate.
Следует отметить, что риск утечки данных не является теоретическим: в марте компания OpenAI признала ошибку, которая привела к раскрытию истории чатов пользователей, после того как снимки экрана приватных чатов стали появляться на Reddit.
OpenAI предупредила пользователей о необходимости быть избирательными при использовании ChatGPT: «Мы не можем удалить конкретные подсказки из вашей истории. Пожалуйста, не делитесь в разговорах конфиденциальной информацией» - говорится в руководстве пользователя OpenAI.
Тем не менее, сотрудники все еще учатся тому, как соблюдать конфиденциальность при использовании ChatGPT, даже несмотря на головокружительное количество пользователей (сервис достиг 100 миллионов пользователей в рекордно короткие сроки, всего через два месяца после запуска).
В недавнем отчете служба безопасности данных Cyberhaven обнаружила и заблокировала запросы на ввод конфиденциальных данных в ChatGPT от 4,2% из 1,6 миллиона работников компаний-клиентов, включая конфиденциальную информацию, данные клиентов, исходный код и регламентированную информацию.
В качестве конкретного примера этого явления в начале месяца стало известно, что инженеры Samsung сделали три значительные утечки в ChatGPT: багги исходного кода базы данных полупроводников, код для выявления дефектов в определенном оборудовании Samsung и протокол внутреннего совещания.
«Широкое внедрение языковых моделей ИИ становится общепризнанным средством ускорения создания и анализа кода» - говорит Акерман. «Однако утечка данных чаще всего является побочным продуктом этой скорости, эффективности и качества. Разработчики по всему миру стремятся использовать эти технологии, однако руководство со стороны инженерного управления еще не выработало правила «до» и «после» использования ИИ, чтобы обеспечить соблюдение и сохранение конфиденциальности данных».
Источник: https://www.darkreading.com