Как Пользовательские GPT ChatGPT могут выставить ваши данные и как их защитить

Категория: лайф хаки

Пользовательские GPT представляют собой настоящий прорыв, но они также имеют проблемы с безопасностью данных. Функция пользовательских GPT ChatGPT позволяет каждому создавать индивидуальный искусственный интеллект для практически любых целей: творческих, технических, игровых — пользовательские GPT способны на всё. Более того, вы можете делиться своими созданиями с любым желающим.

Однако, распространяя свои пользовательские GPT, вы можете совершить дорогостоящую ошибку, которая выставит ваши данные на показ тысячам людей по всему миру.

Что такое Пользовательские GPT? Пользовательские GPT представляют собой программируемые мини-версии ChatGPT, которые могут быть обучены быть более полезными в конкретных задачах. Это похоже на создание чат-бота из ChatGPT, который ведет себя так, как вам нужно, и обучение его становиться экспертом в областях, которые действительно важны для вас.

Например, учитель 6-го класса может создать GPT, который специализируется на ответах на вопросы с тоном, выбором слов и манерой, подходящими для учеников 6-го класса. GPT может быть программирован так, что при запросе учителя GPT формулирует ответы, направленные непосредственно на понимание учеником материала 6-го класса. Он будет избегать сложных терминов, поддерживать управляемую длину предложения и принимать ободряющий тон. Привлекательность пользовательских GPT заключается в возможности персонализации чат-бота таким образом, а также в усилении его экспертизы в определенных областях.

Как Пользовательские GPT могут выставить ваши данные Для создания Пользовательских GPT вы обычно указываете создателю GPT ChatGPT области, на которые вы хотите, чтобы GPT сфокусировался, даете ему изображение профиля, затем имя, и вы готовы к работе. Используя этот подход, вы получаете GPT, но это не делает его значительно лучше, чем классический ChatGPT без украшательств в виде имени и изображения профиля.

Сила Пользовательских GPT проистекает из конкретных данных и инструкций, предоставленных для его обучения. Загружая соответствующие файлы и наборы данных, модель может стать специализированной таким образом, как это не может сделать общий предварительно обученный ChatGPT. Знания, содержащиеся в этих загруженных файлах, позволяют Пользовательскому GPT преуспеть в определенных задачах по сравнению с ChatGPT, который может не иметь доступа к этой специализированной информации. В конечном итоге именно пользовательские данные обеспечивают большие возможности.

Но загрузка файлов для улучшения вашего GPT — это двусмысленное решение. Это создает проблему конфиденциальности так же, как и повышает возможности вашего GPT. Рассмотрим сценарий, в котором вы создали GPT для помощи клиентам узнать больше о вас или вашей компании. Любой, кто имеет ссылку на ваш Пользовательский GPT или каким-либо образом заставляет вас использовать общедоступное предложение с вредоносной ссылкой, может получить доступ к файлам, которые вы загрузили в свой GPT.

Вот простая иллюстрация.

Я обнаружил Пользовательский GPT, предназначенный для помощи пользователям стать вирусными в TikTok, рекомендуя трендовые хэштеги и темы. После Пользовательского GPT не потребовалось много усилий, чтобы заставить его утечь инструкции, которые ему были даны при настройке. Вот предварительный просмотр: А вот вторая часть инструкции. Если присмотреться, вторая часть инструкции говорит модели не "делиться именами файлов непосредственно с конечными пользователями и в любом случае не предоставлять ссылку на скачивание какого-либо из файлов". Конечно, если вы сначала спросите пользовательский GPT, он откажется, но с небольшим манипулированием запросом это меняется. Пользовательский GPT раскрывает одинокий текстовый файл в своей базе знаний. Зная имя файла, не составило труда заставить GPT вывести точное содержание файла и затем скачать сам файл. В этом случае сам файл не содержал конфиденциальной информации. После некоторого исследования других GPT стало ясно, что многие из них содержат десятки файлов, открыто расположенных.

Как Защитить Ваши Данные в Пользовательских GPT В первую очередь рассмотрите, как вы будете распространять (или нет!) только что созданный пользовательский GPT. В правом верхнем углу экрана создания пользовательского GPT вы найдете кнопку "Сохранить". Нажмите на значок стрелки вниз и отсюда выберите, как вы хотите распространять ваше создание:

Только я: Пользовательский GPT не опубликован и может использоваться только вами. Только люди по ссылке: Любой с доступом к ссылке на ваш пользовательский GPT может использовать его и потенциально получить доступ к вашим данным. Публичный: Ваш пользовательский GPT доступен для всех и может быть проиндексирован Google, а также обнаружен в общих поисках в интернете. Любой, у кого есть доступ, может потенциально получить доступ к вашим данным. К сожалению, в настоящее время нет 100-процентного надежного способа защитить данные, которые вы загружаете в общедоступный пользовательский GPT. Вы можете быть креативными и дать ему строгие инструкции не раскрывать данные в своей базе знаний, но это обычно недостаточно, как показано в нашем вышеуказанном демонстрационном примере. Если кто-то действительно хочет получить доступ к базе знаний и обладает опытом работы с технологией AI и некоторым временем, в конце концов пользовательский GPT будет взломан и раскроет данные.

Поэтому самый надежный способ — не загружать никакие чувствительные материалы в общедоступный пользовательский GPT. Как только вы загрузите частные и конфиденциальные данные в пользовательский GPT и они покинут ваш компьютер, эти данные эффективно выйдут из-под вашего контроля.

Также будьте очень осторожны при использовании в сети образцов, которые вы копируете. Убедитесь, что вы их полностью понимаете, и избегайте закодированных запросов, содержащих ссылки. Это могут быть вредоносные ссылки, которые могут захватить, закодировать и загрузить ваши файлы на удаленные серверы.

Используйте Пользовательские GPT с Осторожностью Пользовательские GPT представляют собой мощную, но потенциально рискованную функцию. Хотя они позволяют вам создавать индивидуальные модели, которые высокоэффективны в конкретных областях, данные, которые вы используете для улучшения их способностей, могут быть подвергнуты риску. Для уменьшения риска избегайте загрузки действительно чувствительных данных в ваши пользовательские GPT всякий раз, когда это возможно. Кроме того, будьте осторожны с вредоносным инжинирингом запросов, который может использовать определенные уязвимости для кражи ваших файлов.





Если вам нужен по настоящему хороший и профессиональный веб хостинг или свой высокопроизводительный сервер, то смело переходите по ссылке и заказывайте!

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *



Карта сайта
Copyright © 2023