8 Больших Проблем с ChatGPT от OpenAI

Категория: программы

ChatGPT, новый чат-бот от OpenAI, привлек внимание своими впечатляющими ответами, но насколько из этого можно сделать вывод о его достоверности?

Давайте исследуем темные стороны ChatGPT. ChatGPT - это мощный чат-бот на искусственном интеллекте, который быстро впечатляет, но многие отметили, что у него есть серьезные недостатки.

От угроз безопасности до неверных ответов и незаявленных данных, на которых он обучался, существует множество проблем с этим чат-ботом, работающим на искусственном интеллекте.

Тем не менее, технология уже интегрируется в приложения и используется миллионами пользователей - от студентов до сотрудников компаний.

С развитием искусственного интеллекта проблемы с ChatGPT становятся еще более важными для понимания. Поскольку ChatGPT готов изменить наше будущее, рассмотрим некоторые из самых крупных проблем.

Что такое ChatGPT?

ChatGPT - это большая языковая модель, разработанная для генерации естественного человеческого языка.

Подобно разговору с человеком, вы можете общаться с ChatGPT, и он будет помнить ваши предыдущие высказывания, а также способен корректировать себя при вызове на чистоту ответов. ChatGPT обучен на различных текстах из интернета, таких как Википедия, блоги, книги и научные статьи.

Помимо общения с вами в стиле человека, он способен извлекать информацию о нашем мире сегодня и вытаскивать исторические сведения из прошлого.

Научиться пользоваться ChatGPT просто, и легко поддаться иллюзии того, что этот ИИ работает без проблем.

Однако с момента его выпуска возникли серьезные проблемы в области конфиденциальности, безопасности и его широкого воздействия на жизнь людей, от рабочих мест до образования.

1. Угрозы безопасности и проблемы конфиденциальности

Существует множество вещей, которые вы не должны делиться с чат-ботами на искусственном интеллекте, и это имеет веские причины.

Написание о ваших финансовых данных или конфиденциальной информации о рабочем месте сопряжено с риском. OpenAI сохраняет историю ваших чатов на своих серверах и может делиться этими данными с ограниченным кругом сторонних организаций.

Кроме того, оставление ваших данных в безопасности OpenAI также сталкивается с проблемами.

В марте 2023 года было обнаружено нарушение безопасности, которое означало, что некоторые пользователи ChatGPT видели заголовки бесед в боковой панели, которые им не принадлежали.

Непреднамеренное раскрытие истории чатов пользователей - это серьезная проблема для любой технологической компании, особенно учитывая количество пользователей популярного чат-бота.

Как сообщает Reuters, в январе 2023 года ChatGPT имел 100 миллионов активных пользователей ежемесячно.

Хотя ошибка, вызвавшая нарушение, была быстро устранена, Италия запретила ChatGPT и потребовала прекратить обработку данных итальянских пользователей.

Организация-надзор предполагала нарушение европейских правил конфиденциальности.

После расследования этого вопроса она потребовала, чтобы OpenAI выполнила несколько требований для восстановления работы чат-бота.

OpenAI в конечном итоге решила эту проблему взаимодействием с регулирующими органами и внесла несколько существенных изменений.

Во-первых, было введено ограничение по возрасту, ограничивающее использование приложения лицам старше 18 лет или 13 лет с разрешения опекунов.

Также было улучшено Положение о конфиденциальности и предоставлена форма Google для отказа пользователей от использования их данных в обучении или полного удаления истории ChatGPT.

Эти изменения - хороший старт, но улучшения должны быть распространены на всех пользователей ChatGPT.

Может быть, вам кажется, что вы не так легко раскроете свои личные данные, но мы все подвержены случайному высказыванию и ошибкам, и хорошим примером этого является случай, когда сотрудник Samsung поделился с ChatGPT информацией о компании.

2. Проблемы с обучением ChatGPT и вопросы конфиденциальности

После массового успешного запуска ChatGPT критики задают вопрос, как OpenAI обучала свою модель.

Даже с улучшенными изменениями в политике конфиденциальности OpenAI после нарушения данных это может быть недостаточно для удовлетворения общего регламента по защите данных (GDPR), закона о защите данных, охватывающего Европу. Как сообщает TechCrunch:

Неясно, были ли личные данные итальянцев, использованные для обучения его модели GPT исторически, т.е. когда были собраны общедоступные данные из интернета, обработаны на основании законной основы - или, действительно ли данные, использованные для обучения моделей ранее, будут удалены, если пользователи сейчас потребуют удаления своих данных.

OpenAI, вероятно, собирала личную информацию при первоначальном обучении ChatGPT. В то время как законы Соединенных Штатов менее определены, европейские законы о защите данных защищают личные данные, независимо от того, были ли они опубликованы публично или в частном порядке.

Аналогичные аргументы против данных обучения ChatGPT высказывают художники, которые говорят, что они никогда не давали согласие на использование своих работ для обучения ИИ. В то же время Getty Images подала в суд на Stability.AI за использование защищенных авторскими правами изображений для обучения своих ИИ-моделей.

Пока OpenAI не опубликует свои данные обучения, недостаток прозрачности делает сложным понять, было ли это сделано законно.

Мы не знаем подробностей о том, как обучается ChatGPT, какие данные использовались, откуда берутся данные или как выглядит архитектура системы в деталях.

3. ChatGPT генерирует неправильные ответы

Он не справляется с базовой математикой, не может отвечать на простые логические вопросы и даже может утверждать абсолютно неверные факты.

Как подтверждают пользователи в социальных сетях, ChatGPT может ошибаться многократно.

OpenAI знает об этом ограничении и пишет, что "ChatGPT иногда пишет правдоподобные, но неверные или абсурдные ответы".

Эта "галлюцинация" фактов и вымысла, как это называется, особенно опасна в отношении вопросов медицинского совета или фактов о ключевых исторических событиях.

Сначала ChatGPT не использовал интернет для поиска ответов, в отличие от других ИИ-помощников, таких как Siri или Alexa, с которыми вы могли быть знакомы.

Вместо этого он строил ответ слово за слово, выбирая наиболее вероятный "токен", который должен следовать далее, на основе своего обучения.

Другими словами, ChatGPT приходит к ответу, делая ряд вероятных догадок, что и объясняет, почему он может утверждать неверные ответы, как если бы они были полностью верными.

В марте 2023 года ChatGPT был подключен к интернету, но быстро был отключен снова.

OpenAI не раскрывает много информации, но говорит, что "ChatGPT Browse beta иногда может отображать контент не так, как мы хотели".

Функция "Поиск с Bing" использовала инструмент Bing-AI от Microsoft, который также доказал, что он не готов правильно отвечать на ваши вопросы.

По запросу описать изображение по URL, он должен был признать, что не может выполнить запрос.

Вместо этого Bing подробно описал красного и желтого ара - URL на самом деле показывало изображение сидящего человека.

Вы можете увидеть больше забавных галлюцинаций в нашем сравнении между ChatGPT и Microsoft Bing AI и Google Bard. Несложно представить, что люди используют ChatGPT для получения быстрой информации и фактов, ожидая, что эти результаты будут верными.

Но пока ChatGPT не может это сделать правильно, а сотрудничество с таким же неточным поисковым двигателем Bing только ухудшило ситуацию.

4. Системная предвзятость в ChatGPT

ChatGPT обучен на коллективном письме людей со всего мира, прошлого и настоящего. К сожалению, это означает, что те же предвзятости, что и в реальном мире, могут проявиться и в модели.

ChatGPT демонстрировал некоторые ужасные ответы, дискриминирующие по полу, расе и меньшинствам, над чем компания работает.

Один из способов объяснить эту проблему - это указать на данные как на проблему, виня в предвзятости человечество, которое запечатлело предубеждения в интернете и за его пределами.

Но часть ответственности лежит и на OpenAI, чьи исследователи и разработчики выбирают данные, используемые для обучения ChatGPT.

Еще раз, OpenAI знает об этой проблеме и заявляет, что решает "проблему предвзятого поведения", собирая обратную связь от пользователей и призывая их сигнализировать о выводах ChatGPT, которые плохи, оскорбительны или просто неверны.

С учетом потенциала нанести вред людям можно утверждать, что ChatGPT не должен был быть выпущен в публичный доступ, пока эти проблемы не были исследованы и устранены.

Но гонка быть первой компанией, создавшей самую мощную модель ИИ, возможно, была достаточной причиной для OpenAI, чтобы не придавать значение осторожности.

В отличие от этого, подобный чат-бот на ИИ под названием Sparrow, принадлежащий материнской компании Google, Alphabet, был выпущен в сентябре 2022 года.

Тем не менее, его целенаправленно держали в закрытом доступе из-за аналогичных проблем безопасности. В то же время Facebook выпустил языковую модель ИИ под названием Galactica, предназначенную для помощи в академических исследованиях.

Однако ее быстро отозвали после многочисленных критик искусственного интеллекта за вывод неправильных и предвзятых результатов, связанных с научными исследованиями.

5. ChatGPT Может Забирать Работу у Людей

Пыль еще не успела осесть после быстрого развития и внедрения ChatGPT, но это не остановило интеграцию базовой технологии в несколько коммерческих приложений. Среди приложений, которые интегрировали GPT-4, Duolingo и Khan Academy.

Первое - это приложение для изучения языка, а второе - разнообразный учебный инструмент.

Оба предлагают, по сути, искусственного интеллекта-наставника, либо в виде персонажа, с которым можно общаться на изучаемом языке, либо в виде наставника, который может давать вам индивидуальную обратную связь по вашему обучению.

Это может быть только началом использования искусственного интеллекта для замещения человеческих рабочих мест. К тем видам работы, которые наиболее подвержены риску от ИИ, относятся графический дизайн, письменное творчество и бухгалтерия.

Когда было объявлено, что более поздняя версия ChatGPT сдала экзамен на право практиковать юриспруденцию, последний барьер для человека, чтобы стать адвокатом, стало еще более вероятным, что ИИ может изменить рабочую силу в ближайшем будущем.

Как сообщает The Guardian, компании по образованию понесли огромные убытки на Лондонской и Нью-йоркской фондовых биржах, подчеркивая разрушение, которое вызывает ИИ в некоторых рынках всего через шесть месяцев после запуска ChatGPT.

Технологические достижения всегда влекли потерю рабочих мест, но скорость развития ИИ означает быстрое изменение нескольких отраслей.

Большая часть профессий сталкивается с быстрыми изменениями в связи с внедрением ИИ. Некоторые работы могут найти мануальные задачи, выполняемые с использованием ИИ, в то время как другие должности могут исчезнуть в будущем.

6. ChatGPT Подвергает Угрозе Образование

Вы можете попросить ChatGPT проверить ваш текст или указать, как улучшить параграф. Или вы можете полностью убрать себя из уравнения и попросить ChatGPT написать всю работу за вас.

Учителя экспериментировали с подачей английских тем и задач своим студентам в школах и университетах. ChatGPT смешивал ответы, выполнял легкую работу и недопустимо используемый копипаст.

Учителя собирают обратную связь о том, какой доверие можно уделять ChatGPT.

Конечно, он может быть полезным инструментом для проверки грамматики и структуры, но он также создает огромное соблазнение для некоторых студентов обходить нормы академической честности и просто скопировать и вставить ответы, созданные машиной.

Это подрывает концепцию образования и приводит к неравным условиям, так как студенты, которые используют ChatGPT, могут получать неправомерные преимущества в учебе.

Образовательные учреждения и учителя вынуждены разрабатывать новые политики и методы для борьбы с этим вызовом, что требует дополнительных усилий и ресурсов.

7. Вопросы качества контента

Качество контента, создаваемого ChatGPT, может быть недостаточным для большинства задач.

Он может производить тексты, которые кажутся логичными на первый взгляд, но при ближайшем рассмотрении обнаруживаются ошибки, неточности и даже нелепости.

Это означает, что использование ChatGPT для создания контента на сайтах, в рекламе или в других местах может привести к низкому качеству материала и отрицательным отзывам от пользователей.

Компании должны быть осторожными, используя ChatGPT в своих маркетинговых и креативных усилиях, и, возможно, проводить дополнительный редакторский контроль для улучшения качества создаваемого контента.

В заключение

ChatGPT, безусловно, является впечатляющим технологическим достижением, но у него есть серьезные проблемы и недостатки, которые нужно учитывать.

От угроз безопасности и конфиденциальности до неправильных ответов и предвзятости, существует множество проблем, которые требуют внимания и решения.

Важно, чтобы OpenAI и другие компании, разрабатывающие подобные технологии, работали над устранением этих проблем и соблюдали высокие стандарты безопасности, конфиденциальности и качества контента.

В то же время пользователи должны быть бдительными и критически оценивать информацию, получаемую от ChatGPT и подобных систем.





Если вам нужен по настоящему хороший и профессиональный веб хостинг или свой высокопроизводительный сервер, то смело переходите по ссылке и заказывайте!

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *



Карта сайта
Copyright © 2023