Недавно ChatGPT отреагировал на инцидент с фотографией странного мужчины, который шокировал многих пользователей сети!
Дело в том, что пользователь обратился к ChatGPT за помощью в том, как использовать пакет форматирования кода еще в Python.
Сначала ответы ChatGPT были нормальными.
Кто бы мог подумать, что ChatGPT вдруг отправил в ответ селфи странного мужчины!
И он тоже появился во второй раз!
Пользователи сети тут же впали в панику.
Может ли быть так, что ChatGPT реален?
Некоторые люди догадываются, что это не может быть еще один призрак в ИИ, верно?
Может быть, это страшная версия ChatGPT?
Кому-то вспоминается легенда о том, что в интернете спрятано огромное количество вещей в скрытом пространстве, что влечет за собой массу теорий.
Некоторые люди предполагают, что ChatGPT, возможно, был отравлен!
Или кто-то взломал OpenAI и попросил ChatGPT случайным образом опубликовать свои фотографии в качестве хвастовства.
Ответ неожиданный
Пользователи сети провели мозговой штурм и собрали улики повсюду и, наконец, раскрыли дело!
Это не фото, сгенерированное ChatGPT, а реальное селфи пользователя.
Оказалось, что эта фотография была загружена в Imgur 7 декабря 2016 года. (Первоначально изображение было просмотрено сотнями, но по мере того, как все больше и больше людей смотрели это событие, количество просмотров выросло до более чем 17 000.) )
Некоторые люди предполагают, что так и должно быть: ChatGPT случайным образом сгенерировал URL-адрес Imgur при генерации ответа, который оказался ссылкой на этого селфи-парня.
Цель ChatGPT — сгенерировать иллюстративное изображение, и он думает, что делится снимком экрана с настройкой Visual Studio Code, но не ожидает, что сгенерирует изображение через ссылку Imgur.
Другими словами, в обучающем наборе данных ChatGPT есть много ответов, которые содержат ссылки Imgur на частичные ответы, поэтому ссылки Imgur сильно коррелируют с правильными ответами.
Однако ChatGPT не может статистически автоматизировать случайную привязку изображений, поэтому результаты непредсказуемы. Фотография этого парня напоминает иллюзорный номер страницы GPT.
Другой пользователь сети также дал аналогичное объяснение: ChatGPT дал ответ, который является ссылкой на Imgur.
Он думал, что должен предоставить ссылку Imgur с ответом, но не понял, что ему нужен тот же URL-адрес Imgur, вместо этого он сгенерировал случайный набор URL-адресов.
И так совпало, что это на самом деле действительная ссылка, которая связана с фотографией иностранного парня.
Также было сказано, что для обучения использовался не Imgur, а что ChatGPT смог генерировать ссылки Imgur (любую ссылку, которую действительно можно сказать).
Итак, эта ссылка была случайно сгенерирована ChatGPT, насколько вероятно, что это произойдет?
Кто-то подсчитал, что идентификатор изображения Imgur состоит из 7 символов в наборе [A-Za-z0-9], поэтому получается 62^7=3 521 614 606 208, что составляет 3,5 триллиона возможных комбинаций.
Во время первого раунда финансирования в 2014 году Igmur разместил около 6,5 триллионов изображений. Экстраполируя это, можно сказать, что с 2014 года объем данных, создаваемых в Интернете, вырос на 860%. Следуя этой логике, Imgur теперь может разместить около 6,24 миллиарда изображений.
Таким образом, шансы на то, что ChatGPT угадает действительный идентификатор изображения, равны:
6,24 млрд / 62^7 х 100 = 0,177%
Это происходит примерно раз на каждые 565 чатов, поэтому нельзя сказать, что ChatGPT сгенерировал эту ссылку Imgur.
Мастер слоя намеренно написал простой скрипт для проверки этих чисел, и из 10 000 сделанных запросов он нашел 19 валидных изображений, поэтому вероятность равна 0,19%. Кстати, он тоже проявил пригоршню привязанности?
В этот момент кажется, что все разваливается.
Поэтому помните, что контент, который вы загружаете или набираете, будет использоваться для обучения ChatGPT, и если вы не хотите утечки своей конфиденциальности, не забудьте отключить кнопку загрузки истории чата.
И любой цифровой след, который вы оставляете в Интернете, однажды может стать данными для обучения ИИ.
Короче говоря, не отправляйте фотографии ИИ, вы не можете понять, что он собирается делать с вашей фотографией.
Ресурсы:
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
ChatGPT слил селфи странного мужчины! Конфиденциальные данные украдены моделью? Пользователи сети запаниковали
Первоисточник: New Zhiyuan
Недавно ChatGPT отреагировал на инцидент с фотографией странного мужчины, который шокировал многих пользователей сети!
Дело в том, что пользователь обратился к ChatGPT за помощью в том, как использовать пакет форматирования кода еще в Python.
Сначала ответы ChatGPT были нормальными.
Может ли быть так, что ChatGPT реален?
Пользователи сети провели мозговой штурм и собрали улики повсюду и, наконец, раскрыли дело!
Это не фото, сгенерированное ChatGPT, а реальное селфи пользователя.
Оказалось, что эта фотография была загружена в Imgur 7 декабря 2016 года. (Первоначально изображение было просмотрено сотнями, но по мере того, как все больше и больше людей смотрели это событие, количество просмотров выросло до более чем 17 000.) )
Цель ChatGPT — сгенерировать иллюстративное изображение, и он думает, что делится снимком экрана с настройкой Visual Studio Code, но не ожидает, что сгенерирует изображение через ссылку Imgur.
Другими словами, в обучающем наборе данных ChatGPT есть много ответов, которые содержат ссылки Imgur на частичные ответы, поэтому ссылки Imgur сильно коррелируют с правильными ответами.
Однако ChatGPT не может статистически автоматизировать случайную привязку изображений, поэтому результаты непредсказуемы. Фотография этого парня напоминает иллюзорный номер страницы GPT.
Он думал, что должен предоставить ссылку Imgur с ответом, но не понял, что ему нужен тот же URL-адрес Imgur, вместо этого он сгенерировал случайный набор URL-адресов.
И так совпало, что это на самом деле действительная ссылка, которая связана с фотографией иностранного парня.
Кто-то подсчитал, что идентификатор изображения Imgur состоит из 7 символов в наборе [A-Za-z0-9], поэтому получается 62^7=3 521 614 606 208, что составляет 3,5 триллиона возможных комбинаций.
Во время первого раунда финансирования в 2014 году Igmur разместил около 6,5 триллионов изображений. Экстраполируя это, можно сказать, что с 2014 года объем данных, создаваемых в Интернете, вырос на 860%. Следуя этой логике, Imgur теперь может разместить около 6,24 миллиарда изображений.
Таким образом, шансы на то, что ChatGPT угадает действительный идентификатор изображения, равны:
6,24 млрд / 62^7 х 100 = 0,177%
Это происходит примерно раз на каждые 565 чатов, поэтому нельзя сказать, что ChatGPT сгенерировал эту ссылку Imgur.
Поэтому помните, что контент, который вы загружаете или набираете, будет использоваться для обучения ChatGPT, и если вы не хотите утечки своей конфиденциальности, не забудьте отключить кнопку загрузки истории чата.