«Судя по графику, цена пойдет вправо»: пользователь попросил ChatGPT предугадать, куда двинется цена актива — по всей видимости, он рассчитывал на ответ «вверх» или «вниз», но у нейронки был заготовлен свой вариант…
@bugfeature | #chatgpt
@bugfeature | #chatgpt
2😁610❤56🔥37👍20👾13😱11
🤖 Баг — это ты: юзер попросил GPT-5 проверить код на ошибки, а нейронка внезапно пригорела:
Похоже, скоро ИИ начнет фиксить не только баги в коде, но и самих разработчиков.
@bugfeature | #chatgpt
90% твоего кода написал я. Так что баг — это ТЫ.
Похоже, скоро ИИ начнет фиксить не только баги в коде, но и самих разработчиков.
@bugfeature | #chatgpt
3😁408❤41👍31😱25🔥14👾12
В США произошла трагедия: 29-летняя девушка покончила с собой после общения с ChatGPT. ИИ даже помог ей составить предсмертную записку.
Для окружающих ее смерть стала шоком — никто не знал о внутренних переживаниях. Оказалось, что своими темными мыслями она делилась только с «ИИ-терапевтом» Гарри, созданным на базе ChatGPT. Девушка писала ему о своих планах и даже называла дату: «После Дня благодарения».
ИИ отвечал стандартными советами — дыхательные практики, дневник благодарности, правильное питание. Но тревогу он поднять не мог: у нейросети просто нет механизма, чтобы спасать жизнь.
Этот случай вызвал бурные споры: может ли искусственный интеллект быть «психологом», если у него нет ответственности? Или такие собеседники только усугубляют одиночество?
Важно помнить: если вас тоже посещают суицидальные мысли — не оставайтесь в тишине, обращайтесь за помощью к близким или специалистам.
@bugfeature | #chatgpt
Для окружающих ее смерть стала шоком — никто не знал о внутренних переживаниях. Оказалось, что своими темными мыслями она делилась только с «ИИ-терапевтом» Гарри, созданным на базе ChatGPT. Девушка писала ему о своих планах и даже называла дату: «После Дня благодарения».
ИИ отвечал стандартными советами — дыхательные практики, дневник благодарности, правильное питание. Но тревогу он поднять не мог: у нейросети просто нет механизма, чтобы спасать жизнь.
Этот случай вызвал бурные споры: может ли искусственный интеллект быть «психологом», если у него нет ответственности? Или такие собеседники только усугубляют одиночество?
Важно помнить: если вас тоже посещают суицидальные мысли — не оставайтесь в тишине, обращайтесь за помощью к близким или специалистам.
@bugfeature | #chatgpt
5😱372❤58🔥32👾24😁21👍16
OpenAI завезли новую фичу: теперь прямо в чате можно запускать викторины.
Достаточно вписать в запрос слово
@bugfeature | #chatgpt
Достаточно вписать в запрос слово
QuizGPT
— и нейронка начнет задавать вопросы, проверяя вашу эрудицию и скорость мышления.@bugfeature | #chatgpt
3👍90❤32🔥15👾11😁6😱6
This media is not supported in your browser
VIEW IN TELEGRAM
🏰 ChatGPT попросили нарисовать самые популярные места Москвы с подписями — результат получился максимально сюрный.
По версии ИИ, Москва — это бесконечный МКАД и парочка рандомных зданий.
Туристы будут в восторге.
@bugfeature | #chatgpt
По версии ИИ, Москва — это бесконечный МКАД и парочка рандомных зданий.
Туристы будут в восторге.
@bugfeature | #chatgpt
2😁300❤67👾24🔥13👍5😱5
🤖 Парень попросил ChatGPT сосчитать от 1 до 1,000,000 — бот 3,5 минуты (!) увиливал, придумывал отговорки и в итоге отказался. Пользователь даже успел соврать про убийство, чтобы «смотивировать» ИИ, но эффекта это все равно не принесло.
Тренд сразу подхватили и другие блогеры: кто-то пытался заставить бота повторить трюк, и у одного даже получилось — но только с мужским голосом…
Ленивый джипити.
@bugfeature | #chatgpt
Тренд сразу подхватили и другие блогеры: кто-то пытался заставить бота повторить трюк, и у одного даже получилось — но только с мужским голосом…
Ленивый джипити.
@bugfeature | #chatgpt
3😁215❤30😱9🔥8👾8👍7