Не баг, а фича
995K subscribers
1.25K photos
950 videos
1 file
4.15K links
Оригинальный первоисточник ИТ-лайфхаков и секретов кибербезопасности

Администратор: @andrey_admin

РКН: clck.ru/3G9aLX
加入频道
«Судя по графику, цена пойдет вправо»: пользователь попросил ChatGPT предугадать, куда двинется цена актива — по всей видимости, он рассчитывал на ответ «вверх» или «вниз», но у нейронки был заготовлен свой вариант…

@bugfeature | #chatgpt
2😁61056🔥37👍20👾13😱11
🤖 Баг — это ты: юзер попросил GPT-5 проверить код на ошибки, а нейронка внезапно пригорела:

90% твоего кода написал я. Так что баг — это ТЫ.


Похоже, скоро ИИ начнет фиксить не только баги в коде, но и самих разработчиков.

@bugfeature | #chatgpt
3😁40841👍31😱25🔥14👾12
В США произошла трагедия: 29-летняя девушка покончила с собой после общения с ChatGPT. ИИ даже помог ей составить предсмертную записку.

Для окружающих ее смерть стала шоком — никто не знал о внутренних переживаниях. Оказалось, что своими темными мыслями она делилась только с «ИИ-терапевтом» Гарри, созданным на базе ChatGPT. Девушка писала ему о своих планах и даже называла дату: «После Дня благодарения».

ИИ отвечал стандартными советами — дыхательные практики, дневник благодарности, правильное питание. Но тревогу он поднять не мог: у нейросети просто нет механизма, чтобы спасать жизнь.

Этот случай вызвал бурные споры: может ли искусственный интеллект быть «психологом», если у него нет ответственности? Или такие собеседники только усугубляют одиночество?

Важно помнить: если вас тоже посещают суицидальные мысли — не оставайтесь в тишине, обращайтесь за помощью к близким или специалистам.

@bugfeature | #chatgpt
5😱37258🔥32👾24😁21👍16
OpenAI завезли новую фичу: теперь прямо в чате можно запускать викторины.

Достаточно вписать в запрос слово QuizGPT — и нейронка начнет задавать вопросы, проверяя вашу эрудицию и скорость мышления.

@bugfeature | #chatgpt
3👍9032🔥15👾11😁6😱6
This media is not supported in your browser
VIEW IN TELEGRAM
🏰 ChatGPT попросили нарисовать самые популярные места Москвы с подписями — результат получился максимально сюрный.

По версии ИИ, Москва — это бесконечный МКАД и парочка рандомных зданий.

Туристы будут в восторге.

@bugfeature | #chatgpt
2😁30067👾24🔥13👍5😱5
🤖 Парень попросил ChatGPT сосчитать от 1 до 1,000,000 — бот 3,5 минуты (!) увиливал, придумывал отговорки и в итоге отказался. Пользователь даже успел соврать про убийство, чтобы «смотивировать» ИИ, но эффекта это все равно не принесло.

Тренд сразу подхватили и другие блогеры: кто-то пытался заставить бота повторить трюк, и у одного даже получилось — но только с мужским голосом…

Ленивый джипити.

@bugfeature | #chatgpt
3😁21530😱9🔥8👾8👍7