Осторожно, чат-боты! Новые ИИ, такие как Google's Bard или ChatGPT, используют для работы огромные объёмы данных. Никого из пользователей интернета не спросили, может ли OpenAI использовать эти данные. Иными словами, все «грязные» секреты могут быть раскрыты нейросетью любому человеку, который достаточно точно сформулирует запрос.
😡 Как вы думаете, является ли использование данных, собранных без разрешения, неэтическим поведением компании OpenAI?
#OpenAI, #Privacy, @SecLabNews
#OpenAI, #Privacy, @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ChatGPT — ночной кошмар для конфиденциальности
Любое ваше сообщение, попавшее в Интернет, может быть использовано нейросетью для ответа другому человеку.
Два разработчика использовали модель DALL-E2 от OpenAI для создания программы Forensic Sketch AI-rtist, которая может создавать сверхреалистичные эскизы подозреваемых на основе текстового описания. Цель программы - сократить время поиска подозреваемого.
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
SecurityLab.ru
Создана нейросеть для генерации фоторобота преступников
Теперь ИИ будет выбирать, кого сажать в тюрьму, основываясь на человеческих предубеждениях и стереотипах.
OpenAI выпустила новую языковую модель GPT-4, которая демонстрирует показатели человеческого уровня на большинстве профессиональных и академических экзаменов. Однако разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.
Новая языковая модель GPT-4 от #OpenAI: прорыв в искусственном интеллекте или угроза для общества?
#AI #chatbots #disinformation @SecLabNews
Новая языковая модель GPT-4 от #OpenAI: прорыв в искусственном интеллекте или угроза для общества?
#AI #chatbots #disinformation @SecLabNews
SecurityLab.ru
GPT-4: новый прорыв в чат-бот технологиях или угроза для человечества?
Разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.