Мы и Наука
140 subscribers
111 photos
3 videos
66 links
Вместе с передовыми учёными страны на канале #НТВ дискутируем об инновационных открытиях будущего и о том, как скоро изобретения войдут в обычную жизнь россиян.

YouTube: https://www.youtube.com/c/TVNauka
Канал Екатерины Шугаевой: @ShugaevaNauka
加入频道
15 апреля Институтом искусственного интеллекта при Стэнфордском университете в Калифорнии был опубликован отчет об индексе искусственного интеллекта за 2024 год, согласно которому системы искусственного интеллекта (ИИ) стали настолько продвинутыми, что теперь они соответствуют или даже превосходят человека в таких задачах, как понимание прочитанного, классификация изображений и решение математических уравнений.

Так, к примеру, тестирование, состоящее из более чем 400 вопросов с множественным выбором, которое ученые уровня кандидата наук по своей специализации могут правильно пройти в 65% случаев, а по не своей в 34% случаев, ИИ в прошлом году проходил с показателем в 30-40%, а в этом году набрал уже около 60%.

Нам по этому поводу тоже есть что сказать. Смотрите: https://www.youtube.com/watch?v=K9n8oTmm6fU

#НаукаИМы #ИИ
Доцент психологии из Университета Джорджии Эял Ахарони провел исследование, которое показало, что чат-бот в вопросах морали может превзойти человека.

Чтобы проверить, как ИИ справляется с вопросами морали, Ахарони разработал специальный тест Тьюринга. Студентам и искусственному интеллекту в лице языковой модели GPT-4 задавали одинаковые этические вопросы, а затем их письменные ответы были представлены 299 взрослым американцам. Участников попросили оценить эти ответы, не раскрывая, кто их автор — человек или многомодальная языковая модель.

В большинстве случаев ответы, созданные GPT-4, получили более высокие оценки почти по всем параметрам в сравнении с человеческими, включая добродетель, интеллект и надежность, однако когда участников попросили определить, кто был автором каждого ответа (человек или ИИ), добровольцы в большинстве случаев смогли определить, чьи ответы они оценивали, что технически означает, что тест Тьюринга не был пройден языковой моделью.

#НаукаИМы #ИИ #Мораль
Российские ученые из лаборатории Neiry и МГУ разработали нейроинтерфейс, впервые подключивший мозг крысы к искусственному интеллекту (ИИ), что позволяет крысе реагировать на вопросы «да» или «нет» при помощи специальной стимуляции.

Электроды, имплантированные в мозг, создают сигналы, которые крыса ассоциирует с нужными ответами. Успешно отвечая, крыса получает вознаграждение, и экспериментаторы могут задавать вопросы на разные темы, включая вопросы по математике и физике.

Руководитель проекта, профессор Михаил Лебедев, назвал разработку «революцией», которая в будущем может позволить «мирное сосуществование» человека и ИИ, где ИИ будет помогать в обработке данных, а естественный мозг останется центром творчества и интуиции. 

#НаукаИМы #ИИ #Будущее
Исследование, проведённое учёными из медицинского центра NYU Langone Health и других научных центров, выявило опасную уязвимость медицинских языковых моделей (LLM) к «инъекциям данных».

Исследователи обнаружили, что подмена всего 0,001% обучающих данных ложной информацией способна увеличить количество ошибок моделей, в том числе критически важных для здоровья пациентов. Примечательно, что стандартные тесты на точность не способны выявить эти искажения.
Для борьбы с этой проблемой учёные разработали алгоритм проверки фактов, основанный на биомедицинских графах знаний. Этот подход показал высокую эффективность, обнаружив более 90% дезинформации.

Авторы работы подчеркивают необходимость усиления контроля над обучающими данными для ИИ, особенно в здравоохранении, где ошибки могут стоить жизни.

#НаукаИМы #Медицина #ИИ