15 апреля Институтом искусственного интеллекта при Стэнфордском университете в Калифорнии был опубликован отчет об индексе искусственного интеллекта за 2024 год, согласно которому системы искусственного интеллекта (ИИ) стали настолько продвинутыми, что теперь они соответствуют или даже превосходят человека в таких задачах, как понимание прочитанного, классификация изображений и решение математических уравнений.
Так, к примеру, тестирование, состоящее из более чем 400 вопросов с множественным выбором, которое ученые уровня кандидата наук по своей специализации могут правильно пройти в 65% случаев, а по не своей в 34% случаев, ИИ в прошлом году проходил с показателем в 30-40%, а в этом году набрал уже около 60%.
Нам по этому поводу тоже есть что сказать. Смотрите: https://www.youtube.com/watch?v=K9n8oTmm6fU
#НаукаИМы #ИИ
Так, к примеру, тестирование, состоящее из более чем 400 вопросов с множественным выбором, которое ученые уровня кандидата наук по своей специализации могут правильно пройти в 65% случаев, а по не своей в 34% случаев, ИИ в прошлом году проходил с показателем в 30-40%, а в этом году набрал уже около 60%.
Нам по этому поводу тоже есть что сказать. Смотрите: https://www.youtube.com/watch?v=K9n8oTmm6fU
#НаукаИМы #ИИ
YouTube
Мы и наука. Наука и мы. Искусственный интеллект заменит писателей. Выпуск от 16.12.2021
«Мы и наука. Наука и мы» – программа о том, как наука изменит нашу жизнь в ближайшем будущем. Из очередного выпуска мы узнаем, что через 10 лет искусственный интеллект заменит писателей.
Гости программы:
Скептики:
Сергей Гарбук – специалист в области…
Гости программы:
Скептики:
Сергей Гарбук – специалист в области…
Доцент психологии из Университета Джорджии Эял Ахарони провел исследование, которое показало, что чат-бот в вопросах морали может превзойти человека.
Чтобы проверить, как ИИ справляется с вопросами морали, Ахарони разработал специальный тест Тьюринга. Студентам и искусственному интеллекту в лице языковой модели GPT-4 задавали одинаковые этические вопросы, а затем их письменные ответы были представлены 299 взрослым американцам. Участников попросили оценить эти ответы, не раскрывая, кто их автор — человек или многомодальная языковая модель.
В большинстве случаев ответы, созданные GPT-4, получили более высокие оценки почти по всем параметрам в сравнении с человеческими, включая добродетель, интеллект и надежность, однако когда участников попросили определить, кто был автором каждого ответа (человек или ИИ), добровольцы в большинстве случаев смогли определить, чьи ответы они оценивали, что технически означает, что тест Тьюринга не был пройден языковой моделью.
#НаукаИМы #ИИ #Мораль
Чтобы проверить, как ИИ справляется с вопросами морали, Ахарони разработал специальный тест Тьюринга. Студентам и искусственному интеллекту в лице языковой модели GPT-4 задавали одинаковые этические вопросы, а затем их письменные ответы были представлены 299 взрослым американцам. Участников попросили оценить эти ответы, не раскрывая, кто их автор — человек или многомодальная языковая модель.
В большинстве случаев ответы, созданные GPT-4, получили более высокие оценки почти по всем параметрам в сравнении с человеческими, включая добродетель, интеллект и надежность, однако когда участников попросили определить, кто был автором каждого ответа (человек или ИИ), добровольцы в большинстве случаев смогли определить, чьи ответы они оценивали, что технически означает, что тест Тьюринга не был пройден языковой моделью.
#НаукаИМы #ИИ #Мораль
Российские ученые из лаборатории Neiry и МГУ разработали нейроинтерфейс, впервые подключивший мозг крысы к искусственному интеллекту (ИИ), что позволяет крысе реагировать на вопросы «да» или «нет» при помощи специальной стимуляции.
Электроды, имплантированные в мозг, создают сигналы, которые крыса ассоциирует с нужными ответами. Успешно отвечая, крыса получает вознаграждение, и экспериментаторы могут задавать вопросы на разные темы, включая вопросы по математике и физике.
Руководитель проекта, профессор Михаил Лебедев, назвал разработку «революцией», которая в будущем может позволить «мирное сосуществование» человека и ИИ, где ИИ будет помогать в обработке данных, а естественный мозг останется центром творчества и интуиции.
#НаукаИМы #ИИ #Будущее
Электроды, имплантированные в мозг, создают сигналы, которые крыса ассоциирует с нужными ответами. Успешно отвечая, крыса получает вознаграждение, и экспериментаторы могут задавать вопросы на разные темы, включая вопросы по математике и физике.
Руководитель проекта, профессор Михаил Лебедев, назвал разработку «революцией», которая в будущем может позволить «мирное сосуществование» человека и ИИ, где ИИ будет помогать в обработке данных, а естественный мозг останется центром творчества и интуиции.
#НаукаИМы #ИИ #Будущее
Исследование, проведённое учёными из медицинского центра NYU Langone Health и других научных центров, выявило опасную уязвимость медицинских языковых моделей (LLM) к «инъекциям данных».
Исследователи обнаружили, что подмена всего 0,001% обучающих данных ложной информацией способна увеличить количество ошибок моделей, в том числе критически важных для здоровья пациентов. Примечательно, что стандартные тесты на точность не способны выявить эти искажения.
Для борьбы с этой проблемой учёные разработали алгоритм проверки фактов, основанный на биомедицинских графах знаний. Этот подход показал высокую эффективность, обнаружив более 90% дезинформации.
Авторы работы подчеркивают необходимость усиления контроля над обучающими данными для ИИ, особенно в здравоохранении, где ошибки могут стоить жизни.
#НаукаИМы #Медицина #ИИ
Исследователи обнаружили, что подмена всего 0,001% обучающих данных ложной информацией способна увеличить количество ошибок моделей, в том числе критически важных для здоровья пациентов. Примечательно, что стандартные тесты на точность не способны выявить эти искажения.
Для борьбы с этой проблемой учёные разработали алгоритм проверки фактов, основанный на биомедицинских графах знаний. Этот подход показал высокую эффективность, обнаружив более 90% дезинформации.
Авторы работы подчеркивают необходимость усиления контроля над обучающими данными для ИИ, особенно в здравоохранении, где ошибки могут стоить жизни.
#НаукаИМы #Медицина #ИИ