В DeepMind придумали, как проверять факты из результатов ChatGPT
Инженеры DeepMind создали приложение, которое проверяет утверждения или факты в ответе языковых моделей. Они использовали Google Search для поиска сайтов, которые могут помочь с результатами и затем сравнивали два ответа. Новую систему назвали Search-Augmented Factuality Evaluator (SAFE).
Чтобы проверить ее, исследовательская группа использовала примерно 16 000 фактов из ответов нескольких LLM. Эксперимент показал, что SAFE не ошибался примерно в 72-76% случаев.
#МирРобототехники #искусственныйинтеллект #ИИ #DeepMind #ChatGPT
Инженеры DeepMind создали приложение, которое проверяет утверждения или факты в ответе языковых моделей. Они использовали Google Search для поиска сайтов, которые могут помочь с результатами и затем сравнивали два ответа. Новую систему назвали Search-Augmented Factuality Evaluator (SAFE).
Чтобы проверить ее, исследовательская группа использовала примерно 16 000 фактов из ответов нескольких LLM. Эксперимент показал, что SAFE не ошибался примерно в 72-76% случаев.
#МирРобототехники #искусственныйинтеллект #ИИ #DeepMind #ChatGPT