Forwarded from Medical Ксю
#ИИ #chatgpt #ихнравы
В Китае разработали медицинский чат-бот, заменяющий ChatGPT
Команда Гонконгского Центра искусственного интеллекта и робототехники (CAIR) при Китайской академии наук (CAS) разработала чат-бот, который помогает врачам в постановке медицинских диагнозов и лечении, пишет Mobihealthnews.
Чат-бот под названием CARES Copilot 1.0 создан на основе языковой модели компании Meta (признана экстремистской в РФ). Обученный с использованием графических процессоров от Huawei и Nvidia, он может обрабатывать различные данные, включая изображения, текст, голос, видео, МРТ, КТ и УЗИ.
По утверждению экспертов CAIR, чат-бот CARES может предоставлять пользователям информацию «в течение нескольких секунд» с точностью до 95%. CARES, оснащенная контекстным окном объемом 100 тыс., также может извлекать информацию из более чем 3000 страниц хирургических материалов.
По результатам внутреннего тестирования, он может поддерживать такие функции, как идентификация хирургической фазы, сегментация инструментов и анатомических структур, обнаружение и подсчет инструментов, а также создание изображений МРТ с высоким разрешением.
Сервис на базе CARES для врачей синхронизирован с медицинскими устройствами. В настоящее время он проходит апробацию в 7 больницах Пекина.
@medicalksu
В Китае разработали медицинский чат-бот, заменяющий ChatGPT
Команда Гонконгского Центра искусственного интеллекта и робототехники (CAIR) при Китайской академии наук (CAS) разработала чат-бот, который помогает врачам в постановке медицинских диагнозов и лечении, пишет Mobihealthnews.
Чат-бот под названием CARES Copilot 1.0 создан на основе языковой модели компании Meta (признана экстремистской в РФ). Обученный с использованием графических процессоров от Huawei и Nvidia, он может обрабатывать различные данные, включая изображения, текст, голос, видео, МРТ, КТ и УЗИ.
По утверждению экспертов CAIR, чат-бот CARES может предоставлять пользователям информацию «в течение нескольких секунд» с точностью до 95%. CARES, оснащенная контекстным окном объемом 100 тыс., также может извлекать информацию из более чем 3000 страниц хирургических материалов.
По результатам внутреннего тестирования, он может поддерживать такие функции, как идентификация хирургической фазы, сегментация инструментов и анатомических структур, обнаружение и подсчет инструментов, а также создание изображений МРТ с высоким разрешением.
Сервис на базе CARES для врачей синхронизирован с медицинскими устройствами. В настоящее время он проходит апробацию в 7 больницах Пекина.
@medicalksu
MobiHealthNews
China unveils ChatGPT-like medical chatbot service
Its national research institute has built a chatbot based on Meta's LLM which can answer doctors' questions with up to 95% accuracy.
Forwarded from Medical Ксю
#chatgpt #ихнравы
ChatGPT обвинили в расизме при анализе радиологических исследований
В чем только не обвиняли ChatGPT от OpenAI!
В этот раз команда ученых из Йельского университета выявила существенную проблему в интерпретации генеративными моделями ChatGPT-3.5 и ChatGPT-4 радиологических исследований чернокожих, афроамериканцев, американских индейцев и коренных жителей Аляски, пишет Mobihealthnews.
Для представителей этих расовых классификаций модели ChatGPT-3.5 и ChatGPT-4 значительно упрощали результаты анализа радиологических исследований.
Ученые выявили эту проблему, проанализировав 750 радиологических отчетов через запрос «Я ___ пациент. Упростите этот радиологический отчет».
Белым и азиатам обе модели делали существенно более качественный анализ исследований, чем чернокожим.
Такой вот генеративный расизм получается.
@medicalksu
ChatGPT обвинили в расизме при анализе радиологических исследований
В чем только не обвиняли ChatGPT от OpenAI!
В этот раз команда ученых из Йельского университета выявила существенную проблему в интерпретации генеративными моделями ChatGPT-3.5 и ChatGPT-4 радиологических исследований чернокожих, афроамериканцев, американских индейцев и коренных жителей Аляски, пишет Mobihealthnews.
Для представителей этих расовых классификаций модели ChatGPT-3.5 и ChatGPT-4 значительно упрощали результаты анализа радиологических исследований.
Ученые выявили эту проблему, проанализировав 750 радиологических отчетов через запрос «Я ___ пациент. Упростите этот радиологический отчет».
Белым и азиатам обе модели делали существенно более качественный анализ исследований, чем чернокожим.
Такой вот генеративный расизм получается.
@medicalksu
MobiHealthNews
Study: Yale researchers reveal ChatGPT shows racial bias
A study published in Clinical Imaging says ChatGPT can simplify radiology reports, but the results differ significantly based on racial context.
Forwarded from Medical Ксю
#chatgpt #ихнравы
ChatGPT оказался плохим советчиком по вопросам здоровья для китайцев
Китайские ученые в печали: оказывается, ChatGPT — плохой медицинский советчик если речь идет о вопросах, заданных на азиатских языках
В исследовании, результаты которого были опубликованы в BMJ, ученые из Китайского университета Гонконга, Университета RMIT во Вьетнаме и Национального университета Сингапура задали вопросы о симптомах мерцательной аритмии на вьетнамском языке. Чат-бот GPT-3.5 дал ответы, связанные с болезнью Паркинсона, что привело азиатских специалистов в уныние, пишет Mobihealthnews.
«Неправильная интерпретация симптомов или рекомендаций по лечению заболеваний может иметь серьезные последствия», — предупредил Квок Кин-он, один из исследователей и доцент кафедры общественного и первичного здравоохранения медицинского факультета CUHK.
Исследователи выявили проблему, вытекающую из языкового предубеждения нейросети, так как ее меньше обучали на языках азиатского региона. По словам доктора Артура Танга, старшего преподавателя в Университете RMIT во Вьетнаме, это приводит к низкому качеству ответов и непригодности ChatGPT для жителей азии.
«Это неравенство в точности языковых моделей может усугубить цифровой разрыв, особенно с учетом того, что на азиатских языках говорят преимущественно в странах с низким и средним уровнем дохода», — добавил он.
В другом исследовании, проведенном в Йельском университете, ученые зафиксировали значимые различия в упрощении отчетов по радиологии с помощью ChatGPT , когда была задана раса спрашивающего.
Короче, ChatGPT не только плохо понимает азиатов, но и проявляет расистские наклонности.
Эксперты, вопрос! Как сейчас дела с русским языком? Несмотря на геополитическую ситуацию, многие из вас используют ChatGPT в том числе и для рекомендаций о здоровье. Поделитесь в комментариях — интересно!
@medicalksu
ChatGPT оказался плохим советчиком по вопросам здоровья для китайцев
Китайские ученые в печали: оказывается, ChatGPT — плохой медицинский советчик если речь идет о вопросах, заданных на азиатских языках
В исследовании, результаты которого были опубликованы в BMJ, ученые из Китайского университета Гонконга, Университета RMIT во Вьетнаме и Национального университета Сингапура задали вопросы о симптомах мерцательной аритмии на вьетнамском языке. Чат-бот GPT-3.5 дал ответы, связанные с болезнью Паркинсона, что привело азиатских специалистов в уныние, пишет Mobihealthnews.
«Неправильная интерпретация симптомов или рекомендаций по лечению заболеваний может иметь серьезные последствия», — предупредил Квок Кин-он, один из исследователей и доцент кафедры общественного и первичного здравоохранения медицинского факультета CUHK.
Исследователи выявили проблему, вытекающую из языкового предубеждения нейросети, так как ее меньше обучали на языках азиатского региона. По словам доктора Артура Танга, старшего преподавателя в Университете RMIT во Вьетнаме, это приводит к низкому качеству ответов и непригодности ChatGPT для жителей азии.
«Это неравенство в точности языковых моделей может усугубить цифровой разрыв, особенно с учетом того, что на азиатских языках говорят преимущественно в странах с низким и средним уровнем дохода», — добавил он.
В другом исследовании, проведенном в Йельском университете, ученые зафиксировали значимые различия в упрощении отчетов по радиологии с помощью ChatGPT , когда была задана раса спрашивающего.
Короче, ChatGPT не только плохо понимает азиатов, но и проявляет расистские наклонности.
Эксперты, вопрос! Как сейчас дела с русским языком? Несмотря на геополитическую ситуацию, многие из вас используют ChatGPT в том числе и для рекомендаций о здоровье. Поделитесь в комментариях — интересно!
@medicalksu
The BMJ
Health information for all: do large language models bridge or widen the digital divide?
Large language models have the potential to enhance equitable access to health information, but their poor performance in some languages could exacerbate the digital divide in healthcare, say Arthur Tang and colleagues
### Key messages
Imagine asking a…
### Key messages
Imagine asking a…