GUU Analytics
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В БАНКАХ
Наступила эра использования чат-ботов в банках – это новые способы общения с клиентами, реклама и организация дистанционного управления личными финансами.
Появилось множество новых мессенджеров, таких как Whatsapp, Telegram, Facebook Messenger. Данные мессенджеры стали подушкой, фундаментом для развития искусственного интеллекта. Голосовой помошник Siri – это программа для общения и дискуссии в повседневной жизни, видимо, вскоре она может с успехом заменить живое общение.
Первым стал работать с банками мессенджер Telegram, потом другие – Viber, WhatsApp, Facebook Messenger.
Современный искусственный интеллект, применяемый в банковской практике не идеален. Имеется множество недостатков, присущих неодушевленным машинам.
Разработчики голосовых ботов, в первую очередь, должны ориентироваться на удобство клиента, его комфорт в разговоре, получение положительных эмоций от общения. На практике часто выходит наоборот. Общение с роботом приносит раздражение, занимает много времени и, практически, не дает никакого положительного эффекта.
При выборе ответа бота могут возникнуть следующие проблемы – от бота ожидают реакции человека и разработчик недодела продукт. Не учел всех нюансов общения.
Боты используются сейчас, практически, всеми банками. Альфа-Банк запустил канал связи в Telegram (@AlfaBankBot). Бот Райффайзенбанка в Telegram (@RaiffeisenbankBot) информирует пользователей. Наиболее продвинутый по части операционного функционала – чат-бот @TalkBankBot, также «поселившийся» в Telegram и Viber.
Каковы же навыки голосовых помощников человека в начале 21 века. Роботы научились обращаться к клиенту по имени, разбираться во временных поясах, распознавать речь (правда не всегда удачно), принимать решения, анализировать эмоции. В случае негативного обращения голосовой бот сразу переадресует клиента на оператора call-центра, поскольку общение с ботом может усугубить ситуацию. Робот может распознать пол говорящего и отреагировать соответствующим образом. Боты позволяют минимизировать участие человека в стандартных диалогах с потребителем.
Голосовые и чат-боты займут примерно равную долю, разделив всю коммуникацию пополам, а оффлайн-общение сойдет к минимуму. Это произойдет тогда, когда пользователь будет готов воспринимать роботов, и они станут обыденностью.
Бурмистрова Лариса Алексеевна
к.э.н., доцент
Кафедра "Финансы и кредит"
#ИИ #банки
@
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В БАНКАХ
Наступила эра использования чат-ботов в банках – это новые способы общения с клиентами, реклама и организация дистанционного управления личными финансами.
Появилось множество новых мессенджеров, таких как Whatsapp, Telegram, Facebook Messenger. Данные мессенджеры стали подушкой, фундаментом для развития искусственного интеллекта. Голосовой помошник Siri – это программа для общения и дискуссии в повседневной жизни, видимо, вскоре она может с успехом заменить живое общение.
Первым стал работать с банками мессенджер Telegram, потом другие – Viber, WhatsApp, Facebook Messenger.
Современный искусственный интеллект, применяемый в банковской практике не идеален. Имеется множество недостатков, присущих неодушевленным машинам.
Разработчики голосовых ботов, в первую очередь, должны ориентироваться на удобство клиента, его комфорт в разговоре, получение положительных эмоций от общения. На практике часто выходит наоборот. Общение с роботом приносит раздражение, занимает много времени и, практически, не дает никакого положительного эффекта.
При выборе ответа бота могут возникнуть следующие проблемы – от бота ожидают реакции человека и разработчик недодела продукт. Не учел всех нюансов общения.
Боты используются сейчас, практически, всеми банками. Альфа-Банк запустил канал связи в Telegram (@AlfaBankBot). Бот Райффайзенбанка в Telegram (@RaiffeisenbankBot) информирует пользователей. Наиболее продвинутый по части операционного функционала – чат-бот @TalkBankBot, также «поселившийся» в Telegram и Viber.
Каковы же навыки голосовых помощников человека в начале 21 века. Роботы научились обращаться к клиенту по имени, разбираться во временных поясах, распознавать речь (правда не всегда удачно), принимать решения, анализировать эмоции. В случае негативного обращения голосовой бот сразу переадресует клиента на оператора call-центра, поскольку общение с ботом может усугубить ситуацию. Робот может распознать пол говорящего и отреагировать соответствующим образом. Боты позволяют минимизировать участие человека в стандартных диалогах с потребителем.
Голосовые и чат-боты займут примерно равную долю, разделив всю коммуникацию пополам, а оффлайн-общение сойдет к минимуму. Это произойдет тогда, когда пользователь будет готов воспринимать роботов, и они станут обыденностью.
Бурмистрова Лариса Алексеевна
к.э.н., доцент
Кафедра "Финансы и кредит"
#ИИ #банки
@
Учёный технократ зелёный
ВОЗ сформулировала основные этические принципы использования искусственного интеллекта (ИИ🤖)
Способов применения ИИ в здравоохранении👩🏼⚕️ множество, от анализа снимков и историй болезни до устройств мониторинга состояния организма и систем предсказания вспышек инфекций. Но если внедрять этот инструмент без должной осторожности, вместо ожидаемой пользы пациенту может быть причинен вред. римеров необдуманного использования ИИ хватает.
Так в Сингапуре🇸🇬 приложение для отслеживания контактов с зараженными ковидом стали использовать преступники для сбора данных о потенциальных жертвах. В больницах США алгоритм, прогнозирующий необходимость в интенсивной терапии, стали применять до того, как программа прошла испытания.
Шесть принципов этического ИИ, по версии ВОЗ:
Защита независимости: люди должны иметь возможность контроля и последнего слова во всех решениях, связанных со здоровьем — они не должны приниматься машинами полностью, и врачи должны иметь возможность в любой момент взять управление на себя.
Обеспечение безопасности людей: разработчики должны постоянно следить, чтобы инструменты ИИ не могли причинить вреда случайно или намеренно.
Гарантия прозрачности: разработчики должны публиковать информацию об устройстве инструментов ИИ. Пользователи и регуляторы должны иметь возможность заглянуть в «черный ящик» и понять, как там все работает.
Стимулирование ответственности: если что-то идет не так с технологией ИИ — например, решение приводит к ухудшению состояния здоровья пациента — должны существовать механизмы, определяющие, кто за это отвественен.
Обеспечение равенства: инструменты ИИ должны быть доступны на многих языках и обучены на разнообразных наборах данных, во избежание дискриминации.
Поддержка работоспособности: разработчики и организации должны иметь юридическую возможность обновлять свои инструменты, исправлять ошибки и заменять их, если они становятся неэффективными.
#тренды #AI #ИИ #общество
@
ВОЗ сформулировала основные этические принципы использования искусственного интеллекта (ИИ🤖)
Способов применения ИИ в здравоохранении👩🏼⚕️ множество, от анализа снимков и историй болезни до устройств мониторинга состояния организма и систем предсказания вспышек инфекций. Но если внедрять этот инструмент без должной осторожности, вместо ожидаемой пользы пациенту может быть причинен вред. римеров необдуманного использования ИИ хватает.
Так в Сингапуре🇸🇬 приложение для отслеживания контактов с зараженными ковидом стали использовать преступники для сбора данных о потенциальных жертвах. В больницах США алгоритм, прогнозирующий необходимость в интенсивной терапии, стали применять до того, как программа прошла испытания.
Шесть принципов этического ИИ, по версии ВОЗ:
Защита независимости: люди должны иметь возможность контроля и последнего слова во всех решениях, связанных со здоровьем — они не должны приниматься машинами полностью, и врачи должны иметь возможность в любой момент взять управление на себя.
Обеспечение безопасности людей: разработчики должны постоянно следить, чтобы инструменты ИИ не могли причинить вреда случайно или намеренно.
Гарантия прозрачности: разработчики должны публиковать информацию об устройстве инструментов ИИ. Пользователи и регуляторы должны иметь возможность заглянуть в «черный ящик» и понять, как там все работает.
Стимулирование ответственности: если что-то идет не так с технологией ИИ — например, решение приводит к ухудшению состояния здоровья пациента — должны существовать механизмы, определяющие, кто за это отвественен.
Обеспечение равенства: инструменты ИИ должны быть доступны на многих языках и обучены на разнообразных наборах данных, во избежание дискриминации.
Поддержка работоспособности: разработчики и организации должны иметь юридическую возможность обновлять свои инструменты, исправлять ошибки и заменять их, если они становятся неэффективными.
#тренды #AI #ИИ #общество
@
The Verge
WHO outlines principles for ethics in health AI
AI isn’t a quick fix.