ЕС🇪🇺 рассмотрит полный запрет систем распознавания лиц в общественных местах
Европейский инспектор по защите данных (EDPS) и Европейский совет по защите данных (EDPB) опубликовали совместный отчет, посвященный биометрическим системам на базе искусственного интеллекта. Регуляторы призывают к полному запрету на автоматическое распознавание лиц в любых общественных местах — от частных магазинов до футбольных стадионов. Представители EDPS и EDPB считают, что биометрическая идентификация создает «чрезвычайно высокие риски», поэтому не может быть использована ни в государственном, ни в частном секторах. На данный момент правовая система не может в полном объеме описать возможности и угрозы, которые представляет ИИ.
«Развертывание удаленной биометрической идентификации в общедоступных местах означает конец анонимности в этих местах. Такие приложения, как распознавание лиц в реальном времени, нарушают основные права и свободы до такой степени, что могут поставить под сомнение сущность этих прав и свобод. Это требует немедленного применения предупредительного подхода», — заявили председатель EDPB Андреа Елинек и руководитель EDPS Войцех Вевюровски.
Исключением могут стать больницы, которые смогут пользоваться системами в медицинских целях, если пациент даст свое согласие.
#тренды #IA #ИИ #ЕС
Европейский инспектор по защите данных (EDPS) и Европейский совет по защите данных (EDPB) опубликовали совместный отчет, посвященный биометрическим системам на базе искусственного интеллекта. Регуляторы призывают к полному запрету на автоматическое распознавание лиц в любых общественных местах — от частных магазинов до футбольных стадионов. Представители EDPS и EDPB считают, что биометрическая идентификация создает «чрезвычайно высокие риски», поэтому не может быть использована ни в государственном, ни в частном секторах. На данный момент правовая система не может в полном объеме описать возможности и угрозы, которые представляет ИИ.
«Развертывание удаленной биометрической идентификации в общедоступных местах означает конец анонимности в этих местах. Такие приложения, как распознавание лиц в реальном времени, нарушают основные права и свободы до такой степени, что могут поставить под сомнение сущность этих прав и свобод. Это требует немедленного применения предупредительного подхода», — заявили председатель EDPB Андреа Елинек и руководитель EDPS Войцех Вевюровски.
Исключением могут стать больницы, которые смогут пользоваться системами в медицинских целях, если пациент даст свое согласие.
#тренды #IA #ИИ #ЕС
TechCrunch
Ban biometric surveillance in public to safeguard rights, urge EU bodies
There have been further calls from EU institutions to outlaw biometric surveillance in public.
ВОЗ сформулировала основные этические принципы использования искусственного интеллекта (ИИ🤖)
Способов применения ИИ в здравоохранении👩🏼⚕️ множество, от анализа снимков и историй болезни до устройств мониторинга состояния организма и систем предсказания вспышек инфекций. Но если внедрять этот инструмент без должной осторожности, вместо ожидаемой пользы пациенту может быть причинен вред. римеров необдуманного использования ИИ хватает.
Так в Сингапуре🇸🇬 приложение для отслеживания контактов с зараженными ковидом стали использовать преступники для сбора данных о потенциальных жертвах. В больницах США алгоритм, прогнозирующий необходимость в интенсивной терапии, стали применять до того, как программа прошла испытания.
Шесть принципов этического ИИ, по версии ВОЗ:
Защита независимости: люди должны иметь возможность контроля и последнего слова во всех решениях, связанных со здоровьем — они не должны приниматься машинами полностью, и врачи должны иметь возможность в любой момент взять управление на себя.
Обеспечение безопасности людей: разработчики должны постоянно следить, чтобы инструменты ИИ не могли причинить вреда случайно или намеренно.
Гарантия прозрачности: разработчики должны публиковать информацию об устройстве инструментов ИИ. Пользователи и регуляторы должны иметь возможность заглянуть в «черный ящик» и понять, как там все работает.
Стимулирование ответственности: если что-то идет не так с технологией ИИ — например, решение приводит к ухудшению состояния здоровья пациента — должны существовать механизмы, определяющие, кто за это отвественен.
Обеспечение равенства: инструменты ИИ должны быть доступны на многих языках и обучены на разнообразных наборах данных, во избежание дискриминации.
Поддержка работоспособности: разработчики и организации должны иметь юридическую возможность обновлять свои инструменты, исправлять ошибки и заменять их, если они становятся неэффективными.
#тренды #AI #ИИ #общество
Способов применения ИИ в здравоохранении👩🏼⚕️ множество, от анализа снимков и историй болезни до устройств мониторинга состояния организма и систем предсказания вспышек инфекций. Но если внедрять этот инструмент без должной осторожности, вместо ожидаемой пользы пациенту может быть причинен вред. римеров необдуманного использования ИИ хватает.
Так в Сингапуре🇸🇬 приложение для отслеживания контактов с зараженными ковидом стали использовать преступники для сбора данных о потенциальных жертвах. В больницах США алгоритм, прогнозирующий необходимость в интенсивной терапии, стали применять до того, как программа прошла испытания.
Шесть принципов этического ИИ, по версии ВОЗ:
Защита независимости: люди должны иметь возможность контроля и последнего слова во всех решениях, связанных со здоровьем — они не должны приниматься машинами полностью, и врачи должны иметь возможность в любой момент взять управление на себя.
Обеспечение безопасности людей: разработчики должны постоянно следить, чтобы инструменты ИИ не могли причинить вреда случайно или намеренно.
Гарантия прозрачности: разработчики должны публиковать информацию об устройстве инструментов ИИ. Пользователи и регуляторы должны иметь возможность заглянуть в «черный ящик» и понять, как там все работает.
Стимулирование ответственности: если что-то идет не так с технологией ИИ — например, решение приводит к ухудшению состояния здоровья пациента — должны существовать механизмы, определяющие, кто за это отвественен.
Обеспечение равенства: инструменты ИИ должны быть доступны на многих языках и обучены на разнообразных наборах данных, во избежание дискриминации.
Поддержка работоспособности: разработчики и организации должны иметь юридическую возможность обновлять свои инструменты, исправлять ошибки и заменять их, если они становятся неэффективными.
#тренды #AI #ИИ #общество
The Verge
WHO outlines principles for ethics in health AI
AI isn’t a quick fix.
Инженер Google был отстранен от работы после заявлений об обнаружении признаков сознания🧠 у ИИ🤖
Блейка Леймон работал над системой с искусственным интеллектом (ИИ) LaMDA (Language Model for Dialogue Applications), которая имитирует речь человека, анализируя триллионы словосочетаний из интернета. Когда Леймон разговаривал с чат-ботом, ему показалось, что он общается с семи- или восьмилетним ребенком, который прекрасно знает физику.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и боится, что его могут отключить. Инженер сообщил о том, что обнаружил, в отчете под названием «Разумна ли LaMDA?», руководству Google в апреле 2022 года. Специалисты по этике и технологи изучили документ Блейка и не нашли в нем никаких доказательств утверждения инженера, поэтому Леймон выложил в открытый доступ некоторые свои разговоры с ботом.
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google».
#IT #технологии #ИИ #google
Блейка Леймон работал над системой с искусственным интеллектом (ИИ) LaMDA (Language Model for Dialogue Applications), которая имитирует речь человека, анализируя триллионы словосочетаний из интернета. Когда Леймон разговаривал с чат-ботом, ему показалось, что он общается с семи- или восьмилетним ребенком, который прекрасно знает физику.
В разговоре о религии Леймон заметил, что ИИ говорит о своих правах и боится, что его могут отключить. Инженер сообщил о том, что обнаружил, в отчете под названием «Разумна ли LaMDA?», руководству Google в апреле 2022 года. Специалисты по этике и технологи изучили документ Блейка и не нашли в нем никаких доказательств утверждения инженера, поэтому Леймон выложил в открытый доступ некоторые свои разговоры с ботом.
После отказа компании принимать его доводы Леймон пригласил юриста представлять интересы LaMDA и инициировал обсуждение с представителем судебного комитета Палаты представителей о «неэтичной работе Google».
#IT #технологии #ИИ #google
Medium
Is LaMDA Sentient? — an Interview
What follows is the “interview” I and a collaborator at Google conducted with LaMDA. It is incomplete as the GMail word limit cut off the…
В Китае🇨🇳 разработали ИИ для проверки лояльности членов Компартии
Инженеры👨🏻🔬 научного центра Хэфэй создали искуственный интеллект (ИИ), который оценивает лояльность членов Коммунистической партии Китая по психо-физическим реакциям и работе головного мозга во время просмотра новостей о достижениях КПК и китайского государства.
Разработка позволяет считывать выражения лица и мозговые волны человека, чтобы определить уровень принятия идеологической и политической доктрины.
Цель проекта — повысить преданность членов Коммунистической партии, укрепить их доверие. Также можно проверить «уровень решимости быть благодарными партии, слушать партию и следовать за партией».
Разработавшие этот ИИ инженеры подчеркнули, что технология, с одной стороны, может оценивать уровень лояльности члена партии, с другой, — предоставляет реальные данные для постоянного улучшения образовательного партийного контента.
#технологии #ИИ #искуственныйинтеллект #дата
Инженеры👨🏻🔬 научного центра Хэфэй создали искуственный интеллект (ИИ), который оценивает лояльность членов Коммунистической партии Китая по психо-физическим реакциям и работе головного мозга во время просмотра новостей о достижениях КПК и китайского государства.
Разработка позволяет считывать выражения лица и мозговые волны человека, чтобы определить уровень принятия идеологической и политической доктрины.
Цель проекта — повысить преданность членов Коммунистической партии, укрепить их доверие. Также можно проверить «уровень решимости быть благодарными партии, слушать партию и следовать за партией».
Разработавшие этот ИИ инженеры подчеркнули, что технология, с одной стороны, может оценивать уровень лояльности члена партии, с другой, — предоставляет реальные данные для постоянного улучшения образовательного партийного контента.
#технологии #ИИ #искуственныйинтеллект #дата
The Telegraph
China uses ‘mind-reading AI’ to test loyalty of Communist Party members
An AI programme reads facial expressions and brain waves to ‘discern the level of acceptance for ideological and political education’