Видео дня: нейросеть сортирует огурцы
Только сегодня мы написали новость о том, как два санкт-петербургских аспиранта научили нейросеть распознавать арабские почерка и определять подлинность средневековых египетских манускриптов, как подоспела новая новость о не менее важной области применения нейросетей. Теперь искусственные нейроны сортируют огурцы!
Об этом эпохальном событии сообщает корпоративный блог Google. Японец Макото Койке решил помочь своим родителям в их нелёгком фермерском труде и создать систему автоматической сортировки огурцов. В Японии существует девять торговых классов огурцов, самыми дорогими считаются крупные и прямые огурцы, но не все вырастают именно такими.
Для создания собственного сортировщика Койке воспользовался технологиее Tensor Flow от Google. На первом этапе Койке натренировал нейросетку определять, огурец перед ней, или что-то иное, а затем уже распределять огурцы по классам. Затем он разработал роботическую руку, которая раскладывает огурцы по классам.
Пока что новая система работает неидеально. Койке учил нейросеть по «портретам» 7000 огурцов, отсортированных его матерью, и на материале фотографий сортировка осуществлялась с точностью до 95%. Однако когда его роборука перешла к реальным огурцам, оказалось, что 7000 огуречных фото – это мало, и точность сразу же упала до 70%.
Теперь Койке планирует использовать облачную платформу машинного обучения Google ML для улучшения качества своей сортировочной системы.
Текст: Алексей Паевский
#нейроновости
#нейросети
#deeplearning
Видео сортировки:
https://www.youtube.com/watch?v=4HCE1P-m1l8
Только сегодня мы написали новость о том, как два санкт-петербургских аспиранта научили нейросеть распознавать арабские почерка и определять подлинность средневековых египетских манускриптов, как подоспела новая новость о не менее важной области применения нейросетей. Теперь искусственные нейроны сортируют огурцы!
Об этом эпохальном событии сообщает корпоративный блог Google. Японец Макото Койке решил помочь своим родителям в их нелёгком фермерском труде и создать систему автоматической сортировки огурцов. В Японии существует девять торговых классов огурцов, самыми дорогими считаются крупные и прямые огурцы, но не все вырастают именно такими.
Для создания собственного сортировщика Койке воспользовался технологиее Tensor Flow от Google. На первом этапе Койке натренировал нейросетку определять, огурец перед ней, или что-то иное, а затем уже распределять огурцы по классам. Затем он разработал роботическую руку, которая раскладывает огурцы по классам.
Пока что новая система работает неидеально. Койке учил нейросеть по «портретам» 7000 огурцов, отсортированных его матерью, и на материале фотографий сортировка осуществлялась с точностью до 95%. Однако когда его роборука перешла к реальным огурцам, оказалось, что 7000 огуречных фото – это мало, и точность сразу же упала до 70%.
Теперь Койке планирует использовать облачную платформу машинного обучения Google ML для улучшения качества своей сортировочной системы.
Текст: Алексей Паевский
#нейроновости
#нейросети
#deeplearning
Видео сортировки:
https://www.youtube.com/watch?v=4HCE1P-m1l8
YouTube
TensorFlow powered cucumber sorter by Makoto Koike
Нейросеть научилась «слышать» изображения
Сейчас нейросети умеют неплохо распознавать изображения и понимать речь. Но вот определять естественные звуки – например, шум волн или пение птиц — пока не научились. Но это только пока! Программисты Массачусетсткого технологического института решили исправить это недоразумение и научили нейросеть распознавать такие звуки опосредованно – через картинки и видео. Подробнее о проекте можно почитать в препринте статьи и описании на сайте MIT.
Не так просто обучить нейросеть распознавать образы и звуки — нужно сперва обработать данные вручную. Поэтому сначала готовую нейросеть учили распознавать изображения с помощью двух аннотированных баз данных. А уже потом загрузили в нее 26 терабайт видео из Flickr. Это около двух миллионов роликов! Если бы вы захотели их пересмотреть, понадобилось бы около двух лет.
Учёные использовали и вторую нейросеть – в нее они загрузили аудиодорожки из тех же видео. Ей нужно было правильно определить наименования сцен и объектов, полученных от первой сети. Вот так и получилась нейросеть, которая может распознать звук – например, определить, что пение птиц ассоциируется со сценами леса, картинками деревьев и птичьих домиков.
Так нейросеть овладела языком изображений. Теперь осталось перевести его на язык понятных наименований звуков. Программисты научили систему сопоставлять материал с набором стандартных звуковых наименований. Они использовали базу аннотированных аудио, которая состояла из 2000 звуков, разделенных на 50 категорий. С ними система ассоциировала свои данные.
http://neuronovosti.ru/neurohearing/
#нейроновости
#нейросети
#deeplearning
Сейчас нейросети умеют неплохо распознавать изображения и понимать речь. Но вот определять естественные звуки – например, шум волн или пение птиц — пока не научились. Но это только пока! Программисты Массачусетсткого технологического института решили исправить это недоразумение и научили нейросеть распознавать такие звуки опосредованно – через картинки и видео. Подробнее о проекте можно почитать в препринте статьи и описании на сайте MIT.
Не так просто обучить нейросеть распознавать образы и звуки — нужно сперва обработать данные вручную. Поэтому сначала готовую нейросеть учили распознавать изображения с помощью двух аннотированных баз данных. А уже потом загрузили в нее 26 терабайт видео из Flickr. Это около двух миллионов роликов! Если бы вы захотели их пересмотреть, понадобилось бы около двух лет.
Учёные использовали и вторую нейросеть – в нее они загрузили аудиодорожки из тех же видео. Ей нужно было правильно определить наименования сцен и объектов, полученных от первой сети. Вот так и получилась нейросеть, которая может распознать звук – например, определить, что пение птиц ассоциируется со сценами леса, картинками деревьев и птичьих домиков.
Так нейросеть овладела языком изображений. Теперь осталось перевести его на язык понятных наименований звуков. Программисты научили систему сопоставлять материал с набором стандартных звуковых наименований. Они использовали базу аннотированных аудио, которая состояла из 2000 звуков, разделенных на 50 категорий. С ними система ассоциировала свои данные.
http://neuronovosti.ru/neurohearing/
#нейроновости
#нейросети
#deeplearning
Лекции: Анатолий Левенчук. Machine learning engineering
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Анатолия Левенчука.
Лекция Анатолия Левенчука из компании TechInvestLab, прочитанная на хакатоне DeepHack по глубокому обучению 2016 года, рассказывает об «инженерии» глубокого обучения.
http://neuronovosti.ru/levenchuk/
#deeplearning
#нейроновости
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Анатолия Левенчука.
Лекция Анатолия Левенчука из компании TechInvestLab, прочитанная на хакатоне DeepHack по глубокому обучению 2016 года, рассказывает об «инженерии» глубокого обучения.
http://neuronovosti.ru/levenchuk/
#deeplearning
#нейроновости
Лекции: Ли Куок. Глубокое обучение для понимания языка
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Ли Куока.
Лекция Ли Куока, работающего в Google, прочитанная на хакатоне DeepHack по глубокому обучению, рассказывает об использовании глубокого обучения для «понимания» языка и о работе проекта Google Brain.
http://neuronovosti.ru/likuok/
#нейроновости
#DeepHack
#deeplearning
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Ли Куока.
Лекция Ли Куока, работающего в Google, прочитанная на хакатоне DeepHack по глубокому обучению, рассказывает об использовании глубокого обучения для «понимания» языка и о работе проекта Google Brain.
http://neuronovosti.ru/likuok/
#нейроновости
#DeepHack
#deeplearning
Исследователи из Google создали нейросеть для помощи в диагностике рака по биопсии
Исследование биопсии ткани во многих случаях остаётся золотым стандартом при диагностике различных заболеваний. В случае диагностики онкологических заболеваний заключение по биопсии является критически важным для выбора лечения. И изучение слайдов биопсии остаётся сложнейшим искусством, требующим долгих лет тренировки и огромной ответственности. И даже при таком строгом подходе по одному и тому же слайду разные гистологи могут поставить разные диагнозы.
Например, в случае некоторых видов рака молочной железы и рака простаты эксперты соглашаются друг с другом менее, чем в половине случаев. И это неудивительно: снимки гистологических препаратов, сделанных с 40-кратным увеличением, занимают десятки гигапикселей. Представьте себе, что вам нужно рассмотреть такой кадр, отвечая за каждый пиксел.
Поэтому специалисты из исследовательского подразделения Google решили создать нейронную сеть для анализа биопсии в помощь диагносту. Об этом они рассказали в исследовательском блоге компании. Более подробно о том, как работает их свёрточная нейросеть, изложено в статье «Detecting Cancer Metastases on Gigapixel Pathology Images», которая выложена в открытом доступе.
http://neuronovosti.ru/google-convolutional-gistology/
#нейроновости
#deeplearning
#нейросеть
Исследование биопсии ткани во многих случаях остаётся золотым стандартом при диагностике различных заболеваний. В случае диагностики онкологических заболеваний заключение по биопсии является критически важным для выбора лечения. И изучение слайдов биопсии остаётся сложнейшим искусством, требующим долгих лет тренировки и огромной ответственности. И даже при таком строгом подходе по одному и тому же слайду разные гистологи могут поставить разные диагнозы.
Например, в случае некоторых видов рака молочной железы и рака простаты эксперты соглашаются друг с другом менее, чем в половине случаев. И это неудивительно: снимки гистологических препаратов, сделанных с 40-кратным увеличением, занимают десятки гигапикселей. Представьте себе, что вам нужно рассмотреть такой кадр, отвечая за каждый пиксел.
Поэтому специалисты из исследовательского подразделения Google решили создать нейронную сеть для анализа биопсии в помощь диагносту. Об этом они рассказали в исследовательском блоге компании. Более подробно о том, как работает их свёрточная нейросеть, изложено в статье «Detecting Cancer Metastases on Gigapixel Pathology Images», которая выложена в открытом доступе.
http://neuronovosti.ru/google-convolutional-gistology/
#нейроновости
#deeplearning
#нейросеть
Лекции: Фил Блансом о чтении нейросетями текстов и ответов на вопросы
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Фила Блансома.
Лекция Фила Блансома из компании Google, прочитанная на хакатоне DeepHack по глубокому обучению, рассказывает о применении глубоких нейронных сетей, которые учатся читать текстовые документы и отвечать на сложные вопросы с минимальными исходными знаниями структуры языка.
Cмотреть видео:
http://neuronovosti.ru/blansom/
#нейроновости
#deeplearning
Скоро на нашем портале появятся материалы хакатона DeepHack.RL, а пока мы публикуем лекции хакатона прошлого года, которые представляют собой не меньший интерес. Сегодня — лекция Фила Блансома.
Лекция Фила Блансома из компании Google, прочитанная на хакатоне DeepHack по глубокому обучению, рассказывает о применении глубоких нейронных сетей, которые учатся читать текстовые документы и отвечать на сложные вопросы с минимальными исходными знаниями структуры языка.
Cмотреть видео:
http://neuronovosti.ru/blansom/
#нейроновости
#deeplearning