Считают ли себя коты жидкостью?
Сначала, для понимания - несколько секунд (слов) школьной физики. Чем отличаются друг от друга газ, жидкость и твердое тело? Тем, что твердые тела имеют фиксированную форму и объем. У жидкостей нет фиксированной формы, но есть объем. Газы не имеют ни форму, ни объем.
Кошки, конечно, не газ, но вот тому, что кошки — это «жидкость», есть не только многочисленные фото- и видеоподтверждения, которые вам наверняка случалось видеть. В 2017 году французский физик Марк-Антуан Фардин из Высшей школы Лиона получил Шнобелевскую премию за свое почти шутливое исследование «О реологии кошек», ссылка ниже (тут в скобках как бы напомню, что реология - раздел физики, изучающий деформационные свойства и текучесть вещества).
В ОБЩЕМ, этот ученый заявил, что этих домашних питомцев технически можно считать одновременно твердыми и жидкими из-за удивительной способности принимать форму практически любого сосуда.
И вот прошло семь лет с этого эпохального исследования, и венгерский этолог Петер Понграч взялся проверить, теперь не в полушутку, а уже совершенно всерьез, как осознают свое тело и его размеры сами кошки, насколько у них развито и что собой представляет телесное осознание (способность представлять некоторые из своих физических признаков в собственной ментальной модели и использовать для управления своими действиями).
Чтобы выяснить, будет ли кошка принимать решение о том, лезть ли в узкую щель, основываясь на собственных габаритах, Понграч провел эксперимент. В нем участвовали несколько десятков этих домашних питомцев. Экспериментатор использовал два типа препятствий из прочного картона: каждое закрывало обычный дверной проем и имело ряд из пяти разных, постепенно уменьшающихся по высоте или ширине, отверстий (точную их форму можете посмотреть по ссылке ниже). Кошки должны были их преодолеть.
Ранее аналогичный тест, кстати, выполнили собаки: если отверстие было подходящего размера, они проходили через него без колебаний, если слишком маленьким — останавливались. Всё просто!
Кошки же действительно не особо пытались сопоставлять свои габариты размеру отверстия, а практически во всех случаях пытались пролезть, выбирали метод проб и ошибок: практически не сомневались и протискивались, даже если те были уже, чем их грудная клетка. Это связано с тем, что за неимением нормальных ключиц они способны протискиваться через узкие щели. ОДНАКО Их почему-то заставляли раздумывать довольно широкие, но низкие отверстия, существенно ниже их роста.
ТО есть что? А вот что - кошки очень самонадеянны, но все же у них есть зависимость от осознания собственных габаритов. Следовательно, кошки не жидкость, и наука это подтвердила! Вам смешно? А мне вот кажется, что исследования о том, как и насколько животные осознают себя, действительно очень важны!
🔬 https://ig-nobel.ru/a2017fiz.php
🔬 https://www.cell.com/iscience/fulltext/S2589-0042(24)02024-8#fig1
Сначала, для понимания - несколько секунд (слов) школьной физики. Чем отличаются друг от друга газ, жидкость и твердое тело? Тем, что твердые тела имеют фиксированную форму и объем. У жидкостей нет фиксированной формы, но есть объем. Газы не имеют ни форму, ни объем.
Кошки, конечно, не газ, но вот тому, что кошки — это «жидкость», есть не только многочисленные фото- и видеоподтверждения, которые вам наверняка случалось видеть. В 2017 году французский физик Марк-Антуан Фардин из Высшей школы Лиона получил Шнобелевскую премию за свое почти шутливое исследование «О реологии кошек», ссылка ниже (тут в скобках как бы напомню, что реология - раздел физики, изучающий деформационные свойства и текучесть вещества).
В ОБЩЕМ, этот ученый заявил, что этих домашних питомцев технически можно считать одновременно твердыми и жидкими из-за удивительной способности принимать форму практически любого сосуда.
И вот прошло семь лет с этого эпохального исследования, и венгерский этолог Петер Понграч взялся проверить, теперь не в полушутку, а уже совершенно всерьез, как осознают свое тело и его размеры сами кошки, насколько у них развито и что собой представляет телесное осознание (способность представлять некоторые из своих физических признаков в собственной ментальной модели и использовать для управления своими действиями).
Чтобы выяснить, будет ли кошка принимать решение о том, лезть ли в узкую щель, основываясь на собственных габаритах, Понграч провел эксперимент. В нем участвовали несколько десятков этих домашних питомцев. Экспериментатор использовал два типа препятствий из прочного картона: каждое закрывало обычный дверной проем и имело ряд из пяти разных, постепенно уменьшающихся по высоте или ширине, отверстий (точную их форму можете посмотреть по ссылке ниже). Кошки должны были их преодолеть.
Ранее аналогичный тест, кстати, выполнили собаки: если отверстие было подходящего размера, они проходили через него без колебаний, если слишком маленьким — останавливались. Всё просто!
Кошки же действительно не особо пытались сопоставлять свои габариты размеру отверстия, а практически во всех случаях пытались пролезть, выбирали метод проб и ошибок: практически не сомневались и протискивались, даже если те были уже, чем их грудная клетка. Это связано с тем, что за неимением нормальных ключиц они способны протискиваться через узкие щели. ОДНАКО Их почему-то заставляли раздумывать довольно широкие, но низкие отверстия, существенно ниже их роста.
ТО есть что? А вот что - кошки очень самонадеянны, но все же у них есть зависимость от осознания собственных габаритов. Следовательно, кошки не жидкость, и наука это подтвердила! Вам смешно? А мне вот кажется, что исследования о том, как и насколько животные осознают себя, действительно очень важны!
🔬 https://ig-nobel.ru/a2017fiz.php
🔬 https://www.cell.com/iscience/fulltext/S2589-0042(24)02024-8#fig1
Подъехал годный эксплейнер по вчерашней Нобелевской премии:
https://zanauku.mipt.ru/2024/10/08/obyasnili-malenkost-zachem-nobelevskie-laureaty-2024-goda-izuchali-chervej-mutantov/
https://zanauku.mipt.ru/2024/10/08/obyasnili-malenkost-zachem-nobelevskie-laureaty-2024-goda-izuchali-chervej-mutantov/
zanauku.mipt.ru
Журнал «За науку»: Объяснили маленькость: зачем нобелевские лауреаты 2024 года изучали червей-мутантов
Исследования свежеиспеченных нобелиатов начались еще в конце 1980-х годов.
Это не про науку, зато про технологии (ну и вообще люблю эту историю).
Когда в начале нулевых инженеры Apple презентовали Стиву Джобсу первый прототип iPod, они ожидали похвал. В самом деле, плеер опережал свое время и сулил компании невиданные барыши.
Но перфекционист Джобс лишь несколько секунд повертел iPod в руках, и протянул обратно инженерам, сказав лишь, — сделайте его меньше.
Инженеры начали было спорить о том, что и так достигли технического совершенства электроники, и дальнейшее уменьшение невозможно. В ответ Джобс молча взял плеер, подошел к офисному аквариуму и бросил в воду. Из тонущего прибора пошли пузырьки воздуха.
Видите пузырьки? — спросил Джобс, — Значит, там есть место. Сделайте его меньше!
Когда в начале нулевых инженеры Apple презентовали Стиву Джобсу первый прототип iPod, они ожидали похвал. В самом деле, плеер опережал свое время и сулил компании невиданные барыши.
Но перфекционист Джобс лишь несколько секунд повертел iPod в руках, и протянул обратно инженерам, сказав лишь, — сделайте его меньше.
Инженеры начали было спорить о том, что и так достигли технического совершенства электроники, и дальнейшее уменьшение невозможно. В ответ Джобс молча взял плеер, подошел к офисному аквариуму и бросил в воду. Из тонущего прибора пошли пузырьки воздуха.
Видите пузырьки? — спросил Джобс, — Значит, там есть место. Сделайте его меньше!
Два моих давних приятеля (и временами — коллеги) объясняют, как же так вышло, что Нобелевка по физике досталась ИИ-шникам и вообще
https://zanauku.mipt.ru/2024/10/10/nobelphysics2024/
https://zanauku.mipt.ru/2024/10/10/nobelphysics2024/
zanauku.mipt.ru
Журнал «За науку»: ИИ-подснежники: как лауреаты Нобелевской премии запустили оттепель в исследованиях искусственного интеллекта
Нобелевскую премию по физике за 2024 год поделили изобретатель модели ассоциативной памяти с разработчиком алгоритмов «глубокого обучения».
#шутка_юмора
Я вышел только что с конференции «Biomembranes-2024», НО шутка ниже будет НЕ про биологию и даже не про биоинформатику. ↓
Я вышел только что с конференции «Biomembranes-2024», НО шутка ниже будет НЕ про биологию и даже не про биоинформатику. ↓
Forwarded from Гомеостатическая Вселенная
Ух, какую вчера прочитал статью! Вы берете фотоны, посылаете в облако атомов. Они, конечно, поглощаются атомами, атомы ненадолго возбуждаются, а потом переиспускают фотоны, а они вылетают с другой стороны — с какой-то задержкой, конечно. Как вы думаете, какой? Эти ребята взяли и намеряли эту задержку отрицательной. WTF?! скажете вы, и будете совершенно правы.
Я попробовал разобраться.
Надо начать с того, что скорость фотона в среде не очень хорошо определена. Помните, я рассказывал про сверхсветовое туннелирование? Когда у нас есть электромагнитная волна, там все относительно просто. А вот когда мы начинаем смотреть на одиночные фотоны, случается беда. Фотон — он волновой пакет и занимает довольно много места в пространстве и времени. Какой момент считать временем прохода через среду? Когда прибывает передняя его часть, или когда кликает детектор, или как-то усреднять? А ведь фотон еще поглощается и переиспускается атомом — как это учитывать?
Сперва надо вспомнить про понятие групповой скорости. Если у вас есть волна, амплитуда которой меняется со временем (другими словами, волновой пакет), групповой скоростью называют скорость перемещения максимума вот этого изменения. Я кину в коммент видео, которое показывает это наглядно. В целом, групповая скорость сильно зависит от свойств среды, в которой свет распространяется. Она может даже быть значительно быстрее скорости света, а может быть вообще отрицательной. Никого это не смущает, так как эта скорость не связана с каким-то физическим перемещением, с ее помощью нельзя передать информацию и т.д.
Если мы смотрим на одиночный фотон и наблюдаем, когда приходит максимум его волнового пакета, его групповая скорость тоже может быть отрицательной. Обычно говорят, что это ничего не значит, никаких наблюдательных эффектов не дает, и вообще просто наш неудачный выбор определения скорости.
А какой выбор был бы удачнее? Авторы говорят: ну вот есть более четкая метрика — померить, сколько атом, возмущенный фотоном, проводит в возбужденном состоянии. Это явный физический эффект, а не просто неудачный выбор определения. Они так и делают: берут атомы, пускают в них фотоны и измеряют время, которое атом живет в возбужденном состоянии. Повторяют много раз. И видят, что атомы в среднем проводят отрицательное время в возбужденном состоянии! Более того, это время напрямую зависит от групповой скорости фотона. А это значит, что групповая скорость — не просто глупое определение, а она влияет на реальне физические процессы.
Но это же бред, как может быть атом отрицательное время хоть в чем-то! Но дело оказывается в том, как мы определяем время в квнатовой механике. У каждого фотона есть вероятность пройти сквозь атомы, не завимодействуя, и вероятность провести какое-то время в виде возбуждения атома. Так вот, эти вероятности интерферируют между собой, и в результатае получается отрицательное время. Примерно такой эффект был в парадоксе голубей, про который я рассказывал раньше. Тут главный момент в том, что мы учитываем не все фотоны, которые влетают в облако атомов, а только те, которые проходят насквозь. А это небольшая часть от всех. Вот эта интерференция, вместе с отбором "хороших" фотонов и дают парадоксальное определение времени. Дурят нас, короче, дурят!
Я не думаю, что это отрицательное время несет какой-то глубокий физический смысл. Как и все квантовые эффекты с пост-селекцией, где мы выбираем только исходы, которые нам нравятся, это все больше вопрос определений. Это, несомненно, очень любопытный эксперимент, возможно, важный для разговора о значении термина "время", но не имеющий какого-то влияния на нашу ежедневную жизнь (даже в физике). Наверное.
https://arxiv.org/abs/2409.03680
Я попробовал разобраться.
Надо начать с того, что скорость фотона в среде не очень хорошо определена. Помните, я рассказывал про сверхсветовое туннелирование? Когда у нас есть электромагнитная волна, там все относительно просто. А вот когда мы начинаем смотреть на одиночные фотоны, случается беда. Фотон — он волновой пакет и занимает довольно много места в пространстве и времени. Какой момент считать временем прохода через среду? Когда прибывает передняя его часть, или когда кликает детектор, или как-то усреднять? А ведь фотон еще поглощается и переиспускается атомом — как это учитывать?
Сперва надо вспомнить про понятие групповой скорости. Если у вас есть волна, амплитуда которой меняется со временем (другими словами, волновой пакет), групповой скоростью называют скорость перемещения максимума вот этого изменения. Я кину в коммент видео, которое показывает это наглядно. В целом, групповая скорость сильно зависит от свойств среды, в которой свет распространяется. Она может даже быть значительно быстрее скорости света, а может быть вообще отрицательной. Никого это не смущает, так как эта скорость не связана с каким-то физическим перемещением, с ее помощью нельзя передать информацию и т.д.
Если мы смотрим на одиночный фотон и наблюдаем, когда приходит максимум его волнового пакета, его групповая скорость тоже может быть отрицательной. Обычно говорят, что это ничего не значит, никаких наблюдательных эффектов не дает, и вообще просто наш неудачный выбор определения скорости.
А какой выбор был бы удачнее? Авторы говорят: ну вот есть более четкая метрика — померить, сколько атом, возмущенный фотоном, проводит в возбужденном состоянии. Это явный физический эффект, а не просто неудачный выбор определения. Они так и делают: берут атомы, пускают в них фотоны и измеряют время, которое атом живет в возбужденном состоянии. Повторяют много раз. И видят, что атомы в среднем проводят отрицательное время в возбужденном состоянии! Более того, это время напрямую зависит от групповой скорости фотона. А это значит, что групповая скорость — не просто глупое определение, а она влияет на реальне физические процессы.
Но это же бред, как может быть атом отрицательное время хоть в чем-то! Но дело оказывается в том, как мы определяем время в квнатовой механике. У каждого фотона есть вероятность пройти сквозь атомы, не завимодействуя, и вероятность провести какое-то время в виде возбуждения атома. Так вот, эти вероятности интерферируют между собой, и в результатае получается отрицательное время. Примерно такой эффект был в парадоксе голубей, про который я рассказывал раньше. Тут главный момент в том, что мы учитываем не все фотоны, которые влетают в облако атомов, а только те, которые проходят насквозь. А это небольшая часть от всех. Вот эта интерференция, вместе с отбором "хороших" фотонов и дают парадоксальное определение времени. Дурят нас, короче, дурят!
Я не думаю, что это отрицательное время несет какой-то глубокий физический смысл. Как и все квантовые эффекты с пост-селекцией, где мы выбираем только исходы, которые нам нравятся, это все больше вопрос определений. Это, несомненно, очень любопытный эксперимент, возможно, важный для разговора о значении термина "время", но не имеющий какого-то влияния на нашу ежедневную жизнь (даже в физике). Наверное.
https://arxiv.org/abs/2409.03680
Люблю читать про квантовую физику. Голова начинает одновременно трещать и кружиться, а в членах возникает "легкость необыкновенная", но не такая, как у гоголевского Хлестакова, а этакая, знаете — вот еще немного, еще шажок, и я все пойму и прямо полечу! Но нет, шажок всегда остается непройденным. 😊
Вот, извольте видеть, вот какой текст попался (почитайте):
Представьте, что у вас есть три голубя и вы их сажаетена два стула в два гнезда. В каком-то гнезде непременно окажется два голубя. Так ведь, так?! В квантовой физике это не так. Мы можем взять три квантовые частицы и поместить их в две коробки так, что ни в одной из коробок не будет двух частиц.
https://vas3k.club/post/23652/
Вот, извольте видеть, вот какой текст попался (почитайте):
Представьте, что у вас есть три голубя и вы их сажаете
https://vas3k.club/post/23652/
Forwarded from RAntiquity (Olga Alieva)
Вероятно, многие уже знают про прекрасный проект Orbis, позволяющий рассчитать (в днях и в денариях) пусть из города А в город Б в Римской империи. https://orbis.stanford.edu/
Например, в летний день из Кесарии Каппадокийской в Константинополь ехатьна ослике 25 дней, почти 1000 км. Ни моря, ни рек на маршруте, пыльно и грустно.
Самое приятное, что для этого проекта все данные есть в открытом доступе: их можно забрать по ссылке и использовать для пространственного / сетевого анализа (что я и намерена сделать в ближайшее время) в рамках проекта“помоги ежику найти свой домик” “помоги епископу добраться до собора”
Например, в летний день из Кесарии Каппадокийской в Константинополь ехать
Самое приятное, что для этого проекта все данные есть в открытом доступе: их можно забрать по ссылке и использовать для пространственного / сетевого анализа (что я и намерена сделать в ближайшее время) в рамках проекта
purl.stanford.edu
ORBIS (v2) Network Edge and Node Tables
ORBIS is a multimodal, seasonally variable transportation network model available at orbis.stanford.edu. The model provides for practically unlimited permutations by allowing users to limit modes, ...
Пришлось мне тут на днях быстро излагать ребенку суть научного метода, и на наблюдениях и экспериментах мы немного застряли.
Хорошо, что я помню прекрасное выражение Альберта Эйнштейна: "Никаким количеством экспериментов нельзя доказать теорию; но достаточно одного эксперимента, чтобы её опровергнуть." — несмотря на то, что оно выражено словами, картинку сразу дает очень четкую.
Хорошо, что я помню прекрасное выражение Альберта Эйнштейна: "Никаким количеством экспериментов нельзя доказать теорию; но достаточно одного эксперимента, чтобы её опровергнуть." — несмотря на то, что оно выражено словами, картинку сразу дает очень четкую.
Forwarded from Generative Anton (Anton Repushko)
Невероятным образом, эта история канула в лету и не существует в канале (что странно и подозрительно), поэтому я ее продублирую.
N лет назад (>=4) мне написал читатель. В то время он был на стажировке в Берлине и изучал нервную систему осьминогов и рассказывал интересную историю.
У осьминогом довольно прилично глаза отличаются от человеческих, при этом идея — похожая (и тут и там по два глаза, даже структура похожа). Но было непонятно, бинокулярное у них зрение или монокулярное (формируется ли у них общая картинка из обоих глаз, или отдельно из каждого).
Думали, как это проверить и придумали: давайте наденем на осьминога 3D-очки и
будем показывать в 3D фотографию добычи. Если он отреагирует, значит бинокулярное (потому что в монокулярном это было бы не похоже на добычу, а просто на какие-то яркие цвета).
И в итоге да, осьминог отреагировал и так вроде бы как доказали, что у них бинокулярное зрение как и у нас. Но самое прекрасное — фото эксперимента.
N лет назад (>=4) мне написал читатель. В то время он был на стажировке в Берлине и изучал нервную систему осьминогов и рассказывал интересную историю.
У осьминогом довольно прилично глаза отличаются от человеческих, при этом идея — похожая (и тут и там по два глаза, даже структура похожа). Но было непонятно, бинокулярное у них зрение или монокулярное (формируется ли у них общая картинка из обоих глаз, или отдельно из каждого).
Думали, как это проверить и придумали: давайте наденем на осьминога 3D-очки и
будем показывать в 3D фотографию добычи. Если он отреагирует, значит бинокулярное (потому что в монокулярном это было бы не похоже на добычу, а просто на какие-то яркие цвета).
И в итоге да, осьминог отреагировал и так вроде бы как доказали, что у них бинокулярное зрение как и у нас. Но самое прекрасное — фото эксперимента.
Крутую штуку соседи сделали, посмотрите:
"Мои студенты с 4 курса Физтех-школы прикладной математики и информатики МФТИ Влад Смирнов и Сергей Кунин-Богоявленский сделали программу ScreenplayCraft на основе больших языковых моделей (LLM), который сам пишет сценарии. "
https://yangx.top/kedr2earth/11232
"Мои студенты с 4 курса Физтех-школы прикладной математики и информатики МФТИ Влад Смирнов и Сергей Кунин-Богоявленский сделали программу ScreenplayCraft на основе больших языковых моделей (LLM), который сам пишет сценарии. "
https://yangx.top/kedr2earth/11232
Telegram
Kedr to Earth | Земля, я Кедр
Сегодня последний день конкурса Минобрнауки РФ на сценарии художественных фильмов о видных отечественных ученых. Судя по конкурсной документации, для выполнения задания министерства нужна целая армия сценаристов. Физтех облегчил Министерству эту задачу на…
Люблю эту историю (но не могу проверить, увы)
Однажды выдающийся математик Владимир Игоревич Арнольд принимал американского коллегу. Поскольку Арнольд был известный хохмач, он решил разыграть гостя. Пришли в ресторан. В.И. отлучился как будто в туалет. По пути подозвал официантку и попросил:
- Когда подойдете к нашему столику, и я спрошу: чему равен интеграл от косинуса, ответьте, что он равен синусу такого же аргумента. Не забудете? Не перепутаете?
Возвращается Арнольд обратно, произносит очередной тост за науку всех наук - математику и , между прочим, замечает:
- Ты знаешь, а в нашей стране такой уровень образования, что все поголовно знают даже высшую математику!
- Не может быть, - машет рукой американский профессор.
- Ну давай спросим что-нибудь из высшей математики хотя бы вот у этой официантки?
- Давай!
Подзывают:
- Чему равен интеграл от косинуса?
- Синусу такого же аргумента, - заученно отвечает официантка.
Американец потрясен. Арнольд радуется, как дитя - розыгрыш удался!
Через некоторое время официантка опять подходит к их столику и говорит:
- Извините, я забыла добавить: плюс константа интегрирования.
Иллюстрация: так вот нейросеть представила себе картину "Владимир Арнольд и официантка". А что? Даже похож.
Однажды выдающийся математик Владимир Игоревич Арнольд принимал американского коллегу. Поскольку Арнольд был известный хохмач, он решил разыграть гостя. Пришли в ресторан. В.И. отлучился как будто в туалет. По пути подозвал официантку и попросил:
- Когда подойдете к нашему столику, и я спрошу: чему равен интеграл от косинуса, ответьте, что он равен синусу такого же аргумента. Не забудете? Не перепутаете?
Возвращается Арнольд обратно, произносит очередной тост за науку всех наук - математику и , между прочим, замечает:
- Ты знаешь, а в нашей стране такой уровень образования, что все поголовно знают даже высшую математику!
- Не может быть, - машет рукой американский профессор.
- Ну давай спросим что-нибудь из высшей математики хотя бы вот у этой официантки?
- Давай!
Подзывают:
- Чему равен интеграл от косинуса?
- Синусу такого же аргумента, - заученно отвечает официантка.
Американец потрясен. Арнольд радуется, как дитя - розыгрыш удался!
Через некоторое время официантка опять подходит к их столику и говорит:
- Извините, я забыла добавить: плюс константа интегрирования.
Иллюстрация: так вот нейросеть представила себе картину "Владимир Арнольд и официантка". А что? Даже похож.
Когда ты маленькое, очень маленькое существо с крыльями, то очень важно не только то, как ты машешь крыльям (пусть там очень даже сложные какие-то траектории), но и и то, что происходит с воздушным потоком вокруг тебя, во всех подробностях. А еще нужно уметь совершать полет в узких тоннелях, зависать в воздухе и садиться на вертикальные и отвесные поверхности.
В общем, когда я вижу заголовок "В РФ рассчитали модель полета комара и комариную подъемную силу", то пусть хоть все подряд смеются над "русскими британскими учеными", которые занимаются какой-то ерундой, а мне совсем не смешно - люди были заняты важной работой.
https://zanauku.mipt.ru/2024/11/01/v-rf-rasschitali-model-poleta-komara-i-komarinuyu-podemnuyu-silu/
В общем, когда я вижу заголовок "В РФ рассчитали модель полета комара и комариную подъемную силу", то пусть хоть все подряд смеются над "русскими британскими учеными", которые занимаются какой-то ерундой, а мне совсем не смешно - люди были заняты важной работой.
https://zanauku.mipt.ru/2024/11/01/v-rf-rasschitali-model-poleta-komara-i-komarinuyu-podemnuyu-silu/
zanauku.mipt.ru
Журнал «За науку»: В РФ рассчитали модель полета комара и комариную подъемную силу
Дальнейшее моделирование позволит создать линейку биоморфных летающих роботов.
Хорошая традиция нынче на Физтехе - пусть там и устраивают корпоративные лекции (внутри универа), и туда не так легко проникнуть, но зато тема огонь, и есть трансляция, вдруг кому интересно ↓
Forwarded from МФТИ — Физтех
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Каталонский вестник
Курс натуропатии собираются начать читать в университете Жироны - во всяком случае, так говорится на сайте попечительского совета университета. Коллегия врачей провинции справедливо возмущена и требует немедленно прекратить эту антинаучную вакханалию.
Из университета оправдываются, что курс ещё не одобрен учёным советом. В описании курса говорится, что он может стать первым университетским курсом натуропатии (видимо, в Испании). Курс адресован медперсоналу, однако на него смогут записаться люди как с высшим образованием, так и без него.
То, что у “настоящих” врачей в Испании иногда бывают и “дипломы” гомеопатов и натуропатов, и они прописывают, иногда, гомеопатические лекарства - практика распространённая, пусть и удивительная. Однако до университетов эта зараза пока не добиралась. Но пытается.
Из университета оправдываются, что курс ещё не одобрен учёным советом. В описании курса говорится, что он может стать первым университетским курсом натуропатии (видимо, в Испании). Курс адресован медперсоналу, однако на него смогут записаться люди как с высшим образованием, так и без него.
То, что у “настоящих” врачей в Испании иногда бывают и “дипломы” гомеопатов и натуропатов, и они прописывают, иногда, гомеопатические лекарства - практика распространённая, пусть и удивительная. Однако до университетов эта зараза пока не добиралась. Но пытается.
ИИ обучает ИИ. Или нет.
Для обучения больших языковых моделей, вроде хорошо всем известного чата GPT, нужно очень, очень много текста. Больше, чем написано человеком. И это – большая проблема!
Давайте я для начала напомню, что такое языковая модель (мы сейчас говорим о нейронных сетях, уточню). ИТАК: Языковая модель — это алгоритм, который анализирует текст, "понимает" (в кавычках, конечно) его контекст, обрабатывает и генерирует новые тексты. В его основе лежат нелинейные и вероятностные функции, с помощью которых модель предсказывает (с той или иной степенью успеха), какое слово в тексте может быть следующим. Ну то есть как предсказывает - это, наверное, не совсем правильное слово. Скорее — РАССЧИТЫВАЕТ вероятность для каждого из возможных слов. То есть ЭЛЕМЕНТАРНАЯ задача языковой модели довольно понятная — вычислить для данной последовательности слов вероятность следующей за ней последовательности. Например, если на вход дано предложение «сегодня прекрасная погода», от хорошо обученной модели мы будем ожидать продолжение вида «на улице тепло и солнечно». И вот тут - СТОП, друзья. Это для нас с вами такое продолжение естественно и логично. А если обучать модель на литературе об Африке, вполне вероятно, ожидаемым ответом на запрос «сегодня прекрасная погода» станут слова «сегодня не жарко и наконец пошел дождь». Ну и так далее, понимаете? Что там у нас за хорошая погода в Антарктиде, на Эвересте, в пустыне Атакама, на Луне?
ПОЭТОМУ для обучения по-настоящему успешных универсальных больших языковых моделей нужно много, очень, очень много текста. Десятки, сотни миллиардов страниц. Для сравнения напомню, что в знаменитой Войне и Мире Льва Толстого их всего чуть больше двух тысяч. Сейчас этот текст берут откуда? Да из интернета, конечно! но количество текстов, которые генерятся белковыми людьми, конечно. И растет не так быстро, как нужно молодому и растущему искусственному интеллекту.
Эту проблему хотят попробовать решать с помощью текстов, написанных другими нейросетями. Будет ли это работать? Некая научная группа (см.сылку ниже) провела эксперимент (еще года полтора назад, а нынешним летом добрались до Nature) , который показал, что при обучении модели на тексте, написанном моделью, которая обучалась на тексте, написанном моделью и так далее, повторить несколько раз, на выходе получится ну полная ерунда. Причина этого в искажениях статистических свойств данных, а именно потеря так называемых «хвостов» — краёв распределений с редкими примерами. Вот, например, в человеческой популяции, условно говоря, 5 процентов гениев и пять процентов полных дураков, но если избавиться от них, то совсем не обязательно популяции в целом станет лучше. Ок, не самая удачная аналогия, согласен.
Статья наделала много шума в медиасфере. Выходит, что развитие больших языковых семимильными шагами несётся в никуда! Ведь количество текстов в интернете, написанных машинами, уже довольнос скоро превысит человеческие. Эксперты и журналисты часто использовали сравнение деградации моделей с близкородственным скрещиванием у животных или инбридингом. Как и в ситуации с коллапсом ИИ-моделей, в таком потомстве резко уменьшается генетическое разнообразие, из-за чего накапливаются опасные мутации и снижается жизнеспособность.
Короче. Нам надо научиться детектировать машинно-сгенерированный текст — и просто не давать его новым LLM для обучени, делов-то. Ну или оставлять его только капельку, в том количестве, которое не портит потом выдачу модели.
Все это похоже, друзья, на старую шутку про брак: Брак – союз двух людей для совместного преодоления проблем, которых бы у них не было, не будь этого союза. Чем больше и лучше мы обучаем модели, тем больше они выдают текста, на котором сами и обучаются, и их результаты делаются хуже.
Однако я уверен в ученых и специалистах по ИИ - если проблема детектирована, то она рано или поздно будет решена. Или нет))
🔬 https://www.nature.com/articles/s41586-024-07566-y
Для обучения больших языковых моделей, вроде хорошо всем известного чата GPT, нужно очень, очень много текста. Больше, чем написано человеком. И это – большая проблема!
Давайте я для начала напомню, что такое языковая модель (мы сейчас говорим о нейронных сетях, уточню). ИТАК: Языковая модель — это алгоритм, который анализирует текст, "понимает" (в кавычках, конечно) его контекст, обрабатывает и генерирует новые тексты. В его основе лежат нелинейные и вероятностные функции, с помощью которых модель предсказывает (с той или иной степенью успеха), какое слово в тексте может быть следующим. Ну то есть как предсказывает - это, наверное, не совсем правильное слово. Скорее — РАССЧИТЫВАЕТ вероятность для каждого из возможных слов. То есть ЭЛЕМЕНТАРНАЯ задача языковой модели довольно понятная — вычислить для данной последовательности слов вероятность следующей за ней последовательности. Например, если на вход дано предложение «сегодня прекрасная погода», от хорошо обученной модели мы будем ожидать продолжение вида «на улице тепло и солнечно». И вот тут - СТОП, друзья. Это для нас с вами такое продолжение естественно и логично. А если обучать модель на литературе об Африке, вполне вероятно, ожидаемым ответом на запрос «сегодня прекрасная погода» станут слова «сегодня не жарко и наконец пошел дождь». Ну и так далее, понимаете? Что там у нас за хорошая погода в Антарктиде, на Эвересте, в пустыне Атакама, на Луне?
ПОЭТОМУ для обучения по-настоящему успешных универсальных больших языковых моделей нужно много, очень, очень много текста. Десятки, сотни миллиардов страниц. Для сравнения напомню, что в знаменитой Войне и Мире Льва Толстого их всего чуть больше двух тысяч. Сейчас этот текст берут откуда? Да из интернета, конечно! но количество текстов, которые генерятся белковыми людьми, конечно. И растет не так быстро, как нужно молодому и растущему искусственному интеллекту.
Эту проблему хотят попробовать решать с помощью текстов, написанных другими нейросетями. Будет ли это работать? Некая научная группа (см.сылку ниже) провела эксперимент (еще года полтора назад, а нынешним летом добрались до Nature) , который показал, что при обучении модели на тексте, написанном моделью, которая обучалась на тексте, написанном моделью и так далее, повторить несколько раз, на выходе получится ну полная ерунда. Причина этого в искажениях статистических свойств данных, а именно потеря так называемых «хвостов» — краёв распределений с редкими примерами. Вот, например, в человеческой популяции, условно говоря, 5 процентов гениев и пять процентов полных дураков, но если избавиться от них, то совсем не обязательно популяции в целом станет лучше. Ок, не самая удачная аналогия, согласен.
Статья наделала много шума в медиасфере. Выходит, что развитие больших языковых семимильными шагами несётся в никуда! Ведь количество текстов в интернете, написанных машинами, уже довольнос скоро превысит человеческие. Эксперты и журналисты часто использовали сравнение деградации моделей с близкородственным скрещиванием у животных или инбридингом. Как и в ситуации с коллапсом ИИ-моделей, в таком потомстве резко уменьшается генетическое разнообразие, из-за чего накапливаются опасные мутации и снижается жизнеспособность.
Короче. Нам надо научиться детектировать машинно-сгенерированный текст — и просто не давать его новым LLM для обучени, делов-то. Ну или оставлять его только капельку, в том количестве, которое не портит потом выдачу модели.
Все это похоже, друзья, на старую шутку про брак: Брак – союз двух людей для совместного преодоления проблем, которых бы у них не было, не будь этого союза. Чем больше и лучше мы обучаем модели, тем больше они выдают текста, на котором сами и обучаются, и их результаты делаются хуже.
Однако я уверен в ученых и специалистах по ИИ - если проблема детектирована, то она рано или поздно будет решена. Или нет))
🔬 https://www.nature.com/articles/s41586-024-07566-y
#шутка_юмора
корпоративный анекдот:
Физфаковец видит лежащего в канаве физтеха, читает на обложке выпавшей из портфеля книги "Ландау. Лифшиц. "Теория поля". И говорит:
— Ну, надо же! Агроном! А нажрался прямо как физик!
корпоративный анекдот:
Физфаковец видит лежащего в канаве физтеха, читает на обложке выпавшей из портфеля книги "Ландау. Лифшиц. "Теория поля". И говорит:
— Ну, надо же! Агроном! А нажрался прямо как физик!