This media is not supported in your browser
VIEW IN TELEGRAM
Казалось бы официальный ролик Volvo, но это просто AI видео от Runway 3, отредактированное одним человеком менее чем за 24 часа ✨
Взял тут https://www.reddit.com/r/aivideo/s/KRwNczvZzt
Взял тут https://www.reddit.com/r/aivideo/s/KRwNczvZzt
This media is not supported in your browser
VIEW IN TELEGRAM
Hoomans🪥 season 1 episode 1
Под капотом: Midjourney / Hedra / Luma / Runway Gen-3 / Eleven Labs / Udio / Premiere
Похоже AI видео будет удивлять нас всё больше и возможно потенциал тут серьёзнее чем у генерации текста 🌚
Под капотом: Midjourney / Hedra / Luma / Runway Gen-3 / Eleven Labs / Udio / Premiere
Похоже AI видео будет удивлять нас всё больше и возможно потенциал тут серьёзнее чем у генерации текста 🌚
Forwarded from TechSparks
Xiaomi показали полностью автоматизированную фабрику по сборке смартфонов. Одиннадцать полностью автономных производственных линий
занимают 80 тыс кв метров, ожидается производительность более 10 млн аппаратов в год.ф
Софт этой фабрики предполагает возможность не только самостоятельного решения проблем, но и автономной оптимизации производственных процессов: "What's most impressive, is that this platform can identify and solve issues, while also helping to improve the production process. That's really incredible! This platform blew our colleagues away when they first saw it."
https://newatlas.com/robotics/xiaomi-dark-robotic-factory/
занимают 80 тыс кв метров, ожидается производительность более 10 млн аппаратов в год.ф
Софт этой фабрики предполагает возможность не только самостоятельного решения проблем, но и автономной оптимизации производственных процессов: "What's most impressive, is that this platform can identify and solve issues, while also helping to improve the production process. That's really incredible! This platform blew our colleagues away when they first saw it."
https://newatlas.com/robotics/xiaomi-dark-robotic-factory/
New Atlas
Xiaomi's self-optimizing autonomous factory will make 10M+ phones a year
There are no humans working the new Xiaomi production lines – this new Smart Factory is 100% automated. Indeed, the company says the system is smart enough to diagnose and fix problems, as well as optimizing its own processes to "evolve by itself."
OpenAI работает над новым проектом «Strawberry», направленным на улучшение логических способностей своих моделей ИИ. Согласно внутренним документам, проект нацелен на развитие у ИИ навыков автономного исследования в интернете и выполнения сложных задач. Детали проекта тщательно скрыты, однако предполагается, что Strawberry сможет не только отвечать на вопросы, но и планировать действия наперед. Это достижение может значительно повысить уровень интеллекта ИИ, что позволит ему решать задачи, требующие многослойного анализа. Ранее проект был известен под кодовым названием Q*🌚
https://www.reuters.com/technology/artificial-intelligence/openai-working-new-reasoning-technology-under-code-name-strawberry-2024-07-12/?utm_source=reddit.com
https://www.reuters.com/technology/artificial-intelligence/openai-working-new-reasoning-technology-under-code-name-strawberry-2024-07-12/?utm_source=reddit.com
Reuters
Exclusive: OpenAI working on new reasoning technology under code name ‘Strawberry’
ChatGPT maker OpenAI is working on a novel approach to its artificial intelligence models in a project code-named “Strawberry,” according to a person familiar with the matter and internal documentation reviewed by Reuters.
Media is too big
VIEW IN TELEGRAM
Крутое применение анимации по двум фреймам в Luma для достижения bullet time и slow mo в реальном видео, вообще теперь только так MMA бы и смотрел🥊
На реддите активно обсуждают статью Mixture of A Million Experts исследователей из Google DeepMind, которые представили новый метод улучшения работы нейронных сетей. Этот метод называется PEER (Parameter Efficient Expert Retrieval). Он позволяет эффективно использовать более миллиона маленьких экспертов, что ускоряет обучение моделей и снижает вычислительные затраты. Это достигается за счет особого способа выбора нужных экспертов для выполнения задач. Эксперименты показали, что PEER превосходит традиционные подходы по производительности, открывая новые возможности для масштабирования нейронных сетей. Архитектура PEER позволяет эффективно обрабатывать потоки данных, которые могут быть бесконечно длинными или постоянно обновляемыми. Это делает её особенно полезной для задач непрерывного обучения, где модели должны адаптироваться к новым данным, не забывая при этом старую информацию.
В общем, спецы из гугл не спят, что-то постоянно варят и есть подозрение, что ждать пока эти разработки применят на практике нам осталось недолго🌚
В общем, спецы из гугл не спят, что-то постоянно варят и есть подозрение, что ждать пока эти разработки применят на практике нам осталось недолго🌚
arXiv.org
Mixture of A Million Experts
The feedforward (FFW) layers in standard transformer architectures incur a linear increase in computational costs and activation memory as the hidden layer width grows. Sparse mixture-of-experts...
Forwarded from Сиолошная
Вышла
Вот картинка с бенчмарками, сравнивать можно с Gemini Flash от Google (обе на графике — в оранжевых тонах).
Очень заметен отрыв на датасете MATH (задачи по математике🧐 ). Одни скажут «прорыв😏 », другие — «да переобучились на данных!». А правду узнаем уже из опыта использования моделей!
Правда модель от OpenAI ... дешевле в 2 раза! Всего 15 центов за миллион входных токенов, и 60 за миллион на выходе — это ОЧЕНЬ мало. Дешевле GPT-3.5-Turbo на 65%!
И напомню, что даже эти копейки можно срезать на 50%, если пользоваться Batch API (это когда вы загружаете файл с сотнями-тысячами запросов, и он в течение суток обрабатывается; не подходит для чатов, но подходит для разных неприоритетных фоновых задач).
К сожалению, контекст так и остался на отметке в 128000 токенов.
P.S.: с этим релизом GPT-3.5-Turbo, представитель прошлого поколения моделей, уходит на покой🫡 спи сладко. Но ещё на покой ушли десятки опенсурсных моделей: многие 70B варианты дороже даже у демпингующих провайдеров 🥺 Да что там, gemma-2-27b (крутая моделька гугла) стоит $0.27 — почти в два раза дороже 🤯
Вот картинка с бенчмарками, сравнивать можно с Gemini Flash от Google (обе на графике — в оранжевых тонах).
Очень заметен отрыв на датасете MATH (задачи по математике
Правда модель от OpenAI ... дешевле в 2 раза! Всего 15 центов за миллион входных токенов, и 60 за миллион на выходе — это ОЧЕНЬ мало. Дешевле GPT-3.5-Turbo на 65%!
И напомню, что даже эти копейки можно срезать на 50%, если пользоваться Batch API (это когда вы загружаете файл с сотнями-тысячами запросов, и он в течение суток обрабатывается; не подходит для чатов, но подходит для разных неприоритетных фоновых задач).
К сожалению, контекст так и остался на отметке в 128000 токенов.
P.S.: с этим релизом GPT-3.5-Turbo, представитель прошлого поколения моделей, уходит на покой
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
AI - это ненастоящее искусство говорили они... ❤️
This media is not supported in your browser
VIEW IN TELEGRAM
Свободу котикам ❤️
Forwarded from Сиолошная
Elon Musk твитнул, что сегодня ночью они запустили тренировку на свежепостроенном суперкластере X.AI в Мемфис, штат Теннеси.
В этом датацентре установлено 100'000 видеокарт H100😨 это ОЧЕНЬ много — META недавно запустила 2 кластера по 24'576 GPU, а GPT-4 тренировали, по слухам, на 25'000 карт.
Мало того, что самих чипов больше, каждый из них ещё и в 2-3 раза мощнее. Точную оценку дать сложно, многое упирается в инфраструктуру и способ обмена разных серверов информацией. Чем больше карт — тем дольше их синхронизировать, и потому падает утилизация.
Если прикидывать грубо, то система в 10 раз мощнее тренировавшей модель OpenAI (x4 за кол-во карт и x2.5 за новое поколение чипов). Честно, я не ждал, что уже в этом году заработает такой кластер — думал, может, на 75-80 тысячах остановятся. Тем более я не ждал этого от Elon — ведь его X.AI буквально последними запрыгнули в AI гонку, когда видеокарточек уже буквально не было!
Но если новичок смог за полтора года так разогнаться, то, наверное, у OpenAI x Microsoft или Google мощностей для запуска одной тренировки может быть в 2-3 раза больше. Думаю, тезис про «самый большой кластер» под вопросом (просто они непубличные и мы про них не знаем).
В любом случае, развитие продолжается, ждём Grok 3 в декабре — а вместе с ним и моделей от других ведущих лабораторий!
В этом датацентре установлено 100'000 видеокарт H100
Мало того, что самих чипов больше, каждый из них ещё и в 2-3 раза мощнее. Точную оценку дать сложно, многое упирается в инфраструктуру и способ обмена разных серверов информацией. Чем больше карт — тем дольше их синхронизировать, и потому падает утилизация.
Если прикидывать грубо, то система в 10 раз мощнее тренировавшей модель OpenAI (x4 за кол-во карт и x2.5 за новое поколение чипов). Честно, я не ждал, что уже в этом году заработает такой кластер — думал, может, на 75-80 тысячах остановятся. Тем более я не ждал этого от Elon — ведь его X.AI буквально последними запрыгнули в AI гонку, когда видеокарточек уже буквально не было!
Но если новичок смог за полтора года так разогнаться, то, наверное, у OpenAI x Microsoft или Google мощностей для запуска одной тренировки может быть в 2-3 раза больше. Думаю, тезис про «самый большой кластер» под вопросом (просто они непубличные и мы про них не знаем).
В любом случае, развитие продолжается, ждём Grok 3 в декабре — а вместе с ним и моделей от других ведущих лабораторий!
Please open Telegram to view this post
VIEW IN TELEGRAM
Futuris
Meta AI представляет Llama 3 - новое поколение своих открытых больших языковых моделей✨ Новые модели Llama 3 с параметрами 8B и 70B демонстрируют значительное повышение производительности по сравнению с предыдущими моделями, включая улучшенные способности…
Пишут, что сегодня - завтра должна релизнуться LLaMA 405B от Meta, а в сеть уже утекли метрики по которым она рвёт даже gpt4o, хоть LLaMA и меньше раза в 4-5🤯
В общем ждём, если это правда, то у опенсорса появится свой король (и возможно это подтолкнёт побыстрее выпустить какую нибудь gpt 4.5o например или Claude 3.5 Opus 🌚)
В общем ждём, если это правда, то у опенсорса появится свой король (и возможно это подтолкнёт побыстрее выпустить какую нибудь gpt 4.5o например или Claude 3.5 Opus 🌚)
Futuris
Пишут, что сегодня - завтра должна релизнуться LLaMA 405B от Meta, а в сеть уже утекли метрики по которым она рвёт даже gpt4o, хоть LLaMA и меньше раза в 4-5🤯 В общем ждём, если это правда, то у опенсорса появится свой король (и возможно это подтолкнёт побыстрее…
Модель выложили - пообщаться можно тут https://llama.meta.com/
или тут https://huggingface.co/chat/models/meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
или тут https://huggingface.co/chat/models/meta-llama/Meta-Llama-3.1-405B-Instruct-FP8
Meta Llama
The open-source AI models you can fine-tune, distill and deploy anywhere. Choose from our collection of models: Llama 3.1, Llama 3.2, Llama 3.3.
Futuris
https://www.aiuncensored.info/ - не благодарите (советую использовать с VPN) - вот оно неизбежное будущее - опенсорс нейронка без цензуры, в гугле если что всю эту инфу тоже можно найти при желании, так что запрещать нет смысла🌚 Название модельки нравится)…
Ржака, сайт с нейронками без цензуры добавил LLaMA 405B с цензурой 😁зато работает без впн и позже зафайнтюнят её же для 18+🌚
This media is not supported in your browser
VIEW IN TELEGRAM
Ничего необычного, просто тесты армии робособак🤖 скоро увидим такие же тесты бипедальных, вообще ждёте робо-революцию🦾?
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи из DeepMind представили две новые системы искусственного интеллекта - AlphaProof и AlphaGeometry 2, которые достигли уровня серебряной медали на Международной математической олимпиаде 2024 года. Системы решили 4 из 6 задач олимпиады, набрав 28 из 42 возможных баллов. AlphaProof использует формальный язык Lean и обучение с подкреплением для доказательства математических утверждений. Обе модели показали впечатляющие результаты, решив в том числе самую сложную задачу олимпиады.
DeepMind планирует интегрировать разработанные технологии математического рассуждения в систему Gemini. Это позволит улучшить способности Gemini в области математики и логического мышления. В будущем Gemini сможет помогать математикам исследовать гипотезы, предлагать новые подходы к решению сложных задач и ускорять процесс доказательств. Исследователи надеются, что такие инструменты ИИ откроют новые возможности для научных открытий и технологических инноваций, основанных на продвинутом математическом анализе✨
УСКОРЯЕМСЯ⚡️
DeepMind планирует интегрировать разработанные технологии математического рассуждения в систему Gemini. Это позволит улучшить способности Gemini в области математики и логического мышления. В будущем Gemini сможет помогать математикам исследовать гипотезы, предлагать новые подходы к решению сложных задач и ускорять процесс доказательств. Исследователи надеются, что такие инструменты ИИ откроют новые возможности для научных открытий и технологических инноваций, основанных на продвинутом математическом анализе✨
УСКОРЯЕМСЯ⚡️
Тут OpenAI решили не отставать от инфоповодов и потизерить свой поисковик (зачем?) Кажется, если они не представят ничего серьёзного в ближайшее время, то у компании явно проблемы, тк недавние gpt4o-mini уже не выдерживают конкуренции🌚
коммент на скрине очень ёмко описывает ситуацию
P.S.
но в лист ожидания встану🤓
UPD
Альтман пообещал начать выкатывать новый VoiceMode со след недели✨ - первым делом испытаю в своей Rpg-Gpt с разными голосами🧙♂️
коммент на скрине очень ёмко описывает ситуацию
P.S.
но в лист ожидания встану🤓
UPD
Альтман пообещал начать выкатывать новый VoiceMode со след недели✨ - первым делом испытаю в своей Rpg-Gpt с разными голосами🧙♂️
This media is not supported in your browser
VIEW IN TELEGRAM
Ну не зря все-таки ИИ изобрели ❤️
This media is not supported in your browser
VIEW IN TELEGRAM
А вот это красиво ✨
Надо будет так же самому Kling помучать🌚
Надо будет так же самому Kling помучать🌚