This media is not supported in your browser
VIEW IN TELEGRAM
Умельцы прикрутили нейронки к blender✨ эх запустить бы на какой LLaMA 3.3 70B локально🌚
https://github.com/huggingface/meshgen
https://github.com/huggingface/meshgen
This media is not supported in your browser
VIEW IN TELEGRAM
Чад Нельсон из OpenAI показал Sora v2 на C21Media Keynote в Лондоне. И он сказал, что мы увидим это очень очень скоро 🤯🤯🤯у меня нет слов, думаю у Netflix и подобных компаний тоже... чувствую это подготовка к публичному доступу к Sora v1, ну а мы можем посмотреть как будут выглядеть следующие генерации видео-LLM в ближайшем будущем🌚
Сегодня выкатят Sora и по ней уже есть обзор https://youtu.be/OY2x0TyKzIQ?si=Eo_i1mPWeuHq6Wee
Ещё примеры тут
Осталась только интрига кому и за сколько будет доступна 🌚
UPD
Говорят будет доступна обычной подписке, но будет ещё Sora Pro
Ещё примеры тут
Осталась только интрига кому и за сколько будет доступна 🌚
UPD
Говорят будет доступна обычной подписке, но будет ещё Sora Pro
https://sora.com/ - можно с обычной подпиской
Скоро будет доступна (в США сегодня) - заходим через впн проверяем
Скоро будет доступна (в США сегодня) - заходим через впн проверяем
Sora
Transform text and images into immersive videos. Animate stories, visualize ideas, and bring your concepts to life.
за 20$ подписку дают 1000 кредитов в мес, которые сгорают если не пользоваться, WE NEED MORE 💰💰💰 MY LORD - мож через год будет бесплатно 480p, посмотрим🤷♂️
чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
Futuris
Photo
Помните DeepSeek китайский опенсорс аналог o1? Так вот, его обновили, сделали умнее и добавили веб поиск ✨
Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
On Day 4 OpenAI обновили Canvas (который мне очень нравится, буду тестить😏)
– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
YouTube
Canvas—12 Days of OpenAI: Day 4
Kevin Weil, Lee Byron, and Alexi Christakis introduce and demo updates to canvas.
Google релизнули Gemini 2.0 Flash⚡️
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
В Ai studio можно стримить/шерскринить и общаться с гемини бесплатно✨ (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)
https://aistudio.google.com/app/u/3/live
https://aistudio.google.com/app/u/3/live
Media is too big
VIEW IN TELEGRAM
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
Futuris
Photo
This media is not supported in your browser
VIEW IN TELEGRAM
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
VentureBeat
Google’s new Trillium AI chip delivers 4x speed and powers Gemini 2.0
Google unveils Trillium, its breakthrough AI chip powering Gemini 2.0, delivering a 4x performance boost and reshaping AI economics.
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
YouTube
Santa Mode & Video in Advanced Voice—12 Days of OpenAI: Day 6
Kevin Weil, Jackie Shannon, Michelle Qin, and Rowan Zellers introduce and demo the new Santa voice, as well as video and screensharing in Advanced Voice.
Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)