Futuris
3.87K subscribers
992 photos
407 videos
17 files
1.74K links
@Futuris - канал о технологиях, будущем и не только.


Contact @antonod
加入频道
Думаю будет Sora или gpt 4.5, проверим угадал ли 🌚
This media is not supported in your browser
VIEW IN TELEGRAM
Умельцы прикрутили нейронки к blender эх запустить бы на какой LLaMA 3.3 70B локально🌚

https://github.com/huggingface/meshgen
This media is not supported in your browser
VIEW IN TELEGRAM
Чад Нельсон из OpenAI показал Sora v2 на C21Media Keynote в Лондоне. И он сказал, что мы увидим это очень очень скоро 🤯🤯🤯у меня нет слов, думаю у Netflix и подобных компаний тоже... чувствую это подготовка к публичному доступу к Sora v1, ну а мы можем посмотреть как будут выглядеть следующие генерации видео-LLM в ближайшем будущем🌚
Сегодня выкатят Sora и по ней уже есть обзор https://youtu.be/OY2x0TyKzIQ?si=Eo_i1mPWeuHq6Wee

Ещё примеры тут

Осталась только интрига кому и за сколько будет доступна 🌚

UPD
Говорят будет доступна обычной подписке, но будет ещё Sora Pro
https://sora.com/ - можно с обычной подпиской

Скоро будет доступна (в США сегодня) - заходим через впн проверяем
за 20$ подписку дают 1000 кредитов в мес, которые сгорают если не пользоваться, WE NEED MORE 💰💰💰 MY LORD - мож через год будет бесплатно 480p, посмотрим🤷‍♂️

чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
Futuris
Photo
Помните DeepSeek китайский опенсорс аналог o1? Так вот, его обновили, сделали умнее и добавили веб поиск

Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
On Day 4 OpenAI обновили Canvas (который мне очень нравится, буду тестить😏)

– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
Media is too big
VIEW IN TELEGRAM
Дайте такую полнометражку🎬
Google релизнули Gemini 2.0 Flash⚡️

Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США

А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
В Ai studio можно стримить/шерскринить и общаться с гемини бесплатно (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)

https://aistudio.google.com/app/u/3/live
Media is too big
VIEW IN TELEGRAM
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.

В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие
Futuris
Photo
This media is not supported in your browser
VIEW IN TELEGRAM
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.

Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера

https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯

From the report:

> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.


Можно будет локально запускать, I will believe it when I see it 🙈

Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)

Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙‍♂️)