Futuris
3.88K subscribers
944 photos
397 videos
17 files
1.73K links
@Futuris - канал о технологиях, будущем и не только.


Contact @antonod
加入频道
Media is too big
VIEW IN TELEGRAM
Veo 2 от гугла конечно поражает, кстати фрукты и сладкое неплохо помогают с опохмела (вдруг кто не знал 🌚)

А тут примеры как она может в анимацию
А вот это прикольно - учёные (в том числе из Google) собираются расширить человеческое сознание, соединив мозг с квантовым компьютером. Они предполагают, что сознание формируется в момент создания квантовой суперпозиции, а не её коллапса, как считал Р. Пенроуз ещё в 1989 году.

Учёные считают, что взаимодействие мозга с квантовым компьютером способно обогатить сознательный опыт за счёт создания расширенной квантовой суперпозиции.

Однако для реализации этого смелого эксперимента могут понадобиться инвазивные методы, вызывающие этические и практические вопросы.

Научная статья

Похоже Мистер Манхэттен станет реальностью 🧠🫥
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Первый контакт👽

Ох и весело скоро будет в интернетике (особенно в ленте FB)👌
Эмм, тут кто-то зафайнтюнил Qwen 2.5 Math 7B модельку так что она теперь рвёт по математическим и логическим тестам gpt4o🤯 и называется Eurus-2-7B-PRIME. Использовали новый подход, который улучшает обучение языковых моделей, оценивая не только конечный результат, но и каждый шаг процесса.. в общем, не вдаваясь в детали можно потестить самому

https://github.com/PRIME-RL/PRIME
Media is too big
VIEW IN TELEGRAM
Ещё один чат уровня Gpt4o без танцев с бубном🥁 Китайская команда Qwen запустила чат с открытыми и закрытыми MoE моделями. Qwen2.5-Plus — их сильная общая модель, Qwen2.5-Turbo — с поддержкой длинного контекста (до 1 млн токенов). Есть загрузка документов, картинок и отправка промпта сразу нескольким моделям. Всё бесплатно.

Ссылка: chat.qwenlm.ai
This media is not supported in your browser
VIEW IN TELEGRAM
Самая оптимальная ходьба, реинфорсментлёрнинг не даст соврать (то-то я так быстро после баров домой добираюсь 🌚)
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем учёные "варят" искусственное мясо в биореакторах🧪

Интересно, как скоро дождёмся массового производства (и гарантии, что у вас не вырастет третьей ноги🦵🦵🦵)
Тут на реддите кипиш — исследователи из Google research представили новую архитектуру нейросетей - Titans, объединяющую рекуррентные модели и механизм внимания. Авторы задаются вопросом, неужели Attention is all we need? В отличие от трансформеров, ограниченных фиксированной длиной контекста, Titans используют нейросетевую долгосрочную память, что позволяет использовать её адаптивно и забывать ненужные данные. В тестах Titans превзошли трансформеры, эффективно обрабатывая контекст более 2 млн токенов с высокой скоростью и точностью, особенно в задачах поиска скрытых данных.

В общем назревает битва Титанов vs Трансформеров, посмотрим кто в итоге победит 

Научная статья
This media is not supported in your browser
VIEW IN TELEGRAM
Я тут в Suno V4 залипал, настроение #90th, #dreamcore, #eerie, #sad, #synthetic создавал, Sora мне low-poly gif воображал и всё это я даже зачем-то на youtube заливал..👨🏼‍🎤
Эмм MiniMax (да которые в видео) выпустили серию моделей MiniMax-01 с открытым исходным кодом, включая MiniMax-Text-01 с контекстным окном в 4 миллиона токенов. Модель использует гибридную архитектуру, сочетающую Lightning Attention, Softmax Attention и Mixture-of-Experts (MoE). Это позволяет обрабатывать и поддерживать огромные объемы информации, что может революционизировать AI-ассистентов и мультиагентные системы. (занавес)

Блог тут

Юзаем тут

Гитхаб тут
This media is not supported in your browser
VIEW IN TELEGRAM
Как я завидую современным детям 😭 хотя учиться никогда не поздно, особенно в такой ИИнтерактивной форме 🎓

https://www.synthesis.com/
Futuris
Горячая пора на релизы продолжается🔥 и снова Китайцы: Китайская лаборатория DeepSeek представила модель R1-Lite — бесплатного конкурента o1, который вскоре будет доступен в опенсорсе. По тестам она приближается к o1-preview, а в некоторых задачах даже превосходит…
Китайская компания DeepSeek представила полноценную модель конкурента OpenAI - о1 под названием R1 (раньше был Light)

Доступна бесплатно на их сайте если выбрать режим Deep Think (доступно 50 обращений в день)

https://chat.deepseek.com/

модель выложили на github и huggingface, также выложили 6 дистиллированных моделей, созданных на основе DeepSeek-R1 (от 1.5B до 70B параметров) 32B-модель превзошла OpenAI-o1-mini в бенчмарках, установив новый рекорд для компактных ИИ👌