Google релизнули Gemini 2.0 Flash⚡️
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
В Ai studio можно стримить/шерскринить и общаться с гемини бесплатно✨ (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)
https://aistudio.google.com/app/u/3/live
https://aistudio.google.com/app/u/3/live
Media is too big
VIEW IN TELEGRAM
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
Futuris
Photo
This media is not supported in your browser
VIEW IN TELEGRAM
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
VentureBeat
Google’s new Trillium AI chip delivers 4x speed and powers Gemini 2.0
Google unveils Trillium, its breakthrough AI chip powering Gemini 2.0, delivering a 4x performance boost and reshaping AI economics.
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
YouTube
Santa Mode & Video in Advanced Voice—12 Days of OpenAI: Day 6
Kevin Weil, Jackie Shannon, Michelle Qin, and Rowan Zellers introduce and demo the new Santa voice, as well as video and screensharing in Advanced Voice.
Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
Google выкатили обновления для своих инструментов генерации видео и изображений⚡️ Veo 2 теперь поддерживает создание 3D-видео и анимации, а Imagen 3 улучшает качество и реалистичность сгенерированных изображений. Кроме того, представлен новый инструмент Whisk, предназначенный для упрощения совместной работы над мультимедийными проектами. Эти обновления будут доступны всем в ближайшее время (пишут про начало 2025) в Google Labs и направлены на расширение возможностей пользователей в создании визуального контента✨
Forwarded from Denis Sexy IT 🤖
Что показали
Поговорили про поиск в ChatGPT:
– Теперь он доступен для бесплатных пользователей тоже
– Поиск стал лучше, быстрее и тп.
– Поиск теперь работает во время разговора через Advanced Voice Mode
– Можно сделать поисковик чатгпт дефолтным в браузере (лицо Google представили)
Поговорили про поиск в ChatGPT:
– Теперь он доступен для бесплатных пользователей тоже
– Поиск стал лучше, быстрее и тп.
– Поиск теперь работает во время разговора через Advanced Voice Mode
– Можно сделать поисковик чатгпт дефолтным в браузере (лицо Google представили)
Futuris
Что показали Поговорили про поиск в ChatGPT: – Теперь он доступен для бесплатных пользователей тоже – Поиск стал лучше, быстрее и тп. – Поиск теперь работает во время разговора через Advanced Voice Mode – Можно сделать поисковик чатгпт дефолтным в браузере…
к слову о "лице" Google - это количество источников которые лопатит Gemini если включить DeepSearch (по платной подписке)
This media is not supported in your browser
VIEW IN TELEGRAM
А ещё вот такой плейграунд с картинками от гугл можно попробовать уже сейчас (с впн США) https://labs.google/fx/tools/whisk
Похоже, Google втянулись-таки в гонку AI-релизов 👌
Похоже, Google втянулись-таки в гонку AI-релизов 👌
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и полноценная Gemini 2.0✨
Можно попробовать её в AI Studio (exp 1206) или в самом Gemini Advanced (месяц бесплатно)
Странно они как-то без анонса 🤷♂
Можно попробовать её в AI Studio (exp 1206) или в самом Gemini Advanced (месяц бесплатно)
Странно они как-то без анонса 🤷♂
Команда из Google DeepMind представила новый бенчмарк - FACTS Grounding для оценки точности ответов больших языковых моделей. Этот инструмент проверяет, насколько модели опираются на предоставленные данные и избегают «галлюцинаций». Создана публичная база из 860 примеров, охватывающих такие сферы, как финансы, медицина и право. Результаты оценок ведущих моделей, включая GPT-4o и Claude 3.5, представлены на FACTS-лидерборде. Все ответы проверяются на соответствие запросу и точность. Разработчики надеются, что бенчмарк поможет улучшить точность LLM и стимулирует прогресс в индустрии👌