289K subscribers
3.97K photos
694 videos
17 files
4.56K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
加入频道
✔️ Perplexity запускает функцию покупки товаров.

Perplexity представляет новую функцию "Buy with Pro", позволяющую пользователям с подпиской Pro покупать товары, не покидая сервис. Функция доступна для жителей США и предлагает бесплатную доставку на все покупки.

Для товаров, не поддерживающих "Buy with Pro", пользователи будут перенаправлены на сайт продавца. Perplexity не получает комиссионные от продаж, совершенных через кнопку "Buy with Pro". В компании заявляют, что функция не преследует коммерческих целей. Помимо "Buy with Pro", Perplexity внедряет новые карточки товаров с описанием, ценой и обзорами, а также функцию "Snap to Shop", позволяющую искать товары по фотографии.
theverge.com

✔️ Бигтех угрожает энергетической безопасности Ирландии.

Рост энергоемких технологий ИИ ставит под угрозу энергетическую инфраструктуру Ирландии, что может негативно сказаться на ее позиции как европейского центра технологий. Дублин - третий по величине центр гипермасштабируемых ЦОДов в мире и крупнейший в Европе. По прогнозам, потребности ИИ в электроэнергии удвоятся к 2026 году и создадут дефицит в энергетических сетях страны.

Национальный оператор электросетей EirGrid ввел фактический мораторий на новые ЦОДы в районе Дублина. Он предупредил о возможном «массовом оттоке» центров обработки данных из страны, если ситуация не улучшится. В 2023 году ЦОДы потребили 21% всей измеренной электроэнергии, впервые превысив потребление городских домов.
politico.eu

✔️ Mistral представил новые модели и обновленные функции чат-бота.

Mistral выпустила ряд обновлений своих продуктов: платформа чат-ботов Mistral, Le Chat, теперь может осуществлять поиск в Интернете с цитированием источников, подобно ChatGPT и Perplexity. Она также получила инструмент «canvas», аналогичный ChatGPT Canvas, позволяющий пользователям изменять, преобразовывать или редактировать макеты веб-страниц и визуализации данных, используя модели ИИ Mistral.

Le Chat теперь может обрабатывать большие PDF-документы и изображения для анализа и обобщения, включая файлы, содержащие графики и уравнения.

Некоторые из новых возможностей Le Chat стали возможны благодаря новым моделям Mistral: Pixtral Large, которая может обрабатывать текст и изображения и Mistral Large 3, новой флагманской модели генерации текста. Все новые функции Le Chat останутся бесплатными в бета-версии.
mistral.ai

✔️ Новые AI-чипы Nvidia перегреваются в серверах.

Blackwell от Nvidia, предназначенные для задач ИИ, столкнулись с проблемами перегрева в серверных стойках, что вызывает опасения у клиентов относительно своевременного запуска новых ЦОДов.

Как сообщает The Information, перегрев возникает при подключении чипов Blackwell в серверные стойки, рассчитанные на установку до 72 чипов. По данным источников издания, Nvidia неоднократно просила поставщиков изменить конструкцию стоек для решения проблемы перегрева.
Новые чипы вдвое больше по площади, чем предыдущее поколение, и обеспечивают 30-кратное увеличение скорости обработки задач, связанных с задачами ИИ.
seekingalpha.com

✔️ AMD обгоняет Nvidia по вычислительной мощности в рейтинге Top500.

Суперкомпьютер El Capitan, созданный HPE с использованием гибридных процессоров AMD Instinct MI300A, занял 1 место в рейтинге Top500, значительно опередив конкурентов. Тестирование El Capitan в Ливерморской национальной лаборатории показало пиковую теоретическую производительность 2746,4 петафлопс и устойчивую производительность на тесте HPL 1742 петафлопс с эффективностью 63,4%.

El Capitan оснащен 43 808 устройствами AMD Instinct MI300A, содержащими 1,05 млн ядер Genoa и почти 10 млн потоковых мультипроцессоров на графических чиплетах.

В рейтинге Top500 за ноябрь 2024 года AMD лидирует по приросту вычислительной мощности, обеспечив 72,1% новых петафлопс. С учетом всех 500 систем AMD обгоняет Nvidia по совокупной пиковой производительности на ускорителях, занимая 44,9% против 40,3% у Nvidia.
nextplatform.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍327🔥4👏2😁1
📌Туториал по файнтюну Qwen2-VL-7B с использованием экосистемы Hugging Face.

Статья на HF из цикла Open-Source AI Cookbook c подробным пошаговым описанием и примерами кода процесса тонкой настройки VLM Qwen2-VL-7B в области ответов на вопросы по изображениям с использованием библиотеки Transformer Reinforcement Learning (TRL). В качестве целевого датасета используется ChartQA, который содержит диаграммы разных типов в паре с вопросами и ответами.

Для обучения модели демонстрируется методы Supervised Fine-Tuning (SFT) с использованием библиотеки TRL, QLoRA, которая квантует веса LoRA, обеспечивая более низкие требования к памяти и повышенную эффективность обучения.

Отдельным разделом выделен процесс подготовки данных к обучению с помощью функции collate_fn, которая выполняет корректное извлечение и пакетную обработку данных и их форматирование для модели. Обучение модели осуществляется с помощью класса SFTTrainer.

В результате модель научилась отвечать на вопросы в соответствии с используемым датасетом. Оценить готовый файнтюн можно в демо на HF Space.

Дополнительно, в качестве альтернативы тонкой настройке, рассматривается использование промтинга с добавлением системного сообщения для контекстуализации ввода для модели, чтобы улучшить точность ее ответов.

▶️ Блокнот на Google Collab для практических экспериментов. Для его запуска понадобится платный тариф с GPU А100.


▶️Структура туториала по разделам:

🟢Установка среды

🟢Загрузка датасета

🟢Загрузка модели и проверка производительности

🟢Файнтюн модели с помощью TRL

🟠Загрузка квантованной модели для обучения
🟠Настройка QLoRA и SFTConfig
🟠Обучение модели

🟢Тестирование готовой модели

🟢Сравнение обученной модели с базовой + промптинг

🟢Дополнительные ресурсы для более глубокого изучения VLM


🔜 Статья на HuggingFace


@ai_machinelearning_big_data

#AI #ML #VLM #HuggingFace #Tutorial
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍225🔥5🥰1😁1🙈1
✔️ Microsoft Ignite 2024: анонс новых возможностей ИИ.

На конференции Microsoft Ignite 2024 компания представила новые функции и обновления, связанные с Microsoft Copilot и Azure AI.

Среди основных анонсов - специализированные агенты в Microsoft 365 Copilot, которые будут выполнять задачи от имени пользователя, например, отвечать на вопросы о политике компании или создавать планы проектов.

Copilot Studio получит автономные возможности агентов и библиотеку агентов для создания рабочих сценариев. Разработчики смогут создавать собственных агентов с помощью Microsoft Agent SDK.

Azure AI Foundry поможет организациям проектировать, настраивать и управлять приложениями ИИ и будет интегрирован с Copilot Studio.

В Copilot Studio появятся возможности загрузки изображений, создания голосовых агентов и расширенной настройки знаний.
news.microsoft.com

✔️ Стартап d-Matrix начал поставки ИИ-чипов собственного производства.

Стартап, привлекший более 160 млн. долларов финансирования, сообщил, что первые клиенты уже тестируют образцы чипов, а полномасштабные поставки ожидаются в следующем году. Чип разработан для обработки большого количества запросов от пользователей в задачах текстовой генерации и генерации видео.

d-Matrix не назвала конкретных клиентов, но отметила, что SuperMicro будет продавать серверы, совместимые с чипами d-Matrix.
reuters.com

✔️ Институт Arc представил Evo – первую базовую биологическую модель, обученную на ДНК.

Evo – первая биологическая фундаментальная модель, обученная на ДНК, которая способна прогнозировать и создавать генетические последовательности длиной более миллиона оснований.

В отличие от других моделей, обучающихся на тексте, Evo извлекает информацию непосредственно из ДНК. Evo была представлена в препринте в этом году, но теперь она опубликован в журнале Science, где исследователи демонстрируют, как она может помочь в более глубоком понимании биологических последовательностей.

Первые эксперименты с Evo позволили спрогнозировать, как изменения в ДНК могу влиять на бактерии.
readwrite.com

✔️ Adobe разработала технологию предотвращения галлюцинаций в моделях ИИ.

Adobe подала заявку на патент, описывающий систему "предотвращения галлюцинаций для анализа естественного языка", которая предназначена для контроля и корректировки выходных данных генеративных моделей ИИ.

Система использует "модуль контроля галлюцинаций", который проверяет выходные данные модели на соответствие фактам, извлеченным из "хранимых данных ". Если обнаруживается несоответствие, система запрашивает повторную генерацию выходных данных.

Технология ориентирована на корпоративное использование, где точность и надежность ИИ-систем критически важны.
thedailyupside.com

✔️ Cerebras Systems обновила свой сервис инференса, достигнув рекордной производительности для самой большой Llama.

Компания объявила о значительном обновлении облачного сервиса инференса для LLM, который теперь способен обрабатывать Llama 3.1 405B со скоростью почти 1000 токенов в секунду. Это достижение ставит производительность сверхгигантской модели наравне с ультра-маленькими моделями.

Высокая скорость обработки стала возможной благодаря специализированной архитектуре, разработанной компанией для своих мощных ИИ-чипов и программного стека для высокопроизводительных вычислений.

Cerebras утверждает, что ее сервис превосходит по скорости GPT-4o от OpenAI и Claude 3.5 Sonnet от Anthropic более чем в 10 раз. В реальных приложениях, таких как голосовой поиск, время отклика Cerebras составляет менее 10 миллисекунд. Компания планирует предоставить доступ к сервису в первом квартале 2025 года.
siliconangle.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23👏86🔥4
🌟 Генеративные агенты: моделирование поведения 1000 человек.

Stanford University, Northwestern University и University of Washington, совместно с Google Deepmind, при участии социологов, разработали архитектуру, которая позволяет симулировать поведение более 1000 реальных людей с помощью LLM, обученных на транскрипции двухчасовых интервью с добровольцами-участниками.

Архитектура использует метод "экспертных размышлений", где LLM генерирует выводы о каждом участнике, принимая на себя роли различных специалистов социальных наук (психолога, экономиста, политолога, демографа).

Процесс создания агентов начинался со стратифицированного отбора 1052 участников, репрезентирующих население США по возрасту, полу, расе, региону, образованию и политическим взглядам. Масштабирование сбора данных проводилось агентом-интервьюером на основе GPT-4o, который динамически генерировал уточняющие вопросы, адаптируясь к ответам участников.

Оценка точности агентов проводилась с помощью сравнения их ответов с ответами реальных участников на вопросы из Общего социального опроса (GSS), опросника "Большая пятерка" (BFI-44), 5 экономических игр и 5 социальных экспериментов. Для учета непостоянства человеческого поведения точность агентов нормализовали с помощью сравнения с тем, насколько последовательно сами участники воспроизводили свои ответы через две недели.

Результаты оценки показали высокую точность прогнозирования агентов, обученных на интервью. Они смогли предсказать ответы на вопросы GSS с нормализованной точностью 0.85, а черты личности по BFI-44 - с нормализованной корреляцией 0.80. Использование интервью значительно повысило точность по сравнению с агентами, использующими только демографические данные или краткие описания личности.

В экспериментах агенты успешно воспроизвели 4 из 5 личностных особенностей, наблюдавшихся у реальных участников, а оценки размеров этих особенностей показали высокую корреляцию (r = 0.98).

Доступ к банку агентов двухуровневый:

🟢открытый доступ к агрегированным ответам на фиксированные задачи и репозиторий с кодом для воспроизведения

🟠ограниченный доступ к индивидуальным ответам на открытые задачи по запросу.


📌 Лицензирование: MIT License.


🟡Arxiv
🟡Dataset
🖥Github


@ai_machinelearning_big_data

#AI #ML #LLM #Agents #Social
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2513🔥10
✔️ AlphaQubit от Google: новый уровень точности в квантовых вычислениях.

Google DeepMind и Google Quantum AI разработали AlphaQubit, декодер, который устанавливает новый стандарт точности в коррекции ошибок квантовых вычислений. AlphaQubit, нейронная сеть, обученная на синтетических и реальных данных с процессора Sycamore, использует архитектуру Transformers для анализа информации об ошибках.

Тестирование показало, что AlphaQubit снижает количество ошибок на 6% по сравнению с тензорными сетями и на 30% по сравнению с корреляционным сопоставлением. Несмотря на то, что AlphaQubit демонстрирует высокую точность, остаются проблемы, связанные с достижением скорости работы в реальном времени и масштабируемости.
blog.google

✔️ NVIDIA предложила оптимизацию семейства Llama 3.2 на GPU.

NVIDIA оптимизировала модели Llama 3.2 (11 млрд и 90 млрд параметров) и SLM (1 млрд и 3 млрд параметров) за счет использования библиотеки TensorRT и TensorRT-LLM. Оптимизация с помощью TensorRT обеспечивает более высокую пропускную способность и меньшую задержку инференса. NVIDIA также разработала собственную схему квантования FP8 для повышения производительности, доступную через TensorRT Model Optimizer. SLM оптимизированы для Windows с помощью ONNX Runtime Generative API и DirectML.
Оптимизированный инференс Nvidia TensorRT Llama 3.2 доступен в сервисе NVIDIA NIM.
developer.nvidia.com

✔️ Gemini теперь запоминает предпочтения пользователей.

Google представила новую функцию "памяти" для Gemini, позволяющую ему учитывать предпочтения пользователя в будущих взаимодействиях. Эта функция, доступная подписчикам Google One AI Premium ($20 в месяц), позволяет пользователям сохранять информацию о своих предпочтениях, например, о нелюбимых ингредиентах в рецептах.

Gemini будет использовать эти данные для персонализации ответов и повышения эффективности помощи пользователю. Функция памяти доступна только через веб-браузер. Пользователи могут удалять сохраненные предпочтения или отключать функцию, если предпочитают, чтобы Gemini не учитывал предыдущие взаимодействия.
makeuseof.com

✔️ DeepSeek представила модель, превосходящую OpenAI-o1.

Компания DeepSeek выпустила R1-Lite-Preview — новую большую языковую модель, ориентированную на рассуждения. Модель, доступная только через веб-чат DeepSeek Chat и демонстрирует производительность, близкую, а в некоторых случаях и превосходящую, модель OpenAI o1-preview по результатам тестов AIME (American Invitational Mathematics Examination) и MATH.

R1-Lite-Preview использует метод «цепочки рассуждений», показывая пользователю этапы своего "мыслительного" процесса. Компания планирует в будущем выпустить R1 с открытым исходным кодом.
venturebeat.com

✔️ Suno представляет новую модель V4.

Suno, популярная платформа генеративной музыки, выпустила новую модель V4, которая создает более реалистичную музыку по сравнению с предыдущими версиями. Модель V4 доступна платным подписчикам и в будущем будет доступна всем пользователям. V4 демонстрирует более четкое звучание, реалистичный вокал и инструменты, более широкую стереопанораму. Модель также улучшила свои композиторские навыки, создавая более интересные и неожиданные музыкальные решения.
geeky-gadgets.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍16🔥71
🌟 TinyTroupe: мультиагентное моделирование личностей.

TinyTroupe - экспериментальная библиотека Python от Microsoft, которая симулирует поведение людей с определенными личностями, интересами и целями. Эти агенты, TinyPerson, могут слушать нас и друг друга, отвечать и жить своей жизнью в симулированных средах TinyWorld.

Симуляция реалистичного имитационного поведения достигается за счет использования возможностей LLM (GPT-4) . С помощью TinyTroupe можно создать свои собственные сценарии и изучать, как личности с разными характерами будут взаимодействовать и реагировать в разных ситуациях.

Библиотека TinyTroupe помогает понять поведенческие факторы персоналий, но не пытается напрямую им помочь (в отличие от виртуальных помощников). Вместо этого она создает специальные инструменты, которые работают только в смоделированных условиях. TinyTroupe отличается от других ролевых инструментов тем, что она направлена на решение реальных бизнес-задач и повышение эффективности проектов, а не просто на игру.

Как и любая мультиагентная система, TinyTroupe предоставляет 2 ключевые абстракции:

🟢TinyPerson - агенты (смоделированные личности) с определенными чертами характера, интересами и целями.

🟢TinyWorld - среда, в которой агенты существуют и взаимодействуют.

Обе сущности настраиваются через различные параметры в config.ini, там же - тип API (Azure OpenAI Service или OpenAI API), параметры модели и уровень логирования.

TinyTroupe предлагает ряд утилит, которые облегчают создание симуляций и извлечение ценной информации из них:

🟠TinyPersonFactory для генерации новых TinyPerson с использованием LLM;

🟠TinyTool - симулированные инструменты, которые могут использоваться TinyPerson;

🟠TinyStory для создания и управления историей, рассказываемой через симуляции;

🟠TinyPersonValidator для проверки поведения TinyPerson;

🟠ResultsExtractor и ResultsReducer для извлечения и сокращения результатов взаимодействия между агентами.

Чтобы получить представление о том, на что способен TinyTroupe, в репозитории опубликовано несколько примеров его использования. Эти примеры находятся в папке examples/, и, на выбор, можно просмотреть предварительно скомпилированные Jupyter-блокноты, либо запустить их самостоятельно локально.

⚠️ TinyTroupe находится на ранней стадии разработки и API библиотеки может меняться.

⚠️ Для использования TinyTroupe нужен OpenAI API Key или Azure OpenAI Service API KEY.


▶️Установка:

# Create & activate conda env
conda create -n tinytroupe python=3.10
conda activate tinytroupe

# Clone the repository
git clone https://github.com/microsoft/tinytroupe
cd tinytroupe

# Create and run TinyPerson
from tinytroupe.examples import create_lisa_the_data_scientist

lisa = create_lisa_the_data_scientist() # instantiate a Lisa from the example builder
lisa.listen_and_act("Tell me about your life.")


📌 Лицензирование: MIT License.


🖥Github


@ai_machinelearning_big_data

#AI #ML #Microsoft #TinyTroupe #Рersonalities
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥147❤‍🔥2🤔2
⚡️ SANA: Генерация изображений изображений высокого разрешения от Nvidia Labs.

Sana - семейство моделей для генерации изображений с разрешением до 4096x4096 пикселей. Главное преимущество Sana - высокая скорость инференса и низкие требования к ресурсам, модели можно запустить даже на ноутбуке.

Секрет эффективности Sana в ее архитектуре, которая состоит из нескольких инновационных компонентов:

🟢Deep Compression Autoencoder (DC-AE)
Сжимает изображение в 32 раза, в результате чего значительно сокращается число латентных токенов, что, в свою очередь, повышает эффективность обучения и позволяет генерировать изображения с разрешением 4K.

🟢Linear Diffusion Transformer (Linear DiT)
Использует линейное внимание вместо традиционного, ускоряя генерацию с разрешением 4K в 1.7 раза.

В Linear DiT вместо модуля MLP-FFN используется Mix-FFN, который объединяет в себе свертку 3x3 и Gated Linear Unit (GLU). Mix-FFN позволяет отказаться от позиционного кодирования без потери качества.

🟢Decoder-only Small LLM as Text Encoder
Энкодер, основанный на LLM Gemma, который лучше понимает текстовые запросы пользователя и точнее передает их смысл на генерации.

Для точного соответствия "текст - изображение" при обучении энкодера применялись "сложные человеческие инструкции" (CHI), которые научили Gemma учитывать контекст запроса.

Sana создавалась с помощью уникальной стратегии обучения и выборки. В процессе обучения используются несколько VLM (VILA, InternVL2) для создания различных аннотаций к каждому изображению. Затем, на основе CLIP-оценки, были отобраны наиболее подходящие пары "текст-изображение".

Обучение происходило постепенно, начиная с разрешения 512x512 и заканчивая 4096x4096, а алгоритм Flow-DPM-Solver ускорил процесс выборки, сократив количество шагов по сравнению с Flow-Euler-Solver.

Результаты тестирования Sana впечатляют:

🟠Sana-0.6B, работающая с изображениями 512x512, в 5 раз быстрее, чем PixArt-Σ, при этом показывает лучшие результаты по метрикам FID, Clip Score, GenEval и DPG-Bench.

🟠При разрешении 1024x1024 Sana-0.6B в 40 раз быстрее PixArt-Σ.

🟠Sana-0.6B превосходит по скорости Flux-12B в 39 раз при разрешении 1024x1024) и может быть запущена на ноутбуке с 16 GB VRAM, генерируя изображения 1024x1024 менее чем за секунду.


⚠️ Для локального инференса модели 0.6B требуется 9GB VRAM, а для модели 1.6B - 12GB VRAM.


▶️ Установка и инференс c GradioUI:

# official online demo
DEMO_PORT=15432 \
python app/app_sana.py \
--config=configs/sana_config/1024ms/Sana_1600M_img1024.yaml \
--model_path=hf://Efficient-Large-Model/Sana_1600M_1024px/checkpoints/Sana_1600M_1024px.pth





🟡Страница проекта
🟡Коллекция моделей на HF
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Diffusion #SANA #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥165
✔️ Deus in machina: Швейцарская церковь установила Jesus-AI.

В старейшей церкви швейцарского города Люцерн, часовне Святого Петра, появился AI Jesus, способный общаться на 100 языках. Проект под названием Deus in Machina, был запущен в августе 2024 года в рамках многолетнего сотрудничества с местной университетской исследовательской лабораторией по виртуальной реальности.

AI Jesus был установлен в исповедальне, где посетители могли задавать ему вопросы через решетчатый экран, получая ответы в режиме реального времени. Программа ИИ была обучена на богословских текстах. За двухмесячный период эксперимента более 1000 человек пообщались с аватаром. Две трети пользователей оценили этот опыт как "духовный". Однако, некоторые люди критиковали эксперимент, находя невозможным разговор с машиной, а ответы ИИ - банальными и поверхностными.
theguardian.com

✔️ Samsung Electronics и LG Uplus совместно разрабатывают смартфон ixi-O AI.

Samsung Electronics и мобильный оператор LG Uplus объединили усилия для создания смартфона с искусственным интеллектом, оснащенного цифровым помощником. Компании планируют выпустить "настоящий AI-телефон", который выйдет за рамки простой интеграции сервисов AI-помощника в смартфон.

В рамках этого партнерства Samsung и LG Uplus будут совместно разрабатывать смартфоны Galaxy, интегрируя возможности AI от LG уже на этапе разработки. Основное внимание будет уделено объединению AI-помощника LG Uplus ixi-O с сервисом Samsung Galaxy AI.

Новый AI-смартфон, предварительно названный Galaxy ixi-O, будет ориентирован в первую очередь на пользователей LG Uplus. Ожидается, что смартфон появится в следующем году.
kedglobal.com

✔️ OpenAI запускает бесплатный учебный курс по искусственному интеллекту для учителей.

OpenAI совместно с некоммерческой организацией Common Sense Media запустила бесплатный обучающий курс для учителей, посвященный ИИ и промпт-инжинирингу. Курс должен помочь учителям разобраться в возможностях чат-бота ChatGPT.

Обучение демонстрирует, как использовать ChatGPT для создания учебных материалов и оптимизации рабочих процессов. Курс доступен на сайте Common Sense Media. OpenAI создала специальную команду под руководством бывшего руководителя Coursera Лии Белски, чтобы поддержать ответственное использование ИИ в образовании.

Белски отметила высокий уровень использования ChatGPT среди учеников и поддержку со стороны родителей, которые считают навыки работы с ИИ необходимыми для будущей карьеры.
reuters.com

✔️ Nvidia представляет новый гибрид на базе CPU и GPU - GB200 Grace Blackwell NVL4 Superchip.

Nvidia анонсировала GB200 NVL4, модуль с 4 графическими процессорами B200 и 2 процессорами Grace на одной материнской плате. Решение предназначено для высокопроизводительных вычислений и гибридных рабочих нагрузок ИИ, предлагая 1,3 ТБ когерентной памяти.

По заявлению Nvidia, GB200 NVL4 эффективней в 2,2 раза в задачах моделирования, в 1,8 раза - в обучении ИИ и в 1,8 раза в инференсе по сравнению с Nvidia GH200 NVL4 Grace Hopper Superchip.

GB200 NVL4 будет доступен до конца 2024 года от различных производителей: MSI, Asus, Gigabyte, Wistron, Pegatron, ASRock Rack, Lenovo, HP Enterprise и другие.
tomshardware.com

✔️ Немецкий стартап Gemesys привлек 8,6 млн евро на разработку ИИ-чипов, имитирующих работу человеческого мозга.

Gemesys разрабатывает ИИ-чипы нового поколения с использованием мемристоров — электронных компонентов, которые взаимодействуют с нейронными сетями в автономном режиме и с минимальным использованием пропускной способности. Компания Gemesys была основана в 2021 году как спин-офф Рурского университета в Бохуме, Германия.

Финансирование Gemesys возглавил фонд Amadeus APEX Technology Fund совместно с Atlantic Labs при участии NRW.BANK, Sony Innovation Fund и калифорнийского Plug and Play Tech Center.
techfundingnews.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍268🔥5😁3🥰1🤔1
🌟 LAION-DISCO-12M: большой датасет музыки с Youtube.

Набор данных LAION-DISCO-12M состоит из 12 млн ссылок на общедоступные треки YouTube с метаданными. Он собран для поддержки фундаментальных исследований в области машинного обучения, созданию базовых моделей обработки звука, извлечения музыкальной информации, анализа наборов данных аудио и обучение рекомендательных систем и приложений.

Метод создания LAION-DISCO-12M основан на рекурсивном поиске исполнителей на платформе YouTube Music. Начиная с начального списка исполнителей топ-чартов разных стран, новые артисты обнаруживались путем анализа раздела "Похожие исполнители".

Для каждого исполнителя извлекались метаданные: имя, количество подписчиков и список всех песен и музыкальных клипов. Каждая песня или музыкальный клип были связаны с URL-адресом YouTube.

Размер датасета составляет 250 516 исполнителей и 12 648 485 треков.

Поля метаданных:

🟢song_id - идентификатор трека;
🟢title - название;
🟢artist_names - имя исполнителя;
🟢artist_ids - идентификатор исполнителя;
🟢album_name - название альбома;
🟢album_id - идентификатор альбома;
🟢isExplicit - признак наличия ненормативной лексики;
🟢views - количество просмотров;
🟢duration - продолжительность трека.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Датасет


@ai_machinelearning_big_data

#AI #ML #LAION #Audio #Dataset
Please open Telegram to view this post
VIEW IN TELEGRAM
👍288🔥8