Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой IBM Watsonx. IBM Cloud станет первым поставщиком облачных услуг, принявшим на вооружение Gaudi 3 как для гибридных, так и для локальных сред.
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#ibm #intel #ускоритель #облако #ibmcloud #watsonx #hardware #habana #инференс
#servernews @servernewsru
https://servernews.ru/1110231/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
ИИ-ускорители Intel Gaudi 3 дебютируют в облаке IBM Cloud
Компании Intel и IBM намерены активно сотрудничать в сфере облачных ИИ-решений. По данным HPC Wire, доступ к ускорителям Intel Gaudi 3 будет предоставляться в облаке IBM Cloud с начала 2025 года. Сотрудничество обеспечит и поддержку Gaudi 3 ИИ-платформой…
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ibm #ии #ускоритель #мейнфрейм #инференс #pciexpress50 #z17
#servernews @servernewsru
https://servernews.ru/1110080/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Новые мейнфреймы IBM z получат ИИ-ускорители Spyre
Вместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам.
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается, что она составит серьёзную конкуренцию решениям на основе ускорителей NVIDIA.
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#cerebras #ии #инференс #облако #software
#servernews @servernewsru
https://servernews.ru/1110276/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференса
Американский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается…
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sambanovasystems #облако #ии #инференс #llm
#servernews @servernewsru
https://servernews.ru/1110773/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса
Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1…
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #sima #ии #инференс #ускоритель #периферийныевычисления
#servernews @servernewsru
https://servernews.ru/1110841/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии
Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения…
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на рынке.
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #qualcomm #ускоритель #ии #инференс
#servernews @servernewsru
https://servernews.ru/1112037/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Qualcomm готовит «урезанные» ИИ-ускорители Cloud AI 80
Qualcomm, по сообщению Phoronix, планирует выпустить ускорители Cloud AI 80 (AIC080) для ИИ-задач. Информация о них появилась на сайте самого разработчика, а также в драйверах Linux. Речь идёт об «урезанных» версиях изделий Cloud AI 100, уже доступных на…
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера, с помощью нового сервиса можно всего за несколько минут развернуть готовую модель на вычислительных мощностях провайдера без привлечения разработчиков.
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#selectel #инференс #ии #россия #software #облако #nvidia #kubernetes
#servernews @servernewsru
https://servernews.ru/1112268/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Selectel запустил бета-тестирование собственной инференс-платформы для ускорения запуска ИИ-моделей
Российский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера…
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #cerebras #инференс #облако #ии
#servernews @servernewsru
https://servernews.ru/1113107/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Cerebras втрое повысила производительность своей инференс-платформы
Американский стартап Cerebras Systems, специализирующийся на разработке ИИ-ускорителей, объявил о самом масштабном обновлении ИИ-платформы Cerebras Inference с момента её запуска. Производительность системы поднялась примерно в три раза.
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #openai #amd #broadcom #tsmc #ии #ускоритель #instinct #mi300 #инференс #microsoftazure
#servernews @servernewsru
https://servernews.ru/1113232/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
OpenAI разрабатывает собственные ИИ-чипы совместно с Broadcom и TSMC, а пока задействует AMD Instinct MI300X
Компания OpenAI, по информации Reuters, разрабатывает собственные чипы для обработки ИИ-задач. Партнёром в рамках данного проекта выступает Broadcom, а организовать производство изделий планируется на мощностях TSMC ориентировочно в 2026 году.
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#microsoft #финансы #microsoftazure #software #ии #инференс #дефицит #облако #цод
#servernews @servernewsru
https://servernews.ru/1113407/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Microsoft не хватает ресурсов для обслуживания ИИ, но компания готова и далее вкладываться в ЦОД, хотя инвесторам это не по нраву
Компания больше не желает продавать другим доступ к ускорителям для обучения моделей, сделав ставку на инференс
Сеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам, включая LG AI Research и Aramco, сообщает DigiTimes.
#hardware #furiosaai #ускоритель #южнаякорея #ии #инференс
#servernews @servernewsru
https://servernews.ru/1115506/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #furiosaai #ускоритель #южнаякорея #ии #инференс
#servernews @servernewsru
https://servernews.ru/1115506/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Южнокорейская FuriosaAI включается в ИИ-гонку с собственным ускорителем RNGD
Сеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам,…
NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных улучшений в инференсе «размышляющих» моделей и обучении, пишет SemiAnalysis. При этом с переходом на B300 вся цепочка поставок меняется, и от этого кто-то выиграет, а кто-то проиграет.
#nvidia #hardware #ии #ускоритель #инференс #b300 #gb300
#servernews @servernewsru
https://servernews.ru/1115991/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#nvidia #hardware #ии #ускоритель #инференс #b300 #gb300
#servernews @servernewsru
https://servernews.ru/1115991/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Дороже, но втрое эффективнее: NVIDIA готовит ускорители GB300 с 288 Гбайт HBM3E и TDP 1,4 кВт
NVIDIA выпустила новые ускорители GB300 и B300 всего через шесть месяцев после выхода GB200 и B200. И это не минорное обновление, как может показаться на первый взгляд — появление (G)B300 приведёт к серьёзной трансформации отрасли, особенно с учётом значительных…
Qualcomm Technologies анонсировала Qualcomm AI On-Prem Appliance Solution — компактное энергоэффективное аппаратное решение для локальной обработки рабочих нагрузок инференса и компьютерного зрения. Также компания представила готовый к использованию набор ИИ-приложений, библиотек, моделей и агентов Qualcomm Cloud AI Inference Suite, способный работать и на периферии, в облаках.
#qualcomm #hardware #ии #инференс #сервер
#servernews @servernewsru
https://servernews.ru/1116283/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#qualcomm #hardware #ии #инференс #сервер
#servernews @servernewsru
https://servernews.ru/1116283/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Qualcomm представила энергоэффективные ИИ-микросерверы AI On-Prem Appliance Solution
Qualcomm Technologies анонсировала Qualcomm AI On-Prem Appliance Solution — компактное энергоэффективное аппаратное решение для локальной обработки рабочих нагрузок инференса и компьютерного зрения. Также компания представила готовый к использованию набор…
Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.
#dmatrix #hardware #ии #ускоритель #asic #инференс #inmemory #riscv
#servernews @servernewsru
https://servernews.ru/1116718/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#dmatrix #hardware #ии #ускоритель #asic #инференс #inmemory #riscv
#servernews @servernewsru
https://servernews.ru/1116718/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
SRAM, да и только: d-Matrix готовит ИИ-ускоритель Corsair
Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка…
Хотя на китайском рынке ИИ-ускорителей по-прежнему доминирует NVIDIA, Huawei намерена отнять у неё значительную его долю. Для этого китайский разработчик намерен помочь китайским ИИ-компаниям внедрять чипы собственного производства для инференса, сообщает The Financial Times. Для обучения ИИ-моделей китайские производители в массе своей применяют чипы NVIDIA. Huawei пока не готова заменить продукты NVIDIA в этом деле из-за ряда технических проблем, в том числе из-за проблем с интерконнектом ускорителей при работе с крупными моделями.
#hardware #ии #ускоритель #huawei #китай #инференс #разработка #cuda #ascend #импортозамещение
#servernews @servernewsru
https://servernews.ru/1117057/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #ускоритель #huawei #китай #инференс #разработка #cuda #ascend #импортозамещение
#servernews @servernewsru
https://servernews.ru/1117057/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Ускорители Ascend не готовы состязаться с чипами NVIDIA в деле обучения ИИ, но за эффективность инференса Huawei будет бороться…
Хотя на китайском рынке ИИ-ускорителей по-прежнему доминирует NVIDIA, Huawei намерена отнять у неё значительную его долю. Для этого китайский разработчик намерен помочь китайским ИИ-компаниям внедрять чипы собственного производства для инференса, сообщает…
ИИ-компания Nebius B.V. (бывшая Yandex N.V.) анонсировала обновление платформы «инференс как услуга» для разработчиков. В частности, добавлены новые open source модели, предназначенные для преобразования текста в изображение, сообщает Silicon Angle. В скором времени в сервисе появятся модели для преобразования текста в видео.
#software #ии #nebius #облако #инференс #llm #opensource
#servernews @servernewsru
https://servernews.ru/1117151/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#software #ии #nebius #облако #инференс #llm #opensource
#servernews @servernewsru
https://servernews.ru/1117151/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
В Nebius AI Studio появились открытые ИИ-модели для преобразования текста в изображение
ИИ-компания Nebius B.V. (бывшая Yandex N.V.) анонсировала обновление платформы «инференс как услуга» для разработчиков. В частности, добавлены новые open source модели, предназначенные для преобразования текста в изображение, сообщает Silicon Angle. В скором…
Экс-гендиректор Intel Пэт Гелсингер, по сообщению TrendForce, стал инвестором британского стартапа Fractile.ai, который специализируется на разработках в области ИИ. Сумма, которую предоставил бывший глава Intel на развитие этой компании, не раскрывается.
#hardware #ии #инвестиции #финансы #инференс #ускоритель #inmemory
#servernews @servernewsru
https://servernews.ru/1117235/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #инвестиции #финансы #инференс #ускоритель #inmemory
#servernews @servernewsru
https://servernews.ru/1117235/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Бывший гендиректор Intel Пэт Гелсингер инвестировал средства в ИИ-стартап Fractile
Экс-гендиректор Intel Пэт Гелсингер, по сообщению TrendForce, стал инвестором британского стартапа Fractile.ai, который специализируется на разработках в области ИИ. Сумма, которую предоставил бывший глава Intel на развитие этой компании, не раскрывается.
Рост популярности ИИ-технологий способствовал росту рыночной стоимости NVIDIA выше $3 трлн. Однако её акции обрушились в понедельник на 17 %, вызвав падение рыночной стоимости компании почти на $600 млрд, после анонса китайским стартапом DeepSeek ИИ-моделей V3 и R1, способных соперничать с лучшими моделями любой американской компании, хотя и были обучены за малую часть стоимости на менее продвинутых чипах NVIDIA H800 и A100, пишет Fortune.
#hardware #ии #ускоритель #nvidia #китай #сша #fortune #deepseek #анализрынка #прогноз #инференс #санкции #финансы
#servernews @servernewsru
https://servernews.ru/1117384/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #ии #ускоритель #nvidia #китай #сша #fortune #deepseek #анализрынка #прогноз #инференс #санкции #финансы
#servernews @servernewsru
https://servernews.ru/1117384/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
«Рынки ошибаются»: DeepSeek не угрожает NVIDIA и другим американским IT-гигантам
Рост популярности ИИ-технологий способствовал росту рыночной стоимости NVIDIA выше $3 трлн. Однако её акции обрушились в понедельник на 17 %, вызвав падение рыночной стоимости компании почти на $600 млрд, после анонса китайским стартапом DeepSeek ИИ-моделей…
Инвестиционная компания Blackstone не намерена отказываться от своих вложений в дата-центры даже после того, как китайская DeepSeek произвела настоящий фурор на рынке ИИ, выпустив недорогие и эффективные модели, обученные с минимумом ресурсов. В ходе последнего отчёта о доходах она объявила о продолжении инвестиций в сектор, сообщает Datacenter Dynamics.
#hardware #цод #blackstone #ии #инвестиции #финансы #инференс
#servernews @servernewsru
https://servernews.ru/1117551/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #цод #blackstone #ии #инвестиции #финансы #инференс
#servernews @servernewsru
https://servernews.ru/1117551/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Blackstone внимательно следит за успехами DeepSeek, но отказываться от крупных инвестиций в ЦОД не собирается
Инвестиционная компания Blackstone не намерена отказываться от своих вложений в дата-центры даже после того, как китайская DeepSeek произвела настоящий фурор на рынке ИИ, выпустив недорогие и эффективные модели, обученные с минимумом ресурсов. В ходе последнего…
Американский стартап Cerebras Systems объявил о том, что его инференс-платформа позволила установить мировой рекорд производительности при использовании «рассуждающей» ИИ-модели DeepSeek R1 в модификации с 70 млрд параметров (DeepSeek-R1-Distill-Llama-70B).
#hardware #cerebras #deepseek #ии #инференс
#servernews @servernewsru
https://servernews.ru/1117588/?utm_source=nova&utm_medium=tg&utm_campaign=sn
#hardware #cerebras #deepseek #ии #инференс
#servernews @servernewsru
https://servernews.ru/1117588/?utm_source=nova&utm_medium=tg&utm_campaign=sn
ServerNews - все из мира больших мощностей
Самый быстрый инференс DeepSeek R1 в мире: ИИ-платформа Cerebras снова поставила рекорд производительности
Американский стартап Cerebras Systems объявил о том, что его инференс-платформа позволила установить мировой рекорд производительности при использовании «рассуждающей» ИИ-модели DeepSeek R1 в модификации с 70 млрд параметров (DeepSeek-R1-Distill-Llama-70B).