Все о блокчейн/мозге/space/WEB 3.0 в России и мире
19K subscribers
2.06K photos
359 videos
123 files
7.01K links
Сферы интересов канала: блокчейн, мозг(BCI), space tech, цифровая экономика, WEB 3.0 в России и мире.

Основатель @AniAslanyan

English channel https://yangx.top/alwebbci

Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb113f528
加入频道
Ст.исследователь #NVIDIA: #DeepSeek доказал, что ИИ инфраструктура и базовые ИИ-модели станут товаром

Джим Фан,NVIDIA, говорит: «Нравится вам это или нет,
будущее ИИ - это его демократизация, каждый пользователь интернета сможет запускать продвинутые модели даже на слабых устройствах.
Это исторический тренд, против которого бессмысленно бороться».

О прорыве #DeepSeek:

1. #DeepSeek показала лучшие результаты в нескольких независимых тестах.
2. Особенно важно, что они достигли этого с гораздо меньшими вычислительными ресурсами.

#DeepSeek доказывает, что можно получить тот же уровень интеллекта при затратах в 10 раз меньше. Это означает, что с текущими вычислительными мощностями можно создать в 10 раз более мощный ИИ. Временная шкала развития ИИ сжимается.

Предложение Фана на 2025 год:

1. Прекратить распространение мифов об AGI/ASI
2. Прекратить нагнетание страха
3. Сосредоточиться на написании кода
4. Максимально поддерживать open source
5. Ускорение - единственный путь вперед


Все это сходится с нашим предыдущим постом.
Маск внедряет блокчейн в правительстве США для повышения эффективности работы

Департамент правительственной эффективности (DOGE) Илона Маска уже провел встречи с различными поставщиками блокчейн-решений, хотя конкретные сети пока не разглашаются, и обсуждения находятся на ранних стадиях.

Сейчас изучаются возможности использования блокчейна для отслеживания расходов и управления активами в государственном секторе.

DOGE работает в основном секретно, используя зашифрованные приложения для обмена сообщениями. Недавно произошли изменения в руководстве после ухода со-лидера Вивека Рамасвами.
Итоги уходящей недели, что имеет значение в России и мире

Текст недели: не ИТ-железо и не базовые ИИ-модели будут иметь долгосрочную ценность. А что? Читайте здесь.

1. Павел Дуров создает монополию вокруг Telegram и блокчейна TON. Подробности тут.

2. Китайский стартап #DeepSeek поднял на уши, выпустив ИИ-модель DeepSeek-R1. Команда сделала 2 важных прорыва.
Откуда появился вообще этот стартап, читайте тут.

3. На этом фоне OpenAI объявил, что делает свою модель о3 mini бесплатной.

4. Между тем, госкорпорации продолжают закупать иностранное ИТ-железо, причём закупки выросли до ₽28 млрд.

5. Свежий отчет о состоянии микроэлектроники в России.

6. Россети хотят получить контроль по размещению майнинг-центров и новые тарифные механизмы.

7. Разгорелся серьезный скандал вокруг одного из ключевых инструментов оценки математических способностей языковых моделей. Выяснилось, что OpenAI тайно финансировала его разработку и имела эксклюзивный доступ к данным.
Подробности тут.

8. Китайцы выпустили ИИ-модель #Kimi, и она превосходит GPT-4 и Claude 3.5 в некоторых задачах более чем на 550%.

9. Дарио Амодей, со-основатель Anthropic заявил, что к 2027 ИИ превзойдет интеллект человека. А также объявил о новых запусках.  

10. Великобритания выделила проектам £69 млн на развитие нейротехнологий.

11. OpenAI+Softbank+Oracle создают СП Stargate с объемом инвестиций $500 млрд.

12. Что стоит на самом деле за проектом OpenAI - Stargate на $500млрд? Разбор проекта здесь.

13. Microsoft и OpenAI меняют условия эксклюзивности партнерства.

14. ByteDance представили ИИ-агента,который превзошел GPT-4 в работе с компьютерными интерфейсами.

15. Компания Трампа становится ключевым игроком на крипто рынке.

16. ИИ-агент от OpenAI выпущен. Все подробности здесь.

17. В Шанхае открылся 1-й в Китае центр подготовки роботов -гуманоидов.

18. Xanadu представила 1-й в мире модульный фотонный квантовый компьютер под названием Aurora.

19. 1-й в мире кейс, когда квантовые вычисления, машинное обучение создают реальных кандидатов в лекарства, подтвержденных экспериментально.

20. Трамп подписал указ о создании стратегического запаса биткоинов для США.

21. Какие страны владеют биткоинами? Карта.

22. DeepMind работает над проектом «Виртуальная клетка», позволяющая симуляцию биологических клеток с помощью ИИ.

23. Ст.исследователь NVIDIA: #DeepSeek доказал, что ИИ инфраструктура и базовые ИИ-модели станут товаром.

24. Маск внедряет блокчейн в правительстве США для повышения эффективности работы.

25. Обзор Agentic RAG.

26. Как создать хедж-фонд на базе ИИ, использующий множество агентов для принятия торговых решений. Ответ тут.

27. Google инвестировал $1млрд в Anthropic.

28. ByteDance выпустила конкурента Cursor IDE.

29. Свежая статья под названием Mona о безопасности ИИ от Google.

30. Perplexity запустил ИИ-ассистента для своего поисковика. Функционал работает пока для пользователей Android.

31. Mistral идет на IPO.
Китайское ИИ-приложение #DeepSeek обогнало ChatGPT и стало приложением №1 в App Store в США.

Open source догоняет закрытые модели.

В российском App Store приложение на 13-месте, так как на первом месте у россиян VPN.

Кстати, кто не в курсе #DeepSeek работает бесплатно и без VPN.
❗️Банк Китая выделяет 1трлн юаней (~$140млрд) на ИИ

В течение следующих 5 лет банк планирует предоставить финансирование в размере не менее 1 триллиона юаней ($137 млрд) для развития экосистемы ИИ в стране.

Банк Китая применяет экосистемеый подход.
Для максимальной эффективности создается единая система поддержки, включающая:
- Интеграцию с инвестиционными фондами группы Bank of China
- Сотрудничество с ведущими инвестиционными банками
- Специальные программы для стартапов и перспективных компаний.


Ключевые направления финансирования:

1. Развитие базовых технологий и инфраструктуры

- Поддержка ЦОДов и вычислительных комплексов
- Финансирование разработки моделей и алгоритмов ИИ
- Создание технологических парков и сопутствующей инфраструктуры

2. Практическое применение ИИ
Особое внимание будет уделено развитию следующих направлений:
- ИИ в робототехнике
- Биопроизводство с применением ИИ
- Разработка новых материалов
- Низковысотная экономика (беспилотные летательные аппараты)


3. Формы поддержки

Банк предложит комплексный набор финансовых инструментов:
- Акционерное финансирование и облигации (минимум 300 млрд юаней)
- Кредитные продукты
- Страховые программы
- Лизинговые решения

Выглядит как ответ на проект Stargate от OpenAI, SoftBank и Oracle.
Российские ученые в составе международной группы сделали открытие для создания нейроморфных процессоров

Драконовская перемежаемость: новое открытие в нейродинамике https://yangx.top/alwebbci/2941

На что реально может повлиять это открытие?

1. Нейроморфные вычисления:

- Лучшее понимание принципов синхронизации в биологическиподобных системах

- Потенциальная оптимизация энергопотребления нейроморфных процессоров

- Новые подходы к организации взаимодействия искусственных нейронов

2. Нейроинтерфейсы:

- Улучшенное понимание механизмов синхронизации нейронов может помочь в разработке более точных BCI

- Потенциальное применение в системах декодирования нейронных сигналов

Авторы этого значимого труда

1. Писарчик Александр Николаевич(Центр биомедицинских технологий, Мадридский политехнический университет)

2. Башкирцева Ирина Адольфовна (Институт математики и компьютерных наук, Уральский федеральный университет)

3. Ряшко Лев Борисович (Институт математики и компьютерных наук, Уральский федеральный университет).
#DeepSeek вызвал раскол среди крупнейших инвест аналитиков: одни видят крах рынка ИИ, другие - новые возможности

Прорыв китайской ИИ-компании DeepSeek, сократившей стоимость обучения ИИ моделей в 20 раз и уменьшившей требования к GPU с 100,000 до 2,000, вызвал острые дебаты на Уолл-стрит.

Вот, что говорят аналитики.

1. Медведи - конец эпохи дорогого ИИ-железа

#JPMorgan предупреждает о возможной переоценке всего инвестиционного цикла в ИИ. DeepSeek показывает, что будущее за эффективностью, а не за наращиванием мощностей.

#Raymond James отмечает, что если инновации DeepSeek будут широко приняты, потребность в огромных GPU-кластерах может существенно снизиться. Это прямой удар по бизнес-модели NVIDIA и других производителей.

#Jefferies уже прогнозирует снижение капитальных затрат на ИИ к 2026 году и предлагает инвесторам выбирать между двумя стратегиями: продолжать инвестировать в вычислительные мощности или сделать ставку на эффективность.

2. Быки - новые возможности для роста

В противоположном лагере:

#Cantor утверждает, что разработки DeepSeek приведут к увеличению, а не уменьшению спроса на GPU. Они рекомендуют покупать акции NVIDIA на любых падениях.

#Bernstein считает панику преувеличенной и сохраняет позитивные рейтинги для NVIDIA и Broadcom.

#Citi, признавая вызов американскому доминированию, подчеркивает сохраняющееся преимущество в доступе к передовым чипам.

Такой раскол мнений среди ведущих аналитиков показывает, что рынок пока не может точно оценить последствия инноваций #DeepSeek. Это создает повышенную волатильность и неопределенность в секторе.

История показывает, что в таких случаях правы могут оказаться обе стороны - в краткосрочной перспективе мы можем увидеть коррекцию, но в долгосрочной - рост всего рынка за счет расширения доступности технологии.

Ключевым фактором станет скорость, с которой рынок сможет адаптироваться к новой реальности более эффективных ИИ-моделей. Возможно, мы стоим на пороге фундаментальной перестройки всей индустрии ИИ, где акцент сместится с железа на программные решения и эффективность использования ресурсов.
#DeepSeek только что выпустили еще одну ИИ-модель, которая не хуже DaLLE-3 от OpenAI, бесплатна и с открытым исходным кодом для генерации изображений

И это все происходит на фоне того, что они сегодня ограничили регистрацию новых пользователей и на фоне хакерской атаки.
Кому выгодно лидерство #DeepSeek? Какой ИТ-гигант помог ему и зачем?

В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.

Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.

Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.


Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.

Вот, на что мы обращаем внимание:

1. 2023: Первые намеки

Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.

В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.

2. 2024: Подготовка почвы.

ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI

Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал -
открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?

- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет

Карты раскрываются (январь 2025).

DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей

Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.

На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.

Гениальная стратегия Meta:

1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.

Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.


*Запрещенная организация в России.
Сэм Альтман обещает скорый релиз следующего поколения ИИ-моделей - это реакция на успех #DeepSeek

СЕО OpenAI признал впечатляющие результаты DeepSeek R1, особенно отмечая соотношение цена/качество.

Одновременно с этим он обещает представить лучшие модели от OpenAI в скором времени, ускоряет релизы.

Также Сэм заявил, что OpenAI делает ставку на масштаб вычислений. Они видят преимущество в количестве ресурсов и в их исследовательской работе. Это их ответ на эффективность #DeepSeek.

Он намекнул на появление следующего поколения моделей.
Мир будет поражен следующим поколением моделей
«Мы принесем вам AGI и даже больше», - написал Сэм Альтман.
#ByteDance представили ИИ-модель #Doubao-1.5-pro, вот её характеристики и сравнение с DeepSeek-R1

Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.

1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах

2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры

3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)

Сравнение с DeepSeek-R1.
Ключевые различия в подходах:

1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.

2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.

Практические выводы:

- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.

- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду

Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
Ян ЛеКун, главный по ИИ в Meta* o #DeepSeek

Ян #ЛеКун опубликовал серию постов, раскрывающих его видение ситуации. Он говорит о смене парадигмы:
1. От конкуренции моделей к конкуренции экосистем
2. От закрытых разработок к открытым инновациям
3. От количества параметров к качеству архитектуры.

«Реакция рынка на DeepSeek совершенно неоправданна», - заявляет ЛеКун, наблюдая панику инвесторов. По словам ЛеКуна, рынок упускает несколько ключевых моментов:

1. Тренировка vs использование моделей:

- Миллиарды $ идут не на обучение моделей
- Основные затраты — на инфраструктуру для использования ИИ
- Обслуживание ИИ-агентов для миллиардов людей требует огромных вычислительных мощностей

2. Будущие затраты только вырастут, когда мы добавим:
- Понимание видео
- Способность рассуждать
- Масштабную память
- Другие продвинутые возможности
стоимость инференса значительно увеличится


#ЛеКун описывает 4 ключевые характеристики будущих систем:

1. Понимание физического мира (не просто текста и изображений)
2. Постоянная память (способность помнить и учитывать контекст)
3. Возможность рассуждать (не просто предсказывать следующее слово)
4. Иерархическое планирование (способность разбивать сложные задачи)

"Открытые исследования и открытый код ускоряют прогресс для всех", - подчеркивает ЛеКун. В подтверждение он приводит историю Residual Connections:
- Разработана в Microsoft Research Beijing
- Стала самой цитируемой научной работой (253,000 цитирований)
- Используется во всех современных нейросетях

ЛеКун раскрывает важный технический принцип:
- Большинство уровней в современных системах глубокого обучения построены по принципу y=x+f(x,w)
- Это позволяет создавать очень глубокие системы
- Предотвращает катастрофические сбои при проблемах на одном из уровней

Что это значит?

1. Для индустрии:
- Паника по поводу снижения стоимости обучения
преждевременна
- Реальные вызовы связаны с инфраструктурой для использования ИИ
- Открытый код не угроза, а катализатор прогресса

2. Для инвесторов:
- Нужно смотреть на способность компаний масштабировать инференс

- Оценивать готовность пользователей платить за ИИ-сервисы
- Учитывать растущие операционные затраты

3. Для разработчиков:
- Фокус смещается на новые архитектуры
- Важность понимания физического мира
- Приоритет рассуждений и долговременной памяти


«Единственный реальный вопрос — будут ли пользователи готовы платить достаточно (прямо или косвенно), чтобы оправдать капитальные и операционные затраты», - заключает ЛеКун.

Напомним, что Лекун всегда поддерживает #DeepSeek

*запрещенная в РФ организация.
Новый флагман от Alibaba - Qwen2.5-Max, которая превосходит #Deepseek-V3 в нескольких ключевых бенчмарках

В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.

Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.

В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:

- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond

Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
Paper здесь.

API Qwen полностью совместим с OpenAI API.
Основатель твиттера Джек Дорси только что выпустил ИИ-агента с открытым исходным кодом

Goose - локальный ИИ-агент с открытым исходным кодом, который помогает автоматизировать рутинные задачи разработчика.

Он работает прямо на вашем компьютере и интегрируется с вашими инструментами.

У него расширяемая архитектура - подключайте любые инструменты через MCP.

Поддерживает разные LLM.

Два интерфейса - удобный десктоп и мощный CLI.

Интегрировать Goose можно с:
- GitHub
- Google Drive
- JetBrains IDE
- Другими инструментами через API.
Это бомба - полностью открытый датасет для обучения небольших моделей рассуждений, которые смогут превзойти #DeepSeek-R1-Distill-32B и DeepSeek-R1-Distill-7B в задачах математического и программного мышления.

Open Thoughts initiative - 1-й такой проект, где открыто всё: от данных для обучения до конечных моделей.
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Объясняем зачем Маску Twitter Сегодня стало известно, что Илон Маск хочет купить Twitter Выступая прямо сейчас на TED2022, он объяснил почему решил купить Twitter. Говорит, что считает важным наличие «инклюзивной среды для свободы слова». Он считает,…
Маск создает свою финансовую экосистему на базе Twitter

X объявил о партнерстве с Visa для запуска X Money Account.

X заключил партнерство с крупнейшей платежной системой Visa для создания своей финансовой экосистемы.

Что предлагает X Money Account:

1. Мгновенные переводы между банковскими счетами и цифровым кошельком

2. P2P платежи в стиле Venmo и Zelle

3. Интеграция с Visa Direct для транзакций в реальном времени

X трансформируется из простой социальной сети в super-app по модели WeChat. Но за этим партнерством стоит стратегия Маска:

1. Экосистемный подход.

X становится не просто площадкой для общения, а центром экосистемы, объединяющей различные проекты Маска. Это мощный инструмент для продвижения Tesla, SpaceX, Starlink и других инициатив.

2. Финансовая инфраструктура нового поколения
Выбор Visa говорит о глобальных амбициях.

3. Движение к Web 3.0
X Money можно рассматривать как мост между традиционными финансами и новой цифровой экономикой. Маск, ранее влиявший на крипторынок через социальные медиа (вспомним историю с Dogecoin), теперь создает регулируемую платформу для финансовых инноваций. Потому что новая администрация Трампа
полностью про-крипто.

X становится экспериментальной площадкой для построения экономики Web 3.0. Интеграция социальных взаимодействий с финансовыми транзакциями может создать новую модель цифровой экономики, где контент, коммуникации и финансы существуют в единой экосистеме.

Запуск X Money Account запланирован на 2025 год.
Глава ЦБ Чехии предлагает инвестировать до 5% резервов банка в биткоин.

Это происходит после того, как США заявили, что планируют создать гос резерв из биткоина.

Основные причины инвестиций до 5% резервов банка, что составляет часть из 140 миллиардов евро в биткоин:

1. Диверсификация активов банка
2. Потенциальная возможность увеличения доходности, несмотря на признанные риски волатильности криптовалюты.

Если это предложение будет одобрено, Чешский Национальный Банк станет первым центральным банком в мире, который будет держать биткоин в своих резервах.

Это решение соответствует общей крипто-дружественной политике Чехии, которая недавно приняла закон об освобождении долгосрочных вложений в биткоин от налога на прирост капитала.
Hugging Face vs DeepSeek: как битва за открытость ИИ раскрывает будущее вычислений

Исследовательская команда Hugging Face объявила, что создает полностью открытую версию #DeepSeek R1 со всеми составляющими модели, подчеркивая недостаточную открытость текущей версии.

Этот шаг интересен не только намерением задействовать мощный кластер из 768 GPU Nvidia H100, но и тем, что он высвечивает более глубокие изменения в индустрии ИИ.

Катализатором дискуссии стало недавнее достижение #DeepSeek: компания продемонстрировала возможность запуска своей модели R1 на локальном оборудовании стоимостью всего $6000. Решение, построенное на архитектуре с двумя процессорами AMD EPYC и 768 ГБ оперативной памяти, полностью исключает необходимость в дорогостоящих GPU.

Это достижение указывает на важный сдвиг в индустрии: большинство вычислительных потребностей ИИ в будущем будет связано не с обучением моделей, а с их использованием (инференсом).

Как отмечают эксперты, крупным корпоративным пользователям предстоит сделать выбор: продолжать полагаться на дорогостоящие гиперскейлерные дата-центры или перейти на более экономичные локальные решения.

Локальное развертывание позволяет компаниям заменить постоянные платежи за облачные API единоразовыми инвестициями в оборудование.

Главный научный сотрудник Meta(запрещенная в РФ) по ИИ Ян ЛеКун считает, что индустрия ИИ стоит на пороге новой революции: будущие системы будут не только обрабатывать текст, но и понимать физический мир, обладать постоянной памятью, способностью к рассуждению и иерархическому планированию. Это неизбежно увеличит требования к вычислительной инфраструктуре для инференса.

Однако ЛеКун подчеркивает, что успех таких инноваций зависит не от конкуренции, а от сотрудничества: "Идея в том, что все получают пользу от идей друг друга. Никто не 'обгоняет' других, и ни одна страна не 'проигрывает' другой".

Складывающаяся ситуация позволяет сделать несколько важных выводов:

1. Будущее ИИ-вычислений смещается в сторону оптимизации инференса, а не обучения моделей.

2. Локальные решения могут оказаться более привлекательными для бизнеса, чем облачные сервисы.

3. Успех развития ИИ зависит от баланса между открытостью исследований и практической применимостью решений.

4. Ключевым фактором становится не столько технологическое лидерство, сколько экономическая эффективность и удобство внедрения.
Йошуа Бенжио представил 1-й в истории глобальный отчет о безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС.

Из всего отчета можно выделить 5 важных пунктов:

1. Будущее ИИ полностью зависит от решений, принимаемых сейчас. При правильном подходе ИИ может значительно улучшить жизнь людей, при неправильном - создать серьезные риски.

2. Главные риски:
- Потеря контроля человечества над системами ИИ
- ИИ-терроризм
- Массовая безработица из-за автоматизации
- Утечки конфиденциальных данных
- Использование ИИ для массовой слежки

3. Приоритетные меры защиты:
- Обязательное внедрение локальных моделей обработки данных
- Строгие криптографические протоколы
- Удаление персональных данных из тренировочных наборов
- Постоянный мониторинг безопасности


4. Критические направления исследований:
- Изучение методов утечки конфиденциальной информации
- Разработка масштабируемых систем защиты
- Создание надежных механизмов контроля ИИ

5. Необходимые действия на глобальном уровне:
- Срочная разработка общих стандартов безопасности
- Создание системы международного контроля
- Обеспечение прозрачности разработок
- Формирование глобальной системы реагирования на инциденты.
Дарио Амодей, основатель Anthropic: #DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности

Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только за Anthropic, но Claude 3.5 Sonnet стоила несколько десятков миллионов долларов в обучении. Кроме того, 3.5 Sonnet не обучался каким-либо образом, который включал бы более крупную или более дорогую модель. Обучение Sonnet проводилось 9-12 месяцев назад, а модель DeepSeek была обучена в ноябре/декабре, при этом Sonnet остается заметно впереди во многих внутренних и внешних оценках. Таким образом, я думаю, справедливое утверждение будет: "DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности, за значительно меньшую стоимость (но не в тех пропорциях, которые люди предполагали)», - пишет Амодей.

Амодей продолжает: «Как я упомянул выше, Claude чрезвычайно хорош в программировании и в хорошо продуманном стиле взаимодействия с людьми (многие люди используют его для личных советов или поддержки). По этим и некоторым дополнительным задачам просто нет сравнения с DeepSeek. Эти факторы не появляются в числах масштабирования.
R1, которая является моделью, выпущенной на прошлой неделе и которая вызвала взрыв общественного внимания (включая ~17% падение акций Nvidia), гораздо менее интересна с точки зрения инноваций или инженерии, чем V3. Она добавляет второй этап обучения — обучение с подкреплением, и по существу повторяет то, что OpenAI сделала с o1 (они, похоже, находятся на схожем масштабе с похожими результатами). Однако, поскольку мы находимся на ранней части кривой масштабирования, возможно, чтобы несколько компаний производили модели этого типа, если они начинают с сильной предварительно обученной модели. Производство R1 при наличии V3, вероятно, было очень дешевым. Поэтому мы находимся в интересной "точке пересечения", где временно несколько компаний могут производить хорошие модели рассуждения. Это быстро перестанет быть правдой, когда все продвинутся дальше по кривой масштабирования на этих моделях».

Если исторический тренд снижения стоимости составляет ~4x в год, это означает, что в обычном ходе бизнеса — в нормальных трендах исторического снижения стоимости, как те, что происходили в 2023 и 2024 годах — мы бы ожидали модель в 3-4 раза дешевле, чем 3.5 Sonnet/GPT-4o около сейчас.

Однако американские компании скоро последуют — и они сделают это не копируя DeepSeek, а потому что они тоже достигают обычного тренда в снижении стоимости.
И DeepSeek, и американские компании ИИ имеют гораздо больше денег и чипов, чем они использовали для обучения своих флагманских моделей.