Navigation for channel👍
#IoT #AI #ML #AR #Future #Hacking #WiFi #Security #Blockchain #book_of_the_day
#IoT #AI #ML #AR #Future #Hacking #WiFi #Security #Blockchain #book_of_the_day
Forwarded from Machinelearning
OpenCoder - это открытое и воспроизводимое семейство LLM для программирования, включающее 1,5B и 8B базовые и instruct версии, поддерживающее английский и китайский языки.
Семейство моделей OpenCoder обучалось с нуля на 2,5 трлн. лексем, состоящих на 90 % из сырого кода и на 10 % из веб-данных, связанных с кодом, и прошло отладку на более чем 4,5 млн. высококачественных примеров SFT, в итоге достигнув производительности топовых LLM с похожей специализацией.
В открытый доступ опубликованы не только веса моделей и код для инференса, но и датасеты, полный цикл обработки данных, результаты экспериментальной абляции и подробные протоколы обучения.
OpenCoder тщательно протестирован с помощью исследований абляции на различных стратегиях очистки данных и процессах обучения, включая эксперименты по дедупликации на уровне файлов и репозиториев, что обеспечило семейству тщательную проверку производительности моделей.
OpenCoder достигает высокой производительности в различных бенчмарках, что ставит их в ряд SOTA-моделей с открытым исходным кодом для задач программирования.
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "infly/OpenCoder-8B-Instruct"
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
messages=[
{ 'role': 'user', 'content': "write a quick sort algorithm in python."}
]
inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512, do_sample=False)
result = tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True)
@ai_machinelearning_big_data
#AI #ML #LLM #OpenCoder #Datasets
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
Исчерпывающий материал по обучению с подкреплением (Reinforcement Learning, RL), в котором подробно описываются различные модели среды, задачи оптимизации, исследуется определение компромисса между теорией и практической эксплуатаций RL.
Отдельно рассматриваются смежные темы: распределенное RL, иерархическое RL, обучение вне политики и VLM.
В работе представлен обзор алгоритмов RL:
Автор - Kevin Murphy, главный научный сотрудник и руководитель команды из 28 ресечеров и инженеров в Google Deepmind. Группа работает над генеративными моделями (диффузия и LLM), RL, робототехникой, байесовским выводом и другими темами.
Кевин опубликовал более 140 статей на рецензируемых конференциях и в журналах, а также 3 учебника по ML, опубликованных в 2012, 2022 и 2023 годах издательством MIT Press. (Книга 2012 года была удостоена премии ДеГроота как лучшая книга в области статистической науки).
@ai_machinelearning_big_data
#AI #ML #Book #RL
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Machinelearning
В нем содержится все, что вам нужно знать:
> Описание агентов, компонентов и когнитивных архитектур.
> Разобраны инструменты по работе с агентами: расширения, написании функций и хранилища данных.
> Описываются методы обучения для повышения производительности агентов.
> Описываются методы создания агентов с использованием LangChain и LangGraph
▪ Читать гайд
@ai_machinelearning_big_data
#aiagents #ai #llm #ml #machinelearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Physics-based Deep Learning
📓 Book
@datascienceiot
#AI #MachineLearning #DataScience #Physics #NeuralNetworks #Algorithms
📓 Book
@datascienceiot
#AI #MachineLearning #DataScience #Physics #NeuralNetworks #Algorithms
Новый метод повышения точности и безопасности ответов ИИ
Метод, позволяющий улучшить качество ответов ИИ до 15%, разработали ученые из лаборатории исследований искусственного интеллекта T-Bank AI Research. Новая методика обучения больших языковых моделей (LLM) основана на существующих методах Trust Region. Сгенерированные с их помощью тексты улучшили ответы ИИ по пяти главным параметрам: точность, связность, стиль, логика рассуждений и информативность.
📚Paper
#AI #MachineLearning #DataScience #Physics #NeuralNetworks #Algorithms
@datascienceiot
Метод, позволяющий улучшить качество ответов ИИ до 15%, разработали ученые из лаборатории исследований искусственного интеллекта T-Bank AI Research. Новая методика обучения больших языковых моделей (LLM) основана на существующих методах Trust Region. Сгенерированные с их помощью тексты улучшили ответы ИИ по пяти главным параметрам: точность, связность, стиль, логика рассуждений и информативность.
📚Paper
#AI #MachineLearning #DataScience #Physics #NeuralNetworks #Algorithms
@datascienceiot
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросети Яндекса теперь сохраняют тембр и интонации при переводе видео 🎙
Раньше Браузер переводил речь с видео, подбирая голос из базы, что иногда звучало неестественно. Теперь новая нейросеть анализирует оригинальную аудиодорожку — голос, тембр, интонации — и герой говорит по-русски, как на родном языке.
Яндекс разработал систему генеративного синтеза речи: модель создаёт голос, сохраняя уникальные черты. Биометрическая модель, обученная на открытых аудиозаписях, удерживает тембр, единая фонемная система обеспечивает точное произношение. Звук очищается денойзингом, а инференс ускорен для работы в реальном времени.
#Яндекс #AI #переводвидео #нейросети
Раньше Браузер переводил речь с видео, подбирая голос из базы, что иногда звучало неестественно. Теперь новая нейросеть анализирует оригинальную аудиодорожку — голос, тембр, интонации — и герой говорит по-русски, как на родном языке.
Яндекс разработал систему генеративного синтеза речи: модель создаёт голос, сохраняя уникальные черты. Биометрическая модель, обученная на открытых аудиозаписях, удерживает тембр, единая фонемная система обеспечивает точное произношение. Звук очищается денойзингом, а инференс ускорен для работы в реальном времени.
#Яндекс #AI #переводвидео #нейросети
Forwarded from Machinelearning
400 страниц про всё, что нужно знать об агентных системах. Автор — senior engineer в Google, выложил драфт для открытого ревью.
📖 В книге:
- продвинутые техники промптинга
- паттерны для мульти-агентов
- использование инструментов и MCP
- практические примеры с кодом
⚡ По сути, это полный справочник по построению умных агентов. Must-read для разработчиков AI.
@ai_machinelearning_big_data
#AI #Agents #Google #OpenSource #freebook
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM