🔥В России зафиксирована рекордно низкая рождаемость. Ниже, чем в 90-е.
Росстат: В первую половину 2024 года в России родилось всего 599,6 тысяч детей, что на 16,6 тысяч меньше, чем за тот же период в 2023 года.
Что-то произошло
Росстат: В первую половину 2024 года в России родилось всего 599,6 тысяч детей, что на 16,6 тысяч меньше, чем за тот же период в 2023 года.
Что-то произошло
1🤔4🥱2🤣2
This media is not supported in your browser
VIEW IN TELEGRAM
Попали в эпицентр конфликта Литвина с его энергетиками. Говорят, что на его компанию набросились конкуренты. Обсудили с директором алкозавода НАМА из Северской как такое возможно.
1🔥4👍1💯1
Взяли на борт в команду трекера. Это мой первый опыт работы с трекерами. Интересно, что получится.
Стать трекером уговорили Юрия Мео, но сначала заманили в офис, взяли у него интервью и протестировали каверзными вопросами.
Признавайтесь, у кого есть опыт работы с трекерами? Какую пользу получили? Кто вообще знает, что это такое?
Стать трекером уговорили Юрия Мео, но сначала заманили в офис, взяли у него интервью и протестировали каверзными вопросами.
Признавайтесь, у кого есть опыт работы с трекерами? Какую пользу получили? Кто вообще знает, что это такое?
1🔥9👍4❤3😐2
Самолеты забрали, выдали поезда из Советских времен. Поезд Москва-Сухум.
1👍4😁3👀2
This media is not supported in your browser
VIEW IN TELEGRAM
Бизнес класс на вокзале Адлера. Почти идеально, пока не пришел он. (нужно смотреть со звуком)
1🤣5👍2👻1
Множественные исследования доказали факт негативного влияния трудоголизма на здоровье.
При этом те, кто годами не ходили в отпуск, умирали от сердечных приступов вдвое чаще, чем те, кто отдыхал дважды в год.
К тому же, трудоголики часто становятся алкоголиками из-за большого стресса и эмоционального выгорания.
Психологи заявили, что трудоголизм даже больше алкоголизма повышает риски возникновения рака и сердечно-сосудистых заболеваний.
Я не верю)) Ни капли алкоголя 25 лет. Круглосуточно на работе 25 лет))
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥8👍6🎉2🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
А мы сегодня проводим 5-ю всероссийскую налоговую конференцию в Москве. Готовились к ней три месяца и у нас солдаут. Собрали 250 человек., десятки партнеров. Люди начинают прибывать. Клерк. Ру - сила.
1🔥18👍9❤3
Утренний Стамбул, конечно, прекрасный. А еще прекрасно пользоваться интернетом бе ВПН.
А еще я удивился, как далеко продвинулся европейский автопром. В России мы видим только новые модели китайцев, и складывается впечатление, что европейский автопром умер. А это не так.
А еще я удивился, как далеко продвинулся европейский автопром. В России мы видим только новые модели китайцев, и складывается впечатление, что европейский автопром умер. А это не так.
1👍12🔥4❤2👀1
На чем будем ездить, господа? Нет, ну серьезно, что будет, если Китай перестанет ввозить авто и развивать рынок? На самокатах?
🔥Reuters: Министерство торговли Китая на спецсовещании призвало местных автопроизводителей не инвестировать в Россию.
Также министерство призвало не инвестировать в Турцию и Индию.
🔥Reuters: Министерство торговли Китая на спецсовещании призвало местных автопроизводителей не инвестировать в Россию.
Также министерство призвало не инвестировать в Турцию и Индию.
🔥4
OpenAI показали превью своей новой модели, и выглядит это как новый большой прорыв — эта языковая модель O1 решает сложные задачи во много раз лучше, чем привычные нам GPT, т.к. буквально “думает” прежде чем генерировать ответ.
Вот теперь, кажется, по-настоящему “началось”, сложно будет спорить, что LLM думает — она не просто думает, она сначала обдумывает как думать, потом думает и на базе этих мыслей генерирует ответ.
https://openai.com/index/learning-to-reason-with-llms/
Вот теперь, кажется, по-настоящему “началось”, сложно будет спорить, что LLM думает — она не просто думает, она сначала обдумывает как думать, потом думает и на базе этих мыслей генерирует ответ.
https://openai.com/index/learning-to-reason-with-llms/
Openai
Learning to reason with LLMs
We are introducing OpenAI o1, a new large language model trained with reinforcement learning to perform complex reasoning. o1 thinks before it answers—it can produce a long internal chain of thought before responding to the user.
😱2🤩1