Ivan Begtin
8.05K subscribers
1.96K photos
3 videos
102 files
4.67K links
I write about Open Data, Data Engineering, Government, Privacy, Digital Preservation and other gov related and tech stuff.

Founder of Dateno https://dateno.io

Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts [email protected]
加入频道
В рубрике "интересные наборы данных" база данных пауков World Spider Catalog [1] с описанием более чем 49 000+ специй и с возможностью выгрузки всей базы данных целиком в машиночитаемом виде [2] в CSV формате. Каталог поддерживается Naturhistorisches Museum Bern, спонсируется несколькими организациями изучающими арахнологию.

Данные будут интересны не только опытным арахнологам, но и всем кто интересуется пауками всех возможных видов и форм.

Ссылки:
[1] https://wsc.nmbe.ch
[2] https://wsc.nmbe.ch/dataresources

#opendata #datasets #openaccess
То что мы в России называем машиночитаемыми законами в мире чаще называют machine-consumable legislation (машинопотребляемыми законами/регулированием). О них и концепции Rules as Code в обзоре Why you should develop a Rules as Code-enabled future [1] от Tim de Sousa, автора Rules as Code Handbook.

Он упоминает многие продукты которые уже создаются внутри технологических команд в государствах. Например, Policy Difference Engine [2] в Канаде и проект DataLex в Австралии


Ссылки:
[1] https://apolitical.co/solution-articles/en/develop-rules-as-code-enabled-future
[2] https://codefor.ca/blog/introducing-the-policy-difference-engine

#laws #regulation #legislation #legaltech
Forwarded from APICrafter
В каталог Datacrafter'а загружены данные 19 реестров и справочников из Федерального информационного фонд по обеспечению единства измерений (ФГИС Аршин), государственной информационной системы в ведении Росстандарта. В том числе такие наборы данных как:
- Аттестованные методики (методы) измерений - 39 тысяч записей
- Эталоны единиц величин - 114 тысяч записей
- Утверждённые типы средств измерений - 99 тысяч записей

Эти данные, а также остальные наборы данных загружены в раздел Справочники и классификаторы.

Все они доступны для бесплатного открытого использования через API DataCrafter и с возможностью получить весь набор данных в виде базы MongoDB.

Далее продолжится работа по классификаци и анализу всех загруженных метаданных в этих наборах данных.

В будущем ждите больше данных, идёт работа по агрегации крупнейших каталогов данных.

#opendata #datasets #metrology
В рубрике "интересные наборы данных" и "как это работает у них" данные раскрытия сведений о заболеваемости COVID-19 в Италии [1]. Репозиторий опубликован на платформе Github и включает ежедневно обновляемые сведения о статистике заболевания в разрезе страны и территорий, сведения о вакцинации и многое другое. Данные обновляются автоматически, опубликованы под лицензией Creative Commons CC-BY 4.0. Это официальный репозиторий сообщества государственных open source разработчиков Италии (developers.italia.it) [2].

Многие данные по COVID-19 в региональном и общестрановом разрезе публикуются на итальянском портале открытых данных [3]. Как и российский портал открытых данных он сделан на базе ПО Dkan, но отличается тем что его открытый код общедоступен [4], а сами данные обновляются на регулярной основе. Многие данные из 47 тысяч наборов открытых данных в итальянском национальном портале данных - это геоданные. Геоданные публикуются на портале geodati.gov.it [5], и значительная их часть доступны как открытые данные.

Ссылки:
[1] https://github.com/italia/covid19-opendata-vaccini
[2] https://developers.italia.it
[3] https://www.dati.gov.it/view-dataset?Cerca=covid
[4] https://github.com/FormezPA/dkan
[5] https://geodati.gov.it/

#opendata #opengov #italy #datasets
У 77% от общего числа или, в цифрах, у 3852 некоммерческих организаций в России в форме АНО, фондов, благотворительных фондов, общественных фондов, экологических фондов, религиозных организаций зарегистрированных в России за 2021 год в ЕГРЮЛ отсутствуют сведения об учредителях. Много это или мало? За 2021 год было зарегистрировано всего 5143 подобных НКО. Соответственно 77% от их числа - это очень много.

Примерно с 24 августа это касается всех зарегистрированных НКО подобного типа. с 24 августа по 7 ноября их было зарегистрировано 1056 организаций, ни по одной из них в ЕГРЮЛ недоступны сведения об учредителях.

Примеры организаций, коды ОГРН: 1216900011151, 1217400031012, 1212400022680

Проверить их можно в сервисах проверки контрагентов или в ЕГРЮЛ напрямую egrul.nalog.ru [1].

Для сравнения в 2020 году было зарегистрировано 5291 юридическое лицо в этих формах собственности и из них по 965 отсутствуют сведения об учредителях, это 18,2% от общего числа. Тоже много, тоже надо разбираться почему, но это куда меньше чем в этом году,

Отдельно надо разбираться что было в предыдущие годы, но рост неполноты данных от 18,2% до 77% - это очень серьёзно. Хочется надеяться что этому есть какое-то разумное объяснение.

А я напомню что один из проектов Инфокультуры - Открытые НКО (openngo.ru) [2] открытая база и открытые данные по всем некоммерческим организациям. База включает, в том числе, сведения из баз APICrafter'а и регулярно обновляется данными из ЕГРЮЛ. Полнота и точность сведений об учредителях организаций необходима для всех проверок контрагентов, задач проверок комплаенс и многого другого привычного в деловой практике.

Повторяется ли подобная ситуация для юридических лиц в иных формах собственности сказать не возьмусь, тотальная проверка всех зарегистрированных за 2021 год юр. лиц задача куда более трудоёмкая.

Ссылки:
[1] https://egrul.nalog.ru
[2] https://openngo.ru

#opendata #data #registries
Специально для российских госорганов и крупного бизнеса которые очень стараются избегать любого прямого регулирования внедрения ИИ, приведу пример нерегуляторной модели. Этический комитет был создан при West Midlands Police департаменте полиции в Великобритании в котором происходили и происходят эксперименты по внедрению National Data Analytics Solution (NDAS) специальной прогностической системы предупреждения преступлений на основе больших данных. Этот комитет ежемесячно собирается и публикует, как результаты своего анализа, так и представленные полицией материалы. Материалы, кстати, весьма интересные всем кто интересуется тематикой цифрового дознания [1].

Да, саморегулирование может быть устроено подобным образом, но только через полную транспарентность решений и раскрытие деталей о том как обеспечивается обучение алгоритмов.

Ссылки:
[1] https://www.westmidlands-pcc.gov.uk/ethics-committee/ethics-committee-reports-and-minutes/

#ai #regulation #police #predictivepolicing #uk #ndas
В рубрике интересные книги - свежевышедшая The Informed Company: How to Build Modern Agile Data Stacks that Drive Winning Insights [1] от Dave Fowler и Mattew David о том как организовать современный стэк технологий для работы с данными (data stack), как устроена архитектура с данными в облаке и какие стратегии работы с данными есть у малых, средних и крупных компаний.

Книга рассказывает в подробностях о том что такое Data Source, Data Lake, Data Warehouse и Data Marts (по русски - источники данных, озера данных, хранилища данных и витрины данных), но главное её достоинство для одних и недостаток для других - это простота изложения, вплоть до жанра "озера данных для самых маленьких". Для опытных специалистов это всё может показаться азами, например, там довольно ограниченный перечень описываемых архитектур, структуры и компонентов современного стэка. К примеру в прошлогоднем обзоре Emerging Architectures for Modern Data Infrastructure [2] от Andreessen Horowitz тоже наглядно, но несколько более детальнее>

А вот для руководителей которые должны быть компетентными заказчиками, но часто не разбираются в технологиях эта книга будет очень полезна также как и полезна для обучения студентов современным средам работы с данными.

Этот акцент на понятности у авторов неудивителен, оба они из компании ChartIO, недавно приобретённой Atlassian и у ChartIO есть серия веб-книг DataSchool [3] о том как научиться SQL, как преподавать SQL, как работать с данными в облаке и многое другое. Все они написаны в очень доступном стиле для обучения аналитиков с нуля и тех кто учит аналитиков с нуля. Если присмотреться, то The Informed Company и эти книжки пересекаются по содержанию где-то процентов на 50-60%, главное же изменение в смене акцента аудитории на руководителей и управлении данными.

Ссылки:
[1] https://www.amazon.com/Informed-Company-Modern-Winning-Insights-ebook-dp-B09K5ZMDDN/dp/B09K5ZMDDN/
[2] https://future.a16z.com/emerging-architectures-modern-data-infrastructure/
[3] https://dataschool.com/

#data #datamanagement #books #reviews
Как-то я всё больше и больше и говорю про приватность, а не про открытость. Но что это означает? Нужно больше откртытых данных по теме приватности! Присоединяйтесь сегодня в 19 часов к голосовому чату на @GDPRru
Forwarded from Privacy GDPR Russia
​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​#events #privacy #radiogroot

Когда: 09 ноября 19:00(мск)
Где: голосовой чат в канале Privacy GDPR Russia
Тема: RadioGroot. Privacy поболтушки
В гостях: Иван Бегтин
Кто: Автор канала про большие данные и приватность
Организатор: RPPA
Язык: русский
Стоимость: бесплатно
Подробности: заходи в канал

🗓 Добавить в календарь

💬Оставляй вопросы спикеру здесь⬇️⬇️⬇️
В рубрике инструментов работы с данными, об инструментах с открытым кодом для работы над качеством данных.

- OpenRefine - инструмент для ручной/автоматизированной очистки наборов данных. Работает преобразуя их в плоские таблицы, поддерживает Excel/CSV/JSON/JSON lines и другие форматы. Позволяет проводить довольно гибкие преобразования по отдельным колонкам. Основан на продукте Google Refine, когда-то переданным компанией в open source.
- Great Expectations - "Большие ожидания", библиотека для языка Python, одна из наиболее активно используемых для автоматической валидации значений в наборах данных, потоках данных, data pipelines и не только.
- Soda-SQL - инструмент с открытым кодом для создания метрик и тестирования данных в SQL базах данных. Поддерживает несколько SQL баз данных и несколько базовых видов/типов полей. Умеет анализировать данные в СУБД и на основе этого рекомендовать автоматизированные тесты.
- Re-data - инструмент подсчёта метрик и проверки качества данных в SQL базах данных. Включает возможность активного мониторинга данных.
- ODD Platform - Open Data Discovery Platform, включает механизмы проверки качества данных, а сама платформа делается на основе ODD Spec спецификации описания метаданных. Здесь Open Data Discovery - это [Open] [Data Discovery], не открытые данные, а открытое обнаружение данных.

Я от себя добавлю что часто инструменты контроля качества данных сильно замедляют работу с данными если они не оптимизированы. К примеру Soda-SQL и Great Expectations, скажем так, имеют большие возможности по их ускорению, потому про по умолчанию заложенные там проверки через регулярные выражения можно сильно оптимизировать. К примеру, решая похожие задачи по классификации данных в DataCrafter'е, могу сказать что там вообще нет регулярных выражений, но и нет жесткой закодированности идентифицирующих типы данных правил. Вместо них некий аналог RegExp'ов работающий многократно быстрее.

Много лет назад я подумывал написать свой движок для обработки регулярных выражений в контексте, оптимизированный под результаты предыдущих сравнений. К примеру, у тебя есть несколько тысяч регулярных выражений на соответствие которым надо проверить конкретную строку/текст. Как сделать это быстро? Идеальный сценарий - индекс построенный по этим регулярным выражениям и построение конечного автомата по проверке, неидеальный сценарий - хотя бы зависимости между регулярными выражениями и автоматический отсев каких-то сравнений после других сравнений (кривой аналог построения индекса, на самом деле).

В частных случаях задача решается. Лично я её решал и решил для сравнений связанных с датами и строками размера до 50 символов довольно грубым способом на 50% состоящим из замены регулярных выражений на их сборный конструктор-аналог и на 50% заменой индекса на код по предпроцессингу входящего потока. Результаты 3 года назад опубликовал в виде библиотеки для Python qddate, там не все наработки, но значительная часть по распознаванию дат в любых форматах. Поэтому можно ли ускорить проверку качества данных и расчёт метрик по миллиардам записей в базах данных? Конечно можно и значительно!

#opendata #metadata #dataquality #datatools #tools
Информационная прозрачность Китая (тюлевая занавеска) и России (ночные шторы).
В новом отчете американского Центра кибербезопасности и новых технологий "Запряженная молния: Как китайские военные осваивают искусственный интеллект" немало интересного.
Меня же поразило то, что он дает простую и наглядную возможность сравнить Россию и Китай по уровню информационной прозрачности и открытости.
Если в качестве критерия сравнения взять закупки военных, то результат получается поразительный. Это все равно что сравнивать прозрачность тюлевой занавески (у Китая) и ночных штор для спальни (у России).

В России закупки Минобороны (а также ФСБ и СВР) уже несколько лет, так сказать, привилегированные - на сайте Госзакупок они о своих тратах не отчитываются. А с 2022 станут также закрытыми закупки Росгвардии и ФСО.

В Китае открыто публикуются данные о всех закупках армии и военных госпредприятий: от сидений для унитазов до ударных военных беспилотников. Состав публикуемых данных отличается в зависимости от категории закупок:
• Для категории “public” (таких примерно 75%) публикуется: что закупается и сколько, подразделение-покупатель, для кого закупает, бюджет проекта, тендерное агентство, победитель тендера.
• Для категории “confidential” (таких примерно 22%) не указывается бюджет, а для категории “secret” (таких примерно 3%) еще и для кого закупается.

Другой печальный сюрприз отличий военных закупок Китая и России – состав поставщиков.
• В Китае 61% поставщиков – частные компании, 25% - госпредприятия и их дочки, 9% университеты, 2% - предприятия Академии наук и 3% - прочие.
• В России предположите сами (как пишет Коммерсантъ – «значительная их часть находится в госсобственности»).

Вы, наверное, думали, что с этим делом у Китая, примерно, как в России.
А оказалось, примерно, как в США.
Отчет: https://cset.georgetown.edu/publication/harnessed-lightning/
#Китай
А есть ли где-либо подробный правовой разбор законопроекта о публичной власти № 1256381-7 [1] ?

Там гигантский текст на 174 страницы и даже без поправок в другие законы, а полностью новый закон. Что очень странно, обычно к таким законопроектам присоединяют ещё множество поправок в иные законы.

А то там про открытость и прозрачность хоть и немного, но обеспечение гласности упоминается, что редкость в наших законов последних лет. Хочется понять что за всем этим стоит.

Если знаете, приглашаю в чат @begtinchat

Ссылки:
[1] https://sozd.duma.gov.ru/bill/1256381-7

#laws #regulation
Forwarded from 🗞 Виз Ньюз (Nikita Rokotyan)
This media is not supported in your browser
VIEW IN TELEGRAM
Энрико Бертини (Enrico Bertini), ассоциированный профессор визуализации данных Нью-Йоркского университета и со-ведущий подкаста Data Stories, с конца октября публикует образовательные статьи по визуализации в своем блоге. Энрико прекрасный преподаватель и исследователь, так что не проходите мимо.

Его новый материал посвящен тому, как сделать ваши визуализации более «чистыми» и простыми для восприятия. Маст рид, если вы новичок в области.

https://filwd.substack.com/p/clarity-and-aesthetics-in-data-visualization
Я лично особой нежностью "люблю" траты нашего отечества на создание аналога Википедии через вливание сотен миллионов рублей в ОАО "БРЭ" и одного не могу понять - зачем, почему и с чего это происходит?

По публичной отчетности на ресурсе ФНС [1] ОАО БРЭ потратило 565 из 688 миллионов рублей (82%!) за 2020 год.

Сайт ОАО почти не обновлялся в несколько лет [2], но при этом издательством он, не потерян, потому что в 2019 году они там создали раздел про АНО БРЭ [3].

Раскрытия информации о деятельности ОАО БРЭ не делает с 2015 года [4], что происходит на деньги этой субсидии неизвестно, электронная версия энциклопедии не даёт никакой истории изменений [5] и происходящее наводит на неприятные мысли что результата там и не будет.

При этом последние контракты ОАО БРЭ заключало в 2020 году [6].

Поэтому вопрос - где результат и куда идут деньги?

Ссылки:
[1] https://bit.ly/3wwnIJd
[2] https://greatbook.ru/
[3] https://bit.ly/3D500Gf
[4] https://bit.ly/3EZsxh2
[5] https://bigenc.ru/
[6] https://bit.ly/3n3Aa00
Научная статья Diego A. Forero, Walter H. Curioso и George P. Patrinos "The importance of adherence to international standards for depositing open data in public repositories" [1] о значимости международной стандартизации в публикации открытых данных в общедоступных репозиториях. В статье весьма подробно о том как организации выделяющие финансирование исследований в США и в Европе обязывают учёных публиковать результаты как открытые данные, о стандартах TOP Transparency and Openness Promotion [2] и множество ссылок на научные статьи и дискусии о принципах обмена данных в ситуации пандемии и необходимости доступности качественных данных.

Статья опубликована в BMC (Springer Nature), поэтому у неё довольно чёткий уклон в сторону биоинформатики, но много отсылок и на государственные порталы открытых данных в ЕС и США.

И тут же вдогонку пример поисковой системы по данным - DataMed.org [3] более 2.300.000+ наборов данных из 76 цифровых репозиториев. На его же основе Covid19 Data Index [4] где более 7800+ наборов данных исследований по COVID-19.

Ссылки:
[1] https://bmcresnotes.biomedcentral.com/articles/10.1186/s13104-021-05817-z
[2] https://www.cos.io/initiatives/top-guidelines
[3] https://datamed.org/
[4] https://www.covid19dataindex.org/

#opendata #datacatalogs #datasets #data #medicine #biomed
В рубрике "как это устроено у них" в большинстве развитых стран и крупных международных институтах есть обязательная архивация всех материалов. Для научных учреждений это так называемые планы управления данными (DMP, Data management plan) и множество инициатив по георезервированию данных. А для органов власти и международных организаций - это национальные веб архивы.

Пример, веб-архив европейского союза EU Web Archive [1] создан и поддерживается The Publications Office of the European Union и в нём собраны архивы всех сайтов относящихся к органам управления Европейского союза, связанным с органами управления Европейского союза и получающими финансирование из бюджета Европейского союза.

Все архивы собраны через сервис Archive-It [2] собраны в 5 рубрик:
- Brexit archive
- European Union
- Horizon 2020
- Presidencies of the Council of the EU
- Publications

Архивы собираются с марта 2019 года, охватывают 14 383 веб ресурса, большая часть которых относится к научной программе Horizon 2020.

Подобных национальных проектов по веб-архивации довольно много, об этом есть хороший обзор в Википедии [3]. Они носят, как утилитарный характер восстановления потерянной информации, так и являются инструментом общественного контроля благодаря которому можно убедиться что при смене власти предыдущие лица принимающие решения не "заметут следы" каких-то их действий.

А для тех кто любит работать с большими данными, напомню что есть такие проекты как HTTP Archive [4] веб архив для анализа данных, с интересными инсайтами и Common Crawl [5] поисковый индекс развернутый в облаке Amazon Web Services доступны через API для коммерческих и исследовательских проектов.

Ссылки:
[1] https://op.europa.eu/en/web/euwebarchive
[2] https://archive-it.org/home/euwebarchive
[3] https://en.wikipedia.org/wiki/List_of_Web_archiving_initiatives
[4] https://httparchive.org/
[5] https://commoncrawl.org/

#opendata #archives #webarchives #data
Я последние, наверное уже лет 16 интересовался и интересуюсь технологиями в госсекторе и в разных ролях создавал, проектировал, использовал государственные информационные системы и только в последние несколько лет ушёл в специализацию в данные, а раньше это были и госзакупки, и системы поддержки принятия решений и ещё много чего другого.

В России есть немало наработок которые реализованы вполне неплохо, но очень много есть мирового опыта который вообще никак не реализуется. Хуже всего дело обстоит с G2G проектами, в какой-то форме есть G2B и, как ни странно, но сервисы G2C (государственные услуги для граждан) работают лучше сервисов для бизнеса и для для других органов власти.

А я перечислю лишь некоторые проекты которые нужны другим органам власти и пока их нет в России на федеральном уровне:
- Сервис генерации статических госсайтов. Под мероприятие, под конкретный информационный сайт и тд. В США для этого используется платформа Federalist, в Сингапуре - Isomer. Его не надо делать обязательным, достаточно сделать его хорошо, а госорганы сами к нему придут - это быстрее и дешевле чем заказывать на рынке.

- Конструктор форм. На самом деле многие из очень типовых госуслуг реализуются через конструкторы форм. В государственном конструкторе должна быть предусмотрена авторизация через ЕСИА, а в остальном можно взять за пример сервис форм Яндекса или Google или многих стартапов. В Сингапуре есть такой сервис - forms.gov.sg

- Платформа API. Есть в США, Сингапуре, Канаде, Франции и ещё паре десятков стран. Систематизирует документацию и регламенты доступа к государственным API. Подсказка - в России сотни (!) недокументированных API. Через них поступают многие данные в наш каталог Datacrafter'а. Такие платформы всё более актуальны, они являются частью систематизации информационных ресурсов государства.

- Платформа [мета]данных. То чем в России мог бы быть портал открытых данных и то чем он, к сожалению, не является. Системы управления госданными в мире имеют как минимум 2 контура - открытые данные и данные по результатами инвентаризации в госоргане. По хорошему это должно было бы быть частью национальной системы управления данными.

- Сервис и реформа технической документации. Такое есть в Сингапуре, США, на тех же сервисах генерации статических сайтов. А из примеров недалёких от нас - это система документирования в Италии docs.italia.it. Всё редактируется в Markdown, можно скачивать и в других форматах. Удобно искать, удобно писать, удобно с этим работать. Это не только сервис, но и реформа требований к сдаче контрактной документации и предоставления документации пользователям. До сих пор по многим системам документация - это тысячи (!) страниц нечитабельного текста.

- Системы автоматического мониторинга (в том числе безопасности). Например проект Pulse в США, для мониторинга актуальности протоколов TLS/SSL на официальных сайтах органов власти. До недавних пор был открыт для всех, потом его закрыли, видимо из-за опасений в адрес "русских/корейских/китайских хакеров". Необходимый сервис и не только в части SSL, но и регулярного официального сканирования безопасности публично доступной инфраструктуры органов власти.

- Сервисы статуса доступности сайтов/онлайн сервисов. В коммерческом рынке это сервисы вроде status.com, в госпроектах такое тоже начинают применять и разрабатывать унифицированные сервисы охватывающие все госресурсы. Тот же Pulse умел не только сканировать TLS соединения, но и отслеживать доступность.

- Официальные счетчики посещаемости. В мире есть сильное давление на органы власти чтобы они не сливали сведения о посетителях госсайтов компаниям Adtech. Поэтому есть много противодействия тому что органы власти ставят счетчики Google, Facebook и далее по списку. Для госсайтов делают унифицированные счетчики в ведении органа власти и аналитика собирается только в них и отдаётся представителям госорганов. В США это analytics.usa.gov, сделаный специально под высоконагруженные сайты, но можно взять и один из открытых продуктов и использовать его.
- Единый дизайн-гайд. Тема как-то помершая в России, хотя и были попытки. Во многих странах госсайты сделаны "безобразно и единообразно" по одному дизайн гайду. Хорошо документированному, открытому, сопровождаемому, удобному и тд. Это полезный инструмент, будучи хорошо сделанным он будет применяться без принуждения.

- Единый портал. Довольно давняя тема внедряемая во многих странах. Логика такая - правительство вцелом, отдельные органы власти тратят слишком много ресурсов на многочисленные веб-сайты. Нет никакого обоснования тому что их сотни и тысячи. В мире есть большие инициативы вроде gov.uk или usa.gov или gov.pl и ещё десятков других когда сервисы и сайты органов власти сконцентрированы на одном корневом ресурсе. В России эту функцию частично решает портал госуслуг, но только частично. А вот портал gov.ru выглядит просто таки архаично.

Это не полный перечень, сюда можно добавить ещё довольно многое, я могу расписать несколько десятков показательных и полезных сервисов только навскидку, а если покопаться в записях то сотни. Если хотя бы часть из перечисленного будет появляться и появляться в хорошом виде на платформе Гостех, значит от этой платформы будет ощутимая польза. Если нет, ну что ж, подождём следующей плаформы:)

#govtech #government #technology #data #datamangement #api
Почему я делаю акцент на финансировании Большой российской энциклопедии? Потому что вот уже пару месяцев пишут про большой проект портала "Знание" на её основе. Можно почитать октябрьскую публикацию на сайте РАН [1] о первом заседании научно-редакционной коллегии портал «Знания» , который привлечет до 10 тыс. экспертов.

Об этом портале есть короткая заметка в Википедии [2] и, если кратко, то только за 2019-2021 годы на портал потратили более 1.5 миллиардов рублей, а всего запланировано до конца 2022 года потратить 2.5 млрд рублей. При этом, напомню, за 3 года финансирования у него нет никаких публичных результатов, само ОАО БРЭ непрозрачно, а за 2021 год нет каких-либо следов контрактации ОАО БРЭ, а все расходы идут, если верить отчетности, на содержание коллектива (в лучшем случае это на производство контента) [3].

Если почитать интервью Сергея Кравец в РГ [4], то очевидно что это не технологический, а контентный проект. Не автоматическая интеграция и сведение баз данных, а претензия на ручную актуализацию до 40 тысяч статей ежегодно.

Ключевые вопросы во всем этом в том что:
1. Какие модели создания востребованного контента сейчас актуальны в мире и могут использоваться? Это требует как минимум исследования, но и без него видно что выживают, в основном, модели краудсорсинговые, а не энциклопедические. Практически все существующие классические энциклопедии мертвы, оживить их уже невозможно.
2. Какие формы потребления контента необходимы для молодежи? Есть как минимум предположение что игровой контекст для потребления знаний стал первоочередным. Edutainment за пределами образовательного процесса как минимум.
3. Какова связь знаний и образования? Предполагается ли навязать портал Знания в образовательный процесс? Тогда его надо сразу было передавать в какое-нибудь издательство Просвещение или в Минпросвет РФ, а не в БРЭ.

Для понимания, доход фонда Викимедия составляет 129 миллионов долларов за 2020 год [5] из которых 120 миллионов это пожертвования читателей, компаний и НКО. Это 7 миллионов жертвователей из которых 17 пожертвовали более $50 000 (более 3.5 миллионов рублей каждый). Там нет бюджетных средств, только средства доноров.

Можно ли создать аналог Википедии в России? Честно говоря я не очень в это верю, поскольку такие проекты - это, в первую очередь, очень мотивированные люди которые хотели бы именно его создать, а не участвовать более крупных международных проектах. Но если это делать, то нужна как минимум схожая модель существования. Софинансирование от граждан, статус НКО, получение удобным образом налогового вычета с пожертвований, возможность личного участия и современные технологии помноженные на репутацию команды которая могла бы такое создать.

Поэтому повторюсь это скорее, невозможно. Можно ли потратить лучшим образом те 2.5 миллиарда рублей что тратят на портал "Знания"? Да, конечно возможно. Даже если раздавать субсидии производителям игр с популяризацией знаний и НКО с просветительскими проектами - эффект был бы куда больше. Он, в принципе, был бы.

А в текущей форме портал Знания не сможет существовать без регулярного бюджетного допинга на эти самые "40 тысяч правок статей в год и 10 тысяч привлекаемых экспертов", о чем просто нельзя говорить без иронии, поскольку за каждой из них слышно только одно "дайте больше денег" при отсутствии гарантии чего бы то ни было.

Всё это на фоне того что на современные просветительские проекты найти в стране финансирование очень сложно, государственные средства уходят на проекты вроде портала "Знания", а частные и корпоративные доноры предпочитают финансировать проекты прямой помощи детям, старикам, бездомным и тд.
И я не могу не добавить и не акцентировать на закрытости всей этой истории. Вот мы знаем что у портала "Знания", оказывается, есть Научно-редакционная коллегия портала, а как это она есть, а портала нет? Где её состав? Где протоколы заседаний? А Дмитрий Чернышенко, оказывается, председатель Совета Портала «Знания». А где можно почитать положение об этом совете? Его состав? И, простите, я буду зануден, протоколы заседаний совета ? Вообще Дмитрий Чернышенко знает во что ввязался? Думается мне догадывается, иначе присутствовал бы на мероприятии лично, а не направлял бы письмо его участникам.

Многим уже понятно что когда портал Знания будет запущен весной 2022 года, то он получит очень много публичной критики, по всем тем причинам что я озвучивал выше и, с высокой вероятностью, может не пережить 2022 год. Но деньги то уже будут потрачены и это ещё большой вопрос какая их доля пойдет на этих 10 тысяч экспертов.

Ссылки:
[1] http://www.ras.ru/news/shownews.aspx?id=b2fbc33e-71bb-4f9d-8d47-8afe983cfd01
[2] https://ru.wikipedia.org/wiki/Знания
[3] https://yangx.top/begtin/3236
[4] https://rg.ru/2021/10/19/v-rossii-sozdaetsia-pervyj-v-mire-enciklopedicheskij-portal.html
[5] https://wikimediafoundation.org/about/annualreport/2020-annual-report/financials/

#budget #znanie #spending