Чат-боты: цитировать или не цитировать?
Растущий интерес к использованию искусственного интеллекта (ИИ) в написании научных работ и ряд скандалов, связанных с его недобросовестным применением в академической сфере, провоцируют острую дискуссию. Летисия Антунес Ногейра (Leticia Antunes Nogueira), руководитель проекта по искусственному интеллекту, и Ян Уве Рейн (Jan Ove Rein), библиотекарь-исследователь, оба — сотрудники NTNU опубликовали заметку (ч. 1, ч. 2), в которой сосредоточились на критике концепции цитирования языковых моделей в научных публикациях.
В заметке авторы сузили фокус до двух моделей (ChatGPT от OpenAI или Claude от Anthropic), так как предполагают, что пользователи, которые работают с инструментами, применяющими возможности GenAI в сочетании с другими системами (например, Perplexity и Scopus AI), будут ссылаться на оригинальные источники.
В политике ведущих мировых издательств и академических организаций существует общее мнение насчет того, что чат-боты не отвечают минимальным требованиям к авторству, однако вопрос о том, можно ли (и следует ли) цитировать чат-боты в качестве источников, остается открытым.
Сторонники цитирования сообщений чат-ботов отмечают, что цитирование необходимо как минимум по двум причинам:
· признание чужого вклада и влияния идей;
· раскрытие источников информации.
Эти два, казалось бы, простых аспекта связаны с некоторыми противоречиями.
Противники цитирования (и иногда использования) чат-ботов подчеркивают, что результаты, полученные с использованием ИИ, преимущественно невозможно отследить, воспроизвести или проверить. В дополнение к этим ощутимым аргументам, исследователи акцентируют внимание на нескольких этических аспектах:
🔹Ответственность авторов
Языковая модель не может нести ответственность за утверждения, включенные в публикацию от её «лица». Одно дело цитировать организацию (например, доклад ООН), и совсем другое — чат-бота. Организации состоят из людей и поэтому несут ответственность за предоставляемую информацию, чат-бот или его разработчики нести такую ответственность не могут.
🔹Загрязнение информационной среды
Упоминание чат-ботов в источниках ведет к загрязнению информационных экосистем. Если для обучения больших языковых моделей использовать данные, сгенерированные ИИ (т. е. тексты из Интернета, академические тексты и т. д.), это приведет к ухудшению качества моделей.
🔹ИИ — не истина в последней инстанции
Чат-боты не создавались как инструменты для информационных целей. Неопределенность в отношении качества их ответов обусловлена назначением и структурой чат-ботов, а не степенью технологической зрелости. Большие языковые модели (LLM) основаны на моделях использования языка, а не на информации, и вероятностны по своему принципу работы, а это означает, что некорректный результат в таком случае — особенность, а не ошибка.
APA рекомендует цитировать текст, полученный от чат-бота, как результат работы алгоритма: а именно, ссылаться на автора алгоритма в списке источников. Дело в том, что результаты «переписки» с ChatGPT невозможно воспроизвести. Сейчас в APA такие данные часто цитируются как личная переписка, но это не совсем корректно, потому что сгенерированный текст не исходит от чьей-либо личности. В то же время ICMJE и Elsevier занимают однозначную позицию и рекомендуют авторам не ссылаться на чат-боты.
Появление чат-ботов бросает вызов устоявшимся представлениям об источниках, информации и знании, которые совсем недавно считались само собой разумеющимися. Тем не менее, в эпоху искусственного интеллекта обеспечение целостности информационной экосистемы требует все больших усилий. По мнению авторов, поскольку связность и смыслы в любом случае находятся «в глазах смотрящего», наборы слов, полученные в результате вероятностных вычислений, нельзя назвать ни источниками, ни информацией, ни знаниями. Текст, генерируемый чат-ботами — скорее, воплощение отсутствия информации.
#ChatGPT #ИИ #искусственныйинтеллект #цитирование
Растущий интерес к использованию искусственного интеллекта (ИИ) в написании научных работ и ряд скандалов, связанных с его недобросовестным применением в академической сфере, провоцируют острую дискуссию. Летисия Антунес Ногейра (Leticia Antunes Nogueira), руководитель проекта по искусственному интеллекту, и Ян Уве Рейн (Jan Ove Rein), библиотекарь-исследователь, оба — сотрудники NTNU опубликовали заметку (ч. 1, ч. 2), в которой сосредоточились на критике концепции цитирования языковых моделей в научных публикациях.
В заметке авторы сузили фокус до двух моделей (ChatGPT от OpenAI или Claude от Anthropic), так как предполагают, что пользователи, которые работают с инструментами, применяющими возможности GenAI в сочетании с другими системами (например, Perplexity и Scopus AI), будут ссылаться на оригинальные источники.
В политике ведущих мировых издательств и академических организаций существует общее мнение насчет того, что чат-боты не отвечают минимальным требованиям к авторству, однако вопрос о том, можно ли (и следует ли) цитировать чат-боты в качестве источников, остается открытым.
Сторонники цитирования сообщений чат-ботов отмечают, что цитирование необходимо как минимум по двум причинам:
· признание чужого вклада и влияния идей;
· раскрытие источников информации.
Эти два, казалось бы, простых аспекта связаны с некоторыми противоречиями.
Противники цитирования (и иногда использования) чат-ботов подчеркивают, что результаты, полученные с использованием ИИ, преимущественно невозможно отследить, воспроизвести или проверить. В дополнение к этим ощутимым аргументам, исследователи акцентируют внимание на нескольких этических аспектах:
🔹Ответственность авторов
Языковая модель не может нести ответственность за утверждения, включенные в публикацию от её «лица». Одно дело цитировать организацию (например, доклад ООН), и совсем другое — чат-бота. Организации состоят из людей и поэтому несут ответственность за предоставляемую информацию, чат-бот или его разработчики нести такую ответственность не могут.
🔹Загрязнение информационной среды
Упоминание чат-ботов в источниках ведет к загрязнению информационных экосистем. Если для обучения больших языковых моделей использовать данные, сгенерированные ИИ (т. е. тексты из Интернета, академические тексты и т. д.), это приведет к ухудшению качества моделей.
🔹ИИ — не истина в последней инстанции
Чат-боты не создавались как инструменты для информационных целей. Неопределенность в отношении качества их ответов обусловлена назначением и структурой чат-ботов, а не степенью технологической зрелости. Большие языковые модели (LLM) основаны на моделях использования языка, а не на информации, и вероятностны по своему принципу работы, а это означает, что некорректный результат в таком случае — особенность, а не ошибка.
APA рекомендует цитировать текст, полученный от чат-бота, как результат работы алгоритма: а именно, ссылаться на автора алгоритма в списке источников. Дело в том, что результаты «переписки» с ChatGPT невозможно воспроизвести. Сейчас в APA такие данные часто цитируются как личная переписка, но это не совсем корректно, потому что сгенерированный текст не исходит от чьей-либо личности. В то же время ICMJE и Elsevier занимают однозначную позицию и рекомендуют авторам не ссылаться на чат-боты.
Появление чат-ботов бросает вызов устоявшимся представлениям об источниках, информации и знании, которые совсем недавно считались само собой разумеющимися. Тем не менее, в эпоху искусственного интеллекта обеспечение целостности информационной экосистемы требует все больших усилий. По мнению авторов, поскольку связность и смыслы в любом случае находятся «в глазах смотрящего», наборы слов, полученные в результате вероятностных вычислений, нельзя назвать ни источниками, ни информацией, ни знаниями. Текст, генерируемый чат-ботами — скорее, воплощение отсутствия информации.
#ChatGPT #ИИ #искусственныйинтеллект #цитирование
July 2, 2024
Оценка влияния внедрения ИИ в науку
Быстрое развитие искусственного интеллекта (ИИ) затрагивает практически все сферы. Неудивительно, что применение ИИ всё чаще встречается в науке, о чем свидетельствует неумолимо растущее (особенно с 2015 года) количество упоминаний терминов этой сферы в заголовках и аннотациях статей. На днях в Nature Human Behaviour вышла статья, авторы которой подвергли количественной оценке использование и потенциальные преимущества ИИ в научных исследованиях.
Исследователи из Северо-Западного университета (Northwestern University) сопоставили данные более 74 миллионов публикаций с 1960 по 2019 год из Microsoft Academic Graph, охватывающих 19 дисциплин и 292 области, с данными о чуть более 7 миллионах патентов, выданных в период с 1976 по 2019 год Ведомством по патентным и товарным знакам США (USPTO), что позволило проанализировать практическое применение ИИ в научных исследованиях. Также авторы проанализировали встречаемость терминов ИИ в заголовках и аннотациях статей.
Основные результаты работы сводятся к следующему:
• упоминание ИИ в статьях повышает их цитируемость как внутри своей области, так и за ее пределами;
• почти каждая дисциплина включает в себя некоторые области, которые видят потенциал в применении ИИ (см. рис.);
• междисциплинарное сотрудничество способствует стремительному развитию использования ИИ в науке;
• есть разрыв между применением ИИ и обучением ИИ (спрос превышает предложение);
• ИИ может усугубить существующее неравенство в науке (например, демографическое и гендерное).
Искусственный интеллект как открывает новые исследовательские пути, так и является источником неразрешимых проблем, например, этических. Цифровизация и внедрение инструментов ИИ в науку вынуждают трансформировать и переосмыслять традиционные академические форматы, ресурсы и практики.
Кстати, завтра, 23 октября в 16:00, Центр научной интеграции НИУ ВШЭ проведет вебинар с элементами тренинга «Ученый в эпоху перемен: ключевые навыки для построения академической карьеры», на котором среди прочего будет затронута тема влияния глобальных изменений последних 5 лет на деятельность ученого, а также будет поднят вопрос развития необходимых навыков для построения академической карьеры в нестабильное время.
Формат вебинара предполагает взаимодействие. В рамках тренинга будет возможность познакомиться с исследователями из научных и образовательных организаций, а также поделиться своим опытом развития в академической среде. Регистрация доступа по ссылке.
#Искусственныйинтеллект #Центрнаучнойинтеграции
#ИИ #MAG
Быстрое развитие искусственного интеллекта (ИИ) затрагивает практически все сферы. Неудивительно, что применение ИИ всё чаще встречается в науке, о чем свидетельствует неумолимо растущее (особенно с 2015 года) количество упоминаний терминов этой сферы в заголовках и аннотациях статей. На днях в Nature Human Behaviour вышла статья, авторы которой подвергли количественной оценке использование и потенциальные преимущества ИИ в научных исследованиях.
Исследователи из Северо-Западного университета (Northwestern University) сопоставили данные более 74 миллионов публикаций с 1960 по 2019 год из Microsoft Academic Graph, охватывающих 19 дисциплин и 292 области, с данными о чуть более 7 миллионах патентов, выданных в период с 1976 по 2019 год Ведомством по патентным и товарным знакам США (USPTO), что позволило проанализировать практическое применение ИИ в научных исследованиях. Также авторы проанализировали встречаемость терминов ИИ в заголовках и аннотациях статей.
Основные результаты работы сводятся к следующему:
• упоминание ИИ в статьях повышает их цитируемость как внутри своей области, так и за ее пределами;
• почти каждая дисциплина включает в себя некоторые области, которые видят потенциал в применении ИИ (см. рис.);
• междисциплинарное сотрудничество способствует стремительному развитию использования ИИ в науке;
• есть разрыв между применением ИИ и обучением ИИ (спрос превышает предложение);
• ИИ может усугубить существующее неравенство в науке (например, демографическое и гендерное).
Искусственный интеллект как открывает новые исследовательские пути, так и является источником неразрешимых проблем, например, этических. Цифровизация и внедрение инструментов ИИ в науку вынуждают трансформировать и переосмыслять традиционные академические форматы, ресурсы и практики.
Кстати, завтра, 23 октября в 16:00, Центр научной интеграции НИУ ВШЭ проведет вебинар с элементами тренинга «Ученый в эпоху перемен: ключевые навыки для построения академической карьеры», на котором среди прочего будет затронута тема влияния глобальных изменений последних 5 лет на деятельность ученого, а также будет поднят вопрос развития необходимых навыков для построения академической карьеры в нестабильное время.
Формат вебинара предполагает взаимодействие. В рамках тренинга будет возможность познакомиться с исследователями из научных и образовательных организаций, а также поделиться своим опытом развития в академической среде. Регистрация доступа по ссылке.
#Искусственныйинтеллект #Центрнаучнойинтеграции
#ИИ #MAG
October 22, 2024
Три года «Выше квартилей» 🗓 🎆
Дорогие подписчики! Сегодня наш канал празднует свой третий день рождения. Мы традиционно составили подборку из десяти наиболее просматриваемых постов за прошедший год:
1️⃣ Академический угон: обзор публикаций о hijacked журналах
2️⃣ United2Act и борьба с paper mills
3️⃣ Чат-боты: цитировать или не цитировать?
4️⃣ Dark side of publishing
5️⃣ Королевство пустых зеркал
6️⃣ Retracted Articles: от репутационных проблем к аналитике по областям
7️⃣ Репозиторий НЦ на GitHub
8️⃣ Лейденский рейтинг: открытая версия
9️⃣ Les grands embrasements naissent de petites étincelles
1️⃣ 0️⃣ Обновление квартилей JCR
Уже второй год у нас активно выходила тематическая аналитика о нобелевских лауреатах под тегом #нобелевскаянеделя, практически каждую неделю — #обзор на одну из наиболее интересных свежих статей в нашей области и авторская #аналитика по различным библиометрическим базам и инструментам, а ежемесячно — #дайджест самых важных новостей в сфере науки и наукометрии со всего мира. Мы сделали цикл публикаций о недобросовестных исследовательских практиках, вели рубрику #историянаукометрии и неоднократно касались темы этичного использования #ИИ-инструментов в научной работе, а также во второй раз поучаствовали в фестивале науки «Республика ученых» ВШЭ.
Те из наших читателей, кто посещал фестиваль в прошлом году, возможно, помнят нашу наукометрическую викторину. И сегодня, в честь годовщины, мы хотим представить ее всем подписчикам нашего канала. Переходите по ссылке, играйте (с коллегами или друзьями) и делитесь впечатлениями!
Остаемся выше квартилей!
Дорогие подписчики! Сегодня наш канал празднует свой третий день рождения. Мы традиционно составили подборку из десяти наиболее просматриваемых постов за прошедший год:
Уже второй год у нас активно выходила тематическая аналитика о нобелевских лауреатах под тегом #нобелевскаянеделя, практически каждую неделю — #обзор на одну из наиболее интересных свежих статей в нашей области и авторская #аналитика по различным библиометрическим базам и инструментам, а ежемесячно — #дайджест самых важных новостей в сфере науки и наукометрии со всего мира. Мы сделали цикл публикаций о недобросовестных исследовательских практиках, вели рубрику #историянаукометрии и неоднократно касались темы этичного использования #ИИ-инструментов в научной работе, а также во второй раз поучаствовали в фестивале науки «Республика ученых» ВШЭ.
Те из наших читателей, кто посещал фестиваль в прошлом году, возможно, помнят нашу наукометрическую викторину. И сегодня, в честь годовщины, мы хотим представить ее всем подписчикам нашего канала. Переходите по ссылке, играйте (с коллегами или друзьями) и делитесь впечатлениями!
Остаемся выше квартилей!
Please open Telegram to view this post
VIEW IN TELEGRAM
Genially
HSE SCIENTOMETRICS BOARD
November 22, 2024
Дайджест: ноябрь 2024
Представляем дайджест научных событий за последний месяц.
Научные статьи
• Лутц Борнманн, один из членов редколлегии Scientometrics, и Кристиан Лейбель, основываясь на недавних работах, посвященных индексу прорыва (disruptive index), в своем письме описывают скрытые степени свободы в расчете DI1 и других индикаторов.
• Марион Шмидт исследовала, почему некоторые отозванные статьи продолжают цитироваться. Вкратце: предполагается, что в некоторых ситуациях результаты, представленные в отозванных статьях, по-прежнему считаются частью развития конкретной темы исследования.
• Пол Доннер в Journal of Infometrics высказал замечания насчет модифицированного фракционного (долевого) учета.
• Вышла статья, в которой предлагается подробное описание возможной новой метрики — PWI (Prize Winner Index, или индекс лауреатов премий), основанной на числе Эрдёша.
• В Learned Publishing опубликовано исследование специальных выпусков и их роли в научном ландшафте. Отмечается, что публикации в специальном выпуске могут обеспечить более высокие показатели цитирования и возможность зарекомендовать себя в новой области.
Издательская политика
• arXiv сообщил, что в октябре 2024 года в репозиторий поступило в общей сложности 24 226 материалов, что побило предыдущий ежемесячный рекорд июля 2024 года (21 794). Таким образом, общее количество материалов, поданных на arXiv с августа 1991 года по конец октября 2024 года, достигло 2 597 322.
• Web of Science опубликовали список самых цитируемых исследователей 2024 года. В него вошли пятеро российских ученых: двое из Сколково и по одному из МГУ, ТюмГУ и Минздрава.
• Журнал Soft Computing издательства Springer отозвал 330 статей. Большинство отозванных статей были приняты к публикации приглашенными редакторами.
• Журнал eLife все же был исключен из базы данных Web of Science из-за необычной практики журнала публиковать статьи вместе с отзывами рецензентов, при этом не принимая и не отклоняя их. В Scholarly Kitchen обсуждается реакция DORA на эту историю. Вкратце, DORA считает позицию Clarivate устаревшей.
• В Web of Science теперь доступен поиск по идентификатору организации ROR.
Наука и университеты
• В Times Higher Education опубликована заметка о культуре «менеджериализма», которая мешает академической свободе и научному развитию во многих областях.
• В рамках IV Конгресса молодых ученых состоялся круглый стол по теме «Как научному изданию попасть в «Белый список»?» Представители вузов и научных организаций обсудили текущее состояние Белого списка и планы по его развитию.
Новости AI
• Роберт Харрингтон из Американского математического общества размышляет о конфликте между идеалами открытости и напряженным отношением к ИИ, в частности, LLM, которые могут «поглощать» работы, опубликованные под лицензией Creative Commons, без согласия авторов.
• Scholar PDF Reader внедрил AI outline, т.е. детализированное содержание статьи, которое включает маркеры для каждого ключевого раздела. Об этом пишет коллега из канала «Что-то на научном». Маркер позволяет сразу переключиться на нужный фрагмент статьи, минуя просмотр неактуальных для читателя разделов.
• Википедия запустила проект WikiProject AI Cleanup. Задача проекта — поиск и удаление из электронной энциклопедии ложной информации, сгенерированной ИИ.
#дайджест #ИИ #clarivate #белыйсписок
Представляем дайджест научных событий за последний месяц.
Научные статьи
• Лутц Борнманн, один из членов редколлегии Scientometrics, и Кристиан Лейбель, основываясь на недавних работах, посвященных индексу прорыва (disruptive index), в своем письме описывают скрытые степени свободы в расчете DI1 и других индикаторов.
• Марион Шмидт исследовала, почему некоторые отозванные статьи продолжают цитироваться. Вкратце: предполагается, что в некоторых ситуациях результаты, представленные в отозванных статьях, по-прежнему считаются частью развития конкретной темы исследования.
• Пол Доннер в Journal of Infometrics высказал замечания насчет модифицированного фракционного (долевого) учета.
• Вышла статья, в которой предлагается подробное описание возможной новой метрики — PWI (Prize Winner Index, или индекс лауреатов премий), основанной на числе Эрдёша.
• В Learned Publishing опубликовано исследование специальных выпусков и их роли в научном ландшафте. Отмечается, что публикации в специальном выпуске могут обеспечить более высокие показатели цитирования и возможность зарекомендовать себя в новой области.
Издательская политика
• arXiv сообщил, что в октябре 2024 года в репозиторий поступило в общей сложности 24 226 материалов, что побило предыдущий ежемесячный рекорд июля 2024 года (21 794). Таким образом, общее количество материалов, поданных на arXiv с августа 1991 года по конец октября 2024 года, достигло 2 597 322.
• Web of Science опубликовали список самых цитируемых исследователей 2024 года. В него вошли пятеро российских ученых: двое из Сколково и по одному из МГУ, ТюмГУ и Минздрава.
• Журнал Soft Computing издательства Springer отозвал 330 статей. Большинство отозванных статей были приняты к публикации приглашенными редакторами.
• Журнал eLife все же был исключен из базы данных Web of Science из-за необычной практики журнала публиковать статьи вместе с отзывами рецензентов, при этом не принимая и не отклоняя их. В Scholarly Kitchen обсуждается реакция DORA на эту историю. Вкратце, DORA считает позицию Clarivate устаревшей.
• В Web of Science теперь доступен поиск по идентификатору организации ROR.
Наука и университеты
• В Times Higher Education опубликована заметка о культуре «менеджериализма», которая мешает академической свободе и научному развитию во многих областях.
• В рамках IV Конгресса молодых ученых состоялся круглый стол по теме «Как научному изданию попасть в «Белый список»?» Представители вузов и научных организаций обсудили текущее состояние Белого списка и планы по его развитию.
Новости AI
• Роберт Харрингтон из Американского математического общества размышляет о конфликте между идеалами открытости и напряженным отношением к ИИ, в частности, LLM, которые могут «поглощать» работы, опубликованные под лицензией Creative Commons, без согласия авторов.
• Scholar PDF Reader внедрил AI outline, т.е. детализированное содержание статьи, которое включает маркеры для каждого ключевого раздела. Об этом пишет коллега из канала «Что-то на научном». Маркер позволяет сразу переключиться на нужный фрагмент статьи, минуя просмотр неактуальных для читателя разделов.
• Википедия запустила проект WikiProject AI Cleanup. Задача проекта — поиск и удаление из электронной энциклопедии ложной информации, сгенерированной ИИ.
#дайджест #ИИ #clarivate #белыйсписок
November 30, 2024