620014 г. Екатеринбург
ул. Московская, д. 29
тел. +7 (343) 371-45-36

Новости

23 Марта 2017

Подготовка научной статьи – это тоже наука

МОСКВА. Проблемы ученых-гуманитариев, связанные с подготовкой статей, соответствующих международным требованиям, и их влиянием на научные рейтинги авторов, небезразличны российским ученым. Вот мнение одного из самых сведущих в этом вопросе специалистов - эксперта Scopus, председателя Российского экспертного совета по оценке и продвижению журналов в международные информационные системы, президента Ассоциации научных редакторов и издателей Ольги Кирилловой.
 
За широту аудитории
Известная статья профессора И.Стернина, опубликованная в газете «Поиск»,  отражает достаточно типичное отношение к текущей ситуации и к поставленной для всех ученых России задаче выходить на международный уровень, печатаясь в журналах, индексируемых в международных наукометрических базах данных (МНБД), в частности Web of Science Core Collection (WoS CC) и Scopus. Если честно, выступление ученого в определенной степени заслуживает поддержки, многие высказанные замечания справедливы. Однако некоторые из аспектов проблемы требуют комментариев и пояснений, а где-то - возражений.

Надо отдать должное профессору И.Стернину в том, что он поднял вопросы, которые заслуживают объективной оценки, так как касаются интересов большей части его коллег, представляющих не только гуманитарные, но и социальные области науки. Какие же решения и какие шаги можно предпринять, чтобы оценка научной деятельности и публикационной активности авторов этих областей науки была более объективной и адекватной, а публикации качественными и доступными всему заинтересованному научному сообществу, как российскому, так и зарубежному?

Как эксперт Scopus, имеющий многолетний опыт экспертизы журналов для этой БД (причем не только российских), не могу поддержать точку зрения о том, что результаты российских исследований в гуманитарных и социальных науках никому за рубежом не интересны, как неинтересны и российские журналы. Однако не поддерживаю также и противоположную (крайнюю) точку зрения, что МНБД можно и нужно считать единственными ресурсами для получения данных о качественных публикациях российских ученых по этим областям знания и строить на их основе отчетность о научной деятельности.

Менее 10 лет назад, когда было принято Постановление № 312 от 8 апреля 2009 года “Об оценке и о мониторинге результативности деятельности научных организаций...”, перед российскими учеными впервые была поставлена задача расширения присутствия в международном научном информационном пространстве. Это позволило по-новому взглянуть не только на наши публикации и журналы, но и в целом на российскую науку в сравнении с мировой.

Пребывание долгие годы, можно сказать десятилетия, в изолированном информационном пространстве сформировало у большинства российских ученых представление об исключительности своих исследований, никаким образом не пересекающихся с международной гуманитарной наукой. Нацеленность только на внутреннюю, российскую научную читательскую аудиторию, или ограничение аудитории собственным кругом общения, или вообще отсутствие интереса к тому, кто будет читать статьи и другие работы, имеет следствием то, что написанное в малоизвестных изданиях, с годами ставших недоступными, осталось неизвестным широкой научной аудитории, молодому поколению исследователей. Так случается и сейчас, когда авторы публикуют свои работы в сборниках статей собственных университетов, межвузовских сборниках или выпускают монографии и учебные пособия тиражом 100 экземпляров. Еще хуже, если авторы размещают свои результаты только в виде тезисов в сборниках докладов региональных или российских конференций. И более нигде.

Не могут самые интересные результаты научных работ оставаться только в таких изданиях! Даже труды международных конференций, если они не опубликованы в каком-либо журнале, не гарантируют достойной читательской аудитории.
К тому же сборники тезисов и трудов конференций, издаваемые в России, как правило, являются нерецензируемыми изданиями. Излишне говорить, что любое научное произведение, прежде чем быть изданным, должно быть оценено коллегами, независимо от статуса и заслуг ученого. И это нормальная, признанная международная практика. Хотя в российской редакционно-издательской и авторской среде до сих пор нет полного понимания важности независимого рецензирования. Но это уже другая тема...
 
Аналоги есть!
Во всем мире признано требование, чтобы в сопровождающих публикацию списках литературы цитировались доступные или имеющие место постоянного хранения издания. Это сделано потому, что цитируемые источники по всем международным стандартам и признанию международного научного сообщества могут стать для ученых отправной точкой для дальнейших исследований, доказательствами достоверности использованных методов и полученных результатов, стимулом для ознакомления с другими работами автора публикации.

Действительно, смешно выглядит в приведенной в качестве примера профессором И.Стерниным инструкции для авторов журнала ограничение на цитирование не более трех собственных публикаций (и правда, почему трех?), однако одно только самоцитирование не может поддерживаться ни журналом, ни экспертами, ни коллегами. Не может автор оригинальной научной статьи не провести хотя бы минимальный анализ исследований, выполненных до него. Никогда не соглашусь с заявлением, что исследования некоего автора, в том числе и в гуманитарных науках, не имеют никаких аналогов и никакой предыстории. Мы живем в информационном обществе, насыщение знаниями в котором уже переполняет возможности их восприятия, поэтому мало что в нашем веке остается хотя бы в какой-то степени не изученным. Важно только уметь найти это изученное, иметь навыки или помощников в его поиске.  
Всем известно, что в диссертациях, как правило, приводятся большие списки литературы, которую соискатель при всем желании не в силах прочитать. Думаю, не надо пояснять, как составляются эти списки. Например, цитирование работ научного руководителя является обязательным условием при написании диссертации, и количество таких ссылок никоим образом не регулируется. Это - к вопросу об индексе Хирша (в статье упоминается, что у ее автора он составляет 42) и большом количестве ссылок на работы профессора И.Стернина по данным РИНЦ. Столь высокая цифра вполне объяснима и оправдана при большом объеме научно-педагогической деятельности, значение которой никто ущемлять не намерен.    

Приведенные выше аргументы даны для того, чтобы показать, что в современном глобальном информационном мире очень важно сделать опубликованные результаты исследований доступными для читателя. Изданиями, которые обеспечивают доступность и широкое использование результатов, являются периодические издания. Мне могут возразить, что для гуманитариев основным источником знаний является монография. Но ведь монография пишется, когда исследование завершено или перешло в заключительную фазу. Она должна быть законченным полноценным произведением, представляющим конечный результат работы (или ее большого этапа) и обзор предшествовавших исследований в полном объеме. Но разве промежуточные и основные результаты исследований не должны публиковаться в научных журналах? Именно такие публикации дают оперативную и доступную всем ученым, в том числе гуманитариям, информацию о происходящем в их области знаний.

Безусловно, подготовить публикацию в авторитетный международный журнал - это большая и длительная работа. Затрудняют подготовку статей и языковые ограничения, и большая конкуренция, однако такая задача вполне может быть решена и через растущий пул российских журналов, включаемых в МНБД, который становится все более значимым.   

Конечно, не исключаются любые другие научные коммуникации. И чем шире они, тем больше возможностей выйти на международный уровень предъявлением результатов своей работы. Пока же остается только сожалеть, что, будучи авторитетным ученым с мировым именем, членом Международной ассоциации прикладной психолингвистики, Международной прагмалингвистической ассоциации и Общества научно-технического и культурного сотрудничества с Германией, профессор И.Стернин не представил в должном объеме свои исследования мировому сообществу.
 
Сила инструкции
Согласна с автором статьи и в том, что порой требования, которые приводят наши журналы в своих инструкциях для авторов, выглядят абсурдными. Особенно если они плохо продуманы, формальны и совершенно не учитывают тематику исследований. Скорее всего, они продиктованы желанием бороться с поступающими некачественными статьями и каким-то образом научить авторов грамотно излагать материал, ответив на вопросы, позволяющие задуматься и понять, что научная статья все-таки должна отличаться от “потока сознания”, от публицистической или популярной статьи, должна иметь определенную структуру, облегчающую восприятие, логику изложения, определенную завершенность и т.д.
Не будем сейчас говорить, какой должна быть научная статья. Этому посвящено множество различных публикаций и методических материалов. И хотя авторитетный ученый имеет на это свою точку зрения, тем не менее каждый журнал устанавливает свои правила и имеет право контролировать и требовать их выполнения авторами.

Все ведущие издательства мира разрабатывают инструкции для авторов, выдвигают требования к подаваемым рукописям, так как стремятся получить качественный, логичный, достоверный, грамотный научный материал, корректно его представить читателям, не уронив своего авторитета. Каждый журнал ответственен за контент, который предлагает своим читателям. Российские журналы в принципе с этой традицией не знакомы. Безусловно, приведенный в статье И.Стернина пример инструкции для авторов скорее показывает, как не надо писать инструкции. Но то, что они в принципе нужны, неоспоримо. Причем качественные, продуманные, логичные, с необходимыми, но не избыточными требованиями.

Структура аннотации и статьи, оговоренный объем научной статьи - эти требования в инструкциях зарубежных журналов взяты не “с потолка”. Проведено немало исследований на эту тему. Аннотация, информативная, содержательная, кратко и емко раскрывающая основные положения статьи, является наиболее важной ее частью, которую читают чаще, чем любую другую, однако контроль за ее качеством всегда берет на себя редакция журнала. Это мировая практика. Зарубежные гуманитарные журналы просят от своих авторов аннотации от 100-150 до 200-250 слов. Для русскоязычных статей тем более важно иметь англоязычные аннотации с краткой, но максимально полной информацией об их содержании.

Обоснованы требования и к структуре и объему научной статьи. Установлено, что в зависимости от научной дисциплины оригинальная научная статья, содержащая полноценное представление результатов исследования, не может быть меньше 3000-6000 слов (6-10 страниц текста в журнале с иллюстрациями). Могут быть другие типы научных публикаций - заметки, краткие сообщения, письма в редакцию и т.д., для которых такой объем не требуется. Безусловно, могут существовать и отступления от этих правил. Однако статьи от 1,5 до 3-4 журнальных страниц обычно воспринимаются как “нарезка салями”, то есть намеренное дробление изложения результатов исследования по нескольким публикациям для увеличения их числа.  

Стремление российских журналов попасть в Scopus или WoS CC требует от них соответствия международным стандартам, как формальным, так и по качеству публикуемого материала. И часто оказывается, что это достаточно сложно. Одно дело - соответствовать международным издательским стандартам, другое - наполнить журнал таким контентом, который был бы понятен, интересен и принят международным сообществом и стал бы привлекательным во всех отношениях для российских ученых.

Профессор И.Стернин, являясь авторитетным ученым, не может не знать о той большой бреши, которая возникла в связи с тем, что у молодого поколения ученых не сформированы и не формируются навыки академического письма, не только на английском, но и на русском языке (я не говорю о грамотности молодого поколения, точнее, о ее отсутствии). В Интернете, на Youtube и других специальных сайтах можно найти массу записей лекций зарубежных профессоров для молодого поколения ученых о том, как проводить исследование, как писать научные статьи, диссертации и т.д. На сайтах ведущих зарубежных издательств, зарубежных университетских библиотек размещена масса материалов, помогающих авторам подготовить качественную статью, соответствующую международным стандартам.

Много ли у нас таких лекций? Много подобных материалов на сайтах библиотек? Думаю, единицы. Возможно, этим отчасти и объясняется, что сложившаяся практика и навыки написания статей старшим поколением отечественных ученых, к сожалению, до сих пор остаются советскими или сугубо российскими. Как и издательские стандарты, которые также отличаются в значительной степени от того, что требуется в условиях расширяющихся научных коммуникаций и международного взаимодействия ученых разных стран.

И последнее. Мне трудно согласиться с тем, что РИНЦ может быть единственным и достаточным ресурсом для демонстрации опубликованных результатов научных исследований. И хотя на национальном уровне в настоящее время ему замены нет, учитывать в отчетах любые издания и публикации, без ограничений включаемые в РИНЦ, в том числе весь тот “мусор”, который в большом объеме появляется в, мягко говоря, недоброкачественных изданиях, и все это считать научным продуктом - невозможно! Только издания и публикации, отобранные по серьезным критериям, прошедшие рецензирование и тщательную редакционную подготовку, могут быть признанными в научных отчетах и проектах. Иначе мы захлебнемся в потоке никому не нужной некачественной и ненаучной информации!

КСТАТИ:
На сайте Федерального агентства научных организаций недавно опубликованы индикативные рейтинги академических институтов 2014 и 2015 годов по критерию публикационной активности исследователей. В этих документах приведены данные по числу публикаций, индексируемых в базах данных WоS и РИНЦ, цитируемости, среднему импакт-фактору журналов, в которых печатаются сотрудники НИИ. По каждому из параметров дается информация - как для всей организации, так и в расчете на одного сотрудника. Таблицы построены таким образом, что позволяют ранжировать институты по любому из показателей.
Рейтинги прокомментировал один из инициаторов их создания, член Научно-координационного совета (НКС) ФАНО, председатель Совета по науке при Минобрнауки РФ, проректор Московского государственного университета им. М.В.Ломоносова академик Алексей Хохлов.
 
- Какова роль НКС в формировании рейтингов публикационной активности подведомственных ФАНО институтов?
 
- НКС инициировал процесс и помог ФАНО разработать форму представления результатов. На наших заседаниях велись жаркие споры, какой из показателей важнее. В итоге мы пришли к выводу, что таблицы должны быть интерактивными, чтобы пользователь мог ранжировать институты по любому из параметров. Это ведь не жесткий рейтинг, выстроенный по определенным правилам, а просто цифры для анализа. Информация, как мне кажется, важная, и пользоваться ею удобно.
 
- Поясните, по какому принципу в таблицах сгруппированы институты?
 
- Они объединены в референтные группы, в рамках которых будут проводиться мониторинг и оценка результативности их работы. Понятно, что НИИ может вести исследования по разным направлениям. Но для целей оценки каждая организация самостоятельно выделила одно направление, в рамках которого в основном работает.
 
- Откуда взяты приведенные данные?
 
- Базовая информация была взята в Федеральной системе мониторинга результативности деятельности научных организаций (sciencemon.ru). Однако некоторые приведенные там цифры явно не соответствовали действительности, так что их пришлось уточнять. В итоге, насколько я знаю, ФАНО немало потрудилось, чтобы получить корректные цифры.
 
- Как, на ваш взгляд, получившаяся картина характеризует уровень академической науки?
 
- Объективно характеризует. Это ведь зеркало: глядя на отражение, организации должны задуматься о своих успехах и неудачах.
 
- Насколько НИИ РАН соответствуют мировым стандартам - по публикациям, цитируемости?
 
- Кто-то соответствует, а кто-то нет. Я полагаю, что с учетом существующей организационной структуры российской науки хороший результат для института - не менее одной статьи и 20 цитирований в год в расчете на одного сотрудника. Для технических и естественных наук это должны быть публикации, индексируемые в Web of Science, для гуманитарных - в РИНЦ (за неимением лучшего). Если у института, который занимается фундаментальными, а не прикладными исследованиями, показатели хуже - это повод задуматься, все ли с ним в порядке.
 
- Как рейтинги будут использоваться?
 
- Разумеется, их будут иметь в виду комиссии, анализирующие результативность институтов. Но проверяющие будут опираться не только на эти цифры: оценка ведется по большому числу параметров.
 
- Среди ученых много противников оценки научного уровня на основе библиометрии, они считают, что правильный ответ могут дать только эксперты.
 
- Я бы не стал противопоставлять качественный и количественный способы анализа. Да, в ряде случаев вывод о ценности результатов должны сделать специалисты. Экспертная оценка играет важную роль, к примеру, когда речь идет об индивидуальных достижениях: их иногда непросто “оцифровать”. А вот на уровне крупных научных структур, когда показатели усредняются, более информативными становятся количественные подходы. Кроме того, экспертизе можно доверять, только если она свободна от конфликта интересов, а в российских условиях этого достичь не так просто. Поэтому нужно сочетать оба подхода.
 
- И все же, каким, по-вашему, должен быть удельный вес в оценке наукометрии и экспертизы. Как этот вопрос решают, например, составители международных университетских рейтингов?
 
 - В международных рейтингах при начислении баллов учитывается не только публикационная активность, но и другие формальные критерии - доля привлеченного финансирования, иностранных студентов. Хотя и репутационная оценка на основе экспертных анкет, конечно, тоже учитывается. Вклад количественных и качественных показателей зависит от вида рейтинга. Но в среднем их соотношение составляет 50:50.
 
- А вы лично узнали из академических рейтингов что-нибудь новое о коллегах, работающих в вашей области?
 
- Нет, для меня эти цифры не новость. К наукометрии я в принципе отношусь серьезно и всегда внимательно знакомлюсь с цифрами, например, когда речь идет о выборах членов РАН по моей специальности или о присуждении научных премий. К сожалению, так делают не все мои коллеги. Возможно, наличие системы таблиц, из которых можно получить представление о том или ином институте, изменит ситуацию. Надеюсь, что ФАНО будет продолжать и развивать эту важную инициативу.
 
- А в каких направлениях ее можно развивать?
 
- Ну, например, хорошо бы обнародовать данные о привлеченном финансировании в расчете на сотрудника. Пора вводить в обиход и индивидуальные рейтинги. Совет по науке при Минобрнауки считает, что наиболее ценный материал для анализа дает сравнение не институтов, а лабораторий, научных групп, отдельных ученых. Мы в МГУ давно это делаем с помощью информационно-аналитической системы “ИСТИНА”, которая дает возможность составлять рейтинги факультетов, кафедр, лабораторий, сотрудников. Это очень помогает при принятии организационных решений. Я рассказал о нашем опыте на заседании НКС ФАНО, и совет наметил пилотный проект по включению в эту систему ряда академических институтов. Сейчас мы проводим эту работу с десятью НИИ, участвующими в эксперименте.

Источники: газета «Поиск», Наука и технологии РФ

Календарь новостей

Пн Вт Ср Чт Пт Сб Вс
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30      
Поиск по новостям
© 2006 — 2007 Институт экономики Уральского отделения Российской академии наук

г. Екатеринбург
ул. Московская, д. 29

+7 (343) 371-45-36