http://www.ras.ru/digest/showdnews.aspx?id=57edafb5-c5d1-461a-af37-a12153728f7d&print=1
© 2024 Российская академия наук

Цифровой синдром

14.11.2008

Источник: Поиск, Игорь Броневой, д.ф.-м.н., главный научный сотрудник Института радиотехники и электроники им. В.А.Котельникова РАН



Стремление оздоровить науку может вызвать обратный эффект

Замминистра Александр Хлунов, завершая работу круглого стола, где обсуждалась система оценки результативности государственных научных организаций, разработанная Минобрнауки, предложил ученым присылать конкретные предложения по ее совершенствованию. Об этом сообщалось в статье “Обещали не кошмарить” (см. “Поиск” №39, 2008). Сегодня мы публикуем отзыв нашего читателя, предлагающего, прежде всего, обсудить критерии, положенные в основу этой системы.

А.Абрикосов в одном телефильме рассказывал, что Л.Ландау, первоначально счел ошибочной и “затормозил” публикацию теории, за которую спустя полвека Абрикосову присудили Нобелевскую премию. Абрикосов предлагал и одному выдающемуся ученому (будущему академику) экспериментально проверить выводы этой теории. Как показало время, они имели огромное практическое значение. Но тогда, не доверяя им, тот ученый от исследований отказался, о чем очень жалел даже спустя десятилетия.

Таких случаев, когда новые научные результаты оценивались по достоинству далеко не сразу, не перечесть. Этапы признания научного открытия юмористически, но абсолютно реально были представлены в книге “Физики шутят”: “Сначала говорят, что этого не может быть. Через некоторое время начинают отмечать, что в этом что-то есть. И уже только потом признают: в этом нет ничего непонятного”.

Субъективизм в оценке исследований может лишить отечественную науку крупных научных достижений. Так что стремление как можно беспристрастнее измерить их качество понятно. Но лучше ли справятся с этой задачей цифры?

Количество опубликованных за год статей может годиться для оценки эффективности работы ученого, но только в том случае, когда тому заранее ясно, какой метод исследований применить и что в результате должно получиться. Эта ситуация не характерна, например, для фундаментальных исследований, в которых выявляется то, что науке было ранее неизвестно. Они предполагают поиск методов исследования, неоднократную реконструкцию экспериментальной установки, обнаружение явления, часто отличного от ожидаемого, поиск методов описания этого явления и выяснения механизма его образования, то есть фундаментальных процессов, его порождающих. Для выполнения таких работ, как правило, требуются годы. По крайней мере, год, а то и больше, уйдет только на один этап, результаты которого будут достойны публикации. Поэтому так невелико было количество публикаций у выдающихся ученых, являвшихся беззаветными тружениками, самостоятельно занимавшихся фундаментальными исследованиями и не позволявших себе приписывать свое имя к чужим результатам. Пример - Альберт Эйнштейн. В России - физики, академики А.Шальников и Ю.Шарвин (на последнего уже ссылался ранее в том же контексте вице-президент РАН академик А.Андреев). Принятие такого критерия оценки деятельности ученого, как частота появления статей, может принести вред фундаментальной науке, поскольку: а) оттолкнет от требующего значительного времени (и сопряженного с риском) решения трудоемких фундаментальных проблем; б) сделает выгодным ограничиваться расширением только уже известных областей науки; в) вызовет приток публикаций скороспелых, недостаточно проверенных результатов; г) будет провоцировать некоторых ученых стремиться попасть в число авторов работ, выполненных без их участия.

Именно поэтому, а не из-за лености или боязни ответственности все известные автору авторитетные ученые, специализирующиеся на фундаментальных исследованиях, считают неверной, способной принести вред оценку эффективности работы ученого по количеству публикаций.

Оценку ученого по цитируемости его работ можно было бы проводить только в том случае, если бы можно было жестко проконтролировать, что каждый автор, опирающийся на чью-то предшествующую работу, обязательно ее цитирует. Но такого контроля нет, и маловероятно, что он когда-нибудь будет. Известно множество случаев, когда люди явно опирались на опередившие их чужие работы, но не ссылались на них. Мотивация таких авторов понятна: не упоминая о предшественниках, они надеются выдать свои работы за первооткрытия. Вспомним относительно недавнее присуждение Нобелевской премии американским ученым за открытие, сделанное нашим соотечественником В.Летоховым. Далее. Очень высокий индекс цитируемости получают авторы научных обзоров, в которых порой даже нет научных результатов самих авторов. И в этом случае индекс цитируемости не отражает эффективности исследовательской работы этих авторов. Бывают случаи, когда индекс цитируемости повышают, добиваясь вписывания себя в число авторов работ, в выполнении которых фактически не участвовали.

А случаи, когда научный результат опередил свое время? Например, получен новый фундаментальный результат теории, а уровень развития экспериментальной техники еще недостаточен для его проверки. Или на уникальной экспериментальной установке после колоссальных затрат труда получен новый результат, но теория еще не располагает нужным для его анализа аппаратом, а у других экспериментаторов нет ни оборудования, ни “подсказок” теории, чтобы продолжить исследования в новой области. В обоих случаях авторы нового результата будут продолжать свою работу без какого-либо цитирования в течение, возможно, достаточно долгого времени, хотя полученный ими результат может оказаться существенным для фундаментальной науки. Наконец, автор может полностью самостоятельно решить отдельную специальную проблему и тем самым закрыть соответствующую область для исследований. Тогда, как нередко случается, на его работу будут ссылаться в основном в монографиях, а не в журналах, публикующих результаты текущих исследований.

Подводя итог, приходится заключить, что индекс цитирования не позволяет во многих случаях объективно оценить эффективность научной работы. Важные в фундаментальном отношении исследования могут иметь низкий индекс цитирования. Но если из-за отсутствия материальной поддержки они прекратятся, прогресс фундаментальной науки затормозится.

Предлагается в оценке эффективности научных исследований учитывать импакт-фактор журнала. У зарубежных изданий он выше. Но публикация статьи в солидном, издающемся за рубежом научном журнале может стоить порядка 1000 долларов США. Маленькой группе ученых, имеющей, скажем, один грант РФФИ, такую сумму выделить очень сложно. Бюджет распределяется между затратами на оборудование и надбавками к зарплате, которая у многих еще очень далека от планировавшихся 30 тысяч рублей. Рецензирование для зарубежных журналов отличается тем, что в некоторых журналах оценку статьи поручают двум экспертам, но его качество, как правило, ничем не лучше, чем в наших отечественных академических журналах. Бывают и случаи неквалифицированного, ошибочного рецензирования рукописей, отосланных в зарубежные журналы. В то же время сегодня публикация в отечественных академических журналах также быстро становится доступной для научного мира. Эти журналы издаются на русском и английском языках. Информация об их содержании есть в Интернете. Как правило, ученые при поиске статей по интересующей их области и пользуются Интернетом, поскольку почти невозможно успевать просматривать огромное количество издаваемых журналов. Наконец, ориентирование на импакт-фактор толкает ученых на отправку статей в зарубежные журналы, а не в отечественные. Тем самым лишая последние того авторитета, который они справедливо должны были бы иметь, представляя мировой научной общественности лучшие достижения отечественной науки.

В итоге, если при оценке научной деятельности ориентироваться на импакт-фактор, то: а) не получат справедливой оценки работы ученых, направляющих рукописи в отечественные журналы (исходя из своего финансового положения и разумного патриотизма); б) российские научные журналы не обретут того авторитета, который заслуженно должны иметь.

Участие в конференциях и статус доклада - еще один предлагаемый показатель эффективности научной работы. Заметим: реальная продуктивность участия в конференции уменьшается по мере того, как растет количество ее участников. Это связано с тем, что из-за обилия докладов уменьшается возможность подробного представления и тщательного обсуждения отдельной работы. Крупные международные конференции полезны для завязывания научных контактов, для кооперации. А также для повышения рейтинга ученых (что актуальнее для работающих за рубежом и систематически меняющих место работы). Последнее обстоятельство приводит к тому, что распределение устных и стендовых докладов не всегда справедливо. Нередко, присуждая докладам российских ученых статус не устных, а лишь стендовых, программный комитет аргументирует это тем, что-де россиянин может заявить доклад и не приехать. Организаторов можно понять: транспортные расходы, оплата регистрационного взноса и гостиницы, расходы на питание - все это, если взять солидную международную конференцию, в сумме может составлять до 2000 евро. Многим, как уже говорилось выше, пришлось бы для этого отказаться от и так небольших надбавок к зарплате или от приобретения необходимого научного оборудования. Что же касается российских конференций, то тут статус доклада порою зависит даже не от качества работы, а от того, насколько широко в нашей стране исследуется соответствующая область науки. Например, очень актуальные в мире оптические исследования сверхбыстрых процессов в полупроводниках в России долгое время проводила только одна группа, сумевшая, тем не менее, создать новое научное направление и сохранять в нем лидирующее положение в мире. Сейчас, по-видимому, добавилось еще несколько групп, экспериментально исследующих такие процессы. Однако из-за малочисленности ученых, занятых такими исследованиями в нашей стране, сессия по сверхбыстрым процессам назначается на отечественных полупроводниковых конференциях только стендовой. Наконец, программный комитет конференции, бывает, недооценивает значение работ. Так, статус стендового доклада в свое время получило на отечественной конференции по физике низких температур первое сообщение А.Аронова и Б.Альтшулера о теории, за которую им впоследствии была присуждена премия Европейского физического общества.

В итоге и такой критерий, как участие в конференциях, и статус доклада оказываются ненадежными для оценки эффективности научных исследований. Поскольку: а) неучастие в международных конференциях может быть связано и с финансовыми трудностями (клянчить финансовую помощь у организаторов конференции унизительно), и с отмеченным снижением пользы от участия в конференциях с большим количеством участников; б) предоставление статуса доклада не всегда определяется только ценностью работы.

Автор видит пока единственный способ оценки эффективности научных исследований - тот, что обычно используется при рассмотрении проектов НИР, представляемых на разные конкурсы. Он хорошо зарекомендовал себя на конкурсах РФФИ, еще ранее на конкурсе Фонда Сороса и др. Заключается он в предоставлении научного отчета о подлежащей оценке научной деятельности с приложением опубликованных статей на экспертизу двум (или более) ученым, авторитетным специалистам в той же области науки. И если оценка оказывается негативной, а оцениваемая сторона с ней не согласна или мнения экспертов разошлись, то для арбитража назначается еще один эксперт. Конечно, и этот способ не будет абсолютно застрахован от субъективности. Но он позволит оценить эффективность научных исследований более корректно, чем метод, основывающийся на количестве публикаций, индексе цитирования, импакт-факторе журнала, участии в конференциях, статусе доклада. Последний выглядит более универсальным, легче выполнимым и дешевым, но его недостатки способны резко затормозить развитие научных исследований, отчего он и представляется пока малоприемлемым. А, реформируя организацию научных исследований, важно руководствоваться тем же принципом, что и в медицине: главное - не навредить.