Науковий карго-культ - як стимулювання кількості публікацій перетворює українську науку в імітацію
Україна стрімко нарощує кількість наукових публікацій. Якщо рахувати абсолютну кількість статей у міжнародних наукометричних базах, ми виглядаємо як країна з динамічною науковою системою. Але варто подивитися глибше — і цей оптимізм розсипається. Зростання кількості не означає зростання якості. Систему можна змусити продукувати тексти — але чи можна змусити її займатися наукою, а не її імітацією?
Приводом для цієї розмови стала публікація про українські наукові журнали в базах Scopus та Web of Science. У ній зростання кількості журналів і публікацій подається як доказ успіху науки, а потрапляння до престижних міжнародних видань — як універсальний маркер якості. Звідси випливає проста формула: більше публікацій у «правильних» журналах означає кращу науку.
Додатковим аргументом слугує те, що кілька українських журналів увійшли до верхніх квартилів (тобто опинилися в «елітній лізі» наукових видань) одразу в обох базах, причому значна їх частина пов’язана з історичними науками. На цій підставі робиться висновок про відсутність дискримінації гуманітарних наук і про те, що інтерес до української історії, посилений війною, відкрив гуманітаріям шлях до міжнародного визнання.
Із цієї ж логіки випливає практичний висновок: журнали, що не індексуються в міжнародних базах, варто поступово виводити з обігу. Після посилення таких вимог 2018 року кількість українських журналів і статей у міжнародних базах справді зросла. Та в цих «досягнень» є темна сторона.
Коли більше не означає краще
У 2016–2018 роках публікації в журналах зі Scopus та Web of Science стали обов’язковою умовою для отримання вчених звань, а згодом — і ліцензії на освітню діяльність. Результати виявилися приголомшливими: за кількістю публікацій на одного дослідника ми випереджаємо США, Японію, Німеччину та інші науково найпотужніші держави.
Проте для науки необхідні не лише дослідники, а й ресурси: гроші на лабораторне обладнання, польові дослідження, опитування, доступ до літератури та програмного забезпечення. Тому доцільніший показник — кількість публікацій на одиницю інвестицій.
На цьому графіку розвинуті країни опинилися внизу, а Україна — поруч з Іраком, Пакистаном і Тунісом. Чи означає це, що наша наука в десятки разів ефективніша, ніж у Японії чи США? Якщо судити за наукометрією — безумовно. Але насправді багато статей зовсім не означає багато науки.
Сучасна наука переживає глибоку кризу через одержимість кількісними показниками. Фокус змістився з наукових відкриттів на досягнення найбільшої кількості публікацій, цитувань і найвищих місць у рейтингах. Результат? Лавина «сміттєвих» публікацій, фальсифікацій та імітації.
Коли рекорди стають проблемою
Для порівняння: у 1950-х роках науковці публікували другу статтю в середньому через 22 роки після першої. У 2010-х — вже через три роки. Продуктивність зросла більш як у сім разів. Та чи стала наука кращою?
Проблеми почалися з начебто благородної ідеї: створити «об’єктивну» систему оцінювання. На додачу до суб’єктивного процесу експертного рецензування запровадили лічильники: кількість статей, цитувань, індекс Гірша.
Проте спрацював закон Гудхарта: коли показник стає метою, він перестає бути хорошим показником. Деякі представники академічної спільноти почали використовувати нові правила для штучного підвищення показників: плагіат, поділ досліджень на дрібні статті, платні послуги «паперових фабрик», «хижацьких видань» і «картелів цитувань». Водночас люди, які не хотіли маніпулювати показниками, опинялися внизу рейтингів і без фінансування. А найвправніші маніпулятори робили кар’єру та лобіювали систему далі.
2024 року скандал сколихнув філософську спільноту: три «фейкові» журнали потрапили до десятки найпрестижніших видань за рейтингом CiteScore. У математиці університети без математичних кафедр виявилися лідерами за кількістю високоцитованих робіт, обігнавши Принстон і Стенфорд. Хижацьких неякісних журналів не існувало до широкого застосування наукометрії та поширення рейтингів видань.
Продуктивність у виробництві статей не має меж — і цього не розуміють захисники наукометрії. Сьогодні вже є автори, які публікують сотні (!) наукових статей на рік, — і їх стає дедалі більше. Водночас, для порівняння, продуктивність бізнесу є обмеженою. Якщо фірма виробить забагато, то не зможе все продати, й доведеться або знижувати ціну, або просто знищувати частину продукції. Гонитва ж за наукометричними показниками призведе до того, що штучний інтелект і ферми з майнінгу наукових публікацій обженуть будь-якого чесного науковця. Це вже відбувається, й Україна попереду в цих перегонах.
Одне з найнаочніших свідчень кризи в науці — це постійне зростання в міжнародних наукометричних базах частки відкликаних статей. Ідеться про публікації, які після виходу знімають із наукового обігу через серйозні порушення: фальсифікацію даних, плагіат, маніпуляції з рецензуванням або методологічні помилки, що роблять висновки недостовірними. Це означає, що сучасні методи боротьби з маніпуляціями в публікаціях є неефективними. Але як тоді можна довіряти науці, якщо ймовірність підтасування зростає щодня?
Методологічна помилка
Корінь проблеми — у спробі порахувати те, що не підлягає підрахунку. Наукові відкриття принципово різні. Одна стаття може змінити парадигму й уплинути на життя мільйонів, інша ж просто займатиме місце в журналі. Порівнювати статті та підраховувати їх — те саме, що порівнювати жовте, кисле та сумне.
Продуктивність можна вимірювати лише для якісно однорідних речей. Науковий продукт за визначенням унікальний — це нове знання, відмінне від попереднього. Тому будь-які спроби кількісного оцінювання науки методологічно хибні.
Хто виграє від хаосу?
За кризою стоять не лише методологічні помилки, а й економічні інтереси. Велика п’ятірка видавців — Elsevier, Wiley, Taylor & Francis, Springer Nature та SAGE — заробляють мільярди на публікаціях. Їхня норма прибутку сягає 40%, що характерно для монополій. Ця бізнес-модель паразитує на науці: дослідники безплатно пишуть статті, безплатно їх рецензують, а потім їхні ж університети чи самі вчені купують доступ до результатів за шалені гроші. Що більше статей, то більші прибутки видавців. Доходи Elsevier зросли уп’ятеро з 1995 року — саме тоді почали масово впроваджувати наукометричні показники. Від цієї системи виграють також ті університети й науковці, які вже налагодили промисловий процес маніпуляцій та імітацій.
Українська специфіка
В Україні ситуація особливо драматична через поєднання жорстких вимог публікуватися в міжнародних виданнях та мізерного фінансування науки.
Результат — масова імітація. Дослідники змушені «штампувати» публікації, щоб виконати формальні вимоги, але реальних ресурсів для серйозних досліджень майже нема. Тому Україна й лідирує за «продуктивністю» — але це продуктивність паперотворення, а не наукотворення.
Проте для МОН, здається, цих рекордів недостатньо. 2024 року затвердили нову методику атестації, яка також використовує наукометричні показники як основний метод оцінювання. За підсумками атестації держава визначає наукові установи, які за формальними показниками визнані найкращими (категорія «А»), і саме вони отримують додаткове фінансування. Тож можемо очікувати нових рекордів «продуктивності». Іраку, начувайся.
Заступник міністра освіти Денис Курбатов стверджує, що будь-яка формула «точно краща за ручний режим». Проте така формула насправді спрямована на знищення експертизи, а не на її розвиток. Адже це не має стосунку до якості науки.
Остання ініціатива МОН — «Національна система дослідників» — передбачає формування рейтингу для всіх науковців на основі кількості статей, патентів та інших кількісних показників. Для 2650 перших місць передбачено стипендії по 10 тис. грн. Наслідками цієї системи будуть нові рекорди з кількості публікацій та ще гірше становище для дослідників, які хочуть займатися наукою, а не графоманією чи підробкою документів про патенти.
Шлях до порятунку
Виходом може бути кардинальна зміна системи оцінювання. Потрібно відмовитися від підрахунку публікацій і повернутися до змістовної експертизи колег. Так, це суб’єктивні оцінки, але завдяки їм наука розвивалася протягом усієї своєї історії до 1990-х років і запровадження наукометрії. Ця система не є досконалою, суб’єктивні оцінки страждають від упереджень, проте це компенсується механізмами сліпого рецензування, залученням кількох експертів замість одного тощо. Водночас система наукометричних оцінок є об’єктивно хибною, вона вбиває науку.
Сучасні цифрові технології можуть зробити експертне оцінювання прозорішим: створити відкриті платформи, де видно, хто і як оцінює дослідження, де репутація експерта впливає на вагу його думки. Та це не буде швидким процесом. Простих рішень уже нема.
Для швидкого реагування можна запровадити тимчасове обмеження: не більш як три публікації на мільйон доларів фінансування, що ближче до показників розвинених країн. Це може змістити акцент із кількості на якість. Краще одна значуща публікація, ніж сотні таких, що імітують науку.
Наука — це не гра в статистику, а складний процес пошуку істини. Підтримуючи й далі нинішню систему «паперових рекордів», ми ризикуємо остаточно замінити реальних учених на ефективних менеджерів із цитування та штучний інтелект. Настав час визнати: якість не народжується з примусової кількості. Або ми повернемо в академічне середовище живу експертизу та культуру змістовного діалогу, або наша наука так і залишиться яскравим, але порожнім фасадом у звітах міжнародних баз. Порятунок академічної спільноти передбачає складний шлях відновлення довіри до експертного оцінювання.
Інф.: Дзеркало тижня
Коментарі
























