Loading...

«Зависимость от оценки, подверженной политике и эмоциям, сведена к минимуму»
RAEX / Olga K / Flickr

Зачем нашим университетам свои предметные рейтинги с РИНЦем и без экспертов, как различаются направления науки по влиянию на общество и образование, какие университеты стали лидерами по количеству «медалей» в предметном зачете и собрали призы по количеству дисциплин, читайте в материале InScience.News.
«Три миссии»: начало

Зачем России понадобилась собственная система университетских рейтингов и как она появилась? Об этом в своем выступлении рассказал Виктор Садовничий, ректор МГУ им. М.В. Ломоносова: «Рейтинги университетов существовали давно. Еще в восьмидесятые был институт Гэллапа, который рейтинговал российские университеты без американских. Я помню, что Московский университет занимал первое место по этому рейтингу, а Сеченовский — первое место по медицине». Однако затем, по его словам, на первый план вышли рейтинги компаний, а сравнение показателей вузов стало более популярным только в 2000-х годах. Рейтингованию университетов начали уделять много внимания, но в новой системе российские вузы чаще всего оказывались далеко от начала списка, за пределами первой сотни. По мнению Садовничего, это происходило из-за критериев, которые не подходят для российской системы образования. К примеру, из-за учета публикаций в зарубежных научных журналах, в которых в то время российские исследователи публиковались гораздо реже, и отзывов экспертов, которым редко удавалось поработать в российских университетах.

Российской альтернативой этой системе оценки стал рейтинг «Три миссии университета», где, кроме вклада в науку и фундаментальности подхода к образованию, учитывается также роль вуза для общества, например вклад в развитие региона. Также на место в рейтинге влияет оценка 15 международных экспертов. По мнению его создателей, такой подход позволяет оценить университеты с разных сторон и лучше понять их роль для региона и страны.

Продвижение нового рейтинга шло постепенно, со временем удалось заручиться поддержкой президента. В августе 2021 года состоялся пятый выпуск рейтинга, в который вошли 1650 университетов из 97 стран. Систему «Три миссии университета» презентовали образовательному сообществу на международных конференциях. По словам Виктора Садовничего, зарубежные коллеги систему оценки признали и даже стали перенимать некоторые практики и механизмы. В декабре были опубликованы и пилотные локальные рейтинги вузов. В них вошли 327 университетов из 79 регионов России. По словам Виктора Садовничего, эти рейтинги стали использоваться исполнительной властью в регионах, чтобы оценить эффективность госпрограмм.

Конкурс по 29 предметам

Но для оценки образования нужно измерять не только «средний балл» по вузу: многие рейтинги помогают отдельно оценить отраслевые университеты и сильные факультеты многопрофильных образовательных учреждений. Так, Times Higher Education с 2011 года составляет списки лучших университетов по 11 укрупненным направлениям, а линейка QS насчитывает 56 рейтингов, большинство из которых появились в 2018 году. Так можно выделить вузы с отдельными сильными научными школами и достойной подготовкой по конкретным предметам. 30 марта 2022 года Виктор Садовничий анонсировал создание российской системы предметных рейтингов. Они позволяют сравнить сильнейшие университеты по 29 направлениям, среди которых математические и естественные науки, инженерное дело, здравоохранение и медицина, образование и педагогика, гуманитарные науки и науки об обществе.

«Они [предметные рейтинги — прим. InScience.News] дополнили систему академических рейтингов, представленную институциональными рейтингами, в которых оценивались вузы в целом, а не их достижения в отдельных предметных областях. Всем хорошо известны глобальный рейтинг "Три миссии" и национальный рейтинг RAEX-100, в прошлом году мы впервые опубликовали локальные рейтинги вузов России по федеральным округам. Теперь же стало возможным сравнивать университеты в разрезе предметных областей, причем на основании исключительно объективных критериев», — отметил глава Ассоциации составителей рейтингов и советник президента Российского союза ректоров Дмитрий Гришанков.

Составители решили не опрашивать экспертов, а обратиться к статистике. Для оценки применялись данные Минобрнауки РФ, библиометрические показатели, результаты олимпиады «Я — профессионал». Также они проанализировали выставленные на агрегаторах онлайн-курсы от вузов, социальные сети. Учитывались данные системы мониторинга и анализа СМИ и соцмедиа от СКАН-Интерфакс и платформы веб-аналитики Alexa.

Первый выпуск предметных рейтингов включил 136 вузов из 41 региона. Университеты, где нет приема на первый курс по данным направлениям, а также те, где был маленький набор (меньше 100–200 студентов в целом, в зависимости от предметной области), в списки не попали. Среди лидеров «медального зачета» оказались МГУ им. М.В. Ломоносова, занявший лидирующие места по 17 предметам (включая 12 побед), СПбГУ с 13 медалями, а также НИУ ВШЭ, УрФУ и Томский политехнический университет.

Лидером по предметному охвату стал Уральский университет, попавший в списки по 21 направлению благодаря разнообразным инженерным специальностям. У Казанского сильных направлений оказалось 20, а Южный федеральный и Дальневосточный университет с их 19 предметами разделили по этому показателю 3–4 места. За ними следуют МГУ и РУДН, оба попавшие в рейтинг по 18 предметам. Также в десятку вошли Томский государственный университет, СПбГУ, Сибирский федеральный университет и Санкт-Петербургский политех им. Петра Великого.

Как сравнивали?

Подробнее о критериях составления предметных рейтингов рассказал Дмитрий Гришанков. Для сравнения предметы были разделены на 9 групп, для каждой из которых были назначены веса критериев «общество», «образование» и «наука». Чтобы распределить их, учитывалось влияние вузов на жизнь общества и образовательную среду. К примеру, медицинские направления получали 30% за группу критериев «общество», 30% за науку и 40% за образование, тогда как в социальных и гуманитарных науках до 50% можно было получить за образовательную миссию, а за две оставшиеся давалось по 25%.

Вес критериев


Максимальный вклад по разным группам критериев в общий балл различается по направлениям. Согласно концепции авторов рейтинга, некоторые направления больше влияют на образовательную среду, другие больше помогают улучшить жизнь общества (в том числе разработкой прикладных технологий), третьи — чаще дают фундаментальный научный результат.

Чтобы показать важность группы критериев «общество», составители рейтинга дополнительно сравнили топ вузов с ним и без него. Для физики, математики и других фундаментальных дисциплин результат чаще всего не менялся, однако и направления легкой и авиационной промышленности остались практически без изменений. А вот психология, филология и журналистика, социология, экономика показали расхождения на 14% или больше. Ученые предположили, что культура преподавания дисциплин, которые остались без сильных изменений, традиционно ориентирована на взаимодействия с обществом, тогда как психология, филология и журналистика предполагают «клубное обучение».

«Пока есть версия, что предметы, результаты по которым и с учетом, и без учета третьей миссии выглядят почти одинаково, преподаются в крупных университетах, где третья миссия уже существует. Там, где третья миссия меняет порядок вузов — это чаще всего небольшие университеты», — отметил Гришанков. Высокие баллы по критерию третьей миссии («общество») набрал, к примеру, РУДН.

Однако нужно учитывать, что по разным направлениям было представлено разное количество вузов. Так, к работе в легкой промышленности готовят в 25 университетах, и меньше половины из них попали в рейтинг, так что не совсем понятно, насколько репрезентативным будет показатель третьей миссии подобного образования. При этом менеджменту обучают в 431 вузе. Пока решено было оставить двадцатки лидеров по каждому направлению — за исключением ядерной физики и легкой промышленности, где вузов оказалось даже меньше. А самым масштабным по количеству студентов (260 тысяч человек) направлением стала медицина.

Лидеры по педагогике оказались распределены по разным регионам — от Мурманской области до Ставропольского края, от Калининграда до Владивостока. В столице расположены только три вуза из топ-20.

Наука и олимпиады

Интересные результаты дало сравнение процента поступающих олимпиадников. Здесь в топе оказались направления, связанные с физикой и математикой, а среди вузов самым популярным оказался МГУ, набирающий больше всего победителей и призеров по математике, физике, химии, биологии и географии. Второе место занял СПбГУ, вышедший в лидеры по математике, химии, биологии и географии. Казанский (Приволжский) федеральный университет стал призером по биологии и географии. В тройку по математике вошел также НИУ ВШЭ, а по физике — МФТИ и МИФИ.

Наибольшие баллы ЕГЭ понадобились для поступления на социологию и физику. Средний балл по ядерным технологиям достиг 74,2, по биотехнологиям и биоинженерии — 73,7. По поступающим в магистратуру ситуация оказалась более равномерной. Лидеров по привлечению выпускников бакалавриата из других вузов оказалось около 30%. В основном это были предметы, связанные с социологией и психологией, где распространено такое «перетекание». А вот по защите диссертаций в топ попали медицинские университеты — возможно, из-за того, что их специальности подразумевают многоступенчатое и длительное образование.

При подготовке рейтинга по научным результатам составители использовали сразу три базы: Scopus, Web of Science и РИНЦ. Анализировались публикации и их цитирования. Критерии из этой группы имели самый большой вес для вузов естественно-научных и инженерных направлений (35%). Сейчас результаты могут представлять дополнительный интерес, так как они показывают, сильно ли повлияет новое решение Минобрнауки не учитывать публикации в журналах Scopus и Web of Science в показателях по выполнению госзаданий. Сравнение подходов по разным базам продемонстрировало, что по некоторым предметам итоги по базе РИНЦ представляют вполне релевантную картину, но по многим они сильно расходятся с другими базами.

Позиции вузов в рейтинге по РИНЦ по сравнению со Scopus и WoS


К примеру, в области легкой, пищевой и авиационной промышленности корреляция рейтингов составила менее 60%, а по психологии данные РИНЦ и WoS совпали лишь на 30%. Экология, строительство, биотехнологии и биоинженерия также показали много расхождений. Таким образом, смещение фокуса на РИНЦ сместит фокус и в рейтингах по многим предметам. Чтобы этого избежать, Гришанков предложил сделать в РИНЦ более подробный и удобный классификатор научных направлений, а также тщательнее отбирать статьи для публикации.

Планы на будущее

Новый рейтинг с энтузиазмом встретили представители российских вузов (что неудивительно, поскольку для них результаты оказались довольно лестными). «Это позволяет оценивать конкурентные позиции российских университетов по отдельным направлениям. Это уже серьезный результат, хотя далеко не окончание пути», — отметил Алексей Демидов, ректор Санкт-Петербургского университета технологий, промышленности и дизайна.

Ректор Уральского федерального университета имени первого Президента России Б.Н. Ельцина Виктор Кокшаров считает, что в новом предметном рейтинге, где не используются опросы экспертов, «зависимость от оценки, которая подвержена политическим и эмоциональным влияниям, сведена к минимуму». «Университеты у нас разные: есть огромные и многопрофильные, есть нацеленные на развитие определенных отраслей промышленности. Нужно уметь их оценивать, и новый рейтинг позволяет это сделать. <…> Я уверен, что предметный рейтинг будет пользоваться большим спросом и вниманием наших коллег в экспертном сообществе», — отметил Кокшаров. Такая система оценки соответствует программе академического лидерства Приоритет 2030 и ее делению на треки. Так, предметный рейтинг выявляет сильных отраслевых игроков, локальный — региональных.

В планах, объявленных Виктором Садовничим, — довести количество предметов до 60. Для этого организаторы хотят расширить количество подразделений по направлениям, связанным с IT и лингвистикой, а также добавить творческие вузы, которым потребуется другая методика оценки.

Безусловно, наблюдение за Ассоциацией составителей рейтингов стоит продолжать. Учитывать влияние вузов на развитие экономики и их вклад в образование может быть полезно для представления о роли вузов для регионов и страны. Однако, замыкаясь в себе и выбирая критерии, по которым можно представить в выгодном свете свои же вузы, составители рискуют застрять в парадигме «кукушка хвалит петуха за то, что хвалит он кукушку», вечно поддерживая сильное преподавание знаний, основанных на слабых научных результатах. Поэтому было бы интересно посмотреть и на международные предметные рейтинги, построенные по тем же принципам, и на отзывы зарубежных экспертов о такой системе.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram.