Stigmatization is no excuse for AI-driven academic misconduct

Recent correspondence in Nature highlights the growing integration of large language models (LLMs) in scientific work. However, the issue of addressing academic misconduct in this context demands a more critical approach. The use of LLMs to generate texts that researchers then sign with their own names, without proper disclosure, violates fundamental principles of academic integrity. This is not genuine scientific inquiry but its mere imitation, and appeals to fears of “stigmatization” should not excuse such practices. If a researcher shifts their core intellectual activities onto AI without meaningful contributions of their own, it raises a pressing question: why allocate grants or retain such individuals in academic positions when their work could just as well be performed by a machine? 

Мізки не покидають країну: більшість українських топвчених продовжують працювати вдома

Занадто часто чую у медіях, що багато потужних українських науковців нині працюють закордоном, злякалися війни, повтікали, а мудрі державні мужі безперервно мізкують як їх повернути додому. У новому препринті про публікаційну активність та міграційні тенденції українських вчених у галузі соціальних та гуманітарних наук під час перших двох років російсько-української війни стверджується, що все це зовсім не так. Автор проаналізував продуктивність тих українських вчених, які опублікували щонайменше три статті за рік у наукових журналах, індексованих у SSCI та AHCI. 

Принципи CARE для управління даними корінних народів

CARE (Collective Benefit, Authority to Control, Responsibility, Ethics) – це набір принципів, що доповнюють FAIR (Findable, Accessible, Interoperable, Reusable), однак на відміну від принципів FAIR, CARE фокусується не лише на технічних характеристиках даних, а й на людях, громадах та етичних аспектах, пов’язаних з використанням даних. Не досліджував історію цього питання, однак принципи CARE чомусь спрямовані на вирішення історичних нерівностей і надання саме корінним народам можливості брати активну участь у створенні, використанні та управлінні даними. Ці принципи дуже співзвучні з ідеями Майкла Гурштейна, дивуюся чому творці обмежилися таким “локальним” застосуванням. 

На книги бракує, а на платні публікації – вистачає?

Щоразу, як бачу коментарі на тему "плата за публікацію статті в журналі", мене не покидає одне запитання: чому на це є гроші, а на передплату книг чи обладнання – ні? Зазирнімо у Prozorro: університети та інститути виділяють мізерні суми (або й взагалі нічого) на закупівлю наукових книг для своїх бібліотек. Це книжки, які коштують лише кілька сотень гривень і мають впродовж років слугувати тисячам студентів і дослідників. Спеціалізоване наукове обладнання коштує значно дорожче, однак воно необхідне і його також купують, щоб користуватися не один рік. 

MetaROR: платформа для відкритого рецензування у сфері метадосліджень

У відповідь на виклики, з якими стикаються метадослідження, створено MetaROR (MetaResearch Open Review) – платформу, що працює за моделлю публікувати-рецензувати-курувати. Традиційну видавничу модель нині часто критикують через свою закритість та повільність, натомість підхід publish-review-curate пропонує: 1) Спершу відкрита публікація – дослідники представляють свої результати як препринти, щоб забезпечити швидкий доступ до знань; 2) Відкрите рецензування – рецензії доступні та інтегровані в наукову екосистему як окремий тип публікацій; 3) Кураторство – результати досліджень групуються у тематичні колекції, що супроводжуються редакційними коментарями та різними бонусами (наприклад, додаткові метадані, резюме, переклади).

Matilda: нова бібліометрична платформа для відкритої науки

Платформа Matilda являє собою онлайн інструмент для бібліографічних і бібліометричних досліджень, що орієнтований на підтримку принципів відкритої науки. Мета платформи – забезпечити користувачам зручний доступ до даних про цитування, до відкритих наукових текстів та наборів дослідницьких даних. Цей підхід передбачає охопити науковий контент, що раніше ігнорувався комерційними наукометричними інструментами, і надати рівні можливості для всіх академічних документів та метаданих. 

Деградація та колапс штучного інтелекту

«Моделі штучного інтелекту руйнуються при тренуванні на рекурсивно згенерованих даних». Так вважає Ілля Шумайлов разом з колегами, які на сторінках Nature досліджують явище "колапсу моделі" – процес, під час якого поступово знижується якість моделей ШІ, що треновані на даних, згенерованих попередніми версіями моделей ШІ. Автори дослідження демонструють, що моделі втрачають інформацію у кожному новому поколінні та наводять приклади колапсу для різних типів, зокрема великих мовних моделей, варіаційних автокодувальників та моделей суміші Гауса.