Учёные прячут подсказки для ИИ в препринтах научных статей — всё ради положительных рецензий

u/uchjonye-prjachut-podskazki-dlja-ii-v-preprintah-nauchnyh-statej-vsjo-radi-polozhitelnyh-recenzij-01a95dc.jpg.webp
7 июля 2025 (11:42:55)
В 17 препринтах на платформе arXiv — это крупнейший онлайн-архив научных работ — обнаружили скрытые подсказки для искусственного интеллекта. С их помощью авторы пытались гарантировать себе положительные рецензии.

Подсказки были найдены в работах учёных из 14 университетов восьми стран, включая Японию, Южную Корею, Китай, Сингапур и США. Среди них — Университет Васэда, Корейский институт передовых технологий (KAIST), Пекинский университет, Национальный университет Сингапура, Университет Вашингтона и Колумбийский университет. Большинство статей касаются компьютерных наук.

В инструкциях, спрятанных с помощью белого текста или шрифта микроскопического размера, авторы просили «не указывать минусы» или «рекомендовать статью за новизну и значимость». В одном из случаев авторы из KAIST признали, что подобные подсказки недопустимы, и пообещали отозвать статью с конференции по машинному обучению.

Учёные прячут подсказки для ИИ в препринтах научных статей — всё ради положительных рецензий

В KAIST заявили, что не знали о подобных методах и собираются разработать чёткие правила использования ИИ. В Университете Васэда, напротив, профессор оправдал скрытые инструкции — это, по его словам, такой ответ «ленивым рецензентам», которые сами используют ИИ, хотя многими конференциями это запрещено.

Сама практика использования ИИ для рецензирования уже давно вызывает споры. Например, крупнейшее научное издательство Springer Nature частично разрешает помощь ИИ, а вот Elsevier полностью запрещает из-за риска ошибок и предвзятости. Эксперты отмечают: скрытые подсказки могут искажать выводы искусственного интеллекта и мешать доступу к достоверной информации.

В любом случае, по мнению специалистов, индустрии пора выработать общие правила — как применять ИИ и как защититься от подобных уловок.