Подсказки были найдены в работах учёных из 14 университетов восьми стран, включая Японию, Южную Корею, Китай, Сингапур и США. Среди них — Университет Васэда, Корейский институт передовых технологий (KAIST), Пекинский университет, Национальный университет Сингапура, Университет Вашингтона и Колумбийский университет. Большинство статей касаются компьютерных наук.
В инструкциях, спрятанных с помощью белого текста или шрифта микроскопического размера, авторы просили «не указывать минусы» или «рекомендовать статью за новизну и значимость». В одном из случаев авторы из KAIST признали, что подобные подсказки недопустимы, и пообещали отозвать статью с конференции по машинному обучению.
В KAIST заявили, что не знали о подобных методах и собираются разработать чёткие правила использования ИИ. В Университете Васэда, напротив, профессор оправдал скрытые инструкции — это, по его словам, такой ответ «ленивым рецензентам», которые сами используют ИИ, хотя многими конференциями это запрещено.
Сама практика использования ИИ для рецензирования уже давно вызывает споры. Например, крупнейшее научное издательство Springer Nature частично разрешает помощь ИИ, а вот Elsevier полностью запрещает из-за риска ошибок и предвзятости. Эксперты отмечают: скрытые подсказки могут искажать выводы искусственного интеллекта и мешать доступу к достоверной информации.
В любом случае, по мнению специалистов, индустрии пора выработать общие правила — как применять ИИ и как защититься от подобных уловок.