Искусственный интеллект (ИИ) всё чаще участвует в написании научных статей и рецензий, пишет Nature. Проблема уже не только в качестве текстов: редакциям, авторам и читателям всё труднее понять, где честная помощь инструмента, а где машинная имитация исследования.
Рост такого контента затрагивает не только университеты и журналы. Если научная публикация опирается на слабую проверку, страдает доверие к данным, лекарственным разработкам, инженерным решениям и экспертным рекомендациям, которые затем расходятся по СМИ, компаниям и госструктурам.
Что показали свежие исследования
Специалисты Graphite изучили 55 000 новых веб-страниц и пришли к выводу: к концу марта материалов, написанных с участием ИИ, стало больше, чем созданных человеком. Это общий фон, на котором научные журналы теперь проверяют рукописи.
В одном из проектов исследователи применили инструмент Pangram Labs к семи тысячам научных статей и восьми тысячам рецензий, присланных в журнал Organization Science с января 2021 по февраль 2026 года. После появления ChatGPT в ноябре 2022 года общее число работ выросло на 42 %. Авторы анализа связывают этот скачок главным образом с участием ИИ.
С начала 2024 до февраля 2026 года число статей, где более 70 % текста сгенерировал ИИ, выросло более чем вдвое. Машинный текст нашли и в 30 % рецензий. Это особенно чувствительная зона: рецензент влияет на судьбу работы, но его собственный текст тоже требует доверия.
Почему детекторы не решают проблему
Редакции всё чаще используют детекторы ИИ-контента, но такие инструменты не дают окончательного ответа. Они могут перепутать текст, который автор только отредактировал с помощью ИИ, с материалом, написанным машиной почти полностью.
Есть и обратная ошибка: человеческий текст получает пометку как сгенерированный. Для автора это риск репутационного ущерба, для журнала — риск неверного решения. Особенно сложно с научным стилем: он сам по себе сухой, шаблонный и часто похож на то, как пишут языковые модели.
Ещё одна работа охватила около пяти тысяч статей по биомедицинским наукам, опубликованных в журналах Science, Nature и Cell. Инструмент Pangram определил шесть статей как полностью написанные ИИ, а каждую восьмую — как содержащую машинный текст в той или иной доле. Качество таких работ нужно оценивать отдельно: сам факт участия ИИ не доказывает ошибку, но требует прозрачности.
Где граница между помощью и подменой автора
ИИ может помочь исследователю привести текст в порядок, перевести аннотацию, сократить повторы, подобрать структуру раздела. Это похоже на редакторскую поддержку, если автор контролирует факты, расчёты и выводы.
Опасность начинается там, где модель заполняет пробелы вместо учёного. Она может уверенно придумать ссылку, исказить методику, сгладить спорный результат или написать убедительное резюме к слабым данным. Для читателя такой текст выглядит аккуратно, но его научная ценность падает.
Отдельная зона риска — рецензирование. Если эксперт поручает ИИ пересказать чужую рукопись, он может случайно раскрыть закрытые материалы стороннему сервису. Мы уже разбирали похожую проблему на примере того, как уязвимость Ollama грозит утечкой ключей API и переписок: инструменты ИИ удобны, но они резко повышают цену ошибки с конфиденциальными данными.
Чем это грозит защите данных
Научные рукописи часто содержат неопубликованные результаты, персональные данные участников исследований, коммерческие секреты, коды моделей, медицинские сведения или сведения о партнёрах. Когда автор копирует такой текст в внешний ИИ-сервис без проверки условий хранения, он теряет контроль над информацией.
Похожая логика работает в бизнесе: чем больше сервис знает о задачах пользователя, тем выше требования к доступам, журналам действий и настройкам хранения. На SAFENET21 мы уже писали, какие данные может увидеть ИИ в потребительских сценариях, на примере материала Alibaba встроит Qwen в шопинг: какие данные увидит ИИ.
Для исследователей важны не только тексты, но и среда работы. Черновики, таблицы и рецензии не стоит отправлять через случайные сети без защиты соединения. Для работы с рукописями в публичных сетях уместен сервис безопасного интернет-соединения, особенно если автор подключается из аэропорта, кафе или гостиницы.
Что изменят водяные знаки и правила журналов
Один из вариантов контроля — «водяные знаки» в машинном тексте. Они помогают выявить участие ИИ, если модель добавляет в результат скрытые признаки. По данным Nature, такая технология уже помогла отклонить 497 работ, присланных на научную конференцию.
Но водяные знаки не закроют вопрос полностью. Разные модели используют разные механизмы, часть текстов проходит через редактирование, перевод и пересказ. Чем лучше становятся генераторы, тем больше людей будет пытаться сделать машинный текст похожим на человеческий.
Поэтому журналы будут двигаться к правилам раскрытия: автор должен сообщить, где и как применял ИИ. Это не запрет на инструмент, а требование к проверяемости. В науке важен не красивый текст, а воспроизводимый результат и честное описание метода.
Практический вывод: как снизить риск прямо сейчас
- Не загружайте в ИИ-сервисы неопубликованные рукописи, рецензии, медицинские сведения, персональные данные и коммерческие материалы без разрешения владельца данных.
- Если используете ИИ для научного текста, сохраняйте черновики, промпты и версии правок: это поможет объяснить вклад инструмента редакции или соавторам.
- Проверяйте каждую ссылку, формулу, цитату и вывод вручную. Модель может писать уверенно даже там, где ошибается.
- Не полагайтесь на один детектор ИИ. Сравнивайте результат с содержательной экспертизой, историей правок и качеством исходных данных.
- Редакциям и научным группам стоит заранее прописать правила: какие материалы нельзя отправлять во внешние сервисы, кто отвечает за проверку и как раскрывать помощь ИИ.
- Работайте с рукописями только на защищённых устройствах: обновляйте систему, включайте блокировку экрана, используйте отдельные учётные записи для рабочих проектов.
Комментарии (0)
Будьте уважительны. Спам и ссылки на сторонние сервисы скрываются модерацией.
Пока комментариев нет. Вы можете быть первым.