Всем известно, что ИИ-чат-боты, такие как ChatGPT, Grok и Gemini, часто могут выдумывать источники. Но для тех, кто помогает людям находить книги и научные статьи, эти фейковые ИИ-выдумки действительно изматывают. Библиотекари, похоже, совершенно измучены запросами на несуществующие названия, согласно новой публикации в Scientific American.
Журнал поговорил с Сарой Фолс, руководителем отдела по работе с исследователями Библиотеки Вирджинии, которая оценивает, что около 15% всех письменных справочных вопросов, которые они получают, генерируются ИИ-чат-ботами, такими как ChatGPT. И запросы часто включают вопросы о фальшивых цитатах.
Более того, Фолс предполагает, что люди, похоже, не верят библиотекарям, когда те объясняют, что данный источник не существует, — тенденция, о которой сообщалось и в других местах, например, на 404 Media. Многие люди действительно верят своему глупому чат-боту больше, чем человеку, который ежедневно специализируется на поиске достоверной информации.
Недавняя публикация Международного комитета Красного Креста (МККК) под названием «Важное уведомление: архивные ссылки, сгенерированные ИИ» предоставляет дополнительные доказательства того, что библиотекари просто измучены всем этим.
«Если ссылку не удается найти, это не означает, что МККК скрывает информацию. Этому могут объяснять различные ситуации, включая неполные цитаты, документы, хранящиеся в других учреждениях, или — всё чаще — галлюцинации, сгенерированные ИИ», — заявила организация. «В таких случаях вам может потребоваться изучить административную историю ссылки, чтобы определить, соответствует ли она подлинному архивному источнику».
Yes it happened to me 🫠, I went to a bookstore for a totally plausible old French metaphor book mentioned by ChatGPT a year ago, only to discover that it does not exist.
— Joanne Boisson (@joanneboisson.bsky.social) December 9, 2025 at 4:31 AM
Год, похоже, был полон примеров фейковых книг и научных статей, созданных с помощью ИИ. Внештатный автор Chicago Sun-Times составил для газеты список летнего чтения из 15 рекомендуемых книг. Но десять из этих книг не существовало. Первый отчет так называемой комиссии Роберта Ф. Кеннеди-младшего «Заставим Америку снова быть здоровой» был опубликован в мае. Через неделю репортеры NOTUS опубликовали свои выводы после проверки всех цитат. По крайней мере, семь из них не существовало.
Нельзя винить во всём ИИ. Статьи отзывались за предоставление фальшивых цитат задолго до появления ChatGPT или любого другого чат-бота. Ещё в 2017 году профессор Университета Мидлсекс обнаружил по крайней мере 400 статей, цитирующих несуществующую исследовательскую работу, которая была, по сути, эквивалентом текста-заполнителя.
Цитата:
Van der Geer, J., Hanraads, J.A.J., Lupton, R.A., 2010. The art of writing a scientific article. J Sci. Commun. 163 (2) 51-59.
Это, конечно, бессмыслица. Цитата, по-видимому, была включена во многие статьи низкого качества — вероятно, из-за лени и небрежности, а не намерения обмануть. Но можно с уверенностью сказать, что любой автор этих до-ИИ статей, вероятно, был бы смущён их включением. Дело в том, что слишком многие люди стали верить, что наши чат-боты более надёжны, чем люди.
As someone who gets lots of local history queries, can confirm there’s been a big increase in people starting their history research with GenAI/LLM (which just spews out fake facts and hallucinated rubbish) who then wonder why they can’t find anything at all to corroborate it.
— Huddersfield Exposed (@huddersfield.exposed) December 9, 2025 at 2:28 AM
Почему пользователи могут доверять своему ИИ больше, чем людям? Во-первых, часть фокуса, который демонстрирует ИИ, заключается в его авторитетном голосе. Кому вы собираетесь верить: чат-боту, которым вы пользуетесь весь день, или какому-то случайному библиотекарю по телефону? Другая проблема может быть связана с тем, что люди разрабатывают то, что они считают надёжными уловками для повышения надёжности ИИ.
Некоторые люди даже думают, что добавление таких фраз, как «не галлюцинируй» и «пиши чистый код», в их запрос гарантирует, что ИИ выдаст только самый качественный результат. Если бы это действительно работало, мы можем себе представить, что такие компании, как Google и OpenAI, просто добавили бы это к каждому запросу за вас. Если это действительно работает, то у нас есть лайфхак для всех технологических компаний, которые в настоящее время боятся лопнуть пузырь ИИ.
Автор – Matt Novak




