Мнение Когда Microsoft недавно решила открыть исходный код культовой текстовой приключенческой игры Zork, я задумался о том, чтобы вернуться к ней в праздничный сезон… пока не понял, что большую часть 2025 года я испытывал худшее из подобных игр при использовании AI-чат-ботов.
Приключенческие игры, такие как Zork и ее многочисленные подражатели, предлагали игрокам исследовать виртуальный мир, часто пещеру в стиле Толкина, существовавшую только в виде слов.
“Вы входите в темную комнату. Гоблин вытаскивает ржавый нож из-за пояса и готовится напасть!” – типичный момент в таких играх. Игроки, обычно вооруженные воображаемым средневековым оружием, могли ответить “Ударить гоблина” в надежде, что эта фраза заставит их вытащить меч, чтобы поразить монстра.
Но игра могла ответить на “Ударить гоблина”, сообщив игрокам: “Вы бьете гоблина кулаком”.
Гоблин уклонится от удара и ударит игрока ржавым ножом.
Игра окончена… пока игрок не попробует “Ударить гоблина мечом” или “Заколоть гоблина” или любой другой синтаксис, который требовала игра, если только он не сдавался из-за разочарования, вызванного необходимостью угадывать правильную комбинацию глагола/существительного.
Приключенческие игры были популярны в 1980-х годах, когда компьютеры были ненадежными и непредсказуемыми, а ИИ был воображаемой технологией. Игры, требующие непонятного синтаксиса, были в основном терпимыми и обычно прощались.
Я менее терпим к тому, что ИИ заставляет меня учить его язык.
Например, недавно я попросил чат-бота Copilot от Microsoft просмотреть данные, доступные в Интернете, и преобразовать некоторые элементы в загружаемую таблицу. Бот принял этот запрос и создал скрипт Python, который, по его утверждению, напишет таблицу.
В других экспериментах с ИИ я обнаружил, что один и тот же запрос дает разные результаты в разные дни. Один запрос, который я использую, чтобы проверить, не оставил ли я каких-либо ужасных опечаток в статьях, каждый раз выдает ответы в другом формате. Microsoft также по своей мудрости решила предложить разные версии Copilot в Office и в своем настольном приложении. Каждый из них дает разные результаты из одного и того же запроса и одного и того же исходного материала.
Поэтому использование ИИ стало непрерывным экспериментом в “Ударить/Убить/Заколоть/Поразить гоблина”.
И когда Copilot начинает использовать новую модель, что он делает без каких-либо изменений в своем пользовательском интерфейсе, запросы, которые надежно работали в прошлом, дают разные результаты, а это означает, что мне нужно заново учиться тому, что работает.
Я хочу сказать здесь не то, что чат-боты делают глупые вещи и совершают ошибки. Дело в том, что работа с этой технологией похожа на ощупывание пещеры в темноте – ужасную игру, которую я называю “PromptQuest” – и при этом мне говорят, что это повышает мою производительность.
После того, как Copilot дал мне скрипт Python вместо таблицы, я провел долгую сессию PromptQuest, во время которой ИИ Microsoft отвечал на множество различных запросов, неоднократно говоря мне, что он готов сделать таблицу, сделает ее доступной для скачивания и завершил работу к моему удовлетворению.
Он так и не предоставил таблицу, и мое разочарование возросло до такой степени, что я поручил Copilot создать индикатор выполнения, чтобы я мог видеть, как он работает.

Индикатор выполнения, созданный Microsoft Copilot
Вы можете увидеть результаты выше. По иронии судьбы, я думаю, что это очень похоже на вывод текстовой приключенческой игры. ®
Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/8
Автор – Simon Sharwood




