“PromptQuest” — худшая программа 2025 года. Вы играете в неё, когда пытаетесь заставить чат-ботов работать.

microsoft copilot,ии,чат-боты,zork,текстовые игры,продуктивность

Мнение: Все, что вы ненавидели в текстовых приключенческих играх, теперь продается как инструмент повышения производительности. Автор статьи сравнивает работу с современными ИИ-чатботами с классическими играми 80-х, где нужно угадывать правильный синтаксис команд.

Мнение Когда Microsoft недавно решила открыть исходный код культовой текстовой приключенческой игры Zork, я задумался о том, чтобы вернуться к ней в праздничный сезон… пока не понял, что большую часть 2025 года я испытывал худшее из подобных игр при использовании AI-чат-ботов.

Приключенческие игры, такие как Zork и ее многочисленные подражатели, предлагали игрокам исследовать виртуальный мир, часто пещеру в стиле Толкина, существовавшую только в виде слов.

“Вы входите в темную комнату. Гоблин вытаскивает ржавый нож из-за пояса и готовится напасть!” – типичный момент в таких играх. Игроки, обычно вооруженные воображаемым средневековым оружием, могли ответить “Ударить гоблина” в надежде, что эта фраза заставит их вытащить меч, чтобы поразить монстра.

Но игра могла ответить на “Ударить гоблина”, сообщив игрокам: “Вы бьете гоблина кулаком”.

Гоблин уклонится от удара и ударит игрока ржавым ножом.

Игра окончена… пока игрок не попробует “Ударить гоблина мечом” или “Заколоть гоблина” или любой другой синтаксис, который требовала игра, если только он не сдавался из-за разочарования, вызванного необходимостью угадывать правильную комбинацию глагола/существительного.

Приключенческие игры были популярны в 1980-х годах, когда компьютеры были ненадежными и непредсказуемыми, а ИИ был воображаемой технологией. Игры, требующие непонятного синтаксиса, были в основном терпимыми и обычно прощались.

Я менее терпим к тому, что ИИ заставляет меня учить его язык.

Например, недавно я попросил чат-бота Copilot от Microsoft просмотреть данные, доступные в Интернете, и преобразовать некоторые элементы в загружаемую таблицу. Бот принял этот запрос и создал скрипт Python, который, по его утверждению, напишет таблицу.

В других экспериментах с ИИ я обнаружил, что один и тот же запрос дает разные результаты в разные дни. Один запрос, который я использую, чтобы проверить, не оставил ли я каких-либо ужасных опечаток в статьях, каждый раз выдает ответы в другом формате. Microsoft также по своей мудрости решила предложить разные версии Copilot в Office и в своем настольном приложении. Каждый из них дает разные результаты из одного и того же запроса и одного и того же исходного материала.

Поэтому использование ИИ стало непрерывным экспериментом в “Ударить/Убить/Заколоть/Поразить гоблина”.

И когда Copilot начинает использовать новую модель, что он делает без каких-либо изменений в своем пользовательском интерфейсе, запросы, которые надежно работали в прошлом, дают разные результаты, а это означает, что мне нужно заново учиться тому, что работает.

Я хочу сказать здесь не то, что чат-боты делают глупые вещи и совершают ошибки. Дело в том, что работа с этой технологией похожа на ощупывание пещеры в темноте – ужасную игру, которую я называю “PromptQuest” – и при этом мне говорят, что это повышает мою производительность.

После того, как Copilot дал мне скрипт Python вместо таблицы, я провел долгую сессию PromptQuest, во время которой ИИ Microsoft отвечал на множество различных запросов, неоднократно говоря мне, что он готов сделать таблицу, сделает ее доступной для скачивания и завершил работу к моему удовлетворению.

Он так и не предоставил таблицу, и мое разочарование возросло до такой степени, что я поручил Copilot создать индикатор выполнения, чтобы я мог видеть, как он работает.

Индикатор выполнения, созданный Microsoft Copilot

Вы можете увидеть результаты выше. По иронии судьбы, я думаю, что это очень похоже на вывод текстовой приключенческой игры. ®

Всегда имейте в виду, что редакции некоторых изданий могут придерживаться предвзятых взглядов в освещении новостей.
7/8