В воскресенье компания Google удаляет некоторые свои сводки о здоровье в разделе «AI Overviews» после расследования The Guardian, выявившего, что ложная и вводящая в заблуждение информация подвергала людей риску. Удаление произошло после того, как газета обнаружила, что функция генеративного искусственного интеллекта Google выдавала неточные медицинские сведения в верхней части поисковой выдачи, что потенциально могло привести серьёзно больных пациентов к ошибочному выводу о том, что их здоровье в порядке.
Google отключила обработку определённых запросов, таких как «каков нормальный диапазон для печёночных анализов крови», после того как эксперты, с которыми связалась The Guardian, сочли результаты опасными. В отчёте также подчёркивалась критическая ошибка, касающаяся рака поджелудочной железы: ИИ советовал пациентам избегать продуктов с высоким содержанием жиров, что противоречит стандартным медицинским рекомендациям по поддержанию веса и может поставить под угрозу здоровье пациентов. Несмотря на эти выводы, Google деактивировала сводки только для запросов о печёночных тестах, оставив доступными другие потенциально вредные ответы.
Расследование показало, что поиск норм печёночных тестов выдавал необработанные таблицы данных (с перечислением специфических ферментов, таких как АЛТ, АСТ и щелочная фосфатаза), лишённые необходимого контекста. Функция ИИ также не смогла скорректировать эти показатели с учётом демографических данных пациента, таких как возраст, пол и этническая принадлежность. Эксперты предупредили, что поскольку определение «нормы» в модели ИИ часто отличалось от фактических медицинских стандартов, пациенты с серьёзными заболеваниями печени могли ошибочно полагать, что здоровы, и пропустить необходимое последующее обследование.
Ванесса Хебдич, директор по коммуникациям и политике в British Liver Trust, заявила The Guardian, что тест функции печени — это набор различных анализов крови, и понимание результатов «сложно и включает в себя гораздо больше, чем просто сравнение набора чисел». Она добавила, что AI Overviews не предупреждают о том, что человек может получить нормальные результаты этих тестов, имея при этом серьёзное заболевание печени и нуждаясь в дальнейшем медицинском лечении. «Это ложное успокоение может быть очень вредным», — сказала она.
The Guardian не предоставила комментариев по поводу конкретных удалений. Представитель компании сообщил The Verge, что Google инвестирует в качество AI Overviews, особенно в отношении тем, связанных со здоровьем, и что «подавляющее большинство предоставляет точную информацию». Представитель добавил, что внутренняя команда клиницистов компании проанализировала предоставленные данные и «обнаружила, что во многих случаях информация не была неточной, а также подтверждалась высококачественными веб-сайтами».
Повторяющиеся проблемы с AI Overviews проистекают из конструктивного недостатка в работе системы. Как мы сообщали в мае 2024 года, Google создала AI Overviews для отображения информации, подтверждённой лучшими веб-результатами из её системы ранжирования страниц. Компания спроектировала эту функцию таким образом, исходя из предположения, что высокоранжированные страницы содержат точную информацию.
Однако алгоритм ранжирования страниц Google давно испытывает трудности с контентом, оптимизированным под SEO, и спамом. Теперь система подаёт эти ненадёжные результаты своей модели ИИ, которая затем обобщает их с авторитетным тоном, способным ввести пользователей в заблуждение. Даже когда ИИ черпает данные из точных источников, языковая модель всё равно может делать неверные выводы из данных, выдавая ошибочные сводки по иной мере надёжной информации.
Технология по своей сути не обеспечивает фактической точности. Вместо этого она отражает любые неточности, существующие на веб-сайтах, которые алгоритм Google ранжирует высоко, представляя факты с авторитетом, заставляющим ошибки казаться заслуживающими доверия.
The Guardian обнаружила, что при вводе незначительных вариаций исходных запросов в Google, таких как «lft reference range» или «lft test reference range», AI Overviews всё равно появлялись. Хебдич назвала это большой проблемой и отметила, что AI Overviews представляют список тестов жирным шрифтом, из-за чего читателям очень легко упустить из виду, что эти цифры могут быть даже неверными для их конкретного анализа.
AI Overviews по-прежнему отображаются и для других примеров, на которые The Guardian изначально указала Google. Когда Google спросили, почему эти AI Overviews также не были удалены, компания ответила, что они ссылаются на хорошо известные и авторитетные источники и информируют людей о важности обращения за советом к экспертам.
Google заявила, что AI Overviews появляются только для запросов, по которым у неё высокая уверенность в качестве ответов. Компания постоянно измеряет и пересматривает качество своих сводок по множеству различных категорий информации, добавили они.
Это не первая скандальная ситуация для AI Overviews. Ранее эта функция советовала людям класть клей на пиццу и есть камни. Она оказалась настолько непопулярной, что пользователи обнаружили, что вставка нецензурных слов в поисковые запросы полностью отключает AI Overviews.
*Facebook и *Instagram принадлежит компании Meta Platforms Inc., деятельность которой запрещена на территории Российской Федерации.
Всегда имейте в виду, что редакции могут придерживаться предвзятых взглядов в освещении новостей.
Автор – Benj Edwards




