Согласно материалам Financial Times, базирующимся на ряде научных исследований, системы искусственного интеллекта (ИИ), созданные для поддержки врачей, склонны к недооценке симптомов различных заболеваний у женщин, а также у представителей определённых расовых и этнических групп. Эта тенденция может стать причиной предоставления менее качественной медицинской помощи таким категориям пациентов.
FT отмечает, что многие практикующие врачи уже активно используют как универсальные чат-боты, например, Gemini и ChatGPT, так и специализированные медицинские ИИ-инструменты. Эти технологии помогают в заполнении медицинских карт, выделении ключевых симптомов, составлении кратких обзоров историй болезни и других задачах.
В июне текущего года группа исследователей из Массачусетского технологического института (MIT) провела анализ нескольких подобных чат-ботов и ИИ-инструментов, включая GPT-4 и Palmyra-Med. Учёные пришли к выводу, что многие из них рекомендовали врачам значительно более низкий уровень ухода за пациентками женского пола, а самим женщинам чаще предлагали прибегнуть к самолечению. Авторы другого изыскания MIT выявили аналогичные предубеждения в рекомендациях, выдаваемых азиатам и чернокожим пациентам.
Ещё одно исследование MIT показало, что пациентам, чьи записи содержали многочисленные опечатки и грамматические ошибки из-за того, что английский язык не являлся для них родным, чат-боты на 7–9% реже предлагали обратиться к врачу по сравнению с теми, кто излагал свои проблемы грамотно. Аналогично, эксперты из Лондонской школы экономики установили, что ИИ-модель Gemma от Google, используемая во многих социальных учреждениях Великобритании, систематически занижала оценку физических и психических проблем у женщин при анализе и обобщении медицинских историй.