Всего несколько десятилетий назад ученые не особо задумывались о разнообразии при изучении новых лекарств. В большинстве клинических испытаний участвовали в основном белые мужчины, живущие недалеко от городских научно-исследовательских институтов, с предположением, что любые результаты будут в равной степени применимы к остальной части страны. Более поздние исследования показали, что это предположение неверно; накопились примеры лекарств, которые позже были признаны менее эффективными или вызывали больше побочных эффектов в группах населения, которые были недостаточно представлены в первоначальном исследовании.
Чтобы устранить это неравенство, в 1990-х годах федеральные требования к участию в медицинских исследованиях были расширены, и теперь в клинических испытаниях предпринимаются попытки охватить различные группы населения с самого начала исследования.
Но сейчас мы рискуем повторить те же ошибки при разработке новых технологий, таких как искусственный интеллект. Исследователи из Стэнфордского университета изучили клинические применения машинного обучения и обнаружили, что большинство алгоритмов обучаются на наборах данных от пациентов только из трех географических регионов , и что в большинстве штатов пациенты вообще не представлены.
«Алгоритмы искусственного интеллекта должны отражать сообщество», - говорит Амит Каушал, лечащий врач больницы VA Пало-Альто и адъюнкт-профессор биоинженерии в Стэнфорде. «Если мы создаем инструменты на основе ИИ для пациентов по всей территории Соединенных Штатов, у нас не может быть данных для обучения этих инструментов из одних и тех же мест».