Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ разработала индекс для определения уровня этичности систем искусственного интеллекта (ИИ) в медицине. Инструмент предназначен для минимизации потенциальных рисков, обеспечения безопасной разработки и внедрения ИИ-технологий в медицинскую практику.
В результате исследования был создан чат-бот "Индекс этичности систем искусственного интеллекта в медицине", который в режиме 24/7 позволяет проводить процедуру самооценки и получать мгновенную обратную связь от разработчиков индекса.
Методика оценки представляет собой тест с вопросами закрытого типа, призванными оценить уровень осведомленности как разработчиков медицинского ИИ, так и самих эксплуатантов ИИ-системы о возможных этических рисках, связанных с разработкой, внедрением и использованием ИИ-систем в медицинских целях.
Для создания технологии команда проанализировала российские и международные документы, а после дала определение ключевых принципов профессиональной медицинской этики (автономия, благодеяние, справедливость, ненанесение вреда и забота). Затем специалисты с помощью глубинного полуструктурированного интервью среди врачей и разработчиков ИИ конкретизировали принципы и дополнили их новыми.
"Разработка данного индекса стала важным шагом на пути обеспечения этичного использования ИИ в медицине. Мы надеемся, что наша разработка будет небесполезной для медицинского сообщества, обеспокоенного, как показывают наши исследования, возможными негативными именно этическими последствиями широкого внедрения ИИ в медицинскую практику", - подчеркивает руководитель проекта, профессор, заместитель директора Центра трансфера и управления социально-экономической информацией НИУ ВШЭ Анастасия Углева.