Всемирная организация здравоохранения (ВОЗ) предупредила о рисках, которыми чревато применение в здравоохранении больших мультимодальных моделей (LMM) генеративного искусственного интеллекта (ИИ). В опубликованном в Женеве руководстве по вопросам этики ВОЗ призвала страны следить за тем, чтобы эти технологии соответствовали законодательству в сфере прав человека, и рекомендовала ввести обязательный аудит с целью оценки последствий их внедрения.
"Технологии генеративного искусственного интеллекта обладают потенциалом для улучшения здравоохранения, но только в том случае, если те, кто разрабатывает, регулирует и использует эти технологии, выявляют и полностью учитывают связанные с этим риски", - заявил главный научный сотрудник ВОЗ Джереми Фаррар. "Нужна прозрачная информация и политика для управления проектированием, разработкой и использованием LMM", - подчеркнул он.
"Хотя LMM начинают применяться для конкретных целей, связанных со здоровьем, существуют также документально подтвержденные риски создания ложных, неточных, предвзятых или неполных сообщений, которые могут нанести вред людям, использующим такую информацию при принятии решений о здоровье", - констатировала организация.
Риски обусловлены, в частности, использованием "данных низкого качества" или же данных, основанных на предвзятом подходе "по признаку расы, этнической принадлежности, происхождения, пола, гендерной идентичности или возраста". Технологии генеративного ИИ уязвимы и с точки зрения кибербезопасности: под угрозу может быть поставлена информация о пациентах и "предоставление медицинской помощи в более широком смысле", говорится в документе.
В новом руководстве обозначены такие сферы применения LMM, как диагностика и клиническая помощь, канцелярские и административные задачи (документирование посещений пациентов в электронных медицинских картах, медицинское образование, научные исследования и разработка лекарств).
ВОЗ считает, что при создании безопасных LMM на правительствах лежит основная ответственность "за установление стандартов". Речь идет в том числе об "использовании законов, политики и правил", чтобы гарантировать соответствие технологий ИИ "этическим обязательствам и стандартам прав человека", включая конфиденциальность. Она рекомендовала странам назначить регулирующие органы для оценки последствий применения LMM в здравоохранении и "ввести обязательный аудит" после их внедрения.