Понятно, что ИИ, как и врач, может ошибаться. Разрешение этой проблемы, вероятно, будет гибридным. Так, финансовая ответственность в случае нанесения вреда пациенту разделится между компанией-разработчиком ИИ-системы и медицинской организацией, одобрившей применение этой системы. Что будет в наихудшем случае (летальный исход) — пока ответа нет. Вряд ли разработчики ИИ-систем готовы нести уголовную ответственность за подобные случаи. Эксперты считают, что необходима детальная проработка этого вопроса с участием всех сторон — ИИ-сообщества, врачей, юристов и так далее.
В решении вопроса обработки персональных данных отчасти может помочь их обезличивание, но это не всегда гарантирует анонимность. Да и вообще, собрать в одну базу истории болезни, снимки с приборов визуализации, другую медицинскую документацию — чрезвычайно сложная задача, а сама база данных будет весьма лакомым кусочком.
Размышляя о медицинских данных, CEO компании Botkin.ai Сергей Сорокин приходит к выводу, что это должен быть большой объем информации. Однако данных всегда недостаточно. Для сбора информации необходимо договариваться с медицинскими учреждениями, которые могут отдавать компаниям только деперсонализированные данные для соблюдения врачебной тайны.
Компания
Botkin.ai создает решения на базе платформы обработки и анализа медицинских изображений с использованием ИИ. На сегодняшний день с использованием Botkin.ai реализовано более 25 проектов в РФ, странах СНГ, Латинской Америке и на Ближнем Востоке.
Так вышло, что в России, в отличие от многих других стран, этические вопросы задвигаются на второй план. Однако доверие, ответственное отношение, безопасность и эффективность ИИ являются ключевыми вопросами на пути к массовому внедрению технологий.