Проучване, публикувано в списание Radiology, разкрива, че нито опитните радиолози, нито най-съвременните мултимодални езикови модели (LLMs) могат лесно да разграничат фалшиви AI-генерирани рентгенови снимки от автентични.
Резултатите подчертават сериозни рискове за интегритета на медицинските данни и необходимостта от нови инструменти за защита.
В ретроспективното изследване са участвали 17 радиолози от 12 центъра в шест държави, включително САЩ, Франция и Германия. Техният професионален опит варира от 0 до 40 години.
Експертите са оценявали 264 изображения, като половината от тях са били реални, а другата половина – генерирани от изкуствен интелект чрез моделите ChatGPT и RoentGen.
Данните показват, че когато лекарите не са били предупредени за наличието на фалшификати, едва 41% от тях са забелязали нещо необичайно. След като са били информирани, средната им точност при разпознаване се е повишила до 75%.
Интересно е, че дори моделът GPT-4o, използван за създаването на част от изображенията, не е успял да идентифицира всички фалшификати, въпреки че се е представил по-добре от моделите на Google и Meta.
Водещият автор на изследването, д-р Микаел Торджман от Mount Sinai, Ню Йорк, предупреждава за опасностите от "фалшиви съдебни спорове" и киберзаплахи. Според него хакери биха могли да инжектират синтетични образи в болнични мрежи, за да манипулират диагнози или да подкопаят доверието в дигиталните медицински досиета.
Изследването установява, че синтетичните рентгенови снимки често изглеждат "твърде перфектни" – с неестествено прави гръбначни стълбове и прекалено симетрични органи.
За справяне с проблема експертите предлагат въвеждането на усъвършенствани защити, като невидими водни знаци и криптографски подписи, прикачени в момента на заснемане на образа. Авторите на изследването вече са публикували образователен набор от данни с интерактивни тестове, за да помогнат на медицинските специалисти да се подготвят за навлизането на deepfake технологиите в здравеопазването.