Loading...

Freepik

Японские ученые предоставили рентгеновские снимки для постановки диагноза ординаторам, врачам и двум версиям ChatGPT. Оказалось, что ChatGPT на базе GPT-4 и ординаторы ставят диагноз практически с одинаковой точностью — 43% и 41% соответственно. Однако пока искусственный интеллект уступает врачам — они диагностируют заболевание в 53% случаев. По словам авторов, рентгенологи могут использовать ChatGPT как один из инструментов диагностики, хотя его эффективность должна быть изучена дополнительно. Исследование опубликовано в журнале European Radiology.

Чтобы поставить диагноз по рентгену, необходимо знать много информации по разным заболеваниям. В последние годы ученые создали несколько моделей искусственного интеллекта, которые помогли бы рентгенологам поставить правильный диагноз, однако их точность до сих пор неизвестна.

Японские исследователи решили это исправить и сравнить точность диагностики рентгеновских снимков с помощью ChatGPT (Chat Generative Pre-trained Transformer) и врачей. Команда загрузила 106 рентгенологических исследований опорно-двигательного аппарата с историей болезни пациентов в две версии чата: GPT-4 и GPT-4V. Те же самые данные ученые предоставили ординатору и врачу-рентгенологу.

Версия GPT-4 превзошла GPT-4V: точность диагноза первого алгоритма составила 43%, а второго — 8%. Врач-рентгенолог поставил точные диагнозы в 53% случаев, в то время как ординатор — в 41%. Так, искусственный интеллект работает на одном уровне с ординаторами-рентгенологами и уступает врачам примерно на 10%. По словам авторов, рентгенологи могут использовать ChatGPT как один из инструментов диагностики, хотя его эффективность должна быть изучена в дополнительных исследованиях.


Подписывайтесь на InScience.News в социальных сетях: ВКонтакте, Telegram, Одноклассники.