ЧатGPT в помощь! Четырехлетний мальчик три года безрезультатно обращался за медицинской помощью к 17 специалистам, а крупная модель точно выяснила причину заболевания.
После того, как он страдал от «странной болезни» в течение 3 лет и безуспешно обращался за медицинской помощью, ChatGPT наконец успешно поставил ему диагноз!
Это реальный опыт, произошедший с 4-летним мальчиком.
После определенного упражнения он начал испытывать сильную боль во всем теле. Мать водила ее на прием к 17 врачам, от педиатров и ортопедов до различных специалистов, а также на ряд обследований, таких как МРТ, но никто так и не нашел причину.
Его мать без особых надежд пыталась обратиться за помощью в ChatGPT, но тот прямо дал правильный совет, основанный на описании и отчете об осмотре.
Как только тема вышла в свет, она попала в горячий список Zhihu, а популярность на Reddit также взлетела до 2,3 тыс.
Некоторые пользователи сети сказали, что на этот раз GPT действительно интересен:
В каждом кабинете врача может быть ИИ-помощник, который будет сравнивать результаты со своим собственным диагнозом.
Некоторые пользователи сети воспользовались примером Med-PaLM, большой модели вспомогательной медицинской диагностики, специально обученной Google, и захотели узнать результаты ее диагностики:
Это практически идеальное тестовое задание для больших моделей.
Итак, что именно происходит?
**Что это за «странная болезнь»? **
Главного героя истории зовут Алекс, а у его матери Кортни двое детей.
Однажды в 2020 году няня Алекса сказала Кортни, что Алексу приходится каждый день принимать обезболивающие, иначе он потеряет сознание от боли.
Затем Алекс снова начал скрипеть зубами. Его родители связали эти две вещи вместе и подумали, что это может быть вызвано болью, вызванной заменой зуба или кариесом.
Поэтому ее мать отвела Алекса к дантисту, и трехлетнее путешествие Алекса за медицинской помощью официально началось.
После осмотра стоматолог не обнаружил никаких проблем, но предположил, что, поскольку Алекс скрипит зубами, он порекомендовал им обратиться к ортодонту, который специализируется на лечении обструкции дыхательных путей.
Ортодонт обнаружил, что верхняя челюсть Алекса слишком маленькая, из-за чего ему трудно дышать, поэтому он установил Алексу расширитель. Этот метод лечения действительно подействовал, и мать однажды подумала, что болезнь Алекса скоро излечится.
Это разумно, но реальность часто нелогична.
Ее мать вскоре обнаружила, что Алекс, которому было всего четыре года, внезапно похудел.
На этот раз мать обратилась за помощью к педиатру.
Врачи предполагали, что Алекс мог заразиться коронавирусом, но его мать такое объяснение не удовлетворило. Однако мама все же отвезла Алекса на осмотр в начале 2021 года.
Врач сказал матери, что Алекс «немного стал выше», но обнаружил, что левая и правая ступни Алекса несколько разбалансированы, и предложил им выбрать физиотерапию.
На этот раз ее мать поверила словам врача, но до начала физиотерапии у Алекс снова появились симптомы головной боли, которые становились все более сильными.
物理治疗的事只好先搁置一下,母亲先带Alex去看**神经(内) Врач пришел к выводу, что Алекс страдает мигренью.
Борясь с головными болями, Алекса также беспокоили симптомы истощения, поэтому его отвезли к ЛОР-врачу, чтобы проверить, не влияет ли на его сон проблема с носовыми пазухами.
Пройдя через все эти перипетии, Алекс, наконец, начал проходить физиотерапию. Его физиотерапевт** считал, что Алекс может страдать от врожденного заболевания, называемого мальформацией Киари.
Это врожденное заболевание вызывает аномалии в головном мозге в месте соединения черепа с позвоночником.
Мать начала исследовать это и водила Алекса к новым педиатрам, детским врачам внутренних болезней, врачам внутренних болезней для взрослых и **врачам скелетно-мышечной медицины.
В итоге Алекс посетил целых 17 врачей, можно сказать, что он посетил почти все мыслимые отделения, его даже отправили в отделение неотложной помощи, но причину ему так и не удалось выяснить.
**Пока ChatGPT не развернул весь инцидент на 180 градусов. **
Решив попробовать, моя мама зарегистрировала учетную запись ChatGPT.
Она ввела симптомы Алекса и записи из отчета МРТ, включая одну деталь: Алекс не мог сидеть, скрестив ноги.
ChatGPT поставил диагноз - Синдром привязанного шнура (TCS).
Конечно, Кортни не поверила этому напрямую и, получив ответ, сначала нашла в Facebook группу для общения родителей детей с детьми.
Прочитав обсуждение, моя мама почувствовала, что эти симптомы очень похожи на симптомы Алекса.
Это открытие вновь разожгло почти погасший огонь надежды.Потом мама вспоминала, что всю ночь просидела перед компьютером и все пережила.
С этим заключением и заключением МРТ Алекса я нашел нейрохирурга.
На этот раз мы наконец-то нашли нужного человека: врач посмотрел МРТ и пришел к такому же выводу, что и ChatGPT, и указал конкретное расположение троса.
После этого дела пошли более гладко. Алекс перенес операцию и сейчас восстанавливается.
Так почему же Алексу не поставили окончательный диагноз, пока он не обратился к 18-му врачу?
Прежде всего, это как-то связано с самим Алексом.
У людей с TCS часто появляются расщелины на спине, но у Алекса расщелины не было — состояние, называемое синдромом скрытого привязного шнура (OTCS).
Хотя TCS является редким заболеванием, его частота у новорожденных не низкая, около 0,005~0,025%, что выше, чем заболеваемость лейкемией.
** **### △Чэнь Ингэ, Ми Ян. Случай множественных аномалий развития плода во время беременности [J] Достижения клинической медицины, 2023, 13(2)
Но ОТКС встречается относительно редко — настолько редко, что уровень заболеваемости вообще не подсчитывается.
Но ведь в конце истории хирург принял быстрое решение, увидев снимки МРТ.
Итак, неспособность поставить диагноз раньше, вероятно, произошла из-за "не того врача": среди 17 врачей ни один не занимался хирургией.
Конечно, это нормально, ведь все они специалисты (соответствующие врачам общей практики), хорошо разбирающиеся в своих областях, и неизбежно, что они не будут иметь комплексного понимания знаний за пределами своей специальности.
Но это также выявило проблему: при возникновении необъяснимых проблем эти врачи не рассматривали возможность проведения многопрофильной консультации, и неизвестно, полностью ли они расспросили историю болезни Алекса.
По словам ее матери Кортни, никто не хотел решать «большую проблему (выходящую за рамки их собственной дисциплины)», и никто не давал никаких подсказок относительно диагноза.
База знаний ChatGPT, по крайней мере, намного богаче, чем у профессионалов в отдельных областях. Он более полно учитывает ситуацию Алекса и в конечном итоге дает правильный вывод.
Так является ли успешная диагностика ChatGPT на этот раз ошибкой или у него действительно есть диагностические возможности?
**Можно ли использовать ИИ для диагностики? **
Фактически, это не первый раз, когда кто-то использует ChatGPT или GPT-4 в качестве инструмента диагностики заболеваний.
Например, вскоре после появления GPT-4 кто-то использовал его для успешной диагностики случая собственной собаки, и этот опыт однажды разлетелся по Интернету.
Он рассказал GPT-4 о симптомах собаки с самого начала, о процессе лечения и о каждом отчете об анализе крови:
20-го числа температура была 41,5 градуса Цельсия.По результатам анализа крови врач поставил диагноз бабезиоз собак (результаты анализа крови прилагаются).Последующие 3 дня лечился антибиотиками.24-го числа лечился антибиотиками, но его Десны побледнели (результаты нового анализа крови прилагаются).
GPT-4 оперативно выдал результаты обнаружения и в разговоре указал, что это может быть вызвано двумя причинами:
Гемолиз: Разрушение эритроцитов по разным причинам, например, при иммуноопосредованной гемолитической анемии (ИМГА), токсинах или других инфекциях, кроме бабезиоза.
Кровопотеря: внутреннее или внешнее кровотечение, которое может быть вызвано травмой, хирургическим вмешательством или желудочно-кишечными проблемами (например, язвами или паразитами).
Окончательный диагноз врача показал, что собака действительно страдала иммуноопосредованной гемолитической анемией (IMHA), и собаку удалось спасти после того, как ей дали правильное лекарство.
Кроме того, некоторые пользователи сети также сообщили о своем жизненном опыте с помощью ChatGPT (GPT-4).
После посещения тренажерного зала у него болело все тело. После консультации с GPT-4 о своем состоянии он получил ответ: «рабдомиолиз», сразу же отправился в больницу и в результате умер.
Однако в некоторых научных исследованиях отмечается, что ни ChatGPT, ни GPT-4 не являются ИИ-докторами, на которых можно полностью положиться.
Например, исследование, опубликованное в JAMA Brigham and Women's Hospital (BWH), больницей, связанной с Гарвардским университетом, показало, что при выдаче рекомендаций по лечению рака ChatGPT был полностью верен только в 62% случаев.
В остальных случаях 34% предложений содержали хотя бы один или несколько ответов, не соответствующих правильному диагнозу, а в 2% случаев был поставлен неправдоподобный диагноз.
В связи с этим в исследовании полагают, что диагностику нельзя полностью отдавать ChatGPT или GPT-4, ведь они все равно не могут сравниться с профессиональными врачами в процессе диагностики.
(Однако некоторые пользователи сети отметили, что причина, по которой ChatGPT не удалось успешно поставить диагноз, также может быть связана с данными обучения, а информация о лечении после 2021 года не включена)
В связи с этим Эндрю Бим, доцент кафедры эпидемиологии Гарвардского университета, считает, что эффекты ChatGPT и GPT-4 следует рассматривать с двух сторон:
С одной стороны, их лучше использовать, чем какую-нибудь обычную диагностическую программу или поисковые системы Google, особенно версию GPT-4.
Но, с другой стороны, они пока вряд ли заменят врачей с существенным опытом. В конце концов, ИИ действительно может сфабриковать информацию, когда не может найти ответ, и сделать неправильные результаты на основе «галлюцинаций».
Джесси М. Эренфельд, президент Американской медицинской ассоциации (АМА), заявил, что даже если ИИ сможет диагностировать результаты, окончательная ответственность лежит на самом докторе.
Подводя итог вышеизложенной точки зрения, каждый может использовать ИИ для помощи в диагностике заболевания, который проще использовать, чем поисковые системы, но в конечном итоге вам все равно придется идти в больницу и искать врача для постановки диагноза.
Итак, если вы планируете использовать большую модель для «информационной консультации», какую большую модель лучше всего использовать?
Некоторые пользователи сети использовали себя в качестве примера, чтобы проверить, обладают ли различные большие языковые модели диагностическими возможностями, и, наконец, решили, что GPT-4 более эффективен:
Я консультировался с несколькими врачами по поводу причины моего хронического кашля, но наконец узнал из YouTube-канала, что у меня ЛПР (скрытый ларингофарингеальный рефлюкс).
Я протестировал большую модель на собственных случаях, и GPT-4 оказался единственным успешно диагностированным. Хотя у Клода 2 был близкий ответ, он не смог поставить диагноз совершенно самостоятельно.
Пробовали ли вы когда-нибудь использовать ИИ для диагностики вашего состояния? Каково это?
Справочные ссылки:
[1]
[2]
[3]
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ЧатGPT в помощь! Четырехлетний мальчик три года безрезультатно обращался за медицинской помощью к 17 специалистам, а крупная модель точно выяснила причину заболевания.
Первоисточник: Кубиты
После того, как он страдал от «странной болезни» в течение 3 лет и безуспешно обращался за медицинской помощью, ChatGPT наконец успешно поставил ему диагноз!
Это реальный опыт, произошедший с 4-летним мальчиком.
После определенного упражнения он начал испытывать сильную боль во всем теле. Мать водила ее на прием к 17 врачам, от педиатров и ортопедов до различных специалистов, а также на ряд обследований, таких как МРТ, но никто так и не нашел причину.
Его мать без особых надежд пыталась обратиться за помощью в ChatGPT, но тот прямо дал правильный совет, основанный на описании и отчете об осмотре.
**Что это за «странная болезнь»? **
Главного героя истории зовут Алекс, а у его матери Кортни двое детей.
Однажды в 2020 году няня Алекса сказала Кортни, что Алексу приходится каждый день принимать обезболивающие, иначе он потеряет сознание от боли.
Затем Алекс снова начал скрипеть зубами. Его родители связали эти две вещи вместе и подумали, что это может быть вызвано болью, вызванной заменой зуба или кариесом.
Поэтому ее мать отвела Алекса к дантисту, и трехлетнее путешествие Алекса за медицинской помощью официально началось.
После осмотра стоматолог не обнаружил никаких проблем, но предположил, что, поскольку Алекс скрипит зубами, он порекомендовал им обратиться к ортодонту, который специализируется на лечении обструкции дыхательных путей.
Это разумно, но реальность часто нелогична.
Ее мать вскоре обнаружила, что Алекс, которому было всего четыре года, внезапно похудел.
Врачи предполагали, что Алекс мог заразиться коронавирусом, но его мать такое объяснение не удовлетворило. Однако мама все же отвезла Алекса на осмотр в начале 2021 года.
Врач сказал матери, что Алекс «немного стал выше», но обнаружил, что левая и правая ступни Алекса несколько разбалансированы, и предложил им выбрать физиотерапию.
На этот раз ее мать поверила словам врача, но до начала физиотерапии у Алекс снова появились симптомы головной боли, которые становились все более сильными.
Борясь с головными болями, Алекса также беспокоили симптомы истощения, поэтому его отвезли к ЛОР-врачу, чтобы проверить, не влияет ли на его сон проблема с носовыми пазухами.
Пройдя через все эти перипетии, Алекс, наконец, начал проходить физиотерапию. Его физиотерапевт** считал, что Алекс может страдать от врожденного заболевания, называемого мальформацией Киари.
Это врожденное заболевание вызывает аномалии в головном мозге в месте соединения черепа с позвоночником.
Мать начала исследовать это и водила Алекса к новым педиатрам, детским врачам внутренних болезней, врачам внутренних болезней для взрослых и **врачам скелетно-мышечной медицины.
В итоге Алекс посетил целых 17 врачей, можно сказать, что он посетил почти все мыслимые отделения, его даже отправили в отделение неотложной помощи, но причину ему так и не удалось выяснить.
Решив попробовать, моя мама зарегистрировала учетную запись ChatGPT.
Она ввела симптомы Алекса и записи из отчета МРТ, включая одну деталь: Алекс не мог сидеть, скрестив ноги.
ChatGPT поставил диагноз - Синдром привязанного шнура (TCS).
Конечно, Кортни не поверила этому напрямую и, получив ответ, сначала нашла в Facebook группу для общения родителей детей с детьми.
Прочитав обсуждение, моя мама почувствовала, что эти симптомы очень похожи на симптомы Алекса.
Это открытие вновь разожгло почти погасший огонь надежды.Потом мама вспоминала, что всю ночь просидела перед компьютером и все пережила.
На этот раз мы наконец-то нашли нужного человека: врач посмотрел МРТ и пришел к такому же выводу, что и ChatGPT, и указал конкретное расположение троса.
После этого дела пошли более гладко. Алекс перенес операцию и сейчас восстанавливается.
Так почему же Алексу не поставили окончательный диагноз, пока он не обратился к 18-му врачу?
У людей с TCS часто появляются расщелины на спине, но у Алекса расщелины не было — состояние, называемое синдромом скрытого привязного шнура (OTCS).
Хотя TCS является редким заболеванием, его частота у новорожденных не низкая, около 0,005~0,025%, что выше, чем заболеваемость лейкемией.
**
**### △Чэнь Ингэ, Ми Ян. Случай множественных аномалий развития плода во время беременности [J] Достижения клинической медицины, 2023, 13(2)
Но ОТКС встречается относительно редко — настолько редко, что уровень заболеваемости вообще не подсчитывается.
Но ведь в конце истории хирург принял быстрое решение, увидев снимки МРТ.
Итак, неспособность поставить диагноз раньше, вероятно, произошла из-за "не того врача": среди 17 врачей ни один не занимался хирургией.
Конечно, это нормально, ведь все они специалисты (соответствующие врачам общей практики), хорошо разбирающиеся в своих областях, и неизбежно, что они не будут иметь комплексного понимания знаний за пределами своей специальности.
Но это также выявило проблему: при возникновении необъяснимых проблем эти врачи не рассматривали возможность проведения многопрофильной консультации, и неизвестно, полностью ли они расспросили историю болезни Алекса.
По словам ее матери Кортни, никто не хотел решать «большую проблему (выходящую за рамки их собственной дисциплины)», и никто не давал никаких подсказок относительно диагноза.
База знаний ChatGPT, по крайней мере, намного богаче, чем у профессионалов в отдельных областях. Он более полно учитывает ситуацию Алекса и в конечном итоге дает правильный вывод.
Так является ли успешная диагностика ChatGPT на этот раз ошибкой или у него действительно есть диагностические возможности?
**Можно ли использовать ИИ для диагностики? **
Фактически, это не первый раз, когда кто-то использует ChatGPT или GPT-4 в качестве инструмента диагностики заболеваний.
Например, вскоре после появления GPT-4 кто-то использовал его для успешной диагностики случая собственной собаки, и этот опыт однажды разлетелся по Интернету.
20-го числа температура была 41,5 градуса Цельсия.По результатам анализа крови врач поставил диагноз бабезиоз собак (результаты анализа крови прилагаются).Последующие 3 дня лечился антибиотиками.24-го числа лечился антибиотиками, но его Десны побледнели (результаты нового анализа крови прилагаются).
GPT-4 оперативно выдал результаты обнаружения и в разговоре указал, что это может быть вызвано двумя причинами:
Кроме того, некоторые пользователи сети также сообщили о своем жизненном опыте с помощью ChatGPT (GPT-4).
После посещения тренажерного зала у него болело все тело. После консультации с GPT-4 о своем состоянии он получил ответ: «рабдомиолиз», сразу же отправился в больницу и в результате умер.
Например, исследование, опубликованное в JAMA Brigham and Women's Hospital (BWH), больницей, связанной с Гарвардским университетом, показало, что при выдаче рекомендаций по лечению рака ChatGPT был полностью верен только в 62% случаев.
(Однако некоторые пользователи сети отметили, что причина, по которой ChatGPT не удалось успешно поставить диагноз, также может быть связана с данными обучения, а информация о лечении после 2021 года не включена)
В связи с этим Эндрю Бим, доцент кафедры эпидемиологии Гарвардского университета, считает, что эффекты ChatGPT и GPT-4 следует рассматривать с двух сторон:
Джесси М. Эренфельд, президент Американской медицинской ассоциации (АМА), заявил, что даже если ИИ сможет диагностировать результаты, окончательная ответственность лежит на самом докторе.
Подводя итог вышеизложенной точки зрения, каждый может использовать ИИ для помощи в диагностике заболевания, который проще использовать, чем поисковые системы, но в конечном итоге вам все равно придется идти в больницу и искать врача для постановки диагноза.
Итак, если вы планируете использовать большую модель для «информационной консультации», какую большую модель лучше всего использовать?
Некоторые пользователи сети использовали себя в качестве примера, чтобы проверить, обладают ли различные большие языковые модели диагностическими возможностями, и, наконец, решили, что GPT-4 более эффективен:
Справочные ссылки: [1] [2] [3]