После выхода GPT-5 в фокусе обсуждений оказалась возможность его использования в здравоохранении. Генеральный директор OpenAI Сэм Альтман заявил, что новая модель способна помогать с медицинскими вопросами и даже принимать решения, требующие квалификации врача. Однако на волне восторга растет и беспокойство: эксперты предупреждают о серьезных рисках.
ИНТЕРЕСНО: На платформе HealthBench 250 врачей оценили работу GPT-5 по итогам 5000 диалогов. По сравнению с предыдущими версиями, новая модель показала более точные и качественные ответы, особенно в онкологии.
GPT-5 уже применяется в фармацевтике и страховании:
- Amgen использует ИИ для разработки лекарств и анализа клинических данных;
- Oscar Health — для расшифровки медицинских регламентов.
В чём опасность
Эксперты Microsoft подчеркивают, что даже единичные ошибки в медицинском контексте могут привести к реальному ущербу здоровью. Поэтому контроль над использованием ИИ в этой сфере должен быть жестким и прозрачным.
Исследования из Австрии и Германии показали, что:
- ChatGPT-4 не соответствует клиническим стандартам, особенно за пределами онкологии;
- модель не может анализировать визуальные данные, не обладает медицинской логикой;
- объяснения часто строятся на прогнозе вероятности, а не на знаниях;
- ИИ может убедительно выдать вымышленную информацию за правду;
- точность ответа сильно зависит от формулировки вопроса.
Кроме того, остаётся вопрос конфиденциальности данных — при использовании таких моделей есть риск утечки чувствительной информации пациентов.
Прогнозы — с оговорками
По оценке Swiss Re, к 2034 году именно медицина и фармацевтика окажутся в числе наиболее уязвимых сфер с точки зрения страховых рисков. Причина — активное внедрение ИИ, в том числе в принятие решений, где до сих пор человек был финальным звеном.
GPT-5 открывает большие возможности для медицины, но пока эксперты сходятся в одном: использование ИИ должно строго регулироваться, а врачебные решения по-прежнему должны оставаться за людьми.