ВОЗ призывает не верить искусственному интеллекту в вопросах медицины
Всемирная организация здравоохранения призывает в вопросах медицины относиться к «познаниям» созданных искусственным интеллектом больших языковых моделей «с осторожностью».
Речь идет о таких быстро набирающих популярность платформах, как ChatGPT, Bard, Bert и многих других, которые имитируют человеческое общение и чье стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здравоохранением, вызывает значительный интерес, сообщает Служба новостей ООН, отмечая, что это настораживает ВОЗ.
В ВОЗ считают, что необходимо тщательно изучить риски, возникающие при использовании больших языковых моделей для улучшения доступа к медицинской информации – об этом особенно важно помнить, принимая связанные со здоровьем решения, опираясь на полученные от искусственного интеллекта данные.
В ВОЗ в целом с энтузиазмом относятся к надлежащему использованию новых технологий для поддержки медицинских работников, пациентов, исследователей и ученых, эксперты организации предупреждают, что в случае с применением больших языковых моделей общество не проявляет ту осторожность, с которой оно относится к любой новой технологии.
ВОЗ предупреждает, что поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к искусственному интеллекту и тем самым отсрочить применение таких технологий во всем мире.
Среди проблем, связанных с применением больших языковых моделей в здравоохранении, вызывает обеспокоенность, например, качество данных, используемых для обучения искусственного интеллекта – они могут быть предвзятыми или неточным и представлять риск для здоровья. Языковые модели также могут не защищать конфиденциальные данные (включая данные о здоровье), которые пользователь предоставляет приложению для создания ответа.
Ответы, сгенерированные языковой моделью, могут казаться авторитетными и правдоподобными для конечного пользователя - однако эти ответы могут быть полностью неверными или содержать серьезные ошибки. Также ответы могут быть использованы не по назначению, например, для создания и распространения весьма убедительной дезинформации в виде текстового, аудио- или видеоконтента.
ВОЗ предлагает разобраться с этими проблемами и получить четкие доказательства пользы больших языковых моделей до их широкого использования в здравоохранении и медицине.
Читайте по теме: