Тим истражувачи од MIT разви нова рамка за вештачка интелигенција (AI) наречена BODHI, која има за цел да ја подобри дијагностиката во медицината преку поголема транспарентност и скромност.
Истражувачите предупредуваат дека постоечките AI системи можат да ги наведат лекарите на погрешен пат поради прекумерна самоувереност. Големите јазични модели (LLMs) покажуваат несоодветна самоувереност во клиничките задачи, што може да доведе до погрешни заклучоци.
BODHI рамката се состои од шест интегрирани чекори кои вклучуваат проценка на клиничката сложеност, евалуација на претходната самоувереност, модул за љубопитност и модул за скромност. Овие модули помагаат во идентификување на информациските празнини и поттикнување на собирање дополнителни податоци кога AI не е сигурен во својата дијагноза.
„Тоа е како да имате копилот кој ви кажува дека треба да побарате нови очи за да го разберете овој сложен пациент подобро.“ — Лео Ентони Чели, истражувач на MIT
Тимот го тестираше BODHI на HealthBench Hard, каде што резултатите покажаа значителни подобрувања во однесувањето на моделите GPT-4.1-mini и GPT-4o-mini. BODHI постигна значителни подобрувања во љубопитноста и клиничкиот квалитет без потреба од финално подесување на моделите.
Иако традиционалните методи можат да ја проценат сигурноста, тие не влијаат на однесувањето или комуникацијата. BODHI, напротив, работи на ниво на поттикнување и покажува промени во однесувањето со подобрување на љубопитноста и скромноста.
Сепак, истражувачите предупредуваат дека намалувањето на оценките за квалитет на комуникација треба внимателно да се интерпретира. Во клинички средини со висок ризик, соодветно скромни, прашања-водени одговори се сметаат за побезбедни од самоуверени, но потенцијално неточни изјави.
BODHI е достапен како отворен извор во форма на Python пакет, што овозможува безбедна примена на AI како соработници кои знаат кога да постават прашања и да се повлечат, наместо да ја маскираат несигурноста со прекумерна самоувереност.