Wydaje się nieuniknione, że przyszłość medycyny będzie obejmować AI, a szkoły medyczne już zachęcają uczniów do korzystania z dużych modeli językowych. „Martwię się, że te narzędzia zanotują moją zdolność do niezależnej diagnozy”, powiedział mi Benjamin Popokh, student medycyny na University of Texas Southwestern. Popokh postanowił zostać lekarzem po tym, jak dwunastoletni kuzyn zmarł na guz mózgu. Podczas niedawnej rotacji jego profesorowie poprosili swoją klasę o pracę w sprawie za pomocą narzędzi AI, takich jak Chatgpt i Openevidence, coraz bardziej popularny LLM medyczny, który zapewnia bezpłatny dostęp do pracowników służby zdrowia. Każdy chatbot poprawnie zdiagnozował skrzep krwi w płucach. „Nie było grupy kontrolnej”, powiedział Popokh, co oznacza, że żaden z uczniów nie pracował w sprawie bez asystowania. Przez pewien czas Popokh używał AI po praktycznie każdym spotkaniu pacjenta. „Zacząłem czuć brudne przedstawienie moich myśli uczęszczania do lekarzy, wiedząc, że tak naprawdę są myśli AI” – powiedział mi. Pewnego dnia, gdy opuścił szpital, miał niepokojącą realizację: tego dnia nie myślał o jednym pacjencie. Zdecydował, że odtąd zmusi się do rozstrzygnięcia diagnozy przed konsultacją ze sztuczną inteligencją. „Poszedłem do szkoły medycznej, aby zostać prawdziwym, kapitałowym lekarzem”-powiedział mi. „Jeśli wszystko, co robisz, to podłączanie objawów do sztucznej inteligencji, czy nadal jesteś lekarzem, czy też jesteś nieco lepszy w wywołaniu sztucznej inteligencji niż twoi pacjenci?”
Kilka tygodni po demonstracji Cabot Manrai dał mi dostęp do modelu. Został przeszkolony na CPC . New England Journal of Medicine; Najpierw przetestowałem to na przypadkach z Jama Network, rodzina wiodących czasopism medycznych. Dokonało dokładnych diagnoz pacjentów z różnymi chorobami, w tym wysypkami, guzkami, wzrostami i utratą mięśni, z niewielką liczbą wyjątków: pomylił jeden rodzaj guza z drugim i źle zdiagnozował wirusowe owrzodzenie jamy ustnej jako raka. (Chatgpt, porównując, błędnie zdiagnozował około połowy przypadków, które mu podałem, myląc raka z infekcją i reakcję alergiczną dla stanu autoimmunologicznego.) Prawdziwi pacjenci nie przedstawiają jednak starannie wyselekcjonowanych studiów przypadków i chciałem zobaczyć, jak Cabot zareaguje na rodzaj sytuacji, w których lekarze faktycznie napotykają.
Dałem Cabotowi szerokie podsumowanie tego, czego doświadczył Matthew Williams: jazda rowerem, obiad, ból brzucha, wymioty, dwie wizyty w oddziałie w nagłych wypadkach. Nie zorganizowałem informacji w sposób, w jaki lekarz. Niepokojące, kiedy Cabot wygenerował jedną z wyraźnych prezentacji, slajdy były pełne wymyślonych wartości laboratoryjnych, parametrów życiowych i wyników egzaminów. „Brzuch wygląda na rozszerzony na górę” – powiedział nieprawidłowo AI. „Kiedy go delikatnie kołyszesz, słyszysz ten klasyczny plusk Sucussion – sprytny w zamkniętym pojemniku”. Cabot przywołał nawet raport o skanie CT, który podobno pokazał rozdęty żołądek Williamsa. Dotarł do błędnej diagnozy Volvulusa żołądka: skręcanie żołądka, a nie jelita.
Próbowałem dać Cabotowi formalne podsumowanie drugiej wizyty w nagłych wypadkach Williamsa, jak szczegółowo opisano lekarzy, którzy go widzieli, a to przyniosło zupełnie inny wynik – prawdopodobnie dlatego, że mieli więcej danych, posortowanych według istotności. Poziom hemoglobiny pacjenta spadł; Jego białe komórki lub leukocyty pomnożały się; Był podwojony z bólu. Tym razem Cabot zatrzymał się na odpowiednich danych i wydaje się, że nic nie wymyślił. „Wskaźniki uduszenia – ciągły ból, leukocytoza, upuszczenie hemoglobiny – są na nas migające” – powiedział. Cabot zdiagnozował niedrożność w jelitach cienkich, prawdopodobnie z powodu Volvulus lub przepukliny. „Wcześniej zaangażuj operację” – powiedział. Technicznie Cabot był nieco poza znakiem: problem Williamsa powstał w dużym, a nie małym jelicie. Ale kolejne kroki byłyby praktycznie identyczne. Chirurg znalazłby węzeł jelit.
Rozmowa z Cabotem była zarówno wzmacniająca, jak i niepokojąca. Czułem się tak, jakbym mógł otrzymać drugą opinię, w każdej specjalności, za każdym razem, gdy chciałem. Ale tylko w przypadku czujności i szkolenia medycznego mogłem w pełni wykorzystać jego umiejętności – i wykryć jego błędy. Modele AI mogą brzmieć jak doktoranckie, nawet przy popełnianiu błędów w szkole w ocenie. Chatboty nie mogą badać pacjentów i wiadomo, że zmagają się z otwartymi zapytaniami. Ich produkcja staje się coraz lepsza, gdy podkreślasz to, co najważniejsze, ale większość ludzi nie jest przeszkolona do sortowania objawów w ten sposób. Osoba z bólem w klatce piersiowej może występować refluks kwasowy, stan zapalny lub zawał serca; Lekarz zapytałby, czy ból zdarza się, gdy jedzą, kiedy chodzą lub kiedy leżą w łóżku. Jeśli osoba pochyla się do przodu, czy ból pogarsza się czy zmniejsza? Czasami słuchamy fraz, które radykalnie zwiększają szanse na określony warunek. „Najgorszy ból głowy w moim życiu” może oznaczać krwotok mózgu; „Kurtyna nad okiem” sugeruje blokadę siatkówki. Różnica między AI i wcześniejszymi technologiami diagnostycznymi jest jak różnica między piłą mocą a piłowaniem. Ale użytkownik, który nie jest ostrożny, mógł odciąć palcem.
Weź udział w wystarczających konferencjach kliniczno -patologicznych lub obejrzyj wystarczającą liczbę epizodów „House”, a każdy przypadek medyczny zaczyna brzmieć jak tajemnica do rozwiązania. Lisa Sanders, lekarz w centrum Magazyn Times „Diagnoza” serii kolumn i serii Netflix porównała swoją pracę z pracą Sherlocka Holmesa. Ale codzienna praktyka medycyny jest często znacznie bardziej rutynowa i powtarzalna. Na przykład podczas rotacji w szpitalu VA podczas mojego treningu czułem się mniej jak Sherlock niż Syzyfus. Wydawało się, że praktycznie każdy pacjent miał pewną kombinację płuc, niewydolności serca, cukrzycy, przewlekłej choroby nerek i wysokiego ciśnienia krwi. Zapoznałem się z nowym zdaniem – „prawdopodobnym wieloczynnikiem”, co oznaczało, że istniało kilka wyjaśnień dotyczących tego, czego doświadczył pacjent – i szukałem sposobów rozwiązania jednego stanu bez zaostrzenia innego. (Na przykład wyczerpujący płyn w celu złagodzenia przeciążonego serca może łatwo odwodnić nerki.) Czasami precyzyjna diagnoza była obok sedna; Pacjent może wejść z krótkowolnością i niskim poziomem tlenu i być leczony z powodu przewlekłej obturacyjnej choroby płuc, niewydolności serca i zapalenia płuc. Czasami nigdy nie wymyśliliśmy, co spowodowało dany odcinek – ale możemy pomóc pacjentowi poczuć się lepiej i wysłać go do domu. Poproszenie AI o jego zdiagnozowanie nie dałoby nam dużej jasności; W praktyce nie było schludnego i satysfakcjonującego rozwiązania.
Według Gurpreeta Dhaliwal, lekarza z University of California w San Francisco, popełnia błąd, popełnia błąd, popełnia błąd „zaczynając od końca” Czasy Kiedyś opisany jako „jeden z najbardziej zręcznych diagnostyków klinicznych w praktyce”. Zdaniem Dhaliwal, lepiej prosząc AI o pomoc w „Wayfinding”: Zamiast pytać, co chorych pacjenta może poprosić model o identyfikację trendów w trajektorii pacjenta, a także ważne szczegóły, które lekarz mógł przegapić. Model nie wydałby lekarza rozkazów do naśladowania; Zamiast tego może ostrzegać ją o ostatnim badaniu, zaproponować pomocne badanie krwi lub odkryć w laboratorium w dziesięcioletnim dokumentacji medycznej. Wizja Dhaliwal dla sztucznej inteligencji, uznaje różnicę między diagnozowaniem ludzi a kompetentnym opieką nad nimi. „Tylko dlatego, że masz w biurku japońsko-angielski słownik, nie oznacza, że jesteś biegle po japońsku”, powiedział mi.
Cabot pozostaje eksperymentalny, ale inne narzędzia AI już kształtują opiekę nad pacjentem. Chatgpt jest zablokowany w sieci mojego szpitala, ale ja i wielu moich kolegów używamy Openevidence. Platforma ma umowy licencyjne z najlepszymi czasopismami medycznymi i twierdzi, że jest zgodna z prawem prywatności pacjenta HIPAA. Każda z jego odpowiedzi przytacza zestaw artykułów recenzowanych, czasami, w tym dokładną figurę lub dosłowną cytat z odpowiedniego artykułu, aby zapobiec halucynacjom. Kiedy dałem OPENIVIDE niedawno, nie próbował od razu rozwiązać tajemnicy, ale raczej zadał mi serię wyjaśniających pytań.