In południowej Kalifornii, gdzie wskaźniki bezdomności należą do najwyższych w kraju, prywatna firma, Laboratoria Akidoprowadzi kliniki dla pacjentów bezdomnych i innych osób o niskich dochodach. Zastrzeżenie? Pacjenci są obserwowani przez asystentów medycznych, którzy przy użyciu sztucznej inteligencji (AI) podsłuchują rozmowy, a następnie wypluwają potencjalne diagnozy i plany leczenia, które następnie są weryfikowane przez lekarza. Celem firmy, jak powiedział jej dyrektor ds. technologii w wywiadzie dla MIT Technology Review, jest „wycofać lekarza z wizyty”.
To jest niebezpieczne. Jest to jednak część szerszego trendu, w ramach którego generatywna sztuczna inteligencja jest wpychana do opieki zdrowotnej dla pracowników służby zdrowia. W 2025 roku A ankieta Amerykańskie Stowarzyszenie Medyczne podało, że dwóch na trzech lekarzy korzysta ze sztucznej inteligencji w codziennej pracy, w tym w diagnozowaniu pacjentów. Jeden Startup AI zebrał 200 milionów dolarów udostępnienie pracownikom służby zdrowia aplikacji o nazwie „ChatGPT dla lekarzy”. Amerykańscy prawodawcy rozważają rachunek które uznałoby sztuczną inteligencję za zdolną do przepisywania leków. Chociaż ten trend w zakresie sztucznej inteligencji w opiece zdrowotnej dotyczy prawie wszystkich pacjentów, ma on głębszy wpływ na osoby o niskich dochodach, które już borykają się z poważnymi barierami w opiece i wyższymi wskaźnikami złego traktowania w placówkach opieki zdrowotnej. Osoby pozbawione mieszkania i o niskich dochodach nie powinny znajdować się na poligonach doświadczalnych w zakresie sztucznej inteligencji w opiece zdrowotnej. Zamiast tego to ich głosy i priorytety powinny decydować o tym, czy, w jaki sposób i kiedy zostanie wdrożona sztuczna inteligencja pod ich opieką.
Rozwój sztucznej inteligencji w opiece zdrowotnej nie nastąpił w próżni. Przepełnione szpitale, przepracowani lekarze i nieustanna presja na bezproblemowe funkcjonowanie gabinetów lekarskich, przewożenie pacjentów do i z dużego nastawionego na zysk systemu opieki zdrowotnej, wyznaczają warunki. Wymagania stawiane pracownikom służby zdrowia są często spotęgowane w społecznościach znajdujących się w niekorzystnej sytuacji ekonomicznej, w których placówki opieki zdrowotnej są często niedofinansowane, a pacjenci nieubezpieczeni, co powoduje większe obciążenie chronicznymi schorzeniami wynikającymi z rasizmu i ubóstwa.
W tym miejscu ktoś mógłby zapytać: „Czy coś nie jest lepsze niż nic?” Właściwie, nie. Badania pokazują, że narzędzia wykorzystujące sztuczną inteligencję generują niedokładne diagnozy. A Badanie 2021 w Nature Medicine zbadał algorytmy sztucznej inteligencji trenowane na dużych zbiorach danych rentgenowskich klatki piersiowej na potrzeby badań obrazowania medycznego i odkrył, że algorytmy te systematycznie doprowadzały do niedodiagnozowania pacjentów rasy czarnej i latynoskiej, pacjentów zarejestrowanych jako kobiety oraz pacjentów objętych ubezpieczeniem Medicaid. To systematyczne nastawienie grozi pogłębieniem nierówności w zdrowiu w przypadku pacjentów, którzy już borykają się z barierami w opiece. Inny badanieopublikowanej w 2024 r. wskazano, że sztuczna inteligencja błędnie diagnozowała badania przesiewowe w kierunku raka piersi wśród czarnoskórych pacjentek – prawdopodobieństwo uzyskania fałszywie pozytywnych wyników w przypadku czarnoskórych pacjentek poddanych badaniom przesiewowym w kierunku raka piersi było większe niż w przypadku ich białych odpowiedniczek. Ze względu na błąd algorytmiczny niektóre kliniczne narzędzia sztucznej inteligencji notorycznie radzą sobie gorzej w przypadku pacjentów rasy czarnej i innych osób kolorowych. Dzieje się tak dlatego, że sztuczna inteligencja nie „myśli” niezależnie; opiera się na prawdopodobieństwie i rozpoznawaniu wzorców, co może wzmocnić stronniczość w przypadku już zmarginalizowanych pacjentów.
Niektórzy pacjenci nie są nawet informowani, że ich świadczeniodawca lub system opieki zdrowotnej korzysta ze sztucznej inteligencji. Asystent medyczny powiedział przeglądowi technologii MIT że jego pacjenci wiedzą, że system AI podsłuchuje, ale nie mówi im, że wydaje zalecenia diagnostyczne. Nawiązuje to do epoki wyzysku rasizmu medycznego, w którym przeprowadzano eksperymenty na Czarnych bez świadomej zgody i często wbrew ich woli. Czy sztuczna inteligencja może pomóc świadczeniodawcom, szybko przekazując im informacje, które pozwolą im zająć się kolejnym pacjentem? Prawdopodobnie. Problem w tym, że może się to odbywać kosztem trafności diagnozy i pogłębiania się nierówności w zdrowiu.
Potencjalny wpływ wykracza poza dokładność diagnostyczną. Sprawiedliwość TechTonicgrupa rzeczników działająca na rzecz ochrony społeczności marginalizowanych ekonomicznie przed szkodami wynikającymi ze sztucznej inteligencji, opublikowała przełomowy raport, w którym szacuje się, że 92 miliony Amerykanów o niskich dochodach „mają jakiś podstawowy aspekt swojego życia, o którym decyduje sztuczna inteligencja”. Decyzje te wahają się od tego, jak kwoty, jaką otrzymują od Medicaid, od tego, czy kwalifikują się do ubezpieczenia na wypadek niezdolności do pracy administrowanego przez Social Security.
Prawdziwy przykład tego ma miejsce obecnie w sądach federalnych. W 2023 roku grupa klientów Medicare Advantage pozwany UnitedHealthcare w Minnesocie, twierdząc, że odmówiono im ubezpieczenia, ponieważ system sztucznej inteligencji firmy nH Predict błędnie uznał ich za niekwalifikujących się. Niektórzy z powodów to majątki klientów Medicare Advantage; pacjenci ci rzekomo zmarli w wyniku odmowy udzielenia niezbędnej opieki medycznej. UnitedHealth starało się o oddalenie sprawy, ale w 2025 roku sędzia orzekł, że powodowie mogą przystąpić do części roszczeń. Podobny przypadek był wniesiony w sądzie federalnym w Kentucky przeciwko Humanie. Tam klienci Medicare Advantage twierdzili, że korzystanie przez firmę Humana z nH Predict „wyrzuca ogólne zalecenia oparte na niekompletnej i nieodpowiedniej dokumentacji medycznej”. Ta sprawa również jest w toku, a sędzia orzekł, że argumentacja prawna powodów jest wystarczająca, aby ruszyć dalej i przetrwać wniosek towarzystwa ubezpieczeniowego o oddalenie pozwu. Chociaż ostateczna decyzja w tych dwóch sprawach nie została jeszcze podjęta, wskazują one na rosnącą tendencję wykorzystywania sztucznej inteligencji do decydowania o ubezpieczeniu zdrowotnym osób o niskich dochodach – i związane z tym pułapki. Jeśli masz środki finansowe, możesz uzyskać wysokiej jakości opiekę zdrowotną. Jeśli jednak nie masz mieszkania lub masz niskie dochody, sztuczna inteligencja może uniemożliwić Ci nawet całkowity dostęp do opieki zdrowotnej. To klasycyzm medyczny.
Nie powinniśmy eksperymentować na pacjentach, którzy nie mają mieszkania lub mają niskie dochody w zakresie wdrażania sztucznej inteligencji. Udokumentowane szkody są większe niż potencjalne, niepotwierdzone korzyści obiecane przez start-upy i inne przedsięwzięcia technologiczne. Biorąc pod uwagę bariery, na jakie napotykają osoby pozbawione mieszkania i o niskich dochodach, niezwykle ważne jest, aby otrzymały one opiekę skoncentrowaną na pacjencie, prowadzoną przez podmiot świadczący opiekę zdrowotną, który słucha ich potrzeb i priorytetów zdrowotnych. Nie możemy stworzyć standardu, w którym polegamy na systemie opieki zdrowotnej, w którym pracownicy służby zdrowia schodzą na dalszy plan, podczas gdy sztuczna inteligencja – obsługiwana przez prywatne firmy – przejmuje wiodącą rolę. System sztucznej inteligencji, który „nasłuchuje” społeczności i jest opracowywany bez rygorystycznej oceny przez same społeczności, pozbawia pacjentów uprawnień do podejmowania decyzji w zakresie określania, jakie technologie, w tym sztuczna inteligencja, są wdrażane w ich opiece zdrowotnej.
-
Leah Goodridge jest prawniczką, która przez 12 lat pracowała w sporach dotyczących zapobiegania bezdomności
-
Oni Blackstock, MD, MHS, jest lekarzem, założycielem i dyrektorem wykonawczym Health Justice oraz członkiem Public Voices zajmującym się technologią w interesie publicznym w ramach projektu OpEd


















