Ilustracja: Jordan Moss/The Guardian

Pojęcie, że sztuczna inteligencja może pomóc w zmniejszeniu rasizmu, może wydawać się sprzeczne z intuicją. W końcu widzieliśmy wiele nagłówków dotyczących systemów AI utrwalających, a nawet wzmacniających uprzedzenia rasowe. Jednak gdy wchodzimy do 2025 r., Pośród zarówno inicjatyw przeciwko sprawiedliwości społecznej, jak i szybkiej rozprzestrzeniania się technologii AI, pojawia się nieoczekiwana okazja.

Oto paradoks: podczas gdy niewiele osób chce być oznaczonych rasistami, badania po badaniu ujawniają trwałe różnice rasowe we wszystkim, od wyników opieki zdrowotnej po możliwości ekonomiczne. Fascynujący zwrot? Społeczeństwo wydaje się znacznie bardziej chętne do krytycznego zbadania i rozwiązania problemu stronniczości w systemach AI niż bezpośrednio konfrontacja ludzkich stronniczości.

Rozważ opiekę zdrowotną: wielu klinicystów przyznaje, że uprzedzenia systemowe nieproporcjonalnie wpływają na mniejszości rasowe, ale bardzo niewielu przyzna, że ​​ich własne decyzje mogą być stronnicze. Jednak systematyczne audyty rutynowo odkrywają znaczące różnice oparte na rasie w decyzjach dotyczących leczenia. Wskazuje to na kluczową zaletę systemów AI-są z natury bardziej kontrolowane niż podejmowanie decyzji przez ludzi.

Ta kontroli stwarza trzy kluczowe możliwości. Po pierwsze, systemy AI stanowią lustro uprzedzeń społeczeństwa. Kiedy AI podejmuje stronnicze decyzje, często wzmacniają wzorce obecne w danych historycznych – wzorce stworzone przez ludzkie wybory. To sprawia, że ​​niewidzialne uprzedzenia są widoczne i wymierne, zmuszając nas do skonfrontowania się z niewygodnymi prawdami o naszych instytucjach.

Po drugie, w przeciwieństwie do ludzkich decydentów, którzy mogą stać się defensywni, gdy oskarżone o stronniczość, systemy AI można systematycznie testować, ocenić i ulepszyć. Możemy opracować narzędzia techniczne, takie jak indeksowanie metryczne, które pomagają interesariuszom zdefiniować i mierzyć uczciwość w sposób kontekstowy. To pozwala nam wykraczać poza powierzchowne podejście „ślepoty kolorów” do uczciwości w stosunku do bardziej dopracowanych rozwiązań, które uznają historyczne nierówności.

Po trzecie, systemy AI mogą pomóc w zmniejszeniu roli ukrytej stronniczości w podejmowaniu decyzji. Podczas gdy ludzie mogą nieświadomie traktować ludzi inaczej w zależności od rasy, odpowiednio zaprojektowane systemy AI można wyraźnie zaprogramować, aby koncentrować się wyłącznie na odpowiednich czynnikach. Nie chodzi o to, aby sztuczna inteligencja „koloru” – raczej chodzi o to, kiedy i jak różnice rasowe powinny informować o decyzjach.

Jednak uświadomienie sobie tego potencjału wymaga starannej uwagi zarówno na względy techniczne, jak i społeczne. Po stronie technicznej potrzebujemy wyrafinowanych podejść, które wykraczają poza proste pojęcia uczciwości. Na przykład w decyzjach o niskich stawkach, takich jak zalecenia filmowe, luki w reprezentacji mogą być głównym problemem. Ale w domenach o wysokich stawkach, takich jak opieka zdrowotna lub wymiar sprawiedliwości w sprawach karnych, w których systematyczne uprzedzenia mają głębokie historyczne korzenie, potrzebujemy bardziej dopracowanych podejść, które aktywnie działają w celu skorygowania różnic historycznych.

Po stronie społecznej potrzebujemy różnorodnych głosów związanych z opracowywaniem i wdrażaniem tych systemów. Organizacje takie jak Black in AI już współpracują z instytucjami takimi jak National Institute of Standards and Technology w celu opracowania standardów dla bezpiecznych i sprawiedliwych systemów AI. Wysiłki te uznają, że same rozwiązania techniczne nie wystarczą – potrzebujemy procesów integracyjnych, które angażują społeczności dotknięte społecznością w określenie, w jaki sposób powinny działać systemy AI.

Ścieżka do przodu nie polega na zastąpieniu ludzkiego osądu sztucznej inteligencji, ale o użycie AI jako narzędzia do tworzenia bardziej sprawiedliwych systemów. Dzięki temu, że uprzedzenia są bardziej widoczne i mierzalne, zapewniając ramy do testowania i poprawy oraz umożliwiając bardziej celowe podejście do uczciwości, AI może pomóc nam budować bardziej rasowo sprawiedliwe społeczeństwo, które okazało się tak nieuchwytne, aby osiągnąć same wysiłki ludzkie.

Potencjał ten istnieje właśnie dlatego, że sztuczna inteligencja zmusza nas do wyraźnych naszych wartości i decyzji w sposób, którego często unikają ludzkie systemy. Gdy nadal integrujemy sztuczną inteligencję z kluczowymi decyzjami społecznymi, mamy możliwość budowania systemów, które nie tylko replikują nasze obecne nierówności, ale aktywnie pracują nad ich rozwiązaniem. Nie chodzi o to, czy sztuczna inteligencja wpłynie na równość rasową – to, czy przejmiemy ten moment, aby upewnić się, że to robi w sposób, który promuje sprawiedliwość, a nie utrwala szkód.

Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj