MArk Zuckerberg może być wykonany z faktów, ale nie może uciec od prawdy. Trzeci najbogatszy człowiek na świecie ogłosił, że Meta Will zastępować jego niezależne wykrywanie faktów z notatkami społeczności. W tym tygodniu poszedłem na szczyt akcji AI w Paryżu, aby poinformować dyrektorów technicznych i decydentów Dlaczego to jest złe.
Zamiast zmniejszyć liczbę programów, które sprawiają, że media społecznościowe i sztuczna inteligencja jest bardziej godna zaufania, firmy muszą inwestować i szanować osoby, które filtrują media społecznościowe i oznaczają dane, na których opiera się AI. Wiem, ponieważ kiedyś byłem jednym z nich.
Mama dwojga małych dzieci, rekrutowano mnie z mojej rodzimej Afryce Południowej z obietnicą dołączenia do rozwijającego się sektora technologicznego w Kenii na Facebook Podwykonawca, Sama, jako moderator treści. Przez dwa lata spędziłem do 10 godzin dziennie, wpatrując się w wykorzystywanie dzieci, okaleczenie człowieka, rasistowskie ataki i najciemniejsze części Internetu, więc nie musiałeś.
To nie tylko rodzaj treści, którą musiałem obejrzeć, dała mi bezsenność, niepokój i migreny, to też ilość. W Sama mieliśmy coś o nazwie AHT lub czas obsługi akcji. Był to ilość czasu, którą dano nam analizować i ocenić fragment treści. Mieliśmy czas, a firma zmierzyła nasz sukces w kilka sekund. Ciągle byliśmy pod presją, aby to zrobić.
Nie możesz się zatrzymać, jeśli zobaczysz coś traumatycznego. Nie możesz zatrzymać się na zdrowie psychiczne. Nie możesz przestać iść do łazienki. Po prostu nie mogłeś przestać. Powiedziano nam klientowi, w naszym przypadku Facebook, wymagało od nas kontynuowania.
To nie było życie, które sobie wyobrażałem, kiedy przeprowadziłem się do Nairobi. Odizolowana od mojej rodziny, moją jedyną prawdziwą społecznością byli moi koledzy z SAMA i inne firmy outsourcingowe. Kiedy zebraliśmy się, nasze rozmowy zawsze powracały do tego samego: naszą pracę i sposób, w jaki nas łamał.
Im więcej rozmawialiśmy, tym bardziej zdaliśmy sobie sprawę, że dzieje się coś, co było większe niż nasze osobiste historie. Każdy moderator treści, annotator danych i pracownik AI, którego poznaliśmy, miały te same historie: niemożliwe kwoty, głębokie traumę i lekceważenie naszego samopoczucia.
To nie był tylko problem SAMA. To nie był tylko problem z Facebooka. W ten sposób działał cała branża technologiczna – outsourcing najbardziej brutalnej cyfrowej siły roboczej i zysku z naszego bólu.
Kwestie te są obecnie przedmiotem pozwu zbiorowego w Kenii, wniesionej przez 185 byłych moderatorów treści przeciwko SAMA i właściciela Facebooka, Meta, jako Zgłoszone przez opiekuna. Gdy zwrócił się o komentarz, Sama powiedziała, że od marca 2023 r. Nie byli już zaangażowani w moderację treści i nie stosują już moderatorów treści. Dodali, że w odniesieniu do obecnego sporu sądowego zwrócił się do stron, aby strony nie rozmawiają z mediami w sprawie.
Opuściłem Samę dwa lata temu. Od tego czasu problemy pogorszyły się. Wiem to, pomagając pracownikom sieci dostaw danych pracujących dla innych firm outsourcingowych organizowania w Nairobi za pośrednictwem Afrykańscy pracownicy technologii powstają. Pracownicy są nadal traumatyczni, a praca jest bardziej intensywna. Moderatorzy treści muszą oglądać filmy z prędkością 2x lub 3x na kilku ekranach jednocześnie. Pay i warunki nie są lepsze, a płace niektórych pracowników danych są tak niskie jak 0,89 USD (70 pensów), a moderatorzy treści otrzymują 2 USD.
Rzeczy nie mogą trwać takim, jakim są, ale podejście Zuckerberga dotyczące osłabiania ochrony jest niewłaściwym kursem. Ta praca musi być profesjonalizowana. Potrzebujemy standardów dla pracowników, takich jak moderatorzy treści, którzy uznają trudności pracy i szanują nasze prawa. Oznacza to szkolenia oraz prawdziwe protokoły zdrowia i bezpieczeństwa, takie jak w każdym innym zawodzie. Oznacza to zapewnienie żywej płacy i ustalania rozsądnych kwot pracy. Oznacza to stworzenie ram, które szanują naszą ludzkość i godność. Oznacza to posiadanie związku.
Meta odmówił komentarza na temat konkretnych roszczeń podczas trwania sporów sądowych, ale stwierdził, że wymagało od firm outsourcingowych oferowania doradztwa i opieki zdrowotnej oraz płacenia powyżej lokalnych standardów branżowych – i powiedział, że zapewniał rozwiązania techniczne w celu ograniczenia ekspozycji na materiały graficzne, takie jak rozmycie i Rezygnacja z funkcji automatycznej, w której filmy lub zdjęcia są odtwarzane w strumieniu bez przerwy.
Nie możemy się doczekać, aż firmy technologiczne rozwiązują ten problem. Afrykańscy pracownicy technologii rosnące dla lepszych płac, ochrony zdrowia psychicznego i profesjonalnych standardów w Kenii i poza nią. Robimy to, ponieważ sztuczna inteligencja nie jest magią. Za każdym algorytmem znajdują się tysiące ukrytych pracowników etykietowanie, szkolenie i moderowanie danych w niepewnych warunkach. AI siły roboczej pozostaje niewidoczne, ponieważ wielu raczej skupiłoby się na innowacjach technologicznych, a nie na utrzymywaniu ich łańcuchów dostaw.
Jeśli wierzysz w bezpieczniejszy, bardziej etyczny Internet, stoj przy nas: wspieraj nasze wysiłki organizacyjne, zachęcaj decydentów do regulacji dużej technologii i żądania, aby sztuczna inteligencja i firmy z mediów społecznościowych szanują wszystkich swoich pracowników. Zmiana nie pochodzi z góry – pochodzi od nas. To jest prawda.
-
Sonia Kgomo jest organizatorem w African Tech Workers Rising, projektu wspieranym przez Union Union Union i Communications Workers w Kenii
-
Czy masz opinię na temat kwestii poruszonych w tym artykule? Jeśli chcesz przesłać odpowiedź maksymalnie 300 słów według e -maila, aby zostać rozpatrzonym do publikacji w naszym beletrystyka sekcja, proszę Kliknij tutaj.