GoogleKierownictwo podali w środę szczegółowe informacje na temat tego, w jaki sposób gigant technologiczny zachodzą na zachodzie inicjatyw różnorodności i bronili zobowiązania przed budowaniem Sztuczna inteligencja dla uzbrojenia i nadzoru na spotkaniu All Phintaff.
Melonie Parker, były szef różnorodności Google, powiedziała, że firma usuwała swoje programy szkoleniowe pracowników różnorodności i integracji oraz „aktualizuje” szersze programy szkoleniowe o „treści DEI”. Od tego czasu po raz pierwszy kierownictwo firmy zwróciło się do całego personelu Google ogłosił, że nie będzie już zgodny z wynajęciem bramek dla różnorodności i złożył przysięgę nie budować zmilitaryzowanej sztucznej inteligencji. Dyrektor prawny, Kent Walker, powiedział, że wiele się zmieniło, odkąd Google po raz pierwszy wprowadził swoje zasady AI w 2018 r., Które wyraźnie stwierdził, że Google nie zbuduje sztucznej inteligencji dla szkodliwych celów. Powiedział, że „dobre społeczeństwo” byłoby częścią ewolucji dyskusji geopolitycznych w odpowiedzi na pytanie, dlaczego firma usunęła zakaz budowania sztucznej inteligencji dla broni i nadzoru.
Parker powiedział, że jako wykonawca federalny firma dokonuje przeglądu wszystkich swoich programów i inicjatyw w odpowiedzi na Donald TrumpZamówienie wykonawcze, które kierują agencjami federalnymi i kontrahentami do demontażu pracy DEI. Rola Parkera została również zmieniona z dyrektora ds. Różnorodności na wiceprezesa zaangażowania Googlera.
„Nie zmienia się to, że zawsze zatrudniliśmy najlepszą osobę do pracy”, powiedziała, zgodnie z nagraniem spotkania The Guardian.
Dyrektor naczelny Google, Sundar Pichai, powiedział, że firma zawsze „głęboko troszczyła się” o zatrudnienie siły roboczej, która reprezentuje różnorodność globalnych użytkowników, ale że firma musiała przestrzegać zasad i przepisów dotyczących tego, gdzie działa.
„Nasze wartości są trwałe, ale musimy przestrzegać kierunków prawnych w zależności od ewolucji”, powiedział Pichai.
Pichai, który rozmawiał z Paryża podczas uczęszczania na międzynarodowy szczyt sztucznej inteligencji, a inni kierownicy odpowiadali na pytania pracowników opublikowanych na forum wewnętrznym. Niektóre z tych pytań były częścią skoordynowanego wysiłku między grupami aktywistów pracowników, takich jak brak technologii dla apartheidu, aby zmusić dyrektorów firmy do odpowiedzi na drastyczne odejście od jego poprzednich podstawowych wartości.
Pracownicy złożyli 93 pytania dotyczące decyzji firmy o usunięciu zobowiązania do nie budowania broni AI i ponad 100 o ogłoszeniu Google, że cofa zobowiązania dei, według Screenshots The Guardian. Firma niedawno przeszła na wykorzystanie sztucznej inteligencji do podsumowania podobnych pytań, które pracownicy wyprzedzają regularnie planowane spotkania personelu, znane jako TGIF.
Google nie odpowiedział na prośbę o komentarz do czasu publikacji.
W ubiegłym tygodniu Google dołączył do Meta i Amazon, odsuwając się od nacisku na kulturę integracji na korzyść polityk ukształtowanych na obraz administracji Trumpa. Oprócz usunięcia wzmianek o zaangażowaniu w różnorodność, kapitał własny i włączenia (DEI) z dokumentów do amerykańskiej Komisji Papierów Wartościowych i Giełd, firma powiedziała, że nie będzie już wyznaczać celów zatrudniania osób z niedostatecznie reprezentowanych środowisk. Firma usunęła również język ze swoich publicznie opublikowanych zasad AI, które stwierdziły, że nie będzie budować sztucznej inteligencji do szkodliwych celów, w tym broni i nadzoru.
„Coraz częściej proszeni nas o miejsce przy stole w niektórych ważnych rozmowach i myślę, że dla społeczeństwa jest dobre, że Google odgrywa rolę w tych rozmowach w obszarach, w których specjalizujemy się – bezpieczeństwo cybernetyczne lub niektóre z pracy wokół biologii, I wiele innych – powiedział Walker, dyrektor prawny. „Choć może się zdarzyć, że niektóre z surowych zakazów, które były w (pierwszej wersji) zasad AI, nie są dobre z tymi bardziej dopracowanymi rozmowami, które obecnie prowadzimy Jest tak, że korzyści znacznie przewyższają ryzyko. ”
Google od dawna próbuje sprawić wrażenie, że opiera granicę między określonymi wartościami korporacyjnymi i kulturowymi oraz ścigając umowy rządowe i obronne. Po protestach pracowniczych w 2018 r. Firma wycofała się z projektu Departamentu Obrony Stanów Zjednoczonych Maven – który wykorzystywał sztuczną inteligencję do analizy materiałów dronów – i opublikowała swoje zasady i wartości AI, które obiecały nie zbudować sztucznej inteligencji dla broni lub nadzoru.
Jednak od lat firmy rozpoczęła współpracę z Pentagon znowu Po zabezpieczeniu wspólnej chmury walki w wysokości 9 mld USD umowa wraz z Microsoft, Amazon i Oracle. Google miał również aktywne umowy dostarczać AI do Izraela Siły Obronne. Gigant technologiczny miał pracował z czasem Aby zdystansować umowę, zwaną projektem Nimbus, od wojskowego ramienia rządu izraelskiego, ale Washington Post ujawniło dokumenty, które pokazały, że firma nie tylko współpracowała z IDF, ale pospieszyła, aby spełnić nowe prośby o dostęp do AI po atakach 7 października. Nie jest jasne, w jaki sposób IDF używa możliwości AI Google, ale, jak donosi Guardian, izraelskie wojsko używał sztucznej inteligencji do wielu celów wojskowych, w tym do znalezienia i identyfikacji celów bombowych.
Po promocji biuletynu
Organizatorzy At No Tech for Apartheid powiedział, że ogłoszenia DEI i AI były głęboko powiązane. „SVP People Operations Fiona Cicconi przekazał wewnętrznie, że przeprowadzono przeprowadzenie programów DEI w celu izolacji umów rządowych od„ ryzyka ”, grupa napisał W wezwaniu pracowników do działania opublikowanego we wtorek. „Należy zauważyć, że większość wydatków rządowych na usługi technologiczne są wydawane przez wojsko”.
Dla każdej kategorii pytań od pracowników wewnętrzna sztuczna inteligencja Google podsumowuje wszystkie zapytania w jedno zapytanie. AI destyśliło pytania dotyczące rozwoju broni AI do: „Niedawno usunęliśmy sekcję ze strony zasad AI, która zobowiązała się do uniknięcia wykorzystania technologii w potencjalnie szkodliwych zastosowaniach, takich jak broń i nadzór. Dlaczego usunęliśmy tę sekcję? ”
Podczas gdy firma nie ma widocznego opublikowanego pytań, lista zawiera migawkę niektórych z nich. Pytania, które zadawali pracownicy, zawierały, w jaki sposób zaktualizowane zasady AI zapewnią, że narzędzia firmy „nie są niewłaściwie wykorzystywane do szkodliwych celów” i poprosiły kierownictwo o „proszę, rozmawiaj szczerze i bez Corp Speak i Legalese”.
Pracownicy trzeciego popularnego zadawane przez pracowników było to, dlaczego podsumowania AI były tak złe.
„Podsumowania AI pytań dotyczących zapytania są okropne. Czy możemy wrócić do odpowiedzi na pytania, które ludzie zadawali? ” czytał.