Alphabet, spółka macierzysta giganta technologicznego Google, nie obiecuje już, że nigdy nie użyje sztucznej inteligencji (AI) do takich celów, jak opracowywanie broni i narzędzi nadzoru.

Firma przepisała zasady kierujące wykorzystaniem sztucznej inteligencji, porzucając sekcję, która wykluczała zastosowania, które „prawdopodobnie wyrządzili szkodę”.

W post na blogu Starszy wiceprezydent Google James Manyika i Demis Hassabis, który prowadzi laboratorium AI Google Deepmind, bronili tego ruchu.

Argumentują, że firmy i rządy demokratyczne muszą współpracować na sztucznej inteligencji, która „wspiera bezpieczeństwo narodowe”.

Istnieje debata wśród ekspertów i specjalistów AI na temat tego, w jaki sposób należy rządzić nową technologią w szerokim kategoriach, w jaki sposób zyski handlowe powinny mieć możliwość ustalenia jego kierunku i jak najlepiej strzec przed ryzykiem dla ludzkości w ogóle.

Jest też spór wokół użycia sztucznej inteligencji na polu bitwy i technologii nadzoru.

Blog stwierdził, że oryginalne zasady AI firmy opublikowane w 2018 r. Muszą zostać zaktualizowane w miarę ewolucji technologii.

„Miliardy ludzi używają sztucznej inteligencji w swoim codziennym życiu. AI stała się technologią ogólnego przeznaczenia, a platformą, której niezliczone organizacje i osoby używają do budowania aplikacji.

„Przeszedł z niszowego tematu badawczego w laboratorium do technologii, która staje się tak wszechobecna jak telefony komórkowe i sam internet” – powiedział wpis na blogu.

W rezultacie opracowywano również podstawowe zasady AI, które mogłyby prowadzić wspólne strategie, powiedział.

Jednak Hassabis i Manyika powiedzieli, że krajobraz geopolityczny staje się coraz bardziej złożony.

„Uważamy, że demokracje powinny prowadzić w rozwoju AI, kierowane podstawowymi wartościami, takimi jak wolność, równość i poszukiwania praw człowieka” – powiedział post na blogu.

„Uważamy, że firmy, rządy i organizacje dzielące te wartości powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe”.

Post na blogu został opublikowany tuż przed raportem finansowym Alphabet na koniec roku, pokazując wyniki, które były słabsze niż oczekiwania rynkowe, i powtórzenie jego ceny akcji.

Było to pomimo 10% wzrostu przychodów z reklamy cyfrowej, największej zarabiającej, zwiększonej przez wydatki wyborcze w USA.

W raporcie zysków firma powiedziała, że ​​w tym roku wydałaby 75 mld USD (60 mld USD) na projekty AI, 29% więcej niż oczekiwali analitycy z Wall Street.

Firma inwestuje w infrastrukturę do prowadzenia sztucznej inteligencji, badań AI i aplikacji, takich jak wyszukiwanie zasilane AI.

Platforma AI Google Gemini pojawia się teraz na szczycie wyników wyszukiwania Google, oferując podsumowanie pisemne AI i pojawia się na telefonach Google Pixel.

Początkowo, na długo przed obecnym wzrostem zainteresowania etyką sztucznej inteligencji, założyciele Google, Siergei Brin i Larry Page, powiedzieli, że ich motto dla firmy było „Don’t Be Evil”. Kiedy firma została zrestrukturyzowana pod nazwą Alphabet Inc w 2015 r., Firma macierzysta przeszła na „Zrób właściwą rzecz”.

Od tego czasu pracownicy Google czasami odpychali się przeciwko podejściu przyjętym przez ich kierowników. W 2018 roku Firma nie odnowała umowy na pracę AI z Pentagonem USA Po rezygnacji i petycji podpisanej przez tysiące pracowników.

Obawiali się, że „Project Maven” był pierwszym krokiem do wykorzystania sztucznej inteligencji do śmiertelnych celów.

Source link