Czy sztuczna inteligencja w firmie jest obiektywna?
REKLAMA
REKLAMA
Czy sztuczna inteligencja jest obiektywna?
– Systemy AI są nieobiektywne, ponieważ są dziełem człowieka. Ten, kto sądzi inaczej, jest w błędzie. – uważa Juliane Bir z serwisu Social Europe. Jak wynika z artykułu “Sztuczna Inteligencja: stworzona przez mężczyzn dla mężczyzn?”, o ostatecznej formie inteligentnego oprogramowania decyduje zespół je tworzący. A w jego skład wchodzą dziś najczęściej mężczyźni.
REKLAMA
REKLAMA
Deloitte podaje, że tylko 26% specjalistów w dziedzinach SI i data science to kobiety, które zazwyczaj zajmują niższe stanowiska niż panowie. 6 na 10 respondentek raportu "Women in AI whitepaper" zgadza się z redaktor Bir i uważa, że modele SI pozostaną bardziej męskie, dopóki nie wzrośnie wskaźnik feminizacji.
– Te dane pokazują, że potrzebna jest dywersyfikacja i zmiana w podejściu do budowania zespołów, które rozwijają nowe technologie. – mówi Joanna Dąbrowiecka-Wrodarczyk, Dyrektor ds. Serwisu Oprogramowania z BPSC i dodaje – Różnorodność jest potrzebna dla lepszego rozwoju.
Kobieca perspektywa
Podobnego zdania jest Kay Firth-Butterfield, szefowa działu SI i ML w Światowym Forum Ekonomicznym.
REKLAMA
– Żeby technologia była prawdziwie zróżnicowana i odpowiadała na rzeczywiste potrzeby użytkowników, należy wprowadzić do AI ludzi, którzy myślą w różny sposób – zauważa ekspertka, której głos podziela 2/3 respondentów badania Deloitte.
67% pytanych stwierdziło, że większa liczba kobiet na stanowiskach kierowniczych i przywódczych wpływa korzystnie na pozostałych pracowników organizacji. Podobny odsetek (66%) ankietowanych uważa, że produkty i usługi bazujące na sztucznej inteligencji i uczeniu maszynowym mogą tylko skorzystać na większej różnorodności płciowej wśród projektantów i programistów. Mało tego, zdecydowana większość pytanych (71%) jednoznacznie stwierdziła, że większa rola kobiet wśród deweloperów wniesie do zaawansowanych technologii unikalne perspektywy. Kobiety częściej wychwytują rzeczy, które mężczyźni mogą przeoczyć, a także wnoszą inny zestaw narzędzi mentalnych – czytamy w raporcie.
– Wykorzystanie damskiej perspektywy to szansa dla zespołów SI na opracowanie bardziej holistycznych, wartościowych produktów, które mogą mieć pozytywny wpływ na szersze grono użytkowników – zauważa Beena Ammanath, Dyrektor wykonawczy Deloitte AI Institute.
Zniekształcone zbiory danych
Tacy sami, ale czy równi? W porównaniu z mężczyznami, niemal 300 milionów kobiet mniej może łączyć się z siecią za pomocą smartfona. Co więcej, w krajach o niskim dochodzie, prawdopodobieństwo posiadania inteligentnego telefonu jest o 20% niższe w przypadku pań. Co to oznacza w praktyce?
– Oprócz tego, że kobiety częściej spotykają się z wykluczeniem cyfrowym, to jest też coś, co bardzo realnie sprawia, że nowe technologie nie uwzględniają kobiecego punktu widzenia – wyjaśnia Joanna Dąbrowiecka-Wrodarczyk z BPSC i kontynuuje:
– Kobiety mają ograniczony dostęp do Internetu, a to zniekształca zbiory danych, gdyż to informacje wygenerowane przez mężczyzn mają większościowy udział w całym zbiorze – wyjaśnia ekspertka.
Dane, które nie są podzielone według płci, stanowią problem, ponieważ obraz przez nie stworzony jest niedokładny i potencjalnie może ukrywać mniejszą reprezentację informacji ze świata kobiet.
Złe wychowanie
Projekt badawczy Gender Shades wykazał, że komercyjne systemy rozpoznawania twarzy korzystały ze zbiorów danych obrazowych, którym brakowało zróżnicowanych i reprezentatywnych próbek. Analizowane systemy znacznie częściej błędnie klasyfikowały kobiety jako mężczyzn.
Programiści tresują algorytmy określając jakie zmienne mają być brane pod uwagę przy podejmowaniu decyzji, czyli według jakiego wzoru mają się one uczyć. Program, jak dziecko, nie ocenia wzorców, to rodzic ma zaszczepić te właściwe. Czasem pomimo starań opiekuna, wybrany kanon zachowań jest zły. Tak się stało w przypadku platformy rekrutacyjnej Gild. Bazująca na sztucznej inteligencji, miała pomóc pracodawcom w tworzeniu rankingów kandydatów na stanowiska programistów. Gild nie tylko sprawdzał informacje pozyskane z tradycyjnych źródeł, takich jak życiorysy, ale także wykorzystywał wskaźnik określany jako “dane społeczne", czyli informacje generowane przez potencjalnych pracowników w sferze cyfrowej. Chodziło o to, aby zmierzyć, jaką częścią społeczności cyfrowej jest kandydat. W tym przypadku dane społeczne zostały zaczerpnięte z dzielenia się i rozwijania kodu na platformach takich jak GitHub.
Jednak, ponieważ statystycznie kobiety spędzają mniej czasu na rozmowach online, wytwarzają mniej danych społecznych, które brała pod uwagę platforma, a właściwie algorytm. Nie uwzględniono też, że kobiety mogą przyjmować męską tożsamość, tylko po to, by w silnie zmaskulinizowanym środowisku oceniane były ich kompetencje, a nie płeć. Zamiast niwelować ludzkie uprzedzenia, Gild stworzył algorytm, który jest predysponowany do gorszego oceniania kandydatek niż kandydatów i eliminowania kobiet.
Liczą się pieniądze
Sztuczna inteligencja, jak każda technologia, wykorzystywana jest do osiągnięcia konkretnych celów. Dziś celem firm technologicznych jest osiągnięcie jak największego zysku. Według Accenture, niepodjęcie działań zmierzających do osiągniecia gender diversity, tylko w tej dekadzie będzie kosztowało największe gospodarki świata, czyli kraje G20, ponad 11 bilionów dolarów. To skala makro, bo jest też ta mikro. Z badania przeprowadzonego przez startup Pipeline na grupie ponad 4 tys. firm z 29 krajów, widać zależność między większą różnorodnością płciową a przychodami. Okazuje się, że analizowane firmy, w których rosła równość płci, mogły pochwalić się lepszymi zyskami. Każde 10% zróżnicowania w zatrudnieniu przekładało się na 2% wzrost przychodów w skali roku. Mówiąc wprost, na zatrudnianiu kobiet, a także docenianiu i wykorzystywaniu ich punktu widzenia w równym stopniu jak mężczyzn, zyskuje nie tylko biznes, ale i technologie.
Więcej informacji znajdziesz w serwisie MOJA FIRMA
REKLAMA
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.