Sztuczna inteligencja wykorzystywana w systemie rekrutacji w firmie Amazon preferowała kandydatów płci męskiej

Sztuczna inteligencja wykorzystywana w systemie rekrutacji w firmie Amazon preferowała kandydatów płci męskiej. Od 2014 r. pracownicy Amazona rozwijali program komputerowy do rekrutacji oparty na systemie uczenia maszynowego. Wykorzystywana w nim sztuczna inteligencja miała oceniać kandydatów w skali od 1 do 5 gwiazdek.

W 2015 r. pracownicy zauważyli, że program nie wybiera kandydatów w sposób neutralny. Okazało się, że sztuczna inteligencja została wyszkolona do weryfikacji potencjalnych pracowników na podstawie wzorów życiorysów z ostatnich 10 lat, których większość należała do mężczyzn. W efekcie system obniżał oceny kandydatów, których życiorysy zawierały słowa wskazujące na płeć żeńską. Firma zmieniła ustawienia systemu, aby nie dyskryminował kandydatów ze względu na płeć. Oświadczyła także, że nigdy nie wykorzystywał narzędzia do oceny kandydatów, ale nie zaprzeczyła, że rekruterzy sprawdzali wygenerowane przez maszynę rankingi.

Aby zrekrutować większą liczbę pracowników o wysokich kwalifikacjach, grupa inżynierów z Amazona stworzyła 500 modeli komputerowych skoncentrowanych na specyficznych umiejętnościach i lokalizacji kandydatów. Inżynierowie nauczyli każdego z nich rozpoznawania ok. 50 tys. zwrotów, które pojawiały się w bazie kandydatów. Algorytm nauczył się jednak przypisywać niskie znaczenie umiejętnościom, które były powszechne wśród kandydatów z IT, takich jak znajomość różnych kodów. Zamiast tego modele faworyzowały kandydatów, którzy opisali siebie poprzez czasowniki występujące w CV inżynierów płci męskiej. To spowodowało, że system polecał niewykwalifikowanych pracowników na różne stanowiska.

Według badań firmy Career Builder, która oferuje oprogramowania do rekrutacji, przeprowadzonych w 2017 r., prawie 55 proc. menedżerów z działu zarządzania zasobami ludzkimi w USA twierdzi, że systemy rekrutacyjne oparte na AI będą obecne w ich pracy w ciągu najbliższych 5 lat.

Wydobycie kobaltu w DRK i niszczenie środowiska w Brazylii
Aplikacja Seven Grams łączy dziennikarstwo, animację i rzeczywistość rozszerzoną, aby pokazać, jak globalny popyt na coraz szybsze smartfony szkodzi obywatelom Demokratycznej Republiki Konga, gdzie wydobywane są pierwiastki ziem rzadkich i metale szlachetne niezbędne do produkcji telefonów oraz innych urządzeń elektronicznych. 70% światowego kobaltu wydobywa się w DRK – pracują tam nie tylko korporacje, lecz także […]
Czytaj całość
Cyberbezpieczeństwo osób samotnych oraz SIM-swapping
Władze Indii wprowadziły zakaz korzystania z 54 aplikacji należących do chińskich firm, m.in. Tencenta, Alibaby Group i NetEase. Przyczyną tej decyzji są kwestie bezpieczeństwa związane z napięciami między obydwoma państwami uwikłanymi w przedłużający się spór graniczny. Część zakazanych aplikacji to zmienione wersje oprogramowania już zawieszonego przez Indie w 2020 r.  FBI ostrzega przed gwałtownym wzrostem […]
Czytaj całość
Różnice w organizacji mózgu u dziewcząt i chłopców ze spektrum autyzmu
Chemikalia środowiskowe, na których działanie jesteśmy cały czas narażeni, zaburzają gospodarkę hormonalną oraz są niebezpieczne dla zdrowia i rozwoju ludzi oraz zwierząt. Naukowcy z m.in. Uniwersytetu w Karlstad udowodnili, że złożone mieszanki substancji chemicznych zakłócających gospodarkę hormonalną wpływają na rozwój mózgu dzieci i przyswajanie przez nie języka. Jedna z przebadanych niebezpiecznych mieszanek zawierała ftalany, bisfenol […]
Czytaj całość