PL | EN

Sztuczna inteligencja w samochodach stwarza zagrożenie dla osób o ciemniejszym kolorze skóry

Producenci samochodów autonomicznych muszą zmierzyć się z nowym wyzwaniem – systemy wizyjne maszyn słabiej radzą sobie z rozpoznawaniem przechodniów o ciemniejszym kolorze skóry. Z badań naukowców z Georgia Institute of Technology wynika, że sztuczna inteligencja rozpoznaje osoby białe o 10% skuteczniej niż osoby czarne. Im jaśniejszy kolor skóry przechodnia, tym systemy działają lepiej.

„technologiczną dyskryminację rasową” potwierdzają inne przykłady. System rozpoznawania obrazów Google’a miał problem z rozróżnieniem goryli i osób o czarnym kolorze skóry. Część suszarek i dozowników do mydła nie reaguje na ruch dłoni o brązowym kolorze, a ciemniejszy kolor skóry na filmach Kodaka wyglądał jak ciemna smuga.

Większość istniejących samochodów autonomicznych korzysta z więcej niż jednego typu czujnika do rozpoznawania ludzi. Na przykład samochody marki Tesla mają wbudowany radar z przodu pojazdu, a Waymo produkcji Google’a używa bardzo dokładnego systemu Lidar, który łączy działanie radaru i lasera. Jednak presja rynku i pogoń za oszczędnościami może doprowadzić do montowania w samochodach systemów wykorzystujących wyłącznie kamery. I nie będzie to bezpieczne dla ludzi innych ras niż biała. System, w którym program komputerowy (AI) jest uczony rozpoznawania przechodniów poprzez pokazywanie im milionów zdjęć białych ludzi, nie jest bezpiecznym rozwiązaniem dla innych ras

Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
Chiński rząd zaczął wyposażać policjantów w okulary do rozpoznawania twarzy
Chiński rząd zaczął wyposażać policjantów w okulary do rozpoznawania twarzy
Chiński rząd zaczął wyposażać policjantów w okulary do rozpoznawania twarzy. Urządzenia przypominające Google Glass są połączone z bazą podejrzanych o przestępstwa. System był już testowanyprzez policję kolejową na stacji Zhengzhou, w stolicy prowincji Henan. Chiny rozwijają technologię pozwalającą na rozpoznawanie twarzy z wykorzystaniem sztucznej inteligencji i dążą do stworzenia bazy wszystkich obywateli kraju (ponad 1,3 miliarda osób). […]
Sztuczna inteligencja a rasizm, bigoteria i szansa na równe traktowanie
Sztuczna inteligencja a rasizm, bigoteria i szansa na równe traktowanie
Dzięki naukowcom z Narodowego Robotarium, w skład którego wchodzą Heriot-Watt University i Uniwersytet Edynburski, opracowano zaawansowane algorytmy uczenia maszynowego, które znacznie poprawią wykrywanie przemocy w internecie – pomogą np. zwalczyć przemoc na tle płciowym oraz „wprowadzić pozytywne zmiany społeczne i kulturowe”. Zdaniem profesorki Vereny Rieser praca ta pozwoli stworzyć „przestrzeń online bezpieczną niezależnie od płci, […]
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Europol opublikował raport ostrzegający przed wykorzystywaniem narzędzia ChatGPT oraz innych generatywnych systemów sztucznej inteligencji do oszustw internetowych i innych cyberprzestępstw. Jak dotąd eksperci zidentyfikowali liczne przypadki nielegalnego użycia ChatGPT. Zdaniem Europolu zasady jego moderacji można obejść poprzez tzw. inżynierię podpowiedzi – praktykę polegającą na dostarczaniu danych wejściowych do modelu AI w celu uzyskania określonego wyniku. […]
AI a przestępczość – przewidywanie i odpowiedzialność karna
AI a przestępczość – przewidywanie i odpowiedzialność karna
Algorytm komputerowy opracowany przez socjologów z Uniwersytetu Chicagowskiego prognozuje przestępczość w dużym mieście z 90-procentową dokładnością. Badacze wykorzystali dane historyczne dotyczące przestępstw z użyciem przemocy i przestępstw przeciwko mieniu w Chicago, a następnie podzielili miasto na kwadraty o powierzchni prawie 93 m2 każdy. Zastosowana przez nich metoda sprawdziła się również w Los Angeles, Filadelfii i […]
Walka z fałszywymi wiadomościami i złośliwym oprogramowaniem w sieci
Walka z fałszywymi wiadomościami i złośliwym oprogramowaniem w sieci
Amazon, Facebook, Google, Microsoft i Twitter przyjęły dziewięciopunktowy plan działań ws. walki z brutalnymi i ekstremistycznymi treściami on-line. Przyczynkiem do podjęcia działań były tragiczne wydarzenia w Christchurch w Nowej Zelandii. Atak zamachowca transmitowano na żywo na Facebooku, a materiał filmowy był masowo udostępniany, co wywołało falę krytyki zabezpieczeń stosowanych przez sieci społecznościowe do kontroli treści […]
Pozostałe wydania