Właśnie opublikowaliśmy 12 odcinek podcastu Coopernicus!
Artykuł - zdjęcie główne
Sztuczna inteligencja autorytetem – czy AI powinna mieć wpływ na decyzję w miejscach pracy

Wyobraź sobie, że zostajesz zwolniony z pracy na skutek sugestii sztucznej inteligencji. Ona też decyduje o Twoim awansie i stwierdza, czy masz wystarczające kompetencje, by pracować na danym stanowisku. Jak się z tym czujesz? Okazuje się, że te wzbudzające niepokój tezy są coraz bliższe rzeczywistości. Algorytmy już dziś wspierają proces podejmowania decyzji przez zespoły zarządzające ludźmiludźmi, a co więcej – mają na nie wpływ. Choć to nie zawsze jest do końca jasne, jak sztuczna inteligencja tworzy swoje sugestie1, jej stronnicze zalecenia oddziałują na osoby decydujące o zatrudnieniu i zakończeniu współpracy z pracownikami. Czy jednak niczym w eksperymencie Milgrama ludzie w tej sytuacji podporządkowują się autorytetowi? Czy autorytetem może być dla nas algorytm?

Jednym z nielicznych artykułów, który podejmuje ten temat jest ,,Fired by an algorithm? Exploration of conformism with biased intelligent decision support systems in the context of workplace discipline” napisany przez pochodzących z Polski doktora Marcina Bartosiaka, adiunkta na włoskim Uniwersytecie w Pawii oraz doktora Artura Modlińskiego, adiunkta na Uniwersytecie Łódzkim. Przeprowadzone przez nich badanie miało wykazać, czy i jak szybko ludzie są skłonni zaakceptować decyzje sztucznej inteligencji oceniające pracowników, również w sposób niesprawiedliwy i szkodzący poddawanym analizie osobom.2

Przebieg badania 

Uczestników badano z wykorzystaniem pięciu scenariuszy, w których stronniczy algorytm wydawał surowe zalecenia dotyczące postępowania dyscyplinarnego wobec pracowników naruszających przepisy kodeksu pracy. Część osób została poproszona o ocenę sytuacji bez sugestii sztucznej inteligencji, podczas gdy pozostała część została poinformowana, że przedstawione im zalecenia pochodzą od algorytmu wyszkolonego na podstawie ponad tysiąca rzeczywistych przypadków postępowania dyscyplinarnego pochodzących z różnych miejsc pracy. Następnie testowano, jakie decyzje podejmą uczestnicy oraz jak szybko to zrobią.

Wpływ sztucznej inteligencji na nasze decyzje w stosunku do współpracowników

Przedstawiony eksperyment można porównać do rzeczywistej sytuacji, w której dowiadujemy się, że nasz współpracownik od jakiegoś czasu działa na niekorzyść pracodawcy, przez co musimy zastosować wobec niego zwolnienie dyscyplinarne. Jako że mamy duże doświadczenie, jesteśmy świadomi tego, jaka kara dla kolegi z pracy będzie sprawiedliwa. Jednak zanim podejmiemy decyzję, otrzymujemy sugestię od sztucznej inteligencji, która przeanalizowała już tysiące podobnych przypadków i została wyszkolona do wspierania zespołu HR. Zalecenia algorytmu wydają nam się nieproporcjonalnie surowe w stosunku do przewinień pracownika. Czy jednak nasze rozstrzygnięcie sprawy również stanie się surowsze pod wpływem otrzymanej sugestii? Okazuje się, że tak. Uczestnicy przeprowadzonego badania nie tylko szybciej podejmowali decyzje po otrzymaniu zaleceń od algorytmu, ale też bezkrytycznie sugerowali się nimi przy wybieraniu rozwiązania dla danej sytuacji. Badanie wykazało więc, że pracownicy stosują się do sugestii sztucznej inteligencji, nawet jeśli mogą one szkodzić współpracownikom i są zbyt surowe niż działania, które podjęliby bez wpływu AI. 

Dobro pracowników na pierwszym miejscu

Fakt, że we wszystkich przypadkach pojawiły się dowody sugerujące, że ludzie bez głębszego zastanowieniazbyt bezmyślnie akceptują zalecenia algorytmu, wskazuje na konieczność przyjrzenia się temu tematowi i dostosowania otaczającej nas rzeczywistości do współpracy ze sztuczną inteligencją. Algorytm powinien bowiem wspierać pracowników i pracodawców, a nie kreować problemy, które mogą mieć poważne skutki społeczne. Osoby, które nie zostały zatrudnione lub zostały zwolnione przez stronniczą sztuczną inteligencję, mogą czuć się traktowane niesprawiedliwie lub zacząć kwestionować własną wartość. Jeśli nie będzie pracowników zdolnych do przeciwstawienia się algorytmowi, firmy narażone będą na straty finansowe i wizerunkowe. Ponadto niewykorzystywanie własnego doświadczenia, a opieranie się tylko na sugestiach algorytmów może czasem oznaczać zatrudnianie słabo wykwalifikowanych kandydatów lub zwalnianie niezbędnych pracowników. Jak podkreślają badacze, bardziej niż kiedykolwiek potrzebujemy dziś dyskusji na temat etycznych konsekwencji rozwiązań opartych na sztucznej inteligencji mającej wpływ na zarządzanie ludźmi. Ważne, by przyjęcie każdego takiego rozwiązania chroniło dobro pracowników.3

Bibliografia:

  1. Seeing without knowing: limitations of the transparency ideal and its application to algorithmic accountability”, New Media & Society, SAGE Publications Sage UK: London, tom 20 część 3, str. 973-989, Ananny, M. and Crawford, K. (2018)
  2. Fired by an algorithm? Exploration of conformism with biased intelligent decision support systems in the context of workplace discipline, Marcin Bartosiak, Artur Modliński, https://www.emerald.com/insight/content/doi/10.1108/CDI-06-2022-0170/full/html (dostęp 12.12.2022)
  3. The impact of automation and artificial intelligence on worker well-being, Technology in Society, tom 67, 101679, Nazareno, L. and Schiff, D.S. (2021)
Eryka Klimowska
Redaktor
Bio:

Studentka prawa na Uniwersytecie Warszawskim, zafascynowana biznesem, nauką i łączeniem tych dwóch światów w celu skutecznego rozwiązywania realnych problemów na dużą skalę. Od dziecka brała udział w konkursach zarówno z zakresu nauk ścisłych, jak i humanistycznych, przez co nie lubi określać się ani jako ,,humanistka” ani ,,umysł ścisły”. Swoje zainteresowania rozwija jako przewodnicząca studenckiej organizacji biznesowej w Warszawie oraz członkini Koła Naukowego Prawa Medycznego i Farmaceutycznego.

Napisany przez:

Eryka Klimowska

Dodaj komentarz