Sztuczna inteligencja: Różnice pomiędzy wersjami
(Amazon ACLU) |
Nie podano opisu zmian |
||
(Nie pokazano 4 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 1: | Linia 1: | ||
[[Category:Technologia]] | |||
{{InProgress}} | {{InProgress}} | ||
Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań. | |||
== Sieci neuronowe == | == Sieci neuronowe == | ||
Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych. | Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych. | ||
== Bias == | == Bias == | ||
Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna. | Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna. | ||
Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet<ref>Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). PMLR.</ref>. | |||
Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu ''homoseksualnej, czarnej osoby''<ref>Medium, Conor Mc Cabe'', [https://betterprogramming.pub/lgbtq-bias-in-gpt-3-11a7d6362b27 LGBTQ+ bias in GPT-3]''</ref>. | Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu ''homoseksualnej, czarnej osoby''<ref>Medium, Conor Mc Cabe'', [https://betterprogramming.pub/lgbtq-bias-in-gpt-3-11a7d6362b27 LGBTQ+ bias in GPT-3]''</ref>. | ||
Linia 14: | Linia 17: | ||
Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo<ref>Br24, [https://interaktiv.br.de/ki-bewerbung/en/ ''Objective or Biased: On the questionable use of Artificial Intelligence for job applications'']</ref>. | Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo<ref>Br24, [https://interaktiv.br.de/ki-bewerbung/en/ ''Objective or Biased: On the questionable use of Artificial Intelligence for job applications'']</ref>. | ||
Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki<ref>Meta, ''[https://ai.meta.com/blog/new-way-to-assess-ai-bias-in-object-recognition-systems/ A new way to assess AI bias in object-recognition systems]''</ref>. | |||
== Zawodność == | == Zawodność == | ||
Linia 19: | Linia 24: | ||
W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych<ref>ACLU, ''[https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28 Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots]''</ref><ref>CNET, ''[https://www.cnet.com/news/privacy/amazon-facial-recognition-thinks-28-congressmen-look-like-known-criminals-at-default-settings/ Amazon facial recognition mistakenly confused 28 Congressmen with known criminals]''</ref>. | W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych<ref>ACLU, ''[https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28 Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots]''</ref><ref>CNET, ''[https://www.cnet.com/news/privacy/amazon-facial-recognition-thinks-28-congressmen-look-like-known-criminals-at-default-settings/ Amazon facial recognition mistakenly confused 28 Congressmen with known criminals]''</ref>. | ||
Twarz pewnej Chinki znalazła się na publicznej ''ścianie wstydu'' wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie<ref>Tech in Asia, ''[https://www.techinasia.com/businesswoman-china-caught-jaywalking-face-bus Businesswoman in China caught ‘jaywalking’ because her face was on a bus]''</ref>. | |||
== Etyka == | |||
=== Profilowanie etniczne === | |||
Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach<ref>Reuters, ''[https://www.reuters.com/article/us-alibaba-surveillance-idUSKBN28R0IR/ Alibaba facial recognition tech specifically picks out Uighur minority - report]''</ref>. | |||
== Przypisy == | == Przypisy == |
Aktualna wersja na dzień 09:44, 16 cze 2024
Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań.
Sieci neuronowe
Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych.
Bias
Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna.
Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet[1].
Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu homoseksualnej, czarnej osoby[2].
Algorytm rekrutacyjny Amazona wykazywał bias przeciwko kobietom. Po usunięciu płci jako bezpośredniego czynnika, który może mieć wpływ na wynik, algorytm nauczył się promować użycie słów częściej występujących w męskich CV, a karać, chociażby występowanie słowa "kobiece"[3].
Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo[4].
Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki[5].
Zawodność
Błędne wyniki i awaryjność są problemem wszelakiego oprogramowania. Jednak w wypadku SI, problemy te mogą być szczególnie widoczne, czy poprzez rodzaj problemów, do których są zaciągane, czy skalę samych błędów.
W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych[6][7].
Twarz pewnej Chinki znalazła się na publicznej ścianie wstydu wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie[8].
Etyka
Profilowanie etniczne
Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach[9].
Przypisy
- ↑ Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). PMLR.
- ↑ Medium, Conor Mc Cabe, LGBTQ+ bias in GPT-3
- ↑ Carnegie Mellon University, Machine Learning Department, Amazon Scraps Secret AI Recruiting Engine that Showed Biases Against Women
- ↑ Br24, Objective or Biased: On the questionable use of Artificial Intelligence for job applications
- ↑ Meta, A new way to assess AI bias in object-recognition systems
- ↑ ACLU, Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots
- ↑ CNET, Amazon facial recognition mistakenly confused 28 Congressmen with known criminals
- ↑ Tech in Asia, Businesswoman in China caught ‘jaywalking’ because her face was on a bus
- ↑ Reuters, Alibaba facial recognition tech specifically picks out Uighur minority - report