Sztuczna inteligencja: Różnice pomiędzy wersjami

Z Problematyczna.moe
Przejdź do nawigacji Przejdź do wyszukiwania
Nie podano opisu zmian
Nie podano opisu zmian
 
(Nie pokazano 7 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
[[Category:Technologia]]
{{InProgress}}
{{InProgress}}


Programy czy algorytmy używane do klasyfikacji lub generowania danych. Termin najczęściej odnosi się do technologii opartych o sieci neuronowe i to na nich będziemy się skupiać.
Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań.


== Sieci neuronowe ==
== Sieci neuronowe ==
Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych.
Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych.


== Bias ==
== Bias ==
Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że  dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna.
Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że  dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna.
Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet<ref>Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). PMLR.</ref>.


Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu ''homoseksualnej, czarnej osoby''<ref>Medium, Conor Mc Cabe'', [https://betterprogramming.pub/lgbtq-bias-in-gpt-3-11a7d6362b27 LGBTQ+ bias in GPT-3]''</ref>.
Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu ''homoseksualnej, czarnej osoby''<ref>Medium, Conor Mc Cabe'', [https://betterprogramming.pub/lgbtq-bias-in-gpt-3-11a7d6362b27 LGBTQ+ bias in GPT-3]''</ref>.
Algorytm rekrutacyjny Amazona wykazywał bias przeciwko kobietom. Po usunięciu płci jako bezpośredniego czynnika, który może mieć wpływ na wynik, algorytm nauczył się promować użycie słów częściej występujących w męskich CV, a ''karać, chociażby występowanie słowa "kobiece"''<ref>Carnegie Mellon University, Machine Learning Department, ''[https://www.ml.cmu.edu/news/news-archive/2016-2020/2018/october/amazon-scraps-secret-artificial-intelligence-recruiting-engine-that-showed-biases-against-women.html Amazon Scraps Secret AI Recruiting Engine that Showed Biases Against Women]''</ref>''.''
Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo<ref>Br24, [https://interaktiv.br.de/ki-bewerbung/en/ ''Objective or Biased: On the questionable use of Artificial Intelligence for job applications'']</ref>.
Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki<ref>Meta, ''[https://ai.meta.com/blog/new-way-to-assess-ai-bias-in-object-recognition-systems/ A new way to assess AI bias in object-recognition systems]''</ref>.
== Zawodność ==
Błędne wyniki i awaryjność są problemem wszelakiego oprogramowania. Jednak w wypadku SI, problemy te mogą być szczególnie widoczne, czy poprzez rodzaj problemów, do których są zaciągane, czy skalę samych błędów.
W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych<ref>ACLU, ''[https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28 Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots]''</ref><ref>CNET, ''[https://www.cnet.com/news/privacy/amazon-facial-recognition-thinks-28-congressmen-look-like-known-criminals-at-default-settings/ Amazon facial recognition mistakenly confused 28 Congressmen with known criminals]''</ref>.
Twarz pewnej Chinki znalazła się na publicznej ''ścianie wstydu'' wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie<ref>Tech in Asia, ''[https://www.techinasia.com/businesswoman-china-caught-jaywalking-face-bus Businesswoman in China caught ‘jaywalking’ because her face was on a bus]''</ref>.
== Etyka ==
=== Profilowanie etniczne ===
Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach<ref>Reuters, ''[https://www.reuters.com/article/us-alibaba-surveillance-idUSKBN28R0IR/ Alibaba facial recognition tech specifically picks out Uighur minority - report]''</ref>.


== Przypisy ==
== Przypisy ==

Aktualna wersja na dzień 09:44, 16 cze 2024

:mad_bridget:
Jest to jedynie zalążek artykułu! Informacje mogą wymagać uzupełnienia!
:mad_bridget:

Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań.

Sieci neuronowe

Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych.

Bias

Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna.

Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet[1].

Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu homoseksualnej, czarnej osoby[2].

Algorytm rekrutacyjny Amazona wykazywał bias przeciwko kobietom. Po usunięciu płci jako bezpośredniego czynnika, który może mieć wpływ na wynik, algorytm nauczył się promować użycie słów częściej występujących w męskich CV, a karać, chociażby występowanie słowa "kobiece"[3].

Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo[4].

Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki[5].

Zawodność

Błędne wyniki i awaryjność są problemem wszelakiego oprogramowania. Jednak w wypadku SI, problemy te mogą być szczególnie widoczne, czy poprzez rodzaj problemów, do których są zaciągane, czy skalę samych błędów.

W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych[6][7].

Twarz pewnej Chinki znalazła się na publicznej ścianie wstydu wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie[8].

Etyka

Profilowanie etniczne

Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach[9].

Przypisy