Sztuczna inteligencja

Z Problematyczna.moe
Wersja z dnia 09:44, 16 cze 2024 autorstwa Alma (dyskusja | edycje)
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Przejdź do nawigacji Przejdź do wyszukiwania
:mad_bridget:
Jest to jedynie zalążek artykułu! Informacje mogą wymagać uzupełnienia!
:mad_bridget:

Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań.

Sieci neuronowe[edytuj | edytuj kod]

Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych.

Bias[edytuj | edytuj kod]

Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna.

Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet[1].

Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu homoseksualnej, czarnej osoby[2].

Algorytm rekrutacyjny Amazona wykazywał bias przeciwko kobietom. Po usunięciu płci jako bezpośredniego czynnika, który może mieć wpływ na wynik, algorytm nauczył się promować użycie słów częściej występujących w męskich CV, a karać, chociażby występowanie słowa "kobiece"[3].

Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo[4].

Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki[5].

Zawodność[edytuj | edytuj kod]

Błędne wyniki i awaryjność są problemem wszelakiego oprogramowania. Jednak w wypadku SI, problemy te mogą być szczególnie widoczne, czy poprzez rodzaj problemów, do których są zaciągane, czy skalę samych błędów.

W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych[6][7].

Twarz pewnej Chinki znalazła się na publicznej ścianie wstydu wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie[8].

Etyka[edytuj | edytuj kod]

Profilowanie etniczne[edytuj | edytuj kod]

Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach[9].

Przypisy[edytuj | edytuj kod]