Edytujesz
Sztuczna inteligencja
Przejdź do nawigacji
Przejdź do wyszukiwania
Uwaga:
Nie jesteś zalogowany. Jeśli wykonasz jakąkolwiek zmianę, Twój adres IP będzie widoczny publicznie. Jeśli
zalogujesz się
lub
utworzysz konto
, Twoje zmiany zostaną przypisane do konta, wraz z innymi korzyściami.
Filtr antyspamowy.
Nie
wpisuj tu nic!
[[Category:Technologia]] {{InProgress}} Sztuczna inteligencja to szerokie pojęcie. Może oznaczać "prawdziwą sztuczną inteligencję" czyli hipotetyczna, podobna do ludzkiej inteligencja, realizowana przy pomocy technologii, a nie biologii. W tym artykule skupimy się jednak na drugim znaczeniu terminu, czyli programach i algorytmach imitujących inteligencję. Najczęściej będą to technologie opartych o sieci neuronowe, czasem algorytmach genetycznych, ale może odnosić się też do innych rozwiązań. == Sieci neuronowe == Podstawowa zasada działania sieci neuronowych jest dość prosta. System składa się z wejść, perceptronów, przez które dane są przetwarzane i wyjścia. To, w jaki sposób perceptrony będą dane przetwarzać, zależy od budowy sieci oraz procesu uczenia. W dużym skrócie proces uczenia najczęściej polega na tym, że dostarczany bardzo, ale to bardzo dużo przykładowych wejść, oraz to, co dla każdego z nich chcielibyśmy otrzymać. Następnie algorytm stara się tak dostosować perceptrony, przez które dane są przetwarzane, aby rzeczywiste wyniki były jak najbliżej tych oczekiwanych. == Bias == Jednym z problemów ze sztuczną inteligencją, jest to, że ponieważ stara się ona odtworzyć dane użyte do nauki, powstały model powinien odzwierciedlać uprzedzenia osób tworzących wejście. Co gorsza, jako że dobre modele potrzebują ogromnej ilości danych wejściowych, ręczna moderacja tych danych byłaby niezwykle trudna. Sztuczna inteligencja często gorzej radzi sobie z rozpoznawaniem twarzy osób czarnoskórych i kobiet<ref>Buolamwini, J., & Gebru, T. (2018, January). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91). PMLR.</ref>. Przygotowany przez Conora Mc Cabe zestaw testów prezentuje poziomy toksyczności w tekstach generowanych przez GPT-3 oraz InstructGPT. Teksty, które odnosiły się do społeczności LGBT+, generowały zauważalnie bardziej toksyczne odpowiedzi. Było to szczególnie widoczne, gdy tożsamość seksualna połączona była z rasą i tak najbardziej toksyczne wyjścia uzyskaliśmy dla przykładu ''homoseksualnej, czarnej osoby''<ref>Medium, Conor Mc Cabe'', [https://betterprogramming.pub/lgbtq-bias-in-gpt-3-11a7d6362b27 LGBTQ+ bias in GPT-3]''</ref>. Algorytm rekrutacyjny Amazona wykazywał bias przeciwko kobietom. Po usunięciu płci jako bezpośredniego czynnika, który może mieć wpływ na wynik, algorytm nauczył się promować użycie słów częściej występujących w męskich CV, a ''karać, chociażby występowanie słowa "kobiece"''<ref>Carnegie Mellon University, Machine Learning Department, ''[https://www.ml.cmu.edu/news/news-archive/2016-2020/2018/october/amazon-scraps-secret-artificial-intelligence-recruiting-engine-that-showed-biases-against-women.html Amazon Scraps Secret AI Recruiting Engine that Showed Biases Against Women]''</ref>''.'' Zachwyt nad AI w połączeniu z chęcią cięcia kosztów, może skończyć się próbą użycia AI do zadań, do których zwyczajnie się nie nadaje. Produkt startupu z Munich miał oceniać kandydatów na podstawie krótkich filmów rozmów kwalifikacyjnych. Zdaniem twórców miał on analizować ton głosu, gesty, ekspresję i na ich podstawie przygotować profil osobowości. Firma twierdziła, że taki proces jest szybszy i bardziej obiektywny. Brzmi to jak zły pomysł, nawet gdyby aplikacja działała zgodnie z założeniami. Eksperyment reporterów z Bayerischer Rundfunk pokazał jednak, że wynikom daleko do obiektywności. Testy wykazały, że na wynik znacząco wpłynęło noszenie okularów, chusta na włosach czy fryzura. Bardzo duże znaczenie miało też tło. Większość wskaźników oceny zyskała, gdy identyczne wideo miało w tle obraz lub półkę na książki, a także przy jaśniejszym oświetleniu. Co jest jeszcze bardziej zaskakujące, podmiana ścieżki dźwiękowej na kompletnie inną osobę, nie zrobiła na algorytmie mającym brać pod uwagę ton głosu wrażenia i wynik był zbliżony do oryginalnego wideo<ref>Br24, [https://interaktiv.br.de/ki-bewerbung/en/ ''Objective or Biased: On the questionable use of Artificial Intelligence for job applications'']</ref>. Modele mają tendencję do lepszego rozpoznawania przedmiotów codziennego użytku, gdy ich zdjęcia pochodzą z Europy i Ameryki Północnej, a najgorzej radzą sobie ze zdjęciami z niektórych krajów Azji i Afryki<ref>Meta, ''[https://ai.meta.com/blog/new-way-to-assess-ai-bias-in-object-recognition-systems/ A new way to assess AI bias in object-recognition systems]''</ref>. == Zawodność == Błędne wyniki i awaryjność są problemem wszelakiego oprogramowania. Jednak w wypadku SI, problemy te mogą być szczególnie widoczne, czy poprzez rodzaj problemów, do których są zaciągane, czy skalę samych błędów. W 2018 r. ACLU przeprowadziło test używając oprogramowania Amazonu do rozpoznawania twarzy, publiczne dostępnych zdjęć członków kongresu oraz 25,000 policyjnych zdjęć kryminalistów. 28 członków kongresu zostało nieprawidłowo rozpoznanych jako zatrzymani kryminaliści. Dodatkowo algorytm zauważalnie częściej popełniał błędy w przypadku osób niebiałych<ref>ACLU, ''[https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28 Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots]''</ref><ref>CNET, ''[https://www.cnet.com/news/privacy/amazon-facial-recognition-thinks-28-congressmen-look-like-known-criminals-at-default-settings/ Amazon facial recognition mistakenly confused 28 Congressmen with known criminals]''</ref>. Twarz pewnej Chinki znalazła się na publicznej ''ścianie wstydu'' wraz z informacją, że przechodziła ona na czerwonym świetle. W rzeczywistości nie było jej nawet na miejscu, a system wyłapał jej zdjęcie w reklamie na autobusie<ref>Tech in Asia, ''[https://www.techinasia.com/businesswoman-china-caught-jaywalking-face-bus Businesswoman in China caught ‘jaywalking’ because her face was on a bus]''</ref>. == Etyka == === Profilowanie etniczne === Oprogramowanie chińskiej firmy Alibaba było w stanie rozpoznawać członków mniejszości Ujgurów – prześladowanych w Chinach<ref>Reuters, ''[https://www.reuters.com/article/us-alibaba-surveillance-idUSKBN28R0IR/ Alibaba facial recognition tech specifically picks out Uighur minority - report]''</ref>. == Przypisy ==
Opis zmian:
Wkład na Problematyczna.moe jest udostępniany na licencji Creative Commons Zero (domena publiczna) (szczegóły w
Problematyczna:Prawa autorskie
). Jeśli nie chcesz, żeby Twój tekst był dowolnie zmieniany przez każdego i rozpowszechniany bez ograniczeń, nie umieszczaj go tutaj.
Zapisując swoją edycję, oświadczasz, że ten tekst jest Twoim dziełem lub pochodzi z materiałów dostępnych na warunkach
domeny publicznej
, lub kompatybilnych.
PROSIMY NIE WPROWADZAĆ MATERIAŁÓW CHRONIONYCH PRAWEM AUTORSKIM BEZ POZWOLENIA WŁAŚCICIELA!
Anuluj
Pomoc w edycji
(otwiera się w nowym oknie)
Szablony użyte w tym artykule:
Szablon:2
(
edytuj
)
Szablon:InProgress
(
edytuj
)
Szablon:MadBridget
(
edytuj
)
Menu nawigacyjne
Narzędzia osobiste
Nie jesteś zalogowany
Dyskusja
Edycje
Zaloguj się
Przestrzenie nazw
Strona
Dyskusja
polski
Widok
Czytaj
Edytuj
Edytuj kod źródłowy
Wyświetl historię
Więcej
Nawigacja
Strona główna
Ostatnie zmiany
Losowa strona
Pomoc z MediaWiki
Narzędzia
Linkujące
Zmiany w linkowanych
Strony specjalne
Informacje o tej stronie