fot. PAP/EPA/RITCHIE B. TONGO

„WP”: co najmniej ośmiu Amerykanów aresztowano przez błąd sztucznej inteligencji

Co najmniej ośmiu Amerykanów zostało aresztowanych, ponieważ zostali mylnie zidentyfikowani przez oprogramowanie rozpoznawania twarzy – podał we wtorek dziennik „Washington Post”. Policja w USA używa sztucznej inteligencji do zatrzymywania podejrzanych bez konieczności posiadania innych dowodów.

Dziennik przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policją, prokuratorami i adwokatami. Redakcja zastrzegła, że najprawdopodobniej naświetliła za ich pomocą niewielką część problemu: prokuratorzy rzadko informują opinię publiczną, kiedy użyli narzędzi sztucznej inteligencji (AI), a prawo wymaga ich ujawnienia tylko w siedmiu stanach. Całkowita liczba przypadków niesłusznych aresztowań spowodowanych przez błędne wyniki wyszukiwania przez narzędzia AI jest więc niemożliwa do ustalenia – podkreślił „WP”.

Policja nie podjęła podstawowych działań śledczych

Jak ustaliła gazeta, w ośmiu znanych przypadkach niesłusznego aresztowania policja, opierając się na identyfikacji twarzy przez narzędzia AI, nie podjęła co najmniej jednego z podstawowych działań śledczych. Gdyby jednak sprawdziła alibi, porównała znaki szczególne, zbadała dowody DNA lub odciski palców, tych osiem osób można było by wykluczyć jako podejrzanych jeszcze przed aresztowaniem.

W sześciu z ośmiu przypadków policja nie sprawdziła alibi podejrzanych, a w dwóch zignorowała dowody przeczące jej założeniom – nawet tak znaczące, jak ślady DNA i odciski palców, które wskazywały na innego potencjalnego podejrzanego.

Zdjęcie poglądowe fot. unsplash/Matt Popovich

W pięciu przypadkach policja nie zebrała kluczowych dowodów. Dziennik przytoczył przykład aresztowania człowieka podejrzanego o zrealizowanie w banku sfałszowanego czeku na znaczną kwotę. Po rozpoznaniu przez narzędzia AI policja zatrzymała podejrzanego, lecz nie sprawdziła nawet jego kont bankowych.

Trzykrotnie policja zignorowała cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez AI. Dziennik opisuje przypadek kobiety w zaawansowanej ciąży, aresztowanej za kradzież samochodu, mimo że ani świadkowie, ani monitoring nie wskazywali, że napadu dokonała ciężarna.

W sześciu przypadkach policja nie sprawdziła zeznań świadków. Tożsamość podejrzanego (zidentyfikowanego przez AI) o kradzież kosztownego zegarka potwierdził pracownik ochrony, którego nie było w sklepie podczas kradzieży.

„Zaufanie do systemu uniemożliwiło im prawidłową ocenę podobieństw”

„WP” przyznał, że oprogramowanie do rozpoznawania twarzy działa niemal doskonale w warunkach laboratoryjnych, z wykorzystaniem wyraźnych zdjęć porównawczych. Jednak, jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania niewyraźnych zdjęć z monitoringu. Z tego powodu trudno jest ocenić, jak często technologia wadliwie rozpoznaje twarz.

Co więcej, badacze odkryli, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania podejmowanym przez nie decyzjom. W badaniach neurobiologów z University College of London badani wybierali jako najbardziej podobne do wzoru te odciski palców, które komputer wskazał im jako pierwsze. „Zaufanie do systemu uniemożliwiło im prawidłową ocenę podobieństw” – podkreślił dziennik.

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze