sztuczna inteligencja

Fot. YouTube zrzut ekranu

Prof. Aleksander Mądry w Kongresie USA: sztuczna inteligencja radykalnie zmieni nasze życie

Sztuczna inteligencja radykalnie zmieni nasze życie i musimy się zastanowić, jak kształtować świat napędzany przez AI – powiedział w środę w Kongresie prof. Aleksander Mądry, pochodzący z Polski dyrektor ośrodka zajmującego się sztuczną inteligencją na Massachussetts Insitute of Technology (MIT). Ostrzegł też przed ryzykami związanymi z masowym używaniem tej technologii.

„AI nie jest już sprawą science-fiction ani technologią, która jest ograniczona do laboratoriów badawczych. AI to technologia, która już jest wykorzystywana i szeroko przyjmowana. Drastycznie zmieni nasze życie; musimy myśleć nad tym, jak kształtować napędzany przez AI świat, który stoi przed nami” – powiedział profesor prestiżowej uczelni podczas wysłuchania przed podkomisją Izby Reprezentantów ds. nadzoru.

Pochodzący z Polski uczony i szef ośrodka MIT Center for Deployable Machine Learning występował obok m.in. byłego szefa Google Erica Schmidta w wysłuchaniu poświęconym rozwojowi AI i przygotowaniu USA na „technologiczną rewolucję” z nim związaną.

>>> Sztuczna inteligencja pomoże zapobiegać wypadkom drogowym

Generatywna sztuczna inteligencja

Mądry podkreślił, że nowa generacja AI, tzw. generatywna sztuczna inteligencja, która pojawiła się w ostatnich latach i miesiącach – mowa tu m.in. o aplikacjach ChatGPT, Bing Chat, czy generatorach obrazów DALL-E i Midjourney – różni się nie tylko większymi zdolnościami, ale też dużo większą dostępnością i przystępnością dla zwykłego odbiorcy.

Jak podkreślił, wiążą się z tym zarówno ogromne możliwości w niemal każdym sektorze gospodarki, ale też wiele ryzyk, m.in. związanych z podatnością tych systemów na manipulacje i użycie ich do dezinformacji, powtarzaniem i utrwalaniem uprzedzeń, a także ich generalną zawodnością.

„Nawet eksperci AI mają bardzo słabe zrozumienie skali tych problemów i dopiero zaczynają znajdować sposoby, by je odkrywać i łagodzić” – powiedział ekspert.

Zwrócił też uwagę, że nowe problemy mogą powstać w drodze tworzenia „łańcuchów dostaw AI” – tzn. tworzenia nowych aplikacji na bazie i przy połączeniu z różnymi typami AI. Jak stwierdził, ponieważ tworzenie podstawowych systemów AI jest drogie i wymaga ogromnych nakładów, tylko bardzo nieliczne podmioty są w stanie je tworzyć, co da może dać im dominującą pozycję. Jak przewiduje, choć w niedalekiej przyszłości rozwój sztucznej inteligencji doprowadzi do ogromnej eksplozji nowych AI, niemal wszystkie będą oparte na kilku bazowych programach.

Fot. Unsplash/possessed-photography

Systemy AI

Prof. Mądry dodał też, że łączenie różnych systemów sztucznej inteligencji może prowadzić do nieprzewidywalnych zmian w ich charakterystykach.

„To jest problem nawet bardziej skomplikowany, bo eksperci AI nie potrafią wyjaśnić, jak pojedyncze systemy AI docierają do swoich konkluzji, a dochodzenie do tego stanie się dużo trudniejsze, jeśli systemy zostaną na siebie nałożone” – ocenił Mądry.

Wezwał również do wprowadzenia regulacji prawnych i technicznych, by móc odpowiadać na problemy związane z decyzjami dokonywanymi przez systemy sztucznej inteligencji.

Pytany przez kongresmenów, czy obawia się tego, że szybki rozwój AI doprowadzi do katastrofy, Mądry odpowiedział, że choć nie obawia się „scenariusza z +Terminatora+”, to jego niepokój budzi np. większe użycie AI w mediach społecznościowych, co może jeszcze wzmocnić dotychczasowe problemy z tymi sieciami, kreując „social media na sterydach”. Powiedział przy tym, ze konieczne są w tym obszarze mocne regulacje prawne.

>>> Sztuczna inteligencja pomoże w ewangelizacji

Odpowiedzialność

„Musimy zapewnić, że firmy, o których mówimy, nie są tylko motywowane przez zysk, ale zdają sobie sprawę, że mają też pewną odpowiedzialność” – powiedział profesor. Jak dodał, właśnie brak regulacji jest jego największą obawą, jeśli chodzi o rozwój AI.

Inną odpowiedź na temat swoich obaw dał Schmidt, były szef Google’a, który stwierdził, że najbardziej niepokoi go potencjalna rozbieżność interesów między ludźmi i sztuczną inteligencją.

„Chodzi o sytuację, gdzie człowiek ma jeden zestaw zachęt, komputer został wytrenowany, by dążyć do innych rezultatów, a społeczeństwo ma jeszcze inne interesy” – powiedział ekspert. Dodał też, że choć Pentagon chce, by broń oparta o AI automatycznie podejmowała decyzje, w chwili obecnej systemy te nie są gotowe do takich „ostatecznych” wyborów i może nigdy nie będą.

Czytałeś? Wesprzyj nas!

Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!

Zobacz także
Wasze komentarze