Roboty będą znały zasady fizyki?
Obecnie zbyt mało uczy się wprowadzane do użycia roboty fizyki rządzącej światem. A muszą mieć taką wiedzę, by móc się sprawnie poruszać i niczego nie zniszczyć – przekonuje w rozmowie z PAP dr inż. Krzysztof Walas, lider zespołu „Robotyka interakcji fizycznej” w IDEAS NCBR.
Krzysztof Walas jest adiunktem w Instytucie Robotyki i Inteligencji Maszynowej Politechniki Poznańskiej. Jego główne zainteresowania naukowe to poruszanie się robotów nożnych w środowiskach i robotyczna percepcja interakcji fizycznych.
W swoim najnowszym artykule (https://pubmed.ncbi.nlm.nih.gov/38657089/) Krzysztof Walas zajął się opisaniem nietypowego robota. Maszyna wyposażona jest jednocześnie w nogi i koła. Takie hybrydy mogą być przyszłością robotyki wspierającej ludzi.
„Robot wyposażony w koła i w nogi jednocześnie ma przewagę nad maszynami wyłącznie chodzącymi czy jeżdżącymi. Jest trochę jak człowiek na rowerze – jadąc po ulicy, może poruszać się znacznie szybciej niż na nogach i zużywać przy tym znacząco mniej energii. Kiedy teren stanie się zbyt trudny, może zejść z roweru i poruszać się na nogach” – opisał prof. Walas.
>>> Poznań: wizytę w urzędzie zarezerwuje robot
Dodał, że w robotyce można zauważyć dwa podejścia – wymyślanie zupełnie nowych rozwiązań oraz wzorowanie się na naturze. W wielu przypadkach kluczem do sukcesu może być jednak korzystanie z obu metod.
„Moim zdaniem to bardzo dobre podejście. Jak mówią autorzy artykułu cytowanego w mojej pracy, natura pracuje na tym, co ma i to udoskonala. Ewolucja trwa przy tym niesłychanie długo. Na przykład uczymy się biegać, skakać, chodzić, ale jako ludzie mamy tylko dwie nogi i dwie ręce. Nie możemy na życzenie zmienić naszego ciała. Z drugiej strony, inżynierowie mogą natychmiast wprowadzać nowe pomysły – na przykład dodać kolejny silnik, sposób sterowania maszyną, czy choćby właśnie koła. Uważam, że można i warto łączyć te podejścia” – powiedział ekspert.
Dzięki temu maszyny mogą nie tylko być bardziej sprawne, ale również lepiej współpracować z ludźmi i otoczeniem.
„Ostatnio wiele badań prowadzi się w dziedzinie miękkiej robotyki. Dzisiaj do konstrukcji robotów stosuje się głównie aluminium czy twarde plastiki. Na przykład w przypadku kolizji, może to oznaczać uszkodzenie robota lub obiektu, z którym się zderzył. Miękkie materiały mogą to znacząco zmienić” – wyjaśnił naukowiec.
Niezależnie jednak od tego, jaki kształt będą miały kolejne, wprowadzane do użycia roboty, muszą być odpowiednio inteligentne i mieć właściwy zasób wiedzy.
„W moim zespole zajmujemy się właśnie sterowaniem ruchu robotów. Uważam, że obecnie zbyt mało uczy się roboty fizyki rządzącej światem. Muszą tę wiedzę posiadać, aby móc się sprawnie poruszać i niczego nie zniszczyć. Muszą np. wiedzieć, czy jakiś obiekt jest kruchy czy miękki, jakie ma tarcie itp.” – tłumaczył rozmówca PAP.
Po pierwsze, robot musi poznać samego siebie i nauczyć się sterować własnym ciałem.
„Najczęściej roboty uczy się tzw. metodą uczenia ze wzmocnieniem. Kiedy uczymy robota chodzenia, dajemy mu np. zadanie przejścia po linii prostej. Wtedy zaczyna niezgrabnie ruszać nogami i kiedy przypadkiem zrobi krok we właściwym kierunku, dostaje nagrodę w postaci odpowiedniego wyniku w oprogramowaniu. Teraz wie, że postąpił dobrze i uczy się dalej. Kiedy zrobi błąd, dostaje tzw. nagrodę negatywną. To żmudny i długotrwały proces, ale z czasem może nauczyć się precyzyjnego chodzenia” – wskazał naukowiec.
Zrozumienie świata może być jednak jeszcze trudniejsze. Jak zauważył badacz, obecnie w największym stopniu wykorzystuje się systemy wizyjne, które są najbardziej rozwinięte. Jednak wzrok można łatwo oszukać. Robot może uznać, że patrzy na krajobraz, widząc fototapetę. Do poznania fizyki świata potrzebne są więc różnorodne interakcje z nim.
„Moim zdaniem wiele do zaoferowania ma zmysł dotyku, który pozwala na uzyskanie wielu informacji o właściwościach fizycznych obiektów. Oprócz samego dotykania, obiekt można np. popchnąć, ścisnąć, przewrócić obiekt i sprawdzać, jak się zachowuje – czy jest lekki, czy ciężki, miękki czy twardy, gładki czy szorstki, czy tylko leży na podłodze, czy jest do niej przymocowany itp. Tak się uczą dzieci i podobnie mogą uczyć się roboty” – podkreślił dr Walas.
>>> Chiny: pierwsze zbiory herbaty z wykorzystaniem robota
Dlatego inżynierowie starają się obdarzać swoje maszyny także innymi zmysłami. „Do najważniejszych należy zmysł dotyku. Powstają różne urządzenia, które pozwalają maszynom czuć to, czego dotykają. Na przykład umożliwiają pomiar sił i momentów na czubkach palców w kontakcie ze środowiskiem. Ciekawymi rozwiązaniami są tzw. sztuczne skóry, dzięki którym można określić także miejsce dotyku czy kierunek przykładanej siły. Inny przykład to żelowe palce, które deformują się, oddając kształt przedmiotu. W środku takiego palca znajduje się kamera, która to rejestruje” – tłumaczył badacz.
Jednak roboty mogą postrzegać świat dużo szerzej niż człowiek. Można je wyposażyć w różnorodne czujniki. Jak powiedział rozmówca PAP, w jednym z projektów jego zespół opracował robota, który widział w podczerwieni. Jego zadanie polegało na prowadzeniu inspekcji nagrzewania się urządzeń w kopalni.
Obserwowane ostatnio postępy sztucznej inteligencji mogą wiele zmienić, choć wiele wyzwań jeszcze stoi przed naukowcami. „Potrzebujemy m.in. udoskonalić sprawność energetyczną inteligentnych systemów. Uczenie, a nawet realizowanie tego, czego robot się nauczył, wymaga dużych zasobów energii” – wskazał badacz.
Dodał, że podobnie jest z dużymi modelami językowymi, o których obecnie wiele się mówi.
„Firmy, które je tworzą, mają ogromne zasoby obliczeniowe. My, jako naukowcy pracujemy m.in. nad tym, aby podobne wyniki osiągać sprytnie, przy mniejszych nakładach energii i zasobów komputerowych. Powstają też nowe procesory przeznaczone specjalnie dla SI. Niektóre firmy, np. Intel czy Google, oferują już urządzenia przypominające pendrive’y, które przejmują obliczenia potrzebne sztucznej inteligencji. Trenuje się ją na dużych serwerach, ale potem może działać już na tego typu, niedużym urządzeniu. Prowadzi się też prace nad nowymi sposobami zasilania robotów, na przykład z pomocą ogniw wodorowych” – wyjaśnił prof. Walas.
Wiele jeszcze jest też do zrobienia – także, jeśli chodzi o same algorytmy.
„Może się komuś wydawać, że jeśli komputer komunikuje się sprawnie z pomocą języka, to ma rozum podobny do ludzkiego. Tak jednak nie jest. Do dużych modeli językowych takich jak ChatGPT wprowadza się po prostu ogromną ilość tekstu – danych treningowych. Komputer poznaje statystyczne zależności dotyczące tego, jakie słowa najczęściej towarzyszą innym. Można powiedzieć, że zupełnie nie ma jednak pojęcia, o czym mówi, na razie nie ma modelu świata, a jedynie model języka” – opisał naukowiec.
Przyznał, że rozumienie języka może być bardzo przydatne, bo można dzięki niemu porozumiewać się z robotem z pomocą mowy. Na przykład słowo kubek można powiązać z obrazem kubków z kamer i później słownie poprosić robota, aby chwycił właśnie kubek. Ale – wskazał badacz – robot nadal nie ma pełnego modelu świata.
„Pomóc może tzw. embodied intelligence, czyli inteligencja powiązana z ciałem” – powiedział Walas.
Zwrócił uwagę, że tak uczy się człowiek – z pomocą zmysłów, rąk, nóg, całego ciała. Tego rodzaju nauka jest nie tylko pełniejsza, ale też lepiej dopasowana do danego robota.
„Posłużmy się przykładem: gdy nasz mózg uczy się widzenia świata z pomocą oczu, dostosowuje się dokładnie do naszych gałek ocznych, w tym ich rozstawu. Gdyby nagle odległość między gałkami ocznymi uległa zmianie, człowiek byłby całkowicie zdezorientowany. Podobnie jest np. z długością rąk, nóg, wzrostem itp. Dlatego robot poznający świat samodzielnie, swoim ciałem, będzie najlepiej sobie radził” – tłumaczył.
Prowadzone są też badania nad dzieleniem się wiedzą i doświadczeniem przez roboty. W sztucznych sieciach neuronowych nie można tak po prostu skopiować informacji, jak się to robi w zwykłych programach komputerowych. Naukowcy zastanawiają się więc np. nad stworzeniem centralnego systemu, który będzie obsługiwał jakąś liczbę podobnych maszyn.
„Tak na przykład szkoli się autonomiczne samochody, które przekazują dane do centralnego systemu uczącego, a wytrenowany model następnie jest wykorzystywany do sterowania pojazdami. Podobne podejście można stosować w symulacjach, które też wykorzystuje się w treningu robotów. W świecie wirtualnej rzeczywistości może na przykład uczyć się kilkadziesiąt robotów jednocześnie i wszystkie przekazują swoje doświadczenie do centralnego systemu” – powiedział prof. Walas.
Teoretycznie zastosowań inteligentnych, znających świat robotów może być wiele. Mówi się np. o humanoidalnych, cybernetycznych strażakach, ratownikach, pracownikach budowy, żołnierzach.
„To bardzo nośne tematy. Trudno powiedzieć, na ile te wizje się zrealizują. Z pewnością inteligentne, autonomiczne, w tym humanoidalne roboty mogą doskonale sprawdzić się w prowadzeniu inspekcji czy tworzenia map miejsc trudno dostępnych czy groźnych dla człowieka. Na przykład trzy lata temu DARPA zorganizowała finał konkurs na system eksploracji podziemnych tuneli. W ramach konkursu wymagane było stworzenie, z pomocą na przykład kroczącego robota, mapy sztucznego tunelu metra. Australijska drużyna CSIRO stworzyła mapę, która była prawie na takim samym poziomie, jak opracowana przez profesjonalny zespół geodezyjny” – przypomniał naukowiec.
Dodał, że w Dolinie Krzemowej powstaje teraz wiele start-upów, które konstruują humanoidalne roboty. „Czy to zapowiedź rewolucji, czy bańka, która pęknie, jednak jeszcze nie wiadomo” – podsumował ekspert
Wybrane dla Ciebie
Czytałeś? Wesprzyj nas!
Działamy także dzięki Waszej pomocy. Wesprzyj działalność ewangelizacyjną naszej redakcji!
Zobacz także |
Wasze komentarze |