Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Veichi
Powrót do listy wiadomości Dodano: 2010-11-23  |  Ostatnia aktualizacja: 2010-11-23
Inteligentny robot uczy się otoczenia przez interakcję i obserwację
Osoby, które zmuszone są wstawać wcześnie rano są przekonane, że zrobienie sobie śniadania to trudne zadanie do wykonania jako pierwsza czynność w ciągu dnia. Dla robotów to jeszcze większe wyzwanie, nawet pomimo ich wyszukanej sztucznej inteligencji. Co prawda wiadomo, że płatki śniadaniowe zamknięte są w prostopadłościennym pudełku z kolorowym nadrukiem, ale podobnie wygląda też proszek do prania albo książka. Czy zatem trzeba nauczyć roboty czytać?

Być może nie. Europejski zespół naukowców zbudował robota nazwanego ARMAR-III, który próbuje się uczyć nie tylko na podstawie wcześniej wykonanych zadań i dzięki ogromnym możliwościom obliczeniowym, ale także poprzez sięganie i dotykanie przedmiotów. Niech za przykład posłuży wspomniane pudełko płatków śniadaniowych: poprzez jego uchwycenie, robot może się nauczyć, że pudełko waży mniej niż podobnych rozmiarów książka, a po przechyleniu wysypuje się jego zawartość. Przy nieznacznej pomocy ludzkiego asystenta, robot – będący efektem programu badawczego PACO-PLUS – może budować generalne reprezentacje obiektów i akcji, które mogą być na nich przeprowadzane. „Robot buduje reprezentację poprzez manipulowanie obiektem” wyjaśnia Tamim Asfour z niemieckiego Karlsruhe Institute of Technology.

Proces myślowy robota nie jest odseparowany od jego jednostki mechanicznej, ponieważ jest ona bezpośrednio wykorzystywana do nauki tego myślenia. Ta idea, nazywana czasem poznaniem ucieleśnionym (ang. embodied cognition), ma długą historię. Jak wyjaśnia psycholog Art Glenberg: „Wszystkie rodzaje naszego myślenia odbywają się w kontekście możliwości oddziaływania ze światem, co jest ściśle określone przez charakterystykę tego świata i naszych ciał.”

Ucieleśnione poznanie wymaga wyszukanego sposobu komunikacji pomiędzy urządzeniami niskiego poziomu – sensorami w ramionach i głowie robota, a urządzeniem wysokiego poziomu, którym jest zaawansowany procesor planujący. „Jest szansa, że dzięki poznaniu ucieleśnionemu robot będzie w stanie rozwiązywać problemy nieprzewidziane przez programistę.” mówi Glenberg. Jeśli ARMAR-III nie będzie wiedział jak się zachować, zbuduje bibliotekę nowych sposobów postrzegania przedmiotów albo będzie nimi manipulował, dopóki procesor będzie w stanie wykryć jakieś podobieństwa do innych obiektów.

System PACO-PLUS został przetestowany w laboratoryjnej kuchni. Po prostym grzebaniu wśród przedmiotów, robot nauczył się wypełniać takie zadania jak szukanie, identyfikacja i chwytanie pojedynczego pudełka płatków śniadaniowych, losowo usytuowanego w kuchni, albo ustawianie plastikowych kubków kolorami. „Brzmi to banalnie, ale takie nie jest.” mówi Bernhard Hommel, psycholog z holenderskiego Leiden University. „Robot musi wiedzieć, o czym mówi asystent, gdzie tego szukać nawet pomimo przemieszczenia przedmiotu, a następnie chwycić to i przynieść asystentowi.” Kiedy naukowcy umieścili na stole kubek po rozkazaniu robotowi nakrycia stołu, ten opracował sposób usunięcia przeszkody przed kontynuowaniem zadania. Nie byłoby to możliwe, gdyby ARMAR-III nie nauczył się, że kubek można przemieszczać i że zostanie on przewrócony jeśli pozostanie na swoim miejscu. Tą wiedzę robot zdobył podczas przemieszczania się po kuchni i obserwacji otoczenia. Poniżej zamieszczamy film prezentujący ARMAR-III w działaniu:



Zdolności ARMAR-III można podzielić na 3 zasadnicze grupy: tworzenie reprezentacji obiektów i akcji, interpretacja komend głosowych i opracowywanie sposobów ich wypełniania. Jednak pozwolenie robotowi na bezpośrednią naukę wszystkich trzech grup metodą prób i błędów byłoby zbyt czasochłonne. „Nie udało nam się przeprowadzić pełnego cyklu nauki” mówi Asfour, podsumowując czteroletni projekt. Zamiast tego, naukowcy zapewniali robotowi jeden z 3 czynników i pozwalali mu dokonać reszty procesu poznawania. Robot otrzymywał wskazówki bezpośrednio w oprogramowaniu lub poprzez demonstrację prowadzoną przez asystenta – na przykład przedstawienie mu przedmiotu i stwierdzenie „to jest zielony kubek” zamiast oczekiwania, aż urządzenie nauczy się milionów odcieni zieleni.

Kluczową cechą systemu jest zdolność tworzenia reprezentacji obiektów i łączenia ich z planowaniem i rozumieniem komunikatów głosowych. „To nasze główne osiągnięcie z naukowego punktu widzenia.” przyznaje Asfour.

(bj)

Kategoria wiadomości:

Z życia branży

Źródło:
IEEE Spectrum
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :