Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Faulhaber robotic
Powrót do listy wiadomości Dodano: 2008-11-27  |  Ostatnia aktualizacja: 2008-11-27
Sześć strategii budowy robota, który nie wyrządzi człowiekowi krzywdy
Sześć strategii budowy robota, który nie wyrządzi człowiekowi krzywdy
Sześć strategii budowy robota, który nie wyrządzi człowiekowi krzywdy
Wraz z bezlitosnym postępem technologicznym, roboty oraz inne systemy automatyczne staja się coraz inteligentniejsze. Równocześnie powierza im się zadania wymagające coraz większej odpowiedzialności; prowadzą samochody, opiekują się dziećmi, transportują broń, a może wkrótce będą i naciskać spust.

Pytanie, czy rzeczywiście powinniśmy powierzać im aż tak odpowiedzialne zadania i skąd mamy pewność, że w wyniku ich działań nigdy nie stanie się komuś krzywda.

Coraz bardziej ożywiona dyskusja toczy się od jakiegoś czasu, a najnowszym do niej przyczynkiem jest książka ‘Moral Machines: Teaching Robots Right from Wrong’ (moralność maszyn: uczenie robotów odróżniania dobra od zła). Jej autorzy, Wendell Wallach, etyk z Yale University, oraz Colin Allen, historyk i filozof kognitywista z Indiana University, dyskutują nad tym, czy powinniśmy pracować nad tym, by uczynić roboty odpowiedzialnymi i moralnymi maszynami. Według nich, tylko kwestią czasu jest gdy komputery i roboty swoimi decyzjami doprowadzą do katastrofy.


Aby zminimalizować takie ryzyko, Wallach i Allen prezentują w swojej książce sześć strategii, które mogą zredukować to zagrożenie.

Trzymać je z dala od sytuacji powodujących zagrożenie

Upewnić się, że żaden komputer ani robot nie będzie podejmował decyzji, których konsekwencje mogą się wymknąć spod kontroli.

Prawdopodobieństwo sukcesu: nikłe. Już dziś inżynierowie budują komputery i systemy zrobotyzowane, które wykonują działania, których skutków nie sposób przewidzieć. Użytkownicy, przemysł i organizacje rządowe oczekują technologii, które będą wykonywać coraz więcej zadań, a rynek w odpowiedzi na popyt będzie rozwiązania te rozwijał i dostarczał. W takiej sytuacji konieczne jest natychmiastowe zatrzymanie dalszego rozwoju komputerów i robotów.

Nie dawać im broni

Prawdopodobieństwo sukcesu: za późno. Już dziś istnieją pół-autonomiczne systemy broni zrobotyzowanej, jak rakiety samosterujące, czy zdalnie sterowane samoloty bezzałogowe typu Predator. Kilka uzbrojonych robotów wysłano również do Iraku. Stratedzy wojskowi są zainteresowani rozwojem robotów-żołnierzy, gdyż mogłyby się one przyczynić do zmniejszenia liczby ofiar wśród żołnierzy. Choć jest już za późno, by zatrzymać budowę zrobotyzowanej broni, wciąż można zastrzec, w które rodzaje broni mogą one być wyposażone i w jakich sytuacjach z nich korzystać.

Wyposażyć je w reguły podobne do tych opracowanych przez Asimova

Prawdopodobieństwo sukcesu: średnie. Słynne reguły Isaaca Asimova są skonstruowane hierarchicznie: po pierwsze i najważniejsze, robot nie może krzywdzić, ani pozwolić na krzywdzenie ludzi; po drugie, ma być posłuszny ludziom; po trzecie i najmniej ważne, ma dbać o siebie.

Tak sformułowane prawa zmuszają roboty do podejmowania bardzo trudnych decyzji. Na przykład, skąd robot ma wiedzieć, że chirurg tnie pacjenta, by mu pomóc? Zasady te mogą być skuteczne, ale raczej tylko w sytuacjach o ograniczonym kontekście.

Zaprogramować robotom zasady

Prawdopodobieństwo sukcesu: średnie. Dostrzegając ograniczenia zasad, niektórzy etycy poszukują nadrzędnej zasady, która umożliwiłaby ocenę każdej sytuacji.

Jednakże historycy etyki od dawna spierają się o wartość i granice wielu pojedynczych zasad. Na przykład, logicznym wydaje się poświęcenie jednego życia, by uratować pięć. Jednakże żaden lekarz nie podejmie decyzji o poświęceniu zdrowej osoby w celu przeszczepienia jej organów pięciu innym, potrzebującym transplantacji. A jak ma zachować się robot?
Czasem znalezienie najlepszego rozwiązania w oparciu o zadana zasadę jest niezwykle trudne.

Edukować roboty jak dzieci

Uczące się maszyny mogłyby wytworzyć rodzaj wrażliwości na rozróżnianie dobra i zła.

Prawdopodobieństwo sukcesu: obiecujące. Jednakże strategia ta wymaga jeszcze co najmniej kliku technologicznych przełomów. Naukowcy stworzyli co prawda roboty, uczące się w sposób podobny do ludzi, jednakże zastosowanie tych rozwiązań jest dziś bardzo ograniczone.

Wyposażyć maszyny w emocje

Takie ludzkie cechy, jak empatia, emocje, czy zdolność do odczytywania niewerbalnych wskazówek, powinny znaczenie ułatwić robotom interakcje z ludźmi. Zresztą prace nad rozwiązaniami tego rodzaju już trwają.

Prawdopodobieństwo sukcesu: stworzenie wrażliwych na emocje robotów na pewno w dużym stopniu ułatwiłoby wdrożenie trzech wspomnianych wyżej rozwiązań. Większość informacji, których używamy do podejmowania decyzji oraz współpracy z innymi pochodzi z naszych emocji. Podobnie jak nasza zdolność do odczytywania gestów i intencji innych.

Kategoria wiadomości:

Z życia branży

Źródło:
NewScientistTech
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :

Czytaj także