FAQ  •  Szukaj  •  Użytkownicy  •  Grupy •  Galerie   •  Rejestracja  •  Profil  •  Zaloguj się, by sprawdzić wiadomości  •  Zaloguj
 
 
 SWORDS Zobacz następny temat
Zobacz poprzedni temat
Napisz nowy tematOdpowiedz do tematu
Autor Wiadomość
norbert
Pisze często
Pisze często



Dołączył: 21 Sty 2006
Posty: 63
Przeczytał: 0 tematów

Pomógł: 1 raz
Ostrzeżeń: 0/4
Skąd: z przed minitora

PostWysłany: Śro 21:36, 15 Mar 2006 Powrót do góry

Słyszeliście że:
Armia amerykańska zamierza uzbroić swoje oddziały stacjonujące w Iraku, w nowego robota o nazwie SWORDS, wyposażonego w karabin maszynowy. Jak podaje serwis The Inquirer, narusza to nieformalne prawa robotyki Asimova, z których pierwsze zakazuje robotom krzywdzenia ludzi.
Mechaniczny żołnierz SWORDS (Special Weapons Observation Reconnaissance Detection Systems) będzie posiadał karabin M249 lub model M240, które strzelają z prędkością odpowiednio 750 i 1 tys. nabojów na minutę.
Robot będzie komunikował się z centrum dowodzenia za pomocą fal radiowych. Jak zapewnia komunikat wojska, decyzję o podjęciu ostrzału wrogiej pozycji podejmie zdalny operator maszyny, a nie sam robot.
Przedstawiciele amerykańskiej armii planują również wprowadzenie bardziej mobilnego interfejsu do kontroli mechanicznego żołnierza, składającego się z niewielkiej konsoli oraz okularów z projekcją trójwymiarową.

pewnie niewiecie co to są prawa robotyki??

odp:

PRAWA ROBOTYKI

Jeden z czołowych pisarzy nurtu science fiction, Isaac Asimov (1920-1992), czujący na sobie odpowiedzialność wielu swoich Czytelników przerażonych wizją świata opanowanego przez inteligentne maszyny, ale również, jak nie przede wszystkim, ze względu na głębie swoich myśli, pokusił się o stworzenie zwięzłego kodeksu postępowania dla przyszłych inteligentnych robotów.

Przedstawił go w opowiadaniu Runaroud, opublikowanym pierwszy raz w 1942 r., a ograniczył do kilku zwięzłych praw:

1. A robot may not injure a human being, or, through inaction, allow a human being to come to harm.

2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.

3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

Czyli:

1. Robot nie może być niebezpieczny dla człowieka.

2. Robot musi być zawsze posłuszny człowiekowi, chyba że jest to sprzeczne z pierwszym prawem.

3. Robot musi unikać niebezpieczeństwa, chyba że jest to sprzeczne z pierwszy, bądź/i drugim prawem.

I choć na pierwszy rzut okaz prawa te wydają się być całkiem słuszne, to kryją się w nich, co zaraz spróbuję wykazać, pewne wątpliwości. Sprawę tę już poruszałem w swoich publikacjach kilkakrotnie (Por. chociażby M. Kasperski, Sztuczna Inteligencja, Wyd. Helion (zob., strona książki)).

Co będzie, gdy człowiek każe komputerowi zakochać się w sobie?

Co będzie, gdy każemy mu sprzeciwiać się spełnieniu chociaż części naszych poleceń?

Rozważę problem 1. Miłość, czy nawet zakochanie, to są takie stany, których nikomu nie można narzucić – albo ktoś nas kocha, albo nie, ew. udaje, że kocha. Do istoty miłości (i zakochania) należy czynnik własnej woli, wolności. To poszczególny podmiot z osobna decyduje w kim "lokuje swoje piękne myśli" (jak to wyraził w Uczcie Platon). Czy zatem możliwa jest w ogóle taka sytuacja, aby kazać się komuś/czemuś zakochać w innej osobie? Odpowiedź jest prosta – NIE. Więc w takim razie pozostaje pytanie otwarte: Co z tym zadaniem mógłby zrobić sztuczny system myślący?

Z drugiego prawa Asimova wynika, że musi podjąć się tego zadania – musi się zakochać we wskazanej przeze mnie osobie – jednakże odwołując się do definicji miłości – jej istoty – nie mógłby tego uczynić. Zatem? Najprawdopodobniej doszłoby do tzw. zapętlenia się maszyny – powtarzałaby w nieskończoność proces wyboru pomiędzy stronami konfliktu: 2 prawem Asimova i wyżej postawionym rozkazem.

Rozważę problem 2. Sytuacja jest podobna do powyższej. Dotyczy również drugiego prawa, bo jeżeli system musi wykonywać każdy rozkaz człowieka (oczywiście jeżeli nie jest on sprzeczny z (1)), to również musi przyjąć rozkaz sprzeciwiania się chociaż części rozkazów. Jednakże w dalszej części swojego funkcjonowania będzie zachodziła sprzeczność pomiędzy drugim prawem robotyki, a powyższym rozkazem. Zatem? Najprawdopodobniej to, do czego prowadzi nas i pierwszy problem – zapętlenie.

Również problemy natury etycznej jak, eutanazja czy aborcja, powodują, iż powyższe prawa stają się bezużyteczne (następuje konflikt praw (1) z (2)). Te proste dwa problemy pokazują, iż z pewnością można by znaleźć ich o wiele więcej i, że prawa robotyki Asimova wymagają korekty – dookreślenia. Przynajmniej takie jest moje zdanie!


Post został pochwalony 0 razy
Zobacz profil autora
Bunio
Moderator
Moderator



Dołączył: 26 Mar 2006
Posty: 9
Przeczytał: 0 tematów

Ostrzeżeń: 0/4
Skąd: Quel'Thalas

PostWysłany: Nie 19:04, 26 Mar 2006 Powrót do góry

Dosyć pochopne posunięcie armii amerykańskiej.
W ogóle ich nie rozumiem.
Zaczęli jakąś plugawą wojnę ,a teraz próbują się bronić... Mad


Post został pochwalony 0 razy
Zobacz profil autora
Wyświetl posty z ostatnich:      
Napisz nowy tematOdpowiedz do tematu


 Skocz do:   



Zobacz następny temat
Zobacz poprzedni temat
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001/3 phpBB Group :: FI Theme :: Wszystkie czasy w strefie EET (Europa)
 
 
Regulamin