Komentuj na forum
W 1981 roku Kenji Urada, trzydziestosiedmioletni japoński pracownik fabryczny, przechodził przez ogrodzenie zabezpieczające w plantacji w Kawasaki, by przeprowadzić remont robota. W pośpiechu nie zdołał go we właściwy sposób wyłączyć. Niezdolna do czucia, potężna hydrauliczna ręka robota zaczęła pracować i przypadkowo wepchnęła inżyniera do szlifierki. Jego śmierć uczyniła z Urady pierwszą zarejestrowaną ofiarę, która zginęła z rąk robota.
Ten straszny wypadek przemysłowy nie wydarzyłby się w świecie, w którym zachowaniem robota rządziły Trzy Prawa Robotyki sporządzone przez pisarza science-fiction, Isaaca Asimova. Prawa znalazły się w opublikowanej w 1950 roku noweli "Ja, robot", na której oparty jest ostatni holywoodzki film. Jednakże całe dekady później prawa, stworzone z myślą o zapobieganiu krzywdzeniu ludzi przez roboty oraz regulujące działanie i bezczynność, pozostają w królestwie fikcji.
W rzeczywistości, pomimo wprowadzenia ulepszonych mechanizmów bezpieczeństwa, roboty od 1981 roku spowodowały wiele więcej ofiar. Przez lata ludzie byli przygniatani, uderzani w głowy, spawani, przez roboty byli nawet oblewani stopionym aluminium. W ciągu ostatniego roku w Wielkiej Brytanii, według tamtejszego Nadzoru Zdrowia i Bezpieczeństwa, zanotowano 77 wypadków z udziałem robotów.
Obecnie, gdy roboty wyszły z przemysłowych klatek i przeniosły się do domów i miejsc pracy, pracownicy obawiają się o bezpieczeństwo poza halą fabryczną. Aby zmniejszyć ich niepokój, specjaliści od automatyki muszą pracować wspólnie nad sposobem uniemożliwienia robotom krzywdzenia ludzi. Zainspirowana przez Pugwash Conferences - międzynarodową grupę naukowców, nauczycieli akademickich i działaczy założoną w 1957 roku na rzecz nierozprzestrzeniania broni nuklearnej - nowa grupa robo-etyków spotkała się na początku tego roku w Genui we Włoszech i ogłosiła swoje początkowe wnioski w marcu w czasie europejskiego Sympozjum Robotyków w Palermo na Sycylii.
"Bezpieczeństwo, ochrona i seks są przedmiotami dużego niepokoju", powiedział Henrik Christensen, przewodniczący Europejskiej Sieci Robotyki w szwedzkim Królewskim Instytucie Technologii w Sztokholmie i jeden z organizatorów nowej grupy robo-etyków. Czy roboty, które są wystarczająco silne lub ciężkie, by móc przygnieść człowieka, powinny być wprowadzane do domów? Czy "błędem systemu" jest uzasadniona obrona przed zautomatyzowanym samolotem bojowym, który narusza Konwencję Genewską i omyłkowo strzela do niewinnych cywili? I czy prawo powinno zezwalać na posiadanie zautomatyzowanych, podobnych do dzieci lalek posiadających płeć?
"Te pytania mogą wydawać się ezoterycznymi, jednak w następnych najbliższych latach będą one coraz istotniejsze", powiedział doktor Christensen. Według należącej do ONZ Komisji Ekonomicznej Światowego Przeglądu Robotyki w Europie w 2002 roku liczba służących i robotów potroiła się, niemalże prześcigając ich przemysłowe odpowiedniki. Pod koniec 2003 roku było ponad 600 000 odkurzających robotów i automatycznych kosiarek - przewiduje się, że do końca przyszłego roku liczba ta przekroczy 4 miliony. Japońskie firmy ścigają się w budowie humanoidalnych robotów, służących jako pomocnicy dla osób starszych, zaś Korea Południowa postawiła za cel, żeby domowe roboty znalazły się we wszystkich domostwach do 2020 roku. "W świetle tego wszystkiego decydujące jest to, że zaczynamy myśleć o bezpieczeństwie i wskazówkach etycznych już teraz", powiedział doktor Christensen.
Więc co się robi, aby nas zabezpieczyć? "To, co się teraz robi, jest niewystarczające", mówi Blay Whitby, ekspert sztucznej inteligencji na Uniwersytecie w Sussex w Anglii. "To zaskakujące, że pole 'bezpieczeństwa komputerowego' ma zaledwie 10 lat". Rzeczy jednak ulegają zmianom i badacze wykazują coraz większe zainteresowanie tym, aby roboty były bezpieczniejsze. Jednym ze sposobów, który wydaje się dosyć prosty, jest zaprogramowanie zupełnego unikania kontaktu z ludźmi. Jest to jednak trudniejsze, niż mogłoby się wydawać. Kazanie robotowi, by przemieszczał się po zaśmieconym pokoju jest dość trudne bez zwrócenia uwagi na to, na co mogą po drodze napotkać jego kończyny lub różne inne części.
"W przyszłości regulowanie zachowania robotów będzie coraz trudniejsze, wówczas będą one miały coraz sprawniejsze mechanizmy uczenia się", powiedział Gianmarco Veruggio, robocista w Instytucie Inteligentnych Systemów Automatyzacji w Genui we Włoszech. "Wskutek tego ich zachowanie stanie się niemożliwe do przewidzenia w pełni, odkąd nie będą przemieszczać się po pierwotnie zdefiniowanych drogach, ale uczyć się nowych sposobów przemieszczania się".
Pozostaje kwestia nieprzewidywalnych awarii. Co się stanie, jeżeli silniki robota przestaną pracować, albo zawiedzie system podczas wykonywania operacji na otwartym sercu lub przy podawaniu tobie filiżanki gorącej kawy? "Oczywiście możesz dokonać redukcji awarii przez dodawanie zapasowych systemów", mówi Hirochika Inoue, robocista na Uniwersytecie w Tokio, będący obecnie doradcą w Japońskim Stowarzyszeniu na rzecz Rozwoju Nauki. "Nie daje to jednak żadnej gwarancji. W technice niemożliwe jest zapewnienie stuprocentowego bezpieczeństwa", mówi doktor Inoue. "Jest tak dlatego, iż nieważne, jak jesteś skrupulatny, nie możesz wyprzedzić nieprzewidywalnej natury ludzkiego zachowania". Innymi słowy, jakkolwiek w unikaniu ludzi jest wyrafinowany twój robot, ludzie nie zawsze mogliby dawać sobie radę z unikaniem go i mogliby potykać się o niego i spadać ze schodów.
Problemy prawne
Gdzie więc podziały się Trzy Prawa Robotyki Asimova? "Były to urządzenia narracyjne i nigdy właściwie nie miały pracować w prawdziwym świecie", mówi doktor Whitby. Pomijając fakt, że robot miałby jakiś rodzaj inteligencji podobnej do ludzkiej, której robotom wciąż brakuje, same prawa właściwie nie działają zbyt dobrze. Asimov wielokrotnie obalał je w swoich robocich historiach, pokazując wielokrotnie, jak te pozornie niekwestionowane reguły mogłyby wywoływać niezamierzone konsekwencje.
"W każdym razie", mówi doktor Inoue, "prawa naprawdę zawierają tylko zdroworozsądkowe zasady, które stosowane są już przy projektowaniu większości nowoczesnych urządzeń, zarówno domowych, jak i przemysłowych. Każdy toster, kosiarka do trawy i telefon komórkowy projektowane są tak, aby zminimalizować ewentualne uszczerbki na zdrowiu - ludzie mimo to wciąż potrafią porazić się prądem, stracić palce lub też wypaść z okna, byleby tylko mieć lepszy sygnał. W przypadku robotów muszą istnieć surowe normy bezpieczeństwa, które obejmują produkty już istniejące. Pytanie tylko, czy nowe, specyficzne reguły dla robotów są potrzebne - a jeśli tak, to co powinny one zawierać".
"Zapewnienie bezpieczeństwa w przypadku robotów będzie miało decydujące znaczenie", mówi Colin Angle z firmy iRobot, która sprzedaje dwumetrowe "Roomba", roboty odkurzające gospodarstwa domowe. Argumentuje jednak, iż roboty pochodzące od jego firmy są faktycznie bezpieczniejsze, niż niektóre popularne zabawki. "Zdalnie sterowany samochodzik kierowany przez sześciolatka jest dużo bardziej niebezpieczny od 'Roomby'". Jeżeli wejdziesz na "Roomba", nie spowoduje to, że się przewrócisz, zamiast tego gumowa podkładka przytrzyma go w miejscu i nie pozwoli mu się ruszyć. "Istniejące regulacje wyjdą naprzeciw wyzwaniom. Nie jestem przekonany co do tego, że roboty są wystarczająco różne, by zasługiwały na specjalne traktowanie", powiedział Angle.
Bezpieczeństwo robota może być dowodem w cywilnych sądach w sprawach odpowiedzialności za produkt. "Kiedy pierwszy robot zamiatający dywany wessie dziecko, kto będzie temu winien?", pyta John Hallam, profesor na Uniwersytecie w Odense w południowej Danii. Jeżeli robot jest autonomiczny i zdolny do nauki, czy jego projektant może być odpowiedzialny za wszystkie jego działania? Dziś odpowiedź na większość takich pytań brzmi "tak". "Ponieważ jednak roboty są coraz bardziej złożone, staną się mniej jednakowe", mówi Hallam.
"Obecnie żadne przedsiębiorstwo ubezpieczeniowe nie jest przygotowane do ubezpieczania robotów", powiedział doktor Inoue. "To jednak będzie się musiało zmienić", dodaje. W ubiegłym miesiącu japońskie ministerstwo handlu i przemysłu wydało komplet wskazówek bezpieczeństwa dotyczących robotów pracujących w domach i biurach. Wymagane będzie, by każdy robot posiadał sensory pozwalające uniknąć kolizji z ludźmi, oraz aby wszystkie roboty były wykonane z miękkiego i lekkiego materiału, by zminimalizować ewentualne uszkodzenia oraz aby miały przyciski umożliwiające wyłączenie ich w razie nagłego wypadku. "Do tego w dużej mierze przyczyniła się duża wystawa robotów, która została zorganizowana przez władze latem 2005 roku, władze zdały sobie sprawę, że istnieje niebezpieczeństwo, gdy tysiące ludzi nie tylko obserwuje roboty, ale też wchodzi między nie", powiedział doktor Inoue.
Jednakże pan Angle sugeruje, że pomysł ogólnego zastosowania robotów zdolnych do nauki i ich rozpowszechnienia jest niewłaściwy. Sądzi on, że jest prawdopodobne, że roboty będą stosunkowo głupimi maszynami przeznaczonymi do zadań szczególnych. Prędzej, niż robot-pokojówka, powstanie "heterogeniczny rój robotów zajmujących się domem", mówi Angle.
"Prawdopodobnie dziedzina robotyki, która może okazać się najbardziej kontrowersyjną, zajmie się tworzeniem erotycznych robotów-zabawek", powiedział doktor Christensen. "Ludzie za pięć lat będą chcieli odbywać z robotami stosunki płciowe. Początkowo będą to roboty dość podstawowe, jest jednak mało prawdopodobne, by zastąpiły one ludzi", dodał. "Ludzie potrafią uprawiać seks z dmuchanymi lalkami, początkowo coś, co będzie się ruszało, będzie stanowiło ulepszenie. Dla niektórych może się to wydać nieszkodliwą zabawą, ale bez pewnego rodzaju regulacji wydaje się tylko kwestią czasu, nim ktoś zacznie sprzedawać zautomatyzowane mające płeć lalki przypominające dzieci". To niebezpieczny grunt. Skazani za pedofilię mogliby wskazywać na to, że takie roboty mogłyby zostać użyte jako forma terapii, gdyby inni sprzeciwili się temu, że można w ten sposób zaspokoić niezmiernie niebezpieczną fantazję.
Wszystko skłania do innych pytań. Jak, wykorzystując fizyczne niebezpieczeństwo, roboty mogłyby być groźne dla ludzi również w mniej bezpośrednich drogach, przez wydobywanie ich najgorszych cech, od wywoływania wojen do pedofilii? Arkin Ron, robocista z Instytutu Technologii w Georgii w Atlancie, zadaje kolejne: "Jeżeli kopniesz automatycznego psa, czy zechcesz kopnąć prawdziwego?" Robociści mogą robić wszystko, by roboty były bezpieczne - nie mogą jednak przeprogramować zachowania ich ludzkich właścicieli.
The Economist, 8 Czerwiec 2006
Tłumaczenie: Ivellios
Paranormalne.pl
źródło: www.paranormalium.pl
W 1981 roku Kenji Urada, trzydziestosiedmioletni japoński pracownik fabryczny, przechodził przez ogrodzenie zabezpieczające w plantacji w Kawasaki, by przeprowadzić remont robota. W pośpiechu nie zdołał go we właściwy sposób wyłączyć. Niezdolna do czucia, potężna hydrauliczna ręka robota zaczęła pracować i przypadkowo wepchnęła inżyniera do szlifierki. Jego śmierć uczyniła z Urady pierwszą zarejestrowaną ofiarę, która zginęła z rąk robota.
Ten straszny wypadek przemysłowy nie wydarzyłby się w świecie, w którym zachowaniem robota rządziły Trzy Prawa Robotyki sporządzone przez pisarza science-fiction, Isaaca Asimova. Prawa znalazły się w opublikowanej w 1950 roku noweli "Ja, robot", na której oparty jest ostatni holywoodzki film. Jednakże całe dekady później prawa, stworzone z myślą o zapobieganiu krzywdzeniu ludzi przez roboty oraz regulujące działanie i bezczynność, pozostają w królestwie fikcji.
W rzeczywistości, pomimo wprowadzenia ulepszonych mechanizmów bezpieczeństwa, roboty od 1981 roku spowodowały wiele więcej ofiar. Przez lata ludzie byli przygniatani, uderzani w głowy, spawani, przez roboty byli nawet oblewani stopionym aluminium. W ciągu ostatniego roku w Wielkiej Brytanii, według tamtejszego Nadzoru Zdrowia i Bezpieczeństwa, zanotowano 77 wypadków z udziałem robotów.
Obecnie, gdy roboty wyszły z przemysłowych klatek i przeniosły się do domów i miejsc pracy, pracownicy obawiają się o bezpieczeństwo poza halą fabryczną. Aby zmniejszyć ich niepokój, specjaliści od automatyki muszą pracować wspólnie nad sposobem uniemożliwienia robotom krzywdzenia ludzi. Zainspirowana przez Pugwash Conferences - międzynarodową grupę naukowców, nauczycieli akademickich i działaczy założoną w 1957 roku na rzecz nierozprzestrzeniania broni nuklearnej - nowa grupa robo-etyków spotkała się na początku tego roku w Genui we Włoszech i ogłosiła swoje początkowe wnioski w marcu w czasie europejskiego Sympozjum Robotyków w Palermo na Sycylii.
"Bezpieczeństwo, ochrona i seks są przedmiotami dużego niepokoju", powiedział Henrik Christensen, przewodniczący Europejskiej Sieci Robotyki w szwedzkim Królewskim Instytucie Technologii w Sztokholmie i jeden z organizatorów nowej grupy robo-etyków. Czy roboty, które są wystarczająco silne lub ciężkie, by móc przygnieść człowieka, powinny być wprowadzane do domów? Czy "błędem systemu" jest uzasadniona obrona przed zautomatyzowanym samolotem bojowym, który narusza Konwencję Genewską i omyłkowo strzela do niewinnych cywili? I czy prawo powinno zezwalać na posiadanie zautomatyzowanych, podobnych do dzieci lalek posiadających płeć?
"Te pytania mogą wydawać się ezoterycznymi, jednak w następnych najbliższych latach będą one coraz istotniejsze", powiedział doktor Christensen. Według należącej do ONZ Komisji Ekonomicznej Światowego Przeglądu Robotyki w Europie w 2002 roku liczba służących i robotów potroiła się, niemalże prześcigając ich przemysłowe odpowiedniki. Pod koniec 2003 roku było ponad 600 000 odkurzających robotów i automatycznych kosiarek - przewiduje się, że do końca przyszłego roku liczba ta przekroczy 4 miliony. Japońskie firmy ścigają się w budowie humanoidalnych robotów, służących jako pomocnicy dla osób starszych, zaś Korea Południowa postawiła za cel, żeby domowe roboty znalazły się we wszystkich domostwach do 2020 roku. "W świetle tego wszystkiego decydujące jest to, że zaczynamy myśleć o bezpieczeństwie i wskazówkach etycznych już teraz", powiedział doktor Christensen.
Więc co się robi, aby nas zabezpieczyć? "To, co się teraz robi, jest niewystarczające", mówi Blay Whitby, ekspert sztucznej inteligencji na Uniwersytecie w Sussex w Anglii. "To zaskakujące, że pole 'bezpieczeństwa komputerowego' ma zaledwie 10 lat". Rzeczy jednak ulegają zmianom i badacze wykazują coraz większe zainteresowanie tym, aby roboty były bezpieczniejsze. Jednym ze sposobów, który wydaje się dosyć prosty, jest zaprogramowanie zupełnego unikania kontaktu z ludźmi. Jest to jednak trudniejsze, niż mogłoby się wydawać. Kazanie robotowi, by przemieszczał się po zaśmieconym pokoju jest dość trudne bez zwrócenia uwagi na to, na co mogą po drodze napotkać jego kończyny lub różne inne części.
"W przyszłości regulowanie zachowania robotów będzie coraz trudniejsze, wówczas będą one miały coraz sprawniejsze mechanizmy uczenia się", powiedział Gianmarco Veruggio, robocista w Instytucie Inteligentnych Systemów Automatyzacji w Genui we Włoszech. "Wskutek tego ich zachowanie stanie się niemożliwe do przewidzenia w pełni, odkąd nie będą przemieszczać się po pierwotnie zdefiniowanych drogach, ale uczyć się nowych sposobów przemieszczania się".
Pozostaje kwestia nieprzewidywalnych awarii. Co się stanie, jeżeli silniki robota przestaną pracować, albo zawiedzie system podczas wykonywania operacji na otwartym sercu lub przy podawaniu tobie filiżanki gorącej kawy? "Oczywiście możesz dokonać redukcji awarii przez dodawanie zapasowych systemów", mówi Hirochika Inoue, robocista na Uniwersytecie w Tokio, będący obecnie doradcą w Japońskim Stowarzyszeniu na rzecz Rozwoju Nauki. "Nie daje to jednak żadnej gwarancji. W technice niemożliwe jest zapewnienie stuprocentowego bezpieczeństwa", mówi doktor Inoue. "Jest tak dlatego, iż nieważne, jak jesteś skrupulatny, nie możesz wyprzedzić nieprzewidywalnej natury ludzkiego zachowania". Innymi słowy, jakkolwiek w unikaniu ludzi jest wyrafinowany twój robot, ludzie nie zawsze mogliby dawać sobie radę z unikaniem go i mogliby potykać się o niego i spadać ze schodów.
Problemy prawne
Gdzie więc podziały się Trzy Prawa Robotyki Asimova? "Były to urządzenia narracyjne i nigdy właściwie nie miały pracować w prawdziwym świecie", mówi doktor Whitby. Pomijając fakt, że robot miałby jakiś rodzaj inteligencji podobnej do ludzkiej, której robotom wciąż brakuje, same prawa właściwie nie działają zbyt dobrze. Asimov wielokrotnie obalał je w swoich robocich historiach, pokazując wielokrotnie, jak te pozornie niekwestionowane reguły mogłyby wywoływać niezamierzone konsekwencje.
"W każdym razie", mówi doktor Inoue, "prawa naprawdę zawierają tylko zdroworozsądkowe zasady, które stosowane są już przy projektowaniu większości nowoczesnych urządzeń, zarówno domowych, jak i przemysłowych. Każdy toster, kosiarka do trawy i telefon komórkowy projektowane są tak, aby zminimalizować ewentualne uszczerbki na zdrowiu - ludzie mimo to wciąż potrafią porazić się prądem, stracić palce lub też wypaść z okna, byleby tylko mieć lepszy sygnał. W przypadku robotów muszą istnieć surowe normy bezpieczeństwa, które obejmują produkty już istniejące. Pytanie tylko, czy nowe, specyficzne reguły dla robotów są potrzebne - a jeśli tak, to co powinny one zawierać".
"Zapewnienie bezpieczeństwa w przypadku robotów będzie miało decydujące znaczenie", mówi Colin Angle z firmy iRobot, która sprzedaje dwumetrowe "Roomba", roboty odkurzające gospodarstwa domowe. Argumentuje jednak, iż roboty pochodzące od jego firmy są faktycznie bezpieczniejsze, niż niektóre popularne zabawki. "Zdalnie sterowany samochodzik kierowany przez sześciolatka jest dużo bardziej niebezpieczny od 'Roomby'". Jeżeli wejdziesz na "Roomba", nie spowoduje to, że się przewrócisz, zamiast tego gumowa podkładka przytrzyma go w miejscu i nie pozwoli mu się ruszyć. "Istniejące regulacje wyjdą naprzeciw wyzwaniom. Nie jestem przekonany co do tego, że roboty są wystarczająco różne, by zasługiwały na specjalne traktowanie", powiedział Angle.
Bezpieczeństwo robota może być dowodem w cywilnych sądach w sprawach odpowiedzialności za produkt. "Kiedy pierwszy robot zamiatający dywany wessie dziecko, kto będzie temu winien?", pyta John Hallam, profesor na Uniwersytecie w Odense w południowej Danii. Jeżeli robot jest autonomiczny i zdolny do nauki, czy jego projektant może być odpowiedzialny za wszystkie jego działania? Dziś odpowiedź na większość takich pytań brzmi "tak". "Ponieważ jednak roboty są coraz bardziej złożone, staną się mniej jednakowe", mówi Hallam.
"Obecnie żadne przedsiębiorstwo ubezpieczeniowe nie jest przygotowane do ubezpieczania robotów", powiedział doktor Inoue. "To jednak będzie się musiało zmienić", dodaje. W ubiegłym miesiącu japońskie ministerstwo handlu i przemysłu wydało komplet wskazówek bezpieczeństwa dotyczących robotów pracujących w domach i biurach. Wymagane będzie, by każdy robot posiadał sensory pozwalające uniknąć kolizji z ludźmi, oraz aby wszystkie roboty były wykonane z miękkiego i lekkiego materiału, by zminimalizować ewentualne uszkodzenia oraz aby miały przyciski umożliwiające wyłączenie ich w razie nagłego wypadku. "Do tego w dużej mierze przyczyniła się duża wystawa robotów, która została zorganizowana przez władze latem 2005 roku, władze zdały sobie sprawę, że istnieje niebezpieczeństwo, gdy tysiące ludzi nie tylko obserwuje roboty, ale też wchodzi między nie", powiedział doktor Inoue.
Jednakże pan Angle sugeruje, że pomysł ogólnego zastosowania robotów zdolnych do nauki i ich rozpowszechnienia jest niewłaściwy. Sądzi on, że jest prawdopodobne, że roboty będą stosunkowo głupimi maszynami przeznaczonymi do zadań szczególnych. Prędzej, niż robot-pokojówka, powstanie "heterogeniczny rój robotów zajmujących się domem", mówi Angle.
"Prawdopodobnie dziedzina robotyki, która może okazać się najbardziej kontrowersyjną, zajmie się tworzeniem erotycznych robotów-zabawek", powiedział doktor Christensen. "Ludzie za pięć lat będą chcieli odbywać z robotami stosunki płciowe. Początkowo będą to roboty dość podstawowe, jest jednak mało prawdopodobne, by zastąpiły one ludzi", dodał. "Ludzie potrafią uprawiać seks z dmuchanymi lalkami, początkowo coś, co będzie się ruszało, będzie stanowiło ulepszenie. Dla niektórych może się to wydać nieszkodliwą zabawą, ale bez pewnego rodzaju regulacji wydaje się tylko kwestią czasu, nim ktoś zacznie sprzedawać zautomatyzowane mające płeć lalki przypominające dzieci". To niebezpieczny grunt. Skazani za pedofilię mogliby wskazywać na to, że takie roboty mogłyby zostać użyte jako forma terapii, gdyby inni sprzeciwili się temu, że można w ten sposób zaspokoić niezmiernie niebezpieczną fantazję.
Wszystko skłania do innych pytań. Jak, wykorzystując fizyczne niebezpieczeństwo, roboty mogłyby być groźne dla ludzi również w mniej bezpośrednich drogach, przez wydobywanie ich najgorszych cech, od wywoływania wojen do pedofilii? Arkin Ron, robocista z Instytutu Technologii w Georgii w Atlancie, zadaje kolejne: "Jeżeli kopniesz automatycznego psa, czy zechcesz kopnąć prawdziwego?" Robociści mogą robić wszystko, by roboty były bezpieczne - nie mogą jednak przeprogramować zachowania ich ludzkich właścicieli.
The Economist, 8 Czerwiec 2006
Tłumaczenie: Ivellios
Paranormalne.pl
źródło: www.paranormalium.pl