Skocz do zawartości


Zdjęcie

Efekt McGurka


  • Please log in to reply
No replies to this topic

#1

Staniq.

    In principio erat Verbum.

  • Postów: 6686
  • Tematów: 774
  • Płeć:Mężczyzna
  • Artykułów: 28
Reputacja znakomita
Reputacja

Napisano

Prosty eksperyment udowadnia, że to, co nasz mózg raczy słyszeć, może być zależne od tego co akurat widzi.

 

                                     efekt-mcgurka-622x415.jpg

                                     fot/unsplash.com/Jason Rosewell

 

Wydawać by się mogło, że ludzki słuch jest zmysłem niezależnym i obiektywnym. Niczym mikrofon, który w tym samych warunkach akustycznych uchwyci ten sam dźwięk. W końcu przecież dobrze wiemy, co słyszymy i nauczyliśmy się na tym polegać. No, czasem może piszczy w uchu, kiedy naokoło jest cicho, ale to raczej wyjątek potwierdzający regułę.

 

Jesteśmy przekonani, pewni wręcz, że słuch nas nie oszukuje. Gdyby ograniczyć się do samego aparatu słuchowego, tak by pewnie było. Do naszej świadomości nie dociera jednak bezpośredni, surowy sygnał z ucha. Sygnały dźwiękowe, podobnie jak obraz uzyskany z oczu, jest poddawany intensywnej obróbce w mózgu. Dopiero efekt tego procesowania jest tym, co słyszymy i niestety nie zawsze pokrywa się on ze stanem faktycznym.

 

Wykazał to w 1976 roku brytyjski psycholog Harry McGurk wraz z asystentem Johnem MacDonaldem, opisując w periodyku Nature efekty swojej pracy badawczej. McGurk puszczał ochotnikom z taśmy ścieżkę dźwiękową, na której głos wypowiadał kilka razy w sekwencji „ba”. Następnie pokazywał krótki film wideo, na którym osoba tym samym głosem wypowiadała kilka razy w sekwencji „ga”. A przynajmniej tak się wydawało lwiej większości badanych, którzy faktycznie słyszeli „ga”, podczas gdy ruch ust na wideo był jak do „ga”, natomiast ścieżka dźwiękowa była dokładnie taka sama jak wcześniej, czyli z „ba”.

 

W wielu sytuacjach takie składanie i selekcja przez mózg sygnałów wielu zmysłów jest bardzo praktyczne. Kiedy ktoś mówi do nas zbyt cicho, synchronizacja słabego sygnału dźwiękowego z obrazem ruchu ust znacząco zwiększa szansę na odcyfrowanie komunikatu. Kiedy mówi naraz wiele osób, w szczególności takich, których nie znamy jak na przykład w restauracji, dzięki takiemu całościowemu podejściu do przetwarzania informacji jesteśmy w stanie szybko zidentyfikować, które głosy należą do których osób. Kiedy ktoś na scenie śpiewa z playbacku, jesteśmy często w stanie wykryć taki szacher-macher.

 

Niepokojące jest tylko, że dzieje się to zupełnie z pominięciem świadomości, a wręcz niejako wbrew niej. Nawet jak będziemy się mocno naprężać mentalnie, usłyszymy „ga”, a nie „ba”. Miło byłoby mieć na to jakiś wpływ, na wzór ustawień w grach wideo, kiedy wybieramy poziom szczegółów grafiki czy poszczególne efekty, które chcemy włączyć lub wyłączyć. Mózg nie udostępnia możliwości konfiguracji ustawień zaawansowanych albo do tej pory nikt jeszcze nie odkrył, jak się do nich dobrać.

 

logo_tunguska1.png

 







Użytkownicy przeglądający ten temat: 1

0 użytkowników, 1 gości, 0 anonimowych