Autor Wiadomość
gosia90
PostWysłany: Czw 22:57, 07 Lip 2016    Temat postu: nowe pytania egzamin magisterski psychologia swps

22. Jakie są rodzaje inteligencji i czym się od siebie różnią?
Inteligencja w języku łacińskim oznacza pojętność, a w psychologii zespół umiejętności umysłowych, dzięki którym jednostka korzysta z posiadanej wiedzy przy rozwiązywaniu problemów i zachowuje się racjonalnie w różnych sytuacjach życiowych. Podstawowy podział na rodzaje inteligencji to: inteligencja praktyczna- umiejętność rozwiązywania konkretnych problemów, inteligencja abstrakcyjna- umiejętność operowania symbolami i pojęciami oraz inteligencja społeczna- umiejętność zachowania się w grupie. Bardziej szczegółowo inteligencję można podzielić na: inteligencję skrystalizowaną (wyuczoną)- mierzona testami wiedzy ogólnej, testami słownikowymi oraz testami wiadomości i umiejętności zdobytymi w toku edukacji i oddziaływania wychowawczego środowiska; inteligencję płynną- zdolność do szybkiego dostrzegania i rozwiązywania problemów, przewidywania, dobrej koncentracji uwagi i pamięci operacyjnej, myślenia abstrakcyjnego i logicznego; inteligencję emocjonalną- najprościej mówiąc sposób w jaki radzimy sobie sami ze sobą i z innymi ludźmi. Tworzą ją rozmaite czynniki m.in.: samoświadomość (wiedza o własnych stanach wewnętrznych), samokontrola (umiejętność panowania nad swoimi emocjami), motywacja (skłonność do wyznaczania sobie celów i dążenia do ich osiągnięcia), empatia (zdolność do uświadamiania sobie stanów innych osób), społeczne umiejętności (zdolność wzbudzania u innych pożądanych reakcji). Tym co charakteryzuje te podziały na inteligencję jest postrzeganie inteligencji jako zjawiska jednowymiarowego, mierzalnego przy pomocy rozmaitych testów, dzięki którym otrzymuje się konkretny wynik- Iloraz Inteligencji. Istnieje także inny podział na rodzaje inteligencji, który jest oparty na założeniu, że inteligencja nie jest jednowymiarowa, a poszczególne typy inteligencji można rozwijać i ćwiczyć. Autorem teorii inteligencji wielorakiej, bo o niej mowa, jest Howard Gardner. Badacz wyróżnił 8 rodzajów inteligencji. Są to: inteligencja logiczno- matematyczna (postrzeganie świata poprzez ciągi zdarzeń, logiczne myślenie, kreatywne rozwiązywanie problemów); inteligencja językowa (werbalna, umiejętność jasnego wyrażania własnych myśli poprzez słowo mówione), inteligencja przyrodnicza (środowiskowa, troszczenie się o naturę, dbanie o zwierzęta, pielęgnacja roślin), inteligencja muzyczna (wrażliwość na dźwięki płynące z otoczenia), inteligencja przestrzenna (rozumienie otoczenia dzięki kształtom i wyobrażeniom pochodzącym ze świata zewnętrznego i wyobraźni), inteligencja ruchowa (kinestyczna, świadomość własnego ciała), inteligencja interpersonalna (społeczna, zawiera w sobie cechy pozostałych typów inteligencji, dodatkowo jej podstawą jest empatia, rozumienie innych ludzi i dostrzeganie różnic między ludźmi), inteligencja intrapersonalna (intuicyjna, związana z wiedzą o samym sobie, oznacza „mądrość życiową”, intuicję, wewnętrzną motywację i silną wolę do działania)

23. Omów rozwój poznawczy człowieka wg wybranej koncepcji.
Teoria rozwoju poznawczego Jeana Piageta wpisuje się w fazowy model rozwoju, zgodnie z którym rozwój to długotrwały proces, który przebiega etapami. Etapy następują po kolei, każdy następny etap wynika z poprzedniego. Kolejność etapów jest stała i ma hierarchiczny charakter. Zdobycie wyższego etapu jest niemożliwe bez wcześniejszego zdobycia niższego etapu. Osiągnięta zmiana ma charakter nieodwracalny. Piaget reprezentuje nurt poznawczy. Autor prowadził wieloletnie badania nad myśleniem i rozumowaniem u dzieci. Na ich podstawie doszedł do wniosku, że rozwój umysłowy jest kluczem do zrozumienia ogólnego rozwoju psychicznego. Szczególnie ważnym pojęciem w tej teorii jest inteligencja. Autor traktuje ją jako zdolność przystosowania się do otoczenia, uważa że nie jest to zdolność wrodzona, lecz że rozwija się przybierając różną postać w kolejnych etapach. Piaget wyróżnił 4 etapy rozwoju związane właśnie z tym konstruktem: inteligencja sensoryczno-motoryczna inteligencja przedoperacyjna, operacje konkretne, operacje formalne.
• Inteligencja sensoryczno-motoryczna rozwija się do 2 r.ż.. Na początku pojawiają się proste i automatyczne odruchy i reakcje. Z czasem wytwarzają się pierwsze nawyki i schematy czynnościowe, dziecko ćwiczy reakcje ruchowe, następuje koordynacja widzenia i chwytania, czynności są coraz bardziej zróżnicowane. W myśleniu pojawiają się zalążki dedukcji. Dziecko potrafi wyobrazić sobie skutki swojego realnego działania, zaczyna rozumieć pojęcia tj. czas i przestrzeń oraz to że przedmioty istnieją obiektywnie. Dziecko potrafi oddzielić figurę od tła tzn. potrafi oddzielić pojęcie własnego ja od obiektów zewnętrznych.
• Inteligencja przedoperacyjna rozwija się między 2, a 6 r.ż. Następuje rozwój wyobrażeń, czyli umysłowych obrazów przedmiotów i zjawisk oraz przyswajanie mowy i czynności wykonywane na niby w zabawach tematycznych. W myśleniu pojawia się rozumienie pojęcia odwracalności (różne punkty widzenia; różne sposoby osiągnięcia tego samego wyniku). Dziecko dostrzega cechy przedmiotów tj. barwa, kształt. Sposób rozumowania jest transdukcyjny (tzn. dziecko porównując poszczególne przypadki podobne pod pewnym względem dochodzi do wniosku, że są one podobne pod wszelkimi względami
• Operacje konkretne rozwija się między 6, a 11 r.ż. Tworzą się proste operacje logiczne, zwane ugrupowaniami tj. szeregowanie, dodawanie, odejmowanie. Dziecko uczy się reguł na konkretnych obiektach (brak umiejętności formułowania reguł lub praw w postaci uogólnionej). Sposób rozumowania jest sylogistyczny (wnioskowanie na podstawie dwóch przesłanek)
• Operacje formalne rozwija się między 11, a 15 r.ż.. Rozwija się umiejętność rozumowania dedukcyjnego (od przesłanek do konkluzji), rozumowania hipotetycznego (wykracza poza ramy bezpośredniego doświadczenia, dt. tego co nie jest poznane bezpośrednio), rozumowanie naukowo-indukcyjne (od szczegółu do ogółu, wyprowadzanie ogólnych konkluzji z faktów). Dziecko stosuje metafory, porównania, zdania są logiczne.
O rozwoju, a więc przejściu z niższego etapu na wyższy decyduje zdolność do równowagi (adaptacji), która jest wynikiem dwóch procesów- asymilacji i akomodacji. Asymilacja to proces poznawczy, dzięki któremu nowe treści percepcyjne, motoryczne, pojęciowe włączane są do istniejących schematów lub wzorców zachowania. Akomodacja natomiast to tworzenie nowych schematów lub zmiana schematów wcześniej istniejących. Stan równowagi osiągany jest w momencie pomyślnego zakończenia asymilacji nowych bodźców.


24. Wyjaśnij pojęcie istotności statystycznej. Co to znaczy, że zależność jest statystycznie istotna? Na przykładzie testu t studenta wskaż od czego zależy czy wynik będzie statystycznie istotny.
Statystyka jest nauką, która opiera się na rachunku prawdopodobieństwa. Dlatego ważne jest określenie progu zgodnie z którym oceniamy z jakim prawdopodobieństwem różnice, które zostały zaobserwowane w badaniu są przypadkowe. W psychologii umownym progiem jest wartość 0,05. Oznacza to, że gdy istotność dla danego wyniku jest mniejsza to wynik testu jest istotny statystycznie, gdy większa to nieistotny. Wynik istotny oznacz, że badacze przyjmują różnice jako znaczące, choć mają 5% niepewności co do prawdziwości tego wniosku. Innymi słowy na podstawie istotności podejmujemy decyzję o odrzuceniu H0 lub nieodrzuceniu H0, która mówi o braku różnic. Istotny wynik oznacza, że H0 jest fałszywa, a więc zostaje odrzucona. Testy t służą do porównywania różnic między średnimi. Przed wykonaniem testu t trzeba spełnić określone warunki: zmienna zależna jest zmienną ilościową, równoliczność grup, zmienne ilościowe o rozkładzie normalnym, jednorodność wariancji. Istnieją trzy rodzaje testów t:
• Dla prób zależnych- porównuje średnią z dwóch prób (powtarzane pomiary) uzyskanych od tej samej grupy osób
• Dla prób niezależnych- porównuje średnie różnych grup (np. kontrolna vs. eksperymentalna)
• Dla jednej próby- porównuje średnią z próby do średniej w populacji
Otrzymanie istotnej różnicy zależy od wielkości próby. Im więcej osób zostanie zbadanych, tym więcej obserwacji i większa szansa, że nasze przewidywania są trafne. Ważne dla istotności jest również zróżnicowanie badanych grup. Im grupy są bardziej zróżnicowane tym mniejsza możliwość przewidzenia wyniku kolejnej osoby w grupie.


25. Wymień i scharakteryzuj dwie wybrane funkcje uwagi.
Uwaga jest mechanizmem redukcji nadmiaru informacji. Chroni organizm przed niebezpiecznymi skutkami przeciążenia. Wyróżnia się cztery podstawowe funkcje uwagi: selektywność, czujność, przeszukiwanie i kontrolę funkcji jednoczesnych. Ja chciałabym scharakteryzować tutaj dwie pierwsze. Selektywność to zdolność do wyboru jednego bodźca, źródła stymulacji lub ciągu myśli kosztem innych. Przykładem zadziałania selektywności uwagi jest efekt Coctail Party, którego nazwa pochodzi od sytuacji w której został zaobserwowany. Efekt ten polega na wybieraniu z szerokiego tła (np. szumu wielu równoległych rozmów na przyjęciu) tylko tych bodźców, które mają dla naszego umysłu istotne znaczenie (tzw. bodźce kluczowe). Najprostszym bodźcem kluczowym, wywołującym efekt coctail party jest nasze imię, śledzimy komunikaty, które choćby potencjalnie mogą nas dotyczyć, dlatego w chwili usłyszenia swojego imienia (nawet niezbyt głośno wypowiedzianego) nasza podświadomość natychmiast przenosi naszą uwagę na źródło komunikatu. Istnieją teorie dt. selektywności uwagi, które można podzielić ze względu na to na jakim etapie przetwarzania informacji dokonuje się selekcja. W ten sposób wyróżniamy: teorie wczesnej selekcji- zakładają, że przyjęcie informacji ważnej, a odrzucenie zbędnej odbywa się na wstępie, ponieważ uwaga kieruje się właściwościami fizycznymi bodźców (np. Model Broadbenta- litera Y, gdzie noga oznacza wyższy poziom, a ramiona bodźce i uwaga sama decyduje o tym, który bodziec przepuści) i teorie późnej selekcji- zakładają, że selekcja nie odbywa się od razu, lecz na późniejszych etapach przetwarzania informacji (np. teoria osłabiacza Treisman- informacje nieważne są osłabiane na wczesnym etapie przetwarzania, ale nie są blokowane czy bezpowrotnie odrzucane). Czujność jest to zdolność do długotrwałego oczekiwania na pojawienie się ściśle określonego bodźca, zwanego sygnałem, a ignorowania pozostałych bodźców, zwanych szumem. Trudność jakiej musi sprostać uwaga polega na tym, że szum działa nieustannie i tym samym „usypia” czujność, natomiast sygnały działają rzadko i w niespodziewanych momentach. O prawidłowym działaniu tej funkcji świadczy reakcja człowieka na sygnał (trafienie) i brak reakcji na szum (poprawne odrzucenie). Może dojść jednak do odwrotnej sytuacji, kiedy człowiek zareaguje na szum- jest to błąd fałszywego alarmu (dzieje się tak, ponieważ system uwagi minimalizuje ryzyko popełnienia błędu chybienia) lub kiedy człowiek zlekceważy sygnał- jest to właśnie wspomniany błąd chybienia. Jego konsekwencje mogą być tragiczne, zwłaszcza, jeśli mamy do czynienia z pracą, w której czujność decyduje o ludzkim życiu (np. kontroler ruchu lotniczego). Dlatego testy mierzące skuteczność tej funkcji zwykle polegają na wykrywaniu określonych bodźców (np. jakiejś litery) w bardzo długim ciągu innych, podobnych bodźców (w tym przypadku innych liter alfabetu) prezentowanych w jednostajnym tempie.


26. Wyjaśnij różnicę między badaniami eksperymentalnymi i nieeksperymentalnymi.
Podstawowy podział na typy badań to : badania eksperymentalne, quasi-eksperymentalne i badania korelacyjne. Metody te różnią się między sobą stopniem interwencji badacza w proces pomiaru. Badania eksperymentalne przeprowadza się w celu znalezienia odpowiedzi na pytanie „dlaczego” (dlaczego nastrój jest zmienny, dlaczego stres u jednych działa mobilizująco, a u innych paraliżująco). Schemat ten charakteryzuje się losowym doborem osób do badania i do grup (kontrolna vs. eksperymentalna) oraz manipulowaniem poziomami zmiennej niezależnej. Badania quasi-eksperymentalne pomimo, że podobnie jak badania eksperymentalne poszukują odpowiedzi na pytania o różnicę znacznie się od nich różnią. Nie ma tu manipulacji zmienną niezależną, a co za tym idzie nie ma losowego doboru osób do badania oraz do grup (grupy są tworzone naturalnie np. starsi vs. młodsi). W badaniach korelacyjnych natomiast dokonywany jest pomiar dwóch lub więcej zmiennych i analiza relacji między nimi. Nie ma tu więc ani manipulacji ani grup badawczych. Co ważne, badania eksperymentalne umożliwiają określenie co jest przyczyną, a co skutkiem, podczas gdy w pozostałych dwóch schematach nie można wyciągać wniosków przyczynowo-skutkowych.



27. Omów różnicę między testami i kwestionariuszami jako narzędziami do diagnozy cech psychologicznych.
Testy na ogół odnoszą się do poznawczych aspektów funkcjonowania (np. testy inteligencji), natomiast kwestionariusze lub inwentarze odnoszą się do aspektów afektywnych i wolicjonalnych zachowania (np. kwestionariusz osobowości). Testy wymagają maksymalnego wykonania stąd określane są mianem „rzeczywistych” testów, podczas gdy w kwestionariuszach osoba badana jedynie relacjonuje swoje zachowanie. Testy mogą mieć postać testu mocy, szybkości lub testu z ograniczeniem czasowym (te dwa terminy są czasami utożsamiane). Innymi słowy w przypadku testu do budowy wskaźnika może być wykorzystany pomiar czasu przeznaczonego przez osobę badaną na rozwiązanie zadania. Kwestionariusze zawsze mają postać testu mocy. W przypadku testów diagnostycznymi odpowiedziami są tzw. „odpowiedzi prawidłowe”, kwestionariusze nie mają odpowiedzi prawidłowych- diagnostyczne są „odpowiedzi zgodne z kluczem” , czyli takie, które z założenia teoretycznego (definicji zmiennej) wskazują, że osoba badana przejawia jakąś właściwość. Testy wydają się być odporne na manipulację ze strony osób badanych, osoby badane mogą raczej symulować niż dysymulować, a dysymulacja może polegać tu na zgadywaniu. W przypadku kwestionariuszy osoba badana może celowo zniekształcać swoje odpowiedzi, symulować lub dysymulować.

28. Omów typy zaburzeń nastroju i ich terapię.
Zaburzenia nastroju (afektywne) wg ICD-10:
• Epizod maniakalny
• Zaburzenia afektywne dwubiegunowe
• Epizod depresyjny
• Zaburzenia depresyjne nawracające
• Uporczywe zaburzenia nastroju, w tym: cyklotymia i dystymia
• Inne zaburzenia nastroju, w tym: mieszany epizod afektywny i powracające krótkotrwałe zaburzenia depresyjne


Epizod manii jest diagnozowany w sytuacji, kiedy trwa co najmniej jeden tydzień. Objawy:

• Emocjonalne- beztroska, euforia, nadmierna skłonność do żartów, drażliwy nastrój
• Poznawcze- gonitwa myśli, wielomówność, nadmierny optymizm, chwiejność uwagi, brak krytycyzmu, omamy i urojenia o treści ksobnej lub wielkościowej
• Behawioralne i somatyczne- brak senności, pobudzenie psychoruchowe, impulsywność, niewyczerpana energia, utrata zahamowani społecznych, prowadząca do nieodpowiednich zachowań

Wg ICD-10 do zdiagnozowania potrzebne jest wystąpienie co najmniej 3 objawów.

Epizod depresyjny jest diagnozowany w sytuacji kiedy trwa co najmniej dwa tygodnie. Objawy:

• Emocjonalne- przygnębienie, lęk, płaczliwość, anhedonia
• Poznawcze- spowolnienie myślowe, osłabienie pamięci, nadmierny pesymizm, ubogie wypowiedzi, omamy i urojenia grzechu, winy, poniżenia
• Behawioralne i somatyczne- senność/bezsenność, utrata energii, spowolnienie psychoruchowe, bezczynność

Wg ICD-10 do zdiagnozowania potrzebne jest wystąpienie co najmniej czterech objawów. Depresja może mieć przebieg łagodny lub ostry, w tym ostry z objawami psychotycznymi. Ten ostatni diagnozowany jest wówczas kiedy obok wskazanych objawów dodatkowo pojawiają się omamy , urojenia lub osłupienie depresyjne przy jednoczesnym braku objawów schizofrenii lub zaburzenia schizoafektywnego.

Zaburzenie depresyjne nawracające jest diagnozowane w sytuacji kiedy aktualnie występuje depresja, i w przeszłości również wystąpiła

Zaburzenia afektywne dwubiegunowe to choroba maniakalno-depresyjna jest diagnozowana w sytuacji kiedy pojawił się przynajmniej jeden epizod depresyjny i trwał przynajmniej dwa tygodnie oraz przynajmniej jeden epizod maniakalny i trwał przynajmniej jeden tydzień

Uporczywe zaburzenia nastroju:

• Cyklotymia jest diagnozowana w sytuacji kiedy uporczywe wahania nastroju czyli łagodne epizody depresji i manii utrzymują się co najmniej dwa lata. Przy czym zmiany nastroju nie są związane z wydarzeniami życiowymi.
• Dystymia jest diagnozowana w sytuacji kiedy nastrój depresyjny utrzymuje się przez większość dnia i przez większość dni przez co najmniej dwa lata. Potrzebne jest wystąpienie minimum dwóch objawów: zaburzenia snu, apetytu, brak energii, niskie poczucie własnej wartości, poczucie beznadziejności. Dodatkowo w ciągu dwóch lat wskazane objawy nie ustąpiły na dłużej niż dwa miesiące.

Leczenie:

• Farmakoterapia: leki przeciwdepresyjne (w przypadku manii jest to węglan litu) i leki neuroleptyczne o działaniu przeciwdepresyjnym
• Fototerapia (w przypadku depresji)
• Terapia elektrowstrząsowa (w przypadku manii; ok. 80% uzyskuje poprawę, skuteczniejsza od farmakoterapii)
• Psychoterapia (np. terapia poznawcza w trakcie której stosowane są różne metody analizy dysfunkcjonalnych przekonań- dla przykładu wzbudzanie u pacjenta „monologu wewnętrznego” dzięki któremu rozpoznawane są automatyczne myśli depresyjne wraz z interpretacją zdarzeń
• Leczenie szpitalne (stosowane w sytuacji pojawienia się urojeń lub halucynacji, myśli samobójczych czy zaniedbywania własnych potrzeb np. głodzenie się)


29. Omów zakłócenia procesów poznawczych w przebiegu wybranych zaburzeń psychicznych.
Zgodnie z ICD-10 wyróżniamy kilka kategorii zaburzeń psychicznych. Ja chciałabym przedstawić dwie z nich oraz dwa zaburzenia, które należą do tych kategorii.
• Zaburzenia psychiczne organiczne- choroba Alzheimera. Jest to choroba zwyrodnieniowa ośrodkowego układu nerwowego (ściślej mówiąc zanika tkanka nerwowa). Charakteryzuje się postępującym deficytem funkcji poznawczych. Proces ten przebiega w trzech etapach a jego końcowym efektem jest otępienie właściwe, które jest nieodwracalne.
 W pierwszym stadium pojawia się amnezja. Osoba chora traci pamięć, zwłaszcza krótkotrwałą, przejawem jest zapominanie „świeżych” informacji. Osoba chora zadaje pytanie, po czym nie pamięta, że już o to pytała i że uzyskała odpowiedź. Wynika to z patologicznej nietrwałości śladu pamięciowego. Uwaga osoby chorej łatwo się rozprasza, np. nieoczekiwana rozmowa przez telefon może spowodować, że nie wróci już ona do czynności, którą wykonywała przed rozmową.
 W drugim stadium zaburzenia pamięci nasilają się i dotyczą już również pamięci dawnej, tzn. osoba chora ma problemy w przypominaniu sobie tego, co zdarzyło się kiedyś w jej życiu i tego czego nauczyła się w szkole. Dodatkowo pojawiają się zaburzenia języka zwane afazjami, czyli częściowe lub całkowite zaburzenie czynności nadawania i odbioru mowy u człowieka, który wcześniej opanował tą czynność Osoba chora zapomina słowa i zastępuje je innymi, mniej trafnymi przez co mowa i pismo są trudne do zrozumienia (np. zamiast zapytać o to gdzie leży szczoteczka do zębów, osoba chora może zapytać „gdzie jest ta rzecz do moich ust”). A także ma trudności w rozumieniu wypowiedzi innych.
 W trzeciej fazie widoczne jest już zaburzenie wszystkich procesów poznawczych. Osoba chora nie przypomina sobie faktów ze swojego życia tj. imiona bliskich i całkowicie nie przyswaja nowych informacji. Staje się zdezorientowana w czasie i miejscu. Może zgubić się na własnym osiedlu mieszkaniowym, nie wiedzieć jak się tam znalazła, ani jak wrócić do domu. Ocena sytuacji przez osobę chorą jest nikła lub zmniejszona. Dla przykładu osoba chora może ubierać się nieodpowiednio do warunków atmosferycznych- za ciepło w dzień chłodniejszy i odwrotnie.
• Schizofrenia, zaburzenia schizotypowe i urojeniowe- schizofrenia. Jest to zaburzenie związane z obniżeniem gęstości i objętości szarej substancji w wielu obszarach czołowych i skroniowych. Wg APA jest to rodzaj psychozy, czyli uderzająca i niepowtarzalna utrata kontaktu z rzeczywistością. Schizofrenia uwarunkowana jest czynnikiem biologicznym (genetyczny) w interakcji z czynnikami środowiskowymi. Zakłócenia procesów poznawczych, które towarzyszą schizofrenii: zaburzenia odbioru wrażeń, zaburzenia spostrzegania, zaburzenia myślenia.
 W zaburzeniach odbioru wrażeń szczególnie widoczne są cenestopatie- doznania płynące ze skóry lub narządów wewnętrznych o zmiennej lokalizacji pod postacią mrowienia, pieczenia, kłucia, drętwienia.
 Dla zaburzeń spostrzegania charakterystyczne są omamy (halucynacje) i zaburzenia psychosensoryczne. Omamy to spostrzeganie nieistniejących przedmiotów i zjawisk. Zgodnie z kryteriami rozpoznania omamów, których autorem jest Kurt Schneider muszą być to przeżycia zmysłowe, a nie myślowo-wyobrażeniowe i mieć wartość realnych spostrzeżeń, niezależnych od woli chorego; badający stwierdza brak przedmiotu lub zjawiska, spostrzeganego przez chorego; ta sytuacja się powtarza. Natomiast zaburzenia psychosensoryczne to zaburzenia syntezy zmysłowej i dotyczą złożonego procesu spostrzegania takich zjawisk jak: poczucie czasu, przestrzeni i schematu ciała. W schizofrenii spotyka się dysmorfofobię, co polega na spostrzeganiu zniekształcenia twarzy lub innej części ciała chorego z towarzyszącym temu lękiem i przekonaniem, że podobny wstręt i lęk budzi w otoczeniu.
 Jeżeli chodzi o zaburzenia myślenia to dzielimy je na dwie grupy: zaburzenia toku myślenia i zaburzenia treści myślenia. W przebiegu schizofrenii wyróżnia się różne zaburzenia toku myślenia:
 Przyspieszenie toku myślenia- przeskakiwanie z tematu na temat, co prowadzi do gonitwy myśli i słowotoku.
 Myślenie paralogiczne- brak logicznego następstwa myśli, często z wyprowadzaniem absurdalnych wniosków.
 Myślenie rezonerskie- formalnie poprawne wypowiedzi, z których nic nie wynika pustosłowie.
 Myślenie magiczne- nieracjonalne łączenie spostrzeżeń lub wyobrażeń na podstawie wspólnoty emocjonalnej.
 Myślenie symboliczne- nadawanie poszczególnym przedmiotom lub zjawiskom szczególnego znaczenia.
 Rozkojarzenie myślenia- polega na braku lub osłabieniu związków pomiędzy poszczególnymi częściami zdania, prowadząc do chaotycznego ich następstwa. Może prowadzić do schizofazji (sałatki słownej).
 Otamowanie myślenia- nagłe zniknięcie sprawnie przesuwającego się wątku myślowego.
Natomiast wśród zaburzeń treści myślenia w przebiegu schizofrenii wyróżnia się:
 Urojenia- to sądy i przekonania wyrażające błędną treść, sprzeczną z obiektywną rzeczywistością. Chorzy są głęboko przekonani o ich słuszności. Sądy te nie są korygowane za pomocą perswazji czy oddziaływań terapeutycznych.
 Mantyzm- to rodzaj automatyzmu psychicznego. Jest to napór i natłok myśli. Te myśli traktowane są przez osobę jako obce, napływające z zewnątrz


30. Teorie rozwoju Eriksona i Piageta. Dokonaj analizy porównawczej.
Zarówno teoria rozwoju Erika Eriksona i Jeana Piageta wpisują się w fazowy model rozwoju, zgodnie z którym rozwój to długotrwały proces, który przebiega etapami. Etapy następują po kolei, każdy następny etap wynika z poprzedniego. Kolejność etapów jest stała i ma hierarchiczny charakter. Zdobycie wyższego etapu jest niemożliwe bez wcześniejszego zdobycia niższego etapu. Osiągnięta zmiana ma charakter nieodwracalny. Różnica pomiędzy teoriami wynika z różnicy w nurtach, które autorzy reprezentują. Erikson reprezentuje nurt psychoanalityczny. Jego teoria oparta jest na planie epigenetycznym, który zakłada, że wszystko co rośnie ma swój plan podstawowy i zgodnie z tym planem wzrastają części. Każda część ma swój szczególny czas rozwoju, aż tworzy się funkcjonalna całość. Erikson wyróżnił 8 etapów rozwoju człowieka. Pierwsze 4 etapy występują w niemowlęctwie i dzieciństwie, 5 w okresie dojrzewania, a ostatnie 3 w wieku dojrzałym ze starością włącznie. Szczególna uwaga należy się okresowi dojrzewania, ponieważ jest to przejście od dzieciństwa do wieku dojrzałego. Każdy etap zakończony jest kryzysem rozwojowym- konfrontacją pragnień i możliwości dziecka/człowieka z wymaganiami otoczenia. W zależności od powodzenia rozwiązania kryzysu konsekwencje są pozytywne lub negatywne (np. w okresie bycia noworodkiem, do 1 r.ż. konsekwencją rozwiązania kryzysu jest ufność lub nieufność; troska o dziecko i stały kontakt dziecka z opiekunem rodzą w dziecku przekonanie, że świat jest bezpieczny; natomiast niewłaściwa opieka rodzi w nim lęk). Dodatkowo Erikson zwraca uwagę na wpływ czynników społecznych. W zdrowej rodzinie przezwyciężanie kryzysów zachodzi dzięki uczeniu się i pozytywnym sprzężeniom zwrotnym. Natomiast Piaget reprezentuje nurt poznawczy. Autor prowadził wieloletnie badania nad myśleniem i rozumowaniem u dzieci. Na ich podstawie doszedł do wniosku, że rozwój umysłowy jest kluczem do zrozumienia ogólnego rozwoju psychicznego. Szczególnie ważnym pojęciem w tej teorii jest inteligencja. Autor traktuje ją jako zdolność przystosowania się do otoczenia, uważa że nie jest to zdolność wrodzona, lecz że rozwija się przybierając różną postać w kolejnych etapach. Piaget wyróżnił 4 etapy rozwoju związane właśnie z tym konstruktem: inteligencja sensoryczno-motoryczna, inteligencja przedoperacyjna, operacje konkretne, operacje formalne. O rozwoju, a więc przejściu z niższego etapu na wyższy decyduje zdolność do równowagi (adaptacji), która jest wynikiem dwóch procesów- asymilacji i akomodacji. Asymilacja to proces poznawczy, dzięki któremu nowe treści percepcyjne, motoryczne, pojęciowe włączane są do istniejących schematów lub wzorców zachowania. Akomodacja natomiast to tworzenie nowych schematów lub zmiana schematów wcześniej istniejących. Stan równowagi osiągany jest w momencie pomyślnego zakończenia asymilacji nowych bodźców.



31. Strategie prowadzenia badań nad rozwojem. Przedstaw ich istotę, zalety i ograniczenia.
W psychologii wyróżniamy dwa podejścia do badań nad rozwojem:
• Podejście diachroniczne- zgodnie z nim obserwujemy zmiany rozwojowe w wyróżnionym obszarze
• Podejście synchroniczno-funkcjonalne- zgodnie z nim dokonujemy analizy zmian ujawniających się równocześnie w kilku obszarach w danym odcinku czasu
Badania nad rozwojem prowadzone są według trzech strategii:
• Badania podłużne (longitualne)- badania tej samej grupy ludzi w pewnych odstępach czasu. Badacz uzyskuje od tej samej grupy ludzi kilka zbiorów wyników, które się ze sobą porównuje. Przy pomiarach dokonywanych dość często możliwe jest monitorowanie zmian w obrębie badanej zmiennej i określenie, czy zmiana liniowy, stadialny czy cykliczno-fazowy. Zalety: badania te dostarczają danych o rozwoju jednostek w danym okresie, za ich pomocą można badać stabilność rozwoju, można też określić wpływ wcześniejszego doświadczenia indywidualnego na późniejszy rozwój. Wady: są czasochłonne i kosztowne (zestaw rzetelnych i trafnych narzędzi badawczych w kilku równoległych wersjach); istnieje duże prawdopodobieństwo, że część badanych z różnych powodów nie weźmie udziału w kolejnych badaniach, co może skutkować nieprzypadkową zmianą właściwości grupy, która zakłóci wynik całego badania
• Badania poprzeczne (przekrojowe/transwersalne)- badania, które polegają na badaniu grup ludzi w różnym wieku i porównywaniu uzyskanych wyników. Każda osoba (grupa osób) badana jest tylko raz. Badacz porównuje wyniki uzyskane od osób w różnym wieku i analizuje istniejące podobieństwa i różnice. Badacz formułuje hipotezy kierunkowe i planuje badania, które je zweryfikują. Zalety: strategia szybka i stosunkowo mało kosztowna, badania można łatwo powtórzyć, służy stwierdzeniu różnić między grupami wiekowymi oraz ogólnych tendencji rozwojowych, które następnie można badać bardziej szczegółowo. Wady: ponieważ badane zachowanie obserwowane jest tylko w jednym momencie, badania wykonane przy użyciu tej strategii nie informują o różnicach wewnątrzindywidualnych; osoby należące do bardzo odległych grup wiekowych mają odmienne doświadczenia kulturowe i społeczne, stąd uzyskane wyniki mogą odzwierciedlać różnice uzyskane w tym zakresie, zamiast rzeczywistych różnic rozwojowych związanych z wiekiem.
• Badania sekwencyjne- związane ze zbieraniem danych od co najmniej dwóch różnych grup pokoleniowych badanych, w co najmniej dwóch różnych momentach czasu (np. osoby, w dniu swoich 45 urodzin, ale urodzone w różnym roku np. 1960 i 1965). Helen Bee wyróżniła cztery odmiany badań sekwencyjnych:
 Badania ukośne- badanie kilku grup pokoleniowych w tym samym wieku w różnym czasie. Zmienne to przynależność do grupy pokoleniowej i wiek. Różnice między porównywanymi grupami w tym samym wieku świadczą o silniejszym wpływie czynników zewnętrznych.
 Badania czasowo-sekwencyjne- powtarzanie co jakiś czas badań poprzecznych (przekrojowych)
 Badania pokoleniowo- sekwencyjne- kilkukrotne badanie podłużne z porównywaniem odpowiadających sobie grup wiekowych. Zmiennymi w tym badaniu są przynależność do grupy wiekowej i wiek.
 Badania przekrojowo-sekwencyjne- badanie i porównywanie kilku grup wiekowych, z których każda jest badana kilka razy. Jest to badanie różnych grup wiekowych, należących do różnych pokoleń.



32. Omów podstawowe uwarunkowania i fazy rozwoju prenatalnego.
Okres prenatalny to czas od zapłodnienia do narodzin dziecka, dzieli się na trzy równe trymestry. Zadania rozwojowe tego okresu to osiągniecie zdolności fizycznej i psychicznej do samodzielnej egzystencji postnatalnej oraz nabycie (w procesie uczenia się pasywnego lub asocjacyjnego) cech psychofizycznych, na bazie których w procesie postnatalnym rozwinie się jego osobowość
• Faza jajowa (od zapłodnieni do 2. tygodnia):
 Z połączenia genów ojca i genów matki powstaje unikatowy materiał genetyczny- genotyp, który zawiera informację o indywidulanych cechach osoby
 Następują podziały, których efektem jest powstanie listków zarodkowych
 Komórka jajowa przemieszcza się z jajowodu i zagnieżdża w ściance macicy
 Powstaje 8 z 45 generacji komórek tworzących organizm człowieka
• Faza embrionalna (od 2 tygodnia do 2 miesiąca):
 Zachodzi proces organogenezy, czyli tworzenia się narządów zewnętrznych i wewnętrznych z listków zarodkowych:
A. Ektoderma (warstwa zewnętrzna): układ nerwowy, naskórek, paznokcie, włosy, gruczoły potowe i łojowe, narządy zmysłów
B. Endoderma (warstwa wewnętrzna): organy wewnętrzne i gruczoły
C. Mezoderma (warstwa środkowa): mięśnie, kości, chrząstki, nerki, narządy płciowe, serce
 Tworzy się środowisko prenatalne tj. łożysko, pępowina oraz pęcherz płodowy
 Od 4 tyg: serce pracuje samodzielnie
 Od 6/7 tyg: pojawiają się reakcje na bodźce dotykowe, na początku wrażliwa jest warga
 W 7 tyg: tworzą się kończyny górne, a w 8 tyg kończyny dolne
 W 8 tyg zaczyna się zaznaczać twarz, a głowa jest połową embrionu
 W tym okresie szczególnie niebezpieczne dla prawidłowego rozwoju dziecka są tzw. teratogeny, czyli: leki, narkotyki, używki, infekcje, niekorzystne warunki środowiska (np. wiek matki, jej niedożywienie, choroby), stres, przykre emocje (rola profilaktyki prenatalnej)
• Faza płodowa (od 2 miesiąca do narodzin):
 Dalszy rozwój narządów wewnętrznych, które przyjmują pozycje jak u dorosłego człowieka oraz rozwój zmysłów i aktywności płodu, dzięki czemu płód jest zdolny do życia pozamacicznego w ok. 6-7 mies) a także lateralizacja
 2 mies: odruch chwytny (dokładnie od 2 do 4 mies)
 3 mies: rozróżnianie podstawowych smaków (gorzki, słodki, słony i kwaśny); rejestruje się pierwsze nieregularne fale mózgowe (zapis EEG; dokładnie miedzy 3 a 7 mies) na poziomie pnia mózgu, ponieważ kora mózgowa jest mało rozwinięta
 4 mies: odruch połykania (dokładnie od 4 do 8 mies) reakcja ruchowa związana z miejscem podrażnienia; wyróżnia się 15 schematów ruchowych (np. przeciąganie się, obroty, ssanie kciuka); reakcja na rytmiczne ruchy matki, narząd wzroku reaguje na światło, a narząd słuchu na bodźce dźwiękowe
 5 mies: sprawnie funkcjonuje zmysł smaku
 6 mies: płód bywa w stanie snu i czuwania; reaguje na bodźce dotykowe, drażnienia, bólowe (tylko czubek głowy nie jest wrażliwy na bol co ma znaczenie dla sytuacji porodu) oraz na głośna muzykę, krzyki, mowę ludzka (po urodzeniu łatwiej uczy się języka którego wówczas słuchało)
 7 mies: rozpoznawalne poszczególne warstwy kory mózgowej; mielinizacja włókien nerwowych
 8 mies: pojawia się faza REM, ruchy gałki ocznej, odruch Moro (unoszenie kończyn i przyciąganie ich do ciała w geście obejmowania w sytuacji zagrożenia); ustala się pozycja dziecka która po urodzeniu przyjmuje w czasie snu; koduje się wiele nowych odruchów bezwarunkowych; płód przezywa stany emocjonalne (uwarunkowane hormonalnie), co sprzyja tworzeniu się wrodzonych predyspozycji do lękliwości lub radosnego ożywienia.
 Do końca okresu płodowego powstaje 41 z 45 generacji komórek.



33. Uzasadnij uniwersalność rozwoju moralnego w ujęciu Kohlberga.
Podstawowym założeniem teorii rozwoju moralnego Lawrenca Kohlberga jest uniwersalizm, na który składają się dwa twierdzenia. Po pierwsze, że zasady moralne są uniwersalne, czyli takie same we wszystkich kulturach i koncentrują się wokół zasady sprawiedliwości. Po drugie, że rozwój moralny przebiega niezmiennie w określonym porządku we wszystkich kulturach, to co odróżnia od siebie ludzi to tempo tego rozwoju i różnice w osiąganym stadium. Kohlberg uważa bowiem, że ludzie przechodzą ze stadium niższego do stadium wyższego, które jest obiektywnie lepsze od niższego nie tylko ze względu na swoją moralną wartość, ale też dlatego, że umożliwia formułowanie bardziej sprawiedliwych sądów, z którymi zgodzi się każdy racjonalnie myślący człowiek. Kohlberg wyróżnił 6 stadiów rozwoju, gdzie stadium 1 oznacza postrzeganie świata z egocentrycznego punktu widzenia (unikam czynienia szkód drugiej osobie, tylko dlatego, że grozi za to kara; nie interesują mnie potrzeby i interesy drugiej osoby), natomiast stadium 6 oznacza posiadanie uniwersalnego moralnego punktu widzenia (zasady etyczne, tj. sprawiedliwość, równość, szacunek do drugiego człowieka są dla mnie ważne, dlatego przestrzegam prawa i społecznych umów). Zatem rozwój odbywa się od sądów i zasad postępowania, które uwzględniają jedynie własną perspektywę (poziom przed konwencjonalny) do sądów i zasad postępowania, które są uniwersalne, a więc odnoszą się do wszystkich ludzi i wszystkich sytuacji (poziom po konwencjonalny).
gosia90
PostWysłany: Czw 22:51, 07 Lip 2016    Temat postu: nowe pytania swps egzamin magisterki psychologia

1. Jakie jest znaczenie genetyki behawioralnej w badaniach psychologicznych?
Genetyka behawioralna (genetyka zachowania) to nauka, która zajmuje się poszukiwaniem przyczyn różnic indywidualnych w populacji. Celem badań jest ustalenie wkładu czynnika genetycznego w te różnice (ogólną zmienność fenotypową cech/zachowań), przy kontroli czynników środowiskowych. Za ojca genetyki behawioralnej uważa się Francisa Galtona, który zajmował się badaniem dziedziczenia geniuszu (możliwe w wyniku eksperymentów Gregora Mendla nad dziedziczeniem u grochu, co udowodniło istnienie czynników genetycznych). Wcześniej uważano, że człowiek po urodzeniu się jest czystą kartą (tabula rasa), którą sam zapisuje dowolnymi wzorcami zachowań. Główne założenia genetyki behawioralnej to:
• Jednostki w populacji różnią się zarówno z przyczyn genetycznych, jak i środowiskowych
• Różnice indywidualne zdeterminowane są działaniem wielu genów, różnie umiejscowionych w chromosomach (jest mało prawdopodobne, jakikolwiek pojedynczy gen determinuje różnice- zmienność fenotypową)

Zatem istotą genetyki behawioralnej nie jest wskazanie, który z czynników jest najważniejszy, ponieważ oba są równo ważne. Genetyka behawioralna wykorzystuje trzy metody badań:
• Badania nad bliźniętami- to eksperymenty naturalne, w których porównywane są bliźnięta jednojajowe (monozygotyczne) z bliźniętami dwujajowymi (dizygotycznymi). Ich celem jest wskazanie w jakim stopniu różnice wynikają z czynników genetycznych, a w jakim z czynników środowiskowych. O bliźniętach monozygotycznych można mówić, że ich pokrewieństwo genetyczne wynosi 100%, natomiast w przypadku bliźniąt dizygotycznych- 50%. Zatem jeżeli dziedziczność wpływa na cechę behawioralną to podobieństwo tej cechy u bliźniąt monozygotycznych będzie większe niż u bliźniąt dizygotycznych. Dodatkowo jeżeli na cechę zachowania wpływają czynniki środowiskowe to podobieństwo między bliźniętami monozygotycznymi i dizygotycznymi będzie podobne tylko w sytuacji kiedy środowisko bliźniąt również będzie podobne.
• Studia rodzinne- w których porównywani są członkowie rodzin biologicznych (rodzice i dzieci)
• Badania adopcyjne- w których porównywane są osoby niespokrewnione genetycznie, ale mieszkające razem i tworzące rodzinę. Metoda ta jest cennym źródłem informacji o wpływie czynników środowiskowych.
Genetyka behawioralna ma znaczenie dla rozwoju psychologii. Poprzez wskazane metody badań szuka się odpowiedzi na pytania o różnice indywidualne związane z temperamentem, osobowością czy emocjami. To właśnie emocjonalność, jedna z najważniejszych cech temperamentalnych była przedmiotem badań genetyki behawioralnej przez 20 lat. Emocjonalność oznacza przeważające u danej jednostki nasilenie reaktywności emocjonalnej i zazwyczaj dotyczy reakcji emocjonalnych na stres. Badania emocjonalności przy pomocy kwestionariuszy były wielokrotnie powtarzane, na różnych próbach i przy zastosowaniu różnych procedur. Badania bliźniąt pokazały, że jeżeli chodzi ściśle o konstrukt emocjonalności to cecha ta jest dziedziczona (badania w okresie dziecięcym i adolescencji). Co więcej czynniki genetyczne odpowiadają tylko za połowę wariancji tej cechy i cech z nią powiązanych, istotne są zatem czynniki środowiskowe. Mowa tu w szczególności o środowisku specyficznym. Metody genetyki behawioralnej stosuje się także do wyjaśniania psychopatologii, w tym zaburzeń nastroju i zaburzeń lękowych. Z przeprowadzonych badań wynika, że wpływ na pojawienie się zaburzenia mają czynniki genetyczne oraz środowisko wspólne, jednak mieszanka tych czynników może ulegać zmianie w zależności od okresu rozwojowego. Podsumowując dzięki metodom genetyki behawioralnej możliwe jest wskazanie czynników, które wpływają na cechę danej zdolności czy patologii, oraz określenie (za pośrednictwem wskaźnika odziedziczalności) w jakim stopniu czynniki genetyczne a w jakim środowiskowe warunkują różnice w populacji
2. Wyjaśnij pojęcie funkcjonalnej asymetrii mózgu i omów jak zmieniały się poglądy na ten temat.
Funkcjonalna asymetria mózgu, czyli lateralizacja to określenie na różnice w funkcjonowaniu prawej i lewej półkuli. W XIX w. uważano, że lewa półkula jest dominująca we wszystkich funkcjach poznawczych, a prawa półkula jest podporządkowana. Teza ta była wynikiem obserwacji pacjentów z zaburzeniami mowy, którzy mieli uszkodzoną lewą półkulę. Znaczące było odkrycie Broca, który zauważył u swoich pacjentów zaburzenia lub utratę zdolności mówienia po uszkodzeniu tylnej części dolnego zakrętu czołowego w lewej półkuli oraz odkrycie Wernickego, który u swoich pacjentów zaobserwował zaburzenie rozumienia mowy po uszkodzeniu górnego zakrętu skroniowego lewej półkuli. W związku z tym, że funkcje językowe pełnią zasadniczą rolę w procesach umysłowych człowieka automatycznie uważano, że deficyty pozostałych funkcji także wiążą się z lewą półkulą. Sytuacja zmieniła się w latach 60 XX w. kiedy po raz pierwszy przeprowadzono zabieg komisurotomii, czyli chirurgicznego rozdzielenia półkul mózgowych poprzez przecięcie spoidła wielkiego. Zabieg umożliwił zaobserwowanie jak funkcjonuje każda z półkul oddzielnie i jakie ma możliwości w zakresie kontroli różnych funkcji (informacja trafiająca do jednej z półkul jest niedostępna dla drugiej). Pionierskie badania pacjentów po komisurotomii przeprowadzone przez Rogera Sperry (nagroda Nobla) pokazały, że każda z półkul mózgowych jest wyspecjalizowana w określonych funkcjach poznawczych, są one zazwyczaj odmienne dla obydwu półkul, jednak nie ma półkuli dominującej i podporządkowanej, można jedynie mówić o ich funkcjonalnej specjalizacji. Dla przykładu jeżeli chodzi o mowę to uszkodzenie lewej półkuli spowoduje afazję (częściowe lub całkowite zaburzenie czynności nadawania i odbioru mowy u człowieka, który wcześniej opanował tą czynność), a uszkodzenie prawej półkuli do tego nie doprowadzi. Nie oznacza to jednak, że prawa półkula nie uczestniczy w procesie mowy, ponieważ uszkodzenie jej spowoduje aprozodię (zaburzenia intonacji i emocjonalnego wyrazu wypowiedzi) oraz trudności w rozumieniu złożonych wypowiedzi tj. sens przysłowia,
metafora, dowcip. Tak więc pełna komunikacja językowa wymaga udziału obu półkul.
Inny przykład dotyczy funkcji wzrokowo-przestrzennych. Przetwarzanie informacji zachodzi na dwóch poziomach: lokalnym i globalnym. Na poziomie lokalnym widzimy poszczególne części bodźca, a na poziomie globalnym postrzegamy bodziec jako zintegrowaną całość. Tak więc w zbiorze drzew można dostrzec albo las, albo pojedyncze liście. Dzięki licznym badaniom empirycznym wykonanym przy pomocy testów neuropsychologicznych, neuroobrazwaniu czy prezentacji bodźców wiemy, że prawa półkula ma przewagę w globalnym identyfikowaniu bodźców, zaś lewa w lokalnym. Badania pokazały również, że włókna przewodzące informacje zmysłowe i sterujące ruchem są na ogół skrzyżowane. Lewa półkula odbiera informacje z prawej połowy ciała i z prawej strony otoczenia oraz steruje ruchami prawej ręki, zaś prawa odwrotnie.
Podsumowując wszystkie funkcje: ruchowe, językowe, emocjonalne, wzrokowo-przestrzenne są zlateralizowane, jednak lateralizacja nie oznacza ścisłego podziału pomiędzy lewą i prawą półkulą. Większość funkcji jest kontrolowana przez obie półkule, choć istnieją różnice co do stopnia zaangażowania każdej z półkul. Lewa półkula ma wyższość w mowie, zaś prawa ma wyższość w emocjach i funkcjach wzrokowo-przestrzennych.
3. Omów współczesne metody badania relacji umysł-mózg i wskaż ich rolę w rozwoju wiedzy psychologicznej.
Współcześnie stosuje się wiele metod badania mózgu (szczególnie metody neuroobrazowania). Są to:
Czasowe zakłócenie (wyłączenie) fragmentu tkanki mózgu:
• Test Wady (próba amytalowa)- polega na podaniu słabego barbituranu (amytalu soda) do układu naczyniowego jednej z półkul co powoduje czasowe zahamowanie czynności tej półkuli. Test Wady przeprowadza się przed operacją neurochirurgiczną w celu określenia lokalizacji struktur zawiadujących mową lub pamięcią: w półkuli dominującej dla mowy krótkotrwała blokada ekspresji mowy, w półkuli niedominującej monotonność mowy, brak akcentów emocjonalnych
• Metoda przezczaszkowej stymulacji magnetycznej (TMS)- polega na zakłócaniu słabym polem elektromagnetycznym aktywności ściśle określonych regionów mózgu i obserwacji jakie zakłócenia w zachowaniu taka stymulacja powoduje.
Metody elektrofizjologiczne:
• Elektroencefalografia (EEG)- rejestruje czynność bioelektryczną mózgu. Badanie polega na umieszczeniu na powierzchni czaszki dużych elektrod, które rejestrują aktywności populacji neuronów, które są położone blisko elektrody. Zmiana zapisu np. fale wolne lub iglice informuje o lokalizacji większych patologii.
• Potencjały wywołane- metoda ta jest szczególnie przystosowana do obserwacji zmian aktywności mózgu pod wpływem jakiegoś bodźca. Badanie polega na wielokrotnym powtarzaniu bodźca. Potem rejestruje się procesy wywołane jego zadziałaniem (do 1 sek). Następnie uśrednia się wiele odpowiedzi związanych czasowo z bodźcem. Dzięki tej metodzie badana jest nie tylko aktywność różnych struktur mózgu, ale również zmiany, które w tych strukturach zachodzą.
• Magnetoencefalografia- badanie polega na wykrywaniu słabego pola magnetycznego wytworzonego przez aktywność elektryczną neuronów, które są jednocześnie pobudzane. Plusem jest to, że otrzymana lokalizacja prezentowana jest trójwymiarowo, natomiast minusem to, że badanie wykrywa jedynie źródła wytwarzające pola magnetyczne zorientowane równolegle do powierzchni czaszki
• Drażnienie mózgu- badanie wykonywane przed operacją neurochirurgiczną. Może być drażnienie poprzez czaszkę (badanie Penfilda wykazało, że ślady pamięciowe zostały przywołane) lub drażnienie bezpośrednie mózgu przy pomocy małych elektrod (zaburzenie funkcji językowych)
Metody obrazowania mózgu:
• Strukturalne, czyli ukazujące obraz struktury mózgu. Obraz jest trójwymiarowy i powstaje ze złożenia wielu przekrojów mózgu.
 Tomografia komputerowa- badanie polega na wysyłaniu promieni rentgenowskich, które wnikają w tkankę wielokrotnie, za każdym razem pod innym kątem. Badanie opiera się na tym, że promienie rentgenowskie są pochłaniane w różnych rodzajach tkanek z różną intensywnością: gęste tkanki absorbują je szybciej niż rzadkie. Otrzymany obraz jest przestrzenny.
 Rezonans magnetyczny- badanie polega na umieszczeniu pacjenta w silnym polu magnetycznym, co powoduje zjawisko obracania się (spinu) atomów cząsteczek (m.in. wodoru, który posiada własności magnetyczne). Następnie wysyła się krótkie impulsy elektromagnetyczne o częstotliwości fal radiowych, które są pochłaniane przez tkanki (te stają się namagnetyzowane). Po ustaniu impulsu tkanka oddaje tą energię w postaci fal radiowych (sygnał fMRI). Zależy on od gęstości jąder wodoru, która jest różna dla różnych tkanek. W rezultacie otrzymuje się informację o budowie tkanek mózgu.
• Funkcjonalne, czyli metody oparte na założeniu, że wszelkie procesy psychiczne związane są z aktywnością neuronów. Aktywność ta wymaga dostarczenia energii poprzez krew (zużycie glukozy i tlenu). Badając przepływ krwi przez poszczególne struktury oraz stopień jej utlenowania możemy bezpośrednio wnioskować o intensywności aktywności tej struktury. Podobne informacje można uzyskać badając metabolizm glukozy oraz innych substancji aktywnych w mózgu.
 Emisyjna tomografia pozytonowa (PET)- badanie opiera się na promieniowaniu pozytonowym (nie używa się środków cieniujących). Badanemu podaje się substancję znakowaną radioaktywnie, która emituje pozytony (czyli cząsteczki o tych samych właściwościach jak elektrony, tylko dodatnich) i występuje naturalnie w organizmie. Pozytony wchodzą w interakcję z napotkanymi elektronami. Zachodzi anihilacja, czyli zamiana elektronów i pozytonów na dwa kwanty promieniowania gamma, które biegną w przeciwnych kierunkach. W rezultacie dochodzi do detekcji promieni gamma. Obrazy mózgu nie powstają w czasie badania. Są wynikiem procedur obliczeniowych- odejmowania i uśredniania. Obraz pokazuje różnicę pomiędzy aktywnością podczas wykonywania określonego zadania, a aktywnością w stanie kontrolnym (odejmowanie). Dane pochodzące od różnych osób sumuje się (uśrednianie). Obraz pokazuje wzrost lub spadek np. utlenowania i przepływu krwi związane z określonym stanem umysłu lub wykonywanym zadaniem.
 Funkcjonalny rezonans magnetyczny (fMRI)- badanie opiera się na założeniu, że utlenowana krew ma inne właściwości magnetyczne (sygnał MRI jest różny w zależności od poziomu tlenu we krwi). Aktywne rejony mózgu zawierają więcej utlenowanej krwi. Skanery wykrywają różnice w utlenowaniu przy różnych zadaniach wykonywanych przez osobę badaną.
 Magnetoencefalografia
Badania tym metodom mamy możliwość:
• Poszukiwania struktur w mózgu odpowiedzialnych za zaburzenie (np. badanie Penfilda, poprzez drażnienie mózgu poprzez czaszkę wykazało, że ślady pamięciowe zostały przywołane)
• Badania skutków uszkodzenia mózgu, co umożliwia szybką diagnozę i wdrożenie leczenia (np. dzięki badaniom wiemy, że schizofrenia jest związana z obniżeniem gęstości i objętości szarej substancji w wielu obszarach czołowych i skroniowych)
• Poszukiwania metod skutecznej rehabilitacji neuropsychologicznej (np. poprzez porównanie fMRI przed rozpoczęciem rehabilitacji i po jej zakończeniu badanie zmian behawioralnych w trakcie zdrowienia)
• Badania różnic indywidualnych w zakresie inteligencji, pamięci, cech osobowości, emocji, skłonności do chorób psychicznych i poszukiwania odpowiedzi o przyczyny zachowań (dzięki wskazanym metodom wiemy, że są one związane z różnicami w budowie i funkcjach mózgu)

4. Omów zagadnienia starzenia się w kontekście mechanizmów plastyczności mózgu.
Starzenie się to proces w trakcie którego:
• zmniejsza się masa i objętość mózgu o ok. 10% pod wpływem ubytku wody w mózgu (kurczenie neuronów, zwłaszcza dużych)
• pojawiają się zaburzenia funkcji komórek, związane ze wzrostem zawartości białka w komórkach
• zachodzi demielinizacja włókien
• zmniejsza się liczba połączeń nerwowych (synaps i kolców dendrytycznych- miejsc połączeń synaptycznych pomiędzy neuronami)
• zmniejsza się poziom neurotransmiterów



Starzejący się mózg gorzej przetwarza informacje- jakość sygnałów dźwiękowych, wzrokowych, węchowych, smakowych słabnie, zmniejsza się prędkość i jakość przetwarzania sygnałów w mózgu (tzw. szum informacyjny). Poza tym zachodzi obniżenie poziomu funkcji psychicznych widoczne w:

• osłabieniu zdolności intelektualnych (początki widoczne są po 30-tce, przyspieszenie procesu następuje po 50-tce)
• pojawieniu się luk pamięciowych
• spowolnieniu myślenia
• trudnościach ze słowną komunikacją (trudności w przypominaniu sobie właściwych słów, problemy z rozumieniem wypowiedzi innych)

Niektórzy badacze (np. Merznich) uważają, że przyczyna spadku poziomu funkcji umysłowych leży w wycofaniu się z aktywności oraz nieużywaniu mózgu w odpowiedni sposób, czyli wykonywaniu czynności bezpiecznych (zautomatyzowanych, rutynowaych, wyuczonych), które nie są dostatecznym wyzwaniem i pobudzają mózg w mniejszym stopniu niż czynności nowe. Mimo to nawet w zaawansowanym wieku możemy przywracać sprawność mózgu za sprawą jego właściwości jaką jest plastyczność (termin wprowadzony przez polskiego badacza- Jerzego Konorskiego), czyli mechanizm regeneracji układu nerwowego. Mówiąc językiem neurobiologicznym kora może ulegać pogrubieniu, połączenia mogą się tworzyć, a włókna mogą podlegać remielinizacji. W tym celu należy dbać o dietę, ćwiczyć swój mózg poprzez wykonywanie nowych zadań oraz stymulować mózg poprzez bodźcowanie, czyli dostarczanie mu bodźców o różnych modalnościach i dbać o aktywność fizyczną. Dzięki temu budowana jest rezerwa kognitywna, która powoduje, że w przypadku choroby czy starzenia się mózg pozostaje sprawny dłużej.

5. Teorie atrybucji i procesy atrybucyjne: czego dotyczą, czym się różnią, jakie podstawowe twierdzenia zawierają?
Teorie atrybucji próbują opisać i wyjaśnić przyczyny zachowania ludzi, ponieważ to zachowanie jest kluczowym źródłem informacji o drugim człowieku. Ojcem teorii atrybucji był Fritz Heider, który nazywał to czym się zajmował wyjaśnianiem sposobu w jaki „psycholog naiwny” , czyli przeciętny człowiek wyjaśnia przyczyny ludzkich zachowań. W swojej teorii zakładał, że zachowanie jest łącznym wynikiem sił tkwiących w otoczeniu (czynniki zewnętrzne) i sił tkwiących w człowieku (czynniki wewnętrzne). Im większa każda z tych sił, tym bardziej rośnie szansa na pojawienie się zachowania. Z kolei Bernard Weiner, który zajmował się badaniem przyczyn sukcesów i porażek dodał do teorii Heider’a wymiar stałości-zmienności i kontrolowalności. Zgodnie z jego teorią przyczyny sukcesu lub porażki są przez ludzi rozpatrywane na podstawie różnych informacji (atrybucja przyczynowa). O tym czy zdecydowała przyczyna wewnętrzna czy zewnętrze decyduje porównanie wyniku obserwowanej osoby z wynikiem innych osób. Jeśli osoba uzyskuje wynik podobny do wyniku innych osób atrybucja jest zewnętrzna, a jeśli jej wynik odbiega dodatnio lub ujemnie od wyniku innych osób atrybucja jest wewnętrzna. Wówczas dodatkowo dochodzi konieczność rozstrzygnięcia czy dany wynik jest czynnikiem stałym (typowy wynik dla danej osoby) czy zmiennym (wysiłek specyficzny, wkładany tylko w dane zadanie). W tym celu analizuje się poprzednie wyniki uzyskiwane przez obserwowaną osobę. Jeśli aktualny wynik jest zgodny z poprzednim to mówimy o czynniku stałym, a jeśli jest inny to mówimy o czynniku zmiennym. Rodzaj dokonanej atrybucji wpływa na oczekiwania co do przyszłości. Są one uzależnione przede wszystkim od stałości atrybucji- jeżeli sukces przypiszemy typowemu wysiłkowi to bardziej oczekujemy jego powtórzenia w przyszłości, niż po przypisaniu go czynnikom zmiennym. Także teoria Jonesa i Davisa nawiązuje do teorii Heider’a. Badacze są autorami teorii wniosków korespondentnych zgodnie z którą na podstawie zachowania człowieka możemy wnioskować o jego dyspozycyjnych cechach. Wyjaśnienie zachowania jest tu rozumiane jako poszukiwanie korespondencji między zaobserwowanym zachowaniem, intencją człowieka (w polskiej psychologii określanego mianem aktora) i jego cechami osobowości. Wniosek korespondentny to wniosek, że za zaobserwowanym zachowaniem stoi cecha osobowości aktora (wnioskowanie na podstawie cech). Lecz najpierw obserwator musi odpowiedzieć na dwa pytania: czy aktor wiedział o skutkach do jakich doprowadzi jego zachowania; czy miał swobodę działania. Teoria ta jest jednak bezsensowana. Dla przykładu obserwator widząc wypadek samochodowy zadaje sobie pytanie czy kierowca wiedział jak to zrobić i czy miał swobodę działania, w związku z tym że obie odpowiedzi są twierdzące jedyny wniosek jaki się nasunie to że kierowca popełnił samobójstwo. Jeszcze inna teoria autorstwa Harolda K. Kelleya dotyczy modelu współzmienności i zakłada, że wyjaśnianie powtarzających się zachowań polega na sprawdzaniu, które czynniki współzmieniają się z obserwowanym zachowaniem. Próbując wyjaśnić jakieś zachowanie obserwator bierze pod uwagę trzy rodzaje informacji. Po pierwsze o spójności zachowania- czy osoba zawsze się w ten sposób zachowuje, czy tylko w danej chwili; po drugie o dystynktywności reakcji- czy osoba zachowuje się w ten sam sposób wobec wszystkich ludzi, czy tylko wobec jednej konkretnej; po trzecie- obserwator wykorzystuje tzw. regułę consensusu- rozważa czy wszyscy ludzie zachowują się w ten sam sposób co obserwowana osoba, czy ta osoba jest wyjątkiem. Każdorazowo przyczyna upatrywana przez obserwatora jest w tym czynniku, który pojawia się wtedy, kiedy występuje dane zachowanie i które nie występuje pod nieobecność danego zachowania. Badania pokazują, że ludzie najczęściej opierają się na regule spójności zachowania, a najrzadziej na powszechności. Mimo istnienia wskazanych teorii atrybucji okazuje się, że atrybucje faktycznie dokonywane przez ludzie nie przebiegają według ściśle opisanych reguł. Mamy bowiem do czynienia z różnymi deformacjami. Pierwszą z nich jest podstawowy błąd atrybucji- skłonność do przypisywania cudzych zachowań czynnikom wewnętrznym przy niedocenianiu roli sytuacji. Drugą z nich jest asymetria atrybucji aktora i obserwatora- przypisywanie cudzych zachowań czynnikom wewnętrznym, a swoich zachowań czynnikom zewnętrznym. Trzecia z nich to egotyzm atrybucyjny- skłonność do wyjaśniania własnego zachowania w pochlebny dla siebie sposób. W szczególności przypisywanie sukcesów czynnikom wewnętrznym (atrybucje podwyższające samoocenę) a porażek czynnikom zewnętrznym (atrybucje obronne). Czwarta deformacja- egocentryzm atrybucyjny- to przecenianie własnego wkładu w jakiś wynik osiągany wspólnie z innymi osobami. Piąta deformacja- efekt fałszywej powszechności- to przecenianie stopnia rozpowszechnienia własnych poglądów i zachowań.
6. Zjawisko zagrożenia stereotypem: na czym polega, jakie są jego mechanizmy.
Stereotyp to krzywdząca, zgeneralizowana opinia o członkach pewnej grupy wyróżnionej ze względu na płeć, wiek, rasę, status ekonomiczny. Przynależność do stygmatyzowanej grupy jest warunkiem koniecznym dla pojawienia się zjawiska zagrożenia stereotypem. Zjawisko to jest sytuacją, w której osoby należące do grupy obarczonej stereotypem, obawiając się jego potwierdzenia, starają się unikać wszelkich zachowań , które mogłyby w oczach innych i ich własnych dowieść słuszności stereotypu. Skutkuje to niewykorzystywaniem swojego potencjału, spadkiem motywacji do podejmowania działań w danym obszarze, czy też postrzeganiem siebie jako osoby niezdolnej do osiągnięcia sukcesu. Szczególnie jest to widoczne w trakcie sprawdzania kompetencji, umiejętności czy wiedzy, poprzez rozwiązanie testu, które dotyczą obszaru związanego ze stereotypem co budzi niepokój i prowadzi do gorszych wyników. Czynniki potrzebne do pojawienia się zagrożenia stereotypem to: aktywizacja negatywnego stereotypu przed przystąpieniem do testu; wysoki poziom umiejętności osoby, których rzekomo brakuje stygmatyzowanej grupie, do której ta osoba należy; nadawanie wysokiego znaczenia dziedzinie, której w stygmatyzowanej grupie przypisuje się niskie osiągnięcia oraz subiektywne odczucie trudności wykonywanego zadania. Mechanizm powstawania zjawiska sprowadza się przede wszystkim do trzech czynników, co do których badacze są zgodni. Po pierwsze jest to pobudzenie lękowe u osób zagrożonych stereotypem, obserwowane głównie w postaci wskaźników psychofizjologicznych lub behawioralnych, poziom lęku odpowiada za wielkość deficytów w wykonywanym zadaniu. Po drugie pojawia się obniżenie poziomu oczekiwań zgodne z treścią stereotypu, co z kolei prowadzi do wkładania mniejszego wysiłku w wykonywane zadania. Po trzecie aktywizacja negatywnego stereotypu powoduje zakłócenie mechanizmów poznawczych, co oznacza, że stereotyp za bardzo angażuje uwagę lub absorbuje zasoby poznawcze, zmniejszając tym samym zasoby pomocne przy przetwarzaniu zadań.
7. Przedstaw klasyczne i nowe koncepcje autorytaryzmu.
W psychologii autorytaryzm rozumiany jest jako pewna charakterystyczna postawa wobec świata i ludzi. Składa się na nią konwencjonalizm, czyli silne przywiązanie do tradycji. Osoba o wysokim poziomie autorytaryzmu żywi przekonanie o niezmienności istniejących norm społecznych i oczekuje, że wszyscy będą ich przestrzegać. Relacje społeczne postrzega w kategoriach dominacji- uległości. Cechuje ją skrajna uległość wobec silniejszych i bezrefleksyjne podporządkowanie się autorytetom, przy jednoczesnej pogardzie dla tych, którzy są słabsi i stoją niżej w hierarchii społecznej. Żywi uogólnioną wrogość wobec innych, szczególnie tych, którzy myślą inaczej. Ujawnia uprzedzenia wobec wielu grup społecznych, a świat spostrzega przez pryzmat stereotypów, i widzi go jako zagrażający. Pojęcie autorytaryzmu wprowadził Erich Fromm. Autor w swojej teorii mówi o charakterze autorytarnym, który jest charakterystyczny dla osób o słabym ego. Te osoby mają poczucie niższości, a z drugiej strony żądzę władzy. Podporządkowują się autorytetom, ale też tłumią uczucie nienawiści do nich. Z kolei Theodor Adorno, niemiecki filozof i socjolog jest twórcą teorii autorytaryzmu, która ma psychoanalitycznie korzenie, a więc implikuje ujęcie autorytaryzmu w kategoriach zjawiska mającego psychodynamiczną genezę. Adorno mówi, że osobowość autorytarna to zespół powiązanych ze sobą cech tj. konwencjonalizm i agresja wobec tych, którzy odrzucają konwencjonalne wartości, bezkrytyczne podporządkowanie się autorytetom, kult siły, cynizm, ogólna wrogość i pogarda dla człowieka. W swojej teorii autor zakłada, że źródłem autorytaryzmu są konserwatywne metody wychowawcze, w których utrzymuje się surową dyscyplinę (zwłaszcza rola ojca) i kary za niepożądane zachowania. Okazywanie miłości uzależnione od tego, czy dziecko bez reszty podporządkuje się rodzicom. Prowadzi to wrogości wobec rodzica, która- wyparta- przenosi się potem na inne bezpieczne obiekty, np. mniejszości narodowe. Z kolei Robert Altemayer, definiuje autorytaryzm jako kowariancje trzech postaw zaczerpniętych z teorii Adorno: konwencjonalizmu, autorytarnej agresji i autorytarnej uległości. Altemayer również traktuje autorytaryzm jako wymiar osobowości, jednak odrzuca równocześnie jego psychoanalityczne wyjaśnienie na rzecz teorii społecznego uczenia się Bandury. Wg Altemayera do pojawienia się autorytarnej agresji potrzebne są dwa zjawiska równocześnie. Po pierwsze przeżywanie negatywnych emocji tj. złość, zazdrość, co prowadzi do wrogich i agresywnych zachowań a po drugie postrzeganie świata jako miejsca zagrażającego, co prowadzi do osłabienia moralnych i społecznych hamulców do wyrażania tej wrogości i agresji. Natomiast współcześnie przyjmuje się poznawcze wyjaśnienie autorytaryzmu, w którym rezygnuje się z założeń zaproponowanych np. przez Adorno, a samo zjawisko nie jest rozumiane jako wymiar osobowości, a jedynie jako pewne sądy czy przekonania o charakterze autorytarnym, np. że podporządkowanie się autorytetom jest konieczne. W Polsce badania nad autorytaryzmem w paradygmacie poznawczym przeprowadzała Jadwiga Koralewicz i wyróżniła dwie warstwy:
• Normatywno-wartościującą: osiową cechą autorytaryzmu jest przekonanie o konieczności podporządkowania się autorytetowi
• Opisowa: osiową cechą autorytaryzmu jest przekonanie człowieka o braku wpływu na swój los i świat oraz o braku możliwości ich kontroli

8. Jak można zmieniać postawy?
Postawy to trwałe oceny- pozytywne lub negatywne- ludzi, przedmiotów, idei. Określenie czyjejś postawy oznacza umiejscowienie jej na kontinuum, gdzie jeden kraniec oznacza skrajnie negatywny stosunek a drugi- skrajnie pozytywny. Psychologów szczególnie interesuje zmiana postaw. Proces ten dokonuje się za sprawą użycia komunikatu perswazyjnego. Żeby perswazja była skuteczna:
• Nadawca powinien być kompetentny, wzbudzający zaufanie, atrakcyjny, podobny do docelowej grupy odbiorców (w przeciwnym razie efekt bumerangu- skutek odwrotny do zamierzonego)
• Treść przekazu powinna być wyrazista, ważna jest liczba argumentów, ich powtórzeń, siła (pozytywne cechy, brak negatywnych cech) oraz kolejność (efekt pierwszeństwa/efekt świeżości),
• Odbiorca powinien być w dobrym nastroju w trakcie kierowania ku niemu komunikatu, ważne jest jego zaangażowanie

Wg Williama McGuire’a- autora procesualnego modelu perswazji- ostateczny efekt komunikatu perswazyjnego zależy od przetworzenia go przez odbiorcę. Dlatego komunikat musi przyciągać uwagę (być widoczny), być zrozumiały (w przypadku masowego odbiorcy powinien być prosty zamiast złożony), zaś argumenty muszą zostać zaakceptowane przez odbiorcę (uleganie argumentom). Dodatkowo zmieniona postawa musi być utrzymywana i wykorzystana we własnym zachowaniu odbiorcy komunikatu. Ten model zakłada, że każdy z następnych etapów wymaga zrealizowania wcześniejszego, prostszego etapu, natomiast zmiana postaw jest efektem przemyślanego i świadomego przetwarzania informacji. Jednak człowiek nie zawsze postępuje racjonalnie i taką sytuację bierze pod uwagę model szans rozpracowania przekazu, którego autorami są Richard Petty i John Cacioppo. Ten model zakłada, że zmiana postaw może dochodzić do skutku dwoma torami- centralnym i peryferycznym. Centralny tor perswazji charakteryzuje się starannym przetworzeniem informacji zawartej w przekazie (logika argumentów), dzięki temu zmiana jest trwała, odporna na kontrpropagandę. Natomiast peryferyjny tor perswazji opiera się na wrażeniach jakie komunikat wzbudza (pozytywne vs. negatywne, np. za sprawą użytej muzyki czy osoby, która mówi). Perswazja toczy się torem centralnym kiedy odbiorca jest zmotywowany do przetworzenia przekazu (chce się zapoznać z komunikatem) i jest zdolny do przetworzenia przekazu dzięki warunkom zewnętrznym (wystarczająco dużo czasu) i wewnętrznym (inteligencja). Kiedy zaś brak jest motywacji lub zdolności do przetworzenia perswazja toczy się torem peryferyjnym.

9. Piętno w relacjach społecznych- skąd się bierze, jakie ma funkcje, jakie procesy uczestniczą w piętnowaniu ludzi?
Człowiek poszukuje przynależności, czyli zgodności między tym kim jest, a wymaganiami grupy społecznej, do której przynależy. Jeżeli nie spełnia wymagań i potrzeb grupy, nie ma w nim zgodności między tym, czego wymaga grupa, a tym kim jest. Z tej różnicy wynika piętno (stygmat). Erving Goffman wyróżnił trzy rodzaje piętna: fizyczne (np. niepełnosprawność), charakterologiczne (wnioskowane na podstawie doświadczeń życiowych, np. pobyt w więzieniu) i plemienne (ze względu na rasę, narodowość, religię). Tak więc z racji posiadanych przez człowieka cech, które są inne niż grupy, do której przynależy, człowiek jest posiadaczem dotkliwie dyskredytującego atrybutu, który skutkuje społecznym napiętnowaniem (stygmatyzacją). Piętno nie jest zjawiskiem powszechnym co oznacza, że określona cecha jest piętnowana w określonym czasie historycznym czy w określonej grupie społecznej. Co więcej niektóre cechy są destygmatyzowane (np. osoby leworęczne), a inne zaczynają być stygmatyzowane (np. palenie papierosów). Badacze zjawiska stygmatyzacji wyróżniają różne mechanizmy związane ze zjawiskiem. Po pierwsze u podłoża stygmatyzacji leżą stereotypy i uprzedzenia, które prowadzą do przypięcia osobie piętnowanej „etykiety”, która jest naznaczona cechami negatywnymi. Po drugie dochodzi do tzw. ceremonii degradacji statusu, czyli pozbawienia jednostki jej własnej tożsamości. Polega to na tym, że negatywna cecha czy zachowanie rzutuje na ocenę całej osoby. Po trzecie zachodzi retrospektywna interpretacja, która polega na ocenianiu zachowania jednostki, uznanego za negatywne. Poza tym, że ocenia się to konkretne zachowanie ocenia się również zachowania wcześniejsze i prognozuje o zachowaniach przyszłych, co doprowadza do wniosku, że jednostka „taka była, jest i będzie”. Po czwarte zachodzi mechanizm uzgadniania rzeczywistości, czyli próba obronienia się przez jednostkę przed „etykietami”. Jednostka próbuje przekonać innych, że etykiety są niesłuszne. Wreszcie dochodzi do normalizacji lub autostygmatyzacji. Normalizacja to proces w trakcie którego inni dostrzegają pozytywne cechy w jednostce, co prowadzi do zakończenia procesu stygmatyzacji. Natomiast autostygmatyzacja oznacza identyfikowanie się jednostki z narzuconym jej piętnem. Skutkiem napiętnowania jest postrzeganie człowieka przez innych i przez niego samego jako mniej pożądanego społecznie, z negatywnymi cechami i wadami, wreszcie jako osoby niepełnowartościowej. Najgłębsze uczucia nosiciela piętna podpowiadają mu, że z jednej strony powinien być traktowany tak samo, jak inni pozbawieni danego negatywnego atrybutu, z drugiej strony zdaje sobie sprawę, że nie jest akceptowany przez innych. Jest to doświadczenie bolesne i przykre, prowadzi do poczucia wstydu i wpływa na poczucie własnej wartości. Może to powodować zachowania nieakceptowane społecznie, karalne czy wręcz przestępcze.
10. Wyjaśnij mechanizmy wpływu społecznego.
Wpływ społeczny to proces, w wyniku którego dochodzi u jednostki do zmiany zachowania, opinii lub uczuć pod wpływem rzeczywistych lub tylko wyobrażonych zachowań drugiej osoby czy też grupy osób. Mogą być to zarówno zmiany pozytywne (korzystne) jak i negatywne dla osoby będącej przedmiotem wpływu. Wpływ społeczny można podzielić na manipulację i perswazję. Manipulacja polega na wykorzystywaniu automatycznych wyzwalaczy uległości. Doliński (2000) definiuje ją jako oddziaływanie, w którym osoba oddziałująca nie liczy się z interesem osoby, na którą wywiera wpływ. Perswazja zaś to oddziaływanie w którym osoba oddziaływująca bierze pod uwagę zarówno swój interes jak i osoby, na którą wywiera wpływ. Psycholog społeczny, Robert Cialdini, wyróżnił 6 reguł wpływu społecznego:
• Reguła wzajemności – wdzięczności, tworzenia zobowiązania (jeśli ty zrobiłeś dla mnie coś dobrego, to ja także zrobię coś dobrego dla ciebie)
• Społeczny dowód słuszności – jeżeli inni ludzie postępują w dany sposób, to oznacza to że ten sposób jest właściwy i ja także będę postępować w ten sposób
• Reguła lubienia i sympatii – jeżeli lubię cię to chętniej spełnię twoją prośbę (reguła ta sprawdza się także w sytuacji spotkania kogoś po raz pierwszy dzięki manipulacji atrakcyjnością, manipulacji podobieństwem, komplementom i pochwałom)
• Wpływ autorytetu – jeżeli uważam cię za autorytet to chętniej spełnię twoją prośbę
• Reguła niedostępności – jeżeli coś jest rzadkie lub trudno osiągalne to pewnie jest dobre
• Reguła zaangażowania i konsekwencji – jeżeli zaangażowałem się w coś, to będę kontynuował to działanie, ponieważ chcę być postrzegany jak osoba konsekwentna

W oparciu o te reguły powstało mnóstwo metod wywierania wpływu społecznego. Dla przykładu:
• Stopa w drzwiach – jeżeli ktoś spełni twoją małą prośbę, to z większym prawdopodobieństwem spełni również kolejną, większą
• Drzwi zatrzaśnięte przed nosem – jeżeli ktoś odmówi spełnienia twojej trudnej prośby, to z większym prawdopodobieństwem spełni kolejną, łatwiejszą
• Poznawcza reorientacja po wybiciu z rutyny – jeżeli sformułujesz prośbę w sposób nietypowy, to z większym prawdopodobieństwem zostanie ona spełniona
• Niska piłka – jeżeli podjąłem decyzję co do akceptacji jakiejś propozycji, to nawet gdy ta propozycja okaże się mniej korzystna, niż początkowo uważałem, to i tak prawdopodobnie podtrzymam tę decyzję

Podsumowując wpływ społeczny może przejawić się w: nawiązywaniu relacji w przyjemnej atmosferze, powoływaniu się na podobieństwa do drugiej osoby, wyrazach sympatii, pochlebstwach, powoływaniu się na związki z autorytetem, wzbudzaniu litości, demonstrowaniu siły, przewagi.

11. Kierowanie wrażeniem: co to takiego, na czym polega, jakie daje efekty?
Kierowanie wrażeniem, autoprezentacja, to kształtowanie, czyli kontrola sposobu, w jaki spostrzegają nas inni ludzie (a w konsekwencji sposobu w jaki spostrzegamy sami siebie). Klasyk socjologii, Erving Goffman w swojej pracy pt. „Człowiek w teatrze życia codziennego” porównywał życie społeczne do spektaklu teatralnego. Niczym aktor na scenie, człowiek jako uczestnik interakcji społecznych dba o wrażenia wywierane na innych poprzez własną grę (wypowiedzi i zachowania) oraz maski, które wkłada i zdejmuje. Dostosowuje swój wizerunek do oczekiwań otoczenia. Mark Leary i Robin Kowalski zwracają uwagę, że kierowanie wrażeniem jest motywowane trzema czynnikami. Są to: osiąganie materialnych i społecznych korzyści, które zależą od innych ludzi; utrzymywania i podwyższanie poczucia własnej wartości; kształtowanie pożądanej tożsamości osobistej. Wielu autorów dzieli taktyki autoprezentacji na dwie grupy: obronne i asertywno-zdobywcze. Obronne taktyki autoprezentacji to zachowania ukierunkowane na ochronę, utrzymanie lub obronę zaatakowanej tożsamości i wartości naszej osoby. Charakterystyczne zachowania to samoutrudnianie, suplikacje, usprawiedliwianie a sama taktyka jest związana z niską samooceną. Najciekawszym działaniem jest tu samoutrudnianie, czyli angażowanie się w działania, które obniżają szanse powodzenia, ale zwalniają z osobistej odpowiedzialności za ewentualną porażkę (przykład studenta, który wieczór przed egzaminem idzie na imprezę zamiast się uczyć). Suplikacja to z kolei prezentowanie własnej bezradności, w celu uzyskania pomocy od innych w związku z odwołaniem się do odpowiedzialności społecznej, która karze pomagać. Usprawiedliwianie zaś to akceptowanie własnej odpowiedzialności przy jednoczesnym redefiniowaniu czynu jako mało szkodliwego (wyrządzona szkoda jest krótkoterminowa, a korzyści które potem nastąpią będą długoterminowe). Natomiast asertywno-zdobywcze taktyki autoprezentacji to zachowania ukierunkowane na zbudowanie, pozyskanie, utrwalenie jakiejś nowej, lepszej tożsamości naszej osoby. Charakterystyczne zachowania to: ingracjacja, autopromocja, świecenie przykładem, a taktyka związana jest z wysoką samooceną. Ingracjacja oznacza wkradanie się w cudze łaski poprzez: prezentowanie własnych niekoniecznie prawdziwych cech wzbudzających sympatię, prawienie komplementów, wyrządzanie przysług. Najskuteczniejsze jest schlebianie, a zachowaniem najbardziej nieskutecznym wyrządzanie przysług. Autopromocja zaś to przedstawianie siebie jako osoby kompetentnej. Związany jest z nią tzw. dylemat skromności. Przedstawianie siebie w ten sposób może powodować bycie postrzeganym jako osoba zarozumiała, więcej sympatii wzbudza pomniejszanie swoich zasług, jednak tu rodzi się ryzyko, że inni potraktują nasze sukcesy jako faktycznie nieznaczące lub nas samych jako osoby o niskiej samoocenie.
12. Wymień i omów sposoby rozwiązywania konfliktów międzygrupowych.
Konflikt grupowy to sytuacja, która zachodzi między grupami, które mają sprzeczne cele. Prowadzi to do wrogości między nimi. To zjawisko przedstawiają badania Sherifa, które polegały na losowym doborze osób badanych (np. uczniów) do grup. Okazało się, że ludzie mają skłonność do preferowania własnej grupy, nawet jeżeli nie znają pozostałych jej członków, ani członków przeciwnej grupy. Poza tym sprawdzano relacje między grupami poprzez zorganizowanie turnieju z różnymi konkurencjami, w których były do zdobycia nagrody dla każdego członka zwycięskiej drużyny. Tutaj pojawiło się już rozróżnienie na „my” i „oni”. Rozpoczęły się wyzwiska między grupami, a nawet bójki. Każda grupa uważała się za silną, a każdy jej członek miał poczucie posiadania jej całej siły. W grupie własnej panowała serdeczność między członkami grupy, natomiast w stosunku do grupy przeciwnej panowała wrogość. Po tym pogorszeniu relacji między grupami badacze postanowili je naprawić. Pierwszą zastosowaną metodą była metoda wspólnych spotkań, która nie przyniosła rezultatu. Przygotowano posiłek dla członków dwóch grup, jednak jedna z grup zjawiła się na posiłku wcześniej i zjadła większość jedzenia, co wzbudziło złość w drugiej grupie i spowodowało kolejne bójki. Drugą metodą była wykonanie wspólnego zadania, które wymagało współpracy. Np. badacze odcięli dopływ wody, zadaniem obu grup było zlokalizowanie miejsca awarii, co wymagało współpracy. Wrogość między grupami została zredukowana po wykonaniu kilku tego typu zadań. Zatem rozwiązanie konfliktu grupowego jest możliwe, podstawą jest komunikacja pomiędzy stronami konfliktu. Metoda ta to negocjacje, czyli forma porozumiewania stron konfliktu, gdzie strony przedstawiają swoje propozycje; problem jest rozwiązany pod warunkiem, że strony zgodzą się na swoje propozycje. Wśród strategii negocjacji wyróżniamy:
• Poszukiwanie rozwiązań integrujących- każda strona przedstawia sprawy, które są dla niej najważniejsze, wszystkie strony czerpią korzyści
• Określenie skali ustępstw- tzw. strategia coś za coś, czy reguła wzajemności
• szczególną formą jest GRIT, proces złożony z czterech etapów: I- poinformowanie o chęci współpracy, II-realizacja zapowiadanych aktów kooperacyjnych bez względu na zachowanie drugiej strony, III- po trzykrotnym negatywnym ustosunkowaniu się drugiej strony do aktów kooperacyjnych, IV- powrót do poinformowania o chęci współpracy, a więc GRIT od początku
Jeżeli komunikacja między stronami jest niemożliwa można zastosować mediację lub arbitraż. Mediacje to zaangażowanie trzeciej strony do rozwiązania konfliktu między dwiema stronami, mediator jest neutralny i bezstronny, wspiera negocjacje, łagodzi konflikty i pomaga w dojściu do porozumienia. Arbitraż to również zaangażowanie trzeciej strony do rozwiązania konfliktu między dwiema stronami, jednak w inny sposób. Tutaj to arbitrator narzuca stronom sposób rozwiązania konfliktu.
13. Jaki jest związek emocji z pamięcia? Przedstaw przykłady badań.
Pamięć zależy od emocji. Dzieje się tak dlatego, że znajdujące się w mózgu jądro migdałowate, ośrodek odpowiedzialny za emocje, jest silnie połączone z hipokampem- ośrodkiem odpowiedzialnym za pamięć. Tak więc gdy odczuwamy emocje pobudzane jest jądro migdałowate, co z kolei silniej pobudza hipokampa. Dlatego mózg więcej zapamiętuje, gdy w grę wchodzą emocje. Amerykański psycholog, Gordon Bower, przeprowadził eksperyment, w którym analizowano zapamiętywanie krótkiej historii o dwóch studentach, dobrym i złym. Badani przed przeczytaniem opowiadania zostali wprowadzeni poprzez hipnozę w radosny lub smutny nastrój. Następnego dnia, kiedy znajdowali się już w neutralnym nastroju zostali poddani testowi pamięci. Wyniki pokazały, że badani pamiętali więcej faktów na temat bohatera opowiadania, którego nastrój był zgodny z nastrojem w jakim byli dnia poprzedniego. Na tej podstawie psycholog stworzył teorię, która mówi o pamięci uzależnionej od stanu emocjonalnego. Innymi słowy prościej przypominamy sobie materiał, który został wyuczony w jakimś stanie emocjonalnym, gdy znajdujemy się w tym samy stanie w momencie przypominania. Inny przykład przeprowadzonego badania został opisany w książce „Jak uczy się mózg” Manfreda Spitzera. Badani zostali podzieleni na dwie grupy. W pierwszej grupie przeczytano historyjkę zawierającą suche fakty, w drugiej grupie- historyjkę nacechowaną emocjonalnie. Obydwa opowiadania miały podobną długość i dotyczyły wizyty w szpitalu. Następnie badanym przedstawiono listę procedur medycznych stosowanych w szpitalach i odesłano ich do domu. Po tygodniu zapytano badanych, które z procedur pamiętają. Okazało się, że druga grupa, która usłyszała historyjkę nacechowaną emocjonalnie, pamiętała znacznie więcej procedur niż grupa pierwsza.
14. Samoregulacja zachowania – omów na podstawie wybranych teorii motywacji.
Teoria samoregulacji zachowań mówi o tym, że jesteśmy w stanie dokonywać pewnych zmian w swoim życia. To czego potrzebujemy to jasno wyznaczone cele oraz informacje zwrotne. Zgodnie z Poznawczą Teorią Motywacji właściwie wyznaczony cel: pobudza do wysiłku, wzmaga wytrwałość, ukierunkowuje oraz skłania do opracowania strategii, czyli znalezienia drogi prowadzącej do celu, co wymaga naszej aktywnej postawy. Ważne jest wyznaczenie celów zarówno bliskich jak i dalekich. Cele bliskie to te, które są związane z najbliższą przyszłością, ich realizacja daje satysfakcję i poczucie posuwania się do przodu , a tym samym świadomość przybliżania się do celu dalekiego, co stale podtrzymuje w nas motywację. Natomiast cele dalekie, zwane aspiracjami, ułatwiają nam trzymanie kursu i bycie wytrwałym. Należy pamiętać również o tym, żeby cele były trudne, lecz osiągalne, ponieważ tylko wiedząc, że jesteśmy w stanie osiągnąć dany cel, realizujemy go z dużą wytrwałością i zaangażowaniem. Wyznaczanie sobie trudnych celów zależy od ukrytych teorii własnych kompetencji. Zgodnie z tymi teoriami strategie działania w kierunku wyznaczonego celu dzielą się na: strategie doskonalenia się (dążenia do celu) i strategie wykazania się (osiągania jak najlepszych wyników). Dla osoby zorientowanej na doskonalenie się najważniejszy jest proces, a najsilniejszym motywatorem poczucie własnej skuteczności, ta orientacja sprzyja wyznaczaniu sobie trudnych celów, natomiast dla osoby zorientowanej na wykazanie się- najważniejszy jest wynik, motywuje je rezultat. Podział ten jest jednak płynny, ponieważ kompetencje mogą być kształtowane. Langer przeprowadziła badanie, w którym poprosiła studentów o ocenę inteligencji naukowców, którzy odnieśli spektakularny sukces. Za każdym razem kiedy badaczka opisywała kolejne kroki (bliskie cele) prowadzące do sukcesu ocena inteligencji naukowca była niższa, niż kiedy informowała jedynie o rezultacie (celu dalekim). Zatem kluczem do orientacji na doskonalenie się jest świadomość, że każde osiągnięcie wymaga zrealizowania po drodze wielu drobnych celów. Badania dowodzą również, że samoregulacja zachowania zależy od sposobu myślenia o świecie (tzw. teorie świata). Istnieją trzy sposoby (prototypy) postrzegania świata. Może być on uznany za groźny, przyjazny lub neutralny. Ludzie uważający, że świat im zagraża są zdania, że świat stwarza ograniczoną liczbę okazji i możliwości (ludzie odczuwający lęk i neurotyczni). Osoby uważające, że świat jest przyjazny postrzegają wiele możliwości, są optymistyczni. Wreszcie osoby, które uważają, że świat jest neutralny, ani dobry, ani zły, czerpią przyjemność z wykorzystywania swoich kompetencji. Samoregulacja jest więc możliwa dzięki monitorowaniu swojego myślenia i zastępowaniu myśli autodestrukcyjnych myślami dla nas korzystnymi.
15. Wkład czynnika genetycznego i środowiska do różnic indywidualnych w zachowaniu człowieka. Omów główne metody badań i ich założenia.
Genetyka behawioralna (genetyka zachowania) to nauka, która zajmuje się poszukiwaniem przyczyn różnic indywidualnych w populacji. Celem badań jest ustalenie wkładu czynnika genetycznego w te różnice (ogólną zmienność fenotypową cech/zachowań), przy kontroli czynników środowiskowych. Za ojca genetyki behawioralnej uważa się Francisa Galtona, który zajmował się badaniem dziedziczenia geniuszu (możliwe w wyniku eksperymentów Gregora Mendla nad dziedziczeniem u grochu, co udowodniło istnienie czynników genetycznych). Wcześniej uważano, że człowiek po urodzeniu się jest czystą kartą (tabula rasa), którą sam zapisuje dowolnymi wzorcami zachowań. Główne założenia genetyki behawioralnej to:
• Jednostki w populacji różnią się zarówno z przyczyn genetycznych, jak i środowiskowych
• Różnice indywidualne zdeterminowane są działaniem wielu genów, różnie umiejscowionych w chromosomach (jest mało prawdopodobne, jakikolwiek pojedynczy gen determinuje różnice- zmienność fenotypową)

Zatem istotą genetyki behawioralnej nie jest wskazanie, który z czynników jest najważniejszy, ponieważ oba są równo ważne. Jeżeli chodzi o czynnik genetyczny to składa się na niego: czynnik addytywny, czynnik nieaddytywny oraz dobór rodziców. Czynnik addytywny- to materiał genetyczny przekazany przez rodziców dziecku. Dziecko otrzymuje dokładnie połowę genów od ojca i od matki. Dzięki temu jest podobne do swoich rodziców. Czynnik nieaddytywny- to wynik procesów interakcji genów, które zachodzą w chromosomach organizmu potomnego. Wyróżniamy tu dominację (interakcja alleli zajmujących to samo miejsce w chromosomie, allel dominujący wywiera silniejszy wpływ na cechę niż drugi alle z tej samej pary) i epistazę (interakcja alleli zajmujących różne miejsce w chromosomie, oddziaływanie genu na ujawnienie się innego genu, który nie jest jego allelem). Natomiast dobór rodziców odnosi się do tendencji ludzi do wyboru partnerów na zasadzie podobieństwa cech psychologicznych. Jeżeli te cechy są silnie uwarunkowane genetycznie to potomstwo będzie bardziej podobne do rodziców, niż wynikałoby to bezpośrednio z czynnika addytywnego, a w kolejnych populacjach zmienność tej cechy będzie się zwiększać (gdyby dobór był komplementarny- zmniejszać). Jeżeli chodzi o czynnik środowiskowy to wyróżniamy środowisko wspólne (czyli wszystkie czynniki, które upodabniają do siebie członków rodziny i odróżniają ich od członków innych rodzin) i środowisko specyficzne (wszystkie czynniki, które odróżniają od siebie członków tej samej rodziny, np. doświadczenia szkolne). Do różnic indywidualnych w populacji prowadzi interakcja i korelacja tych dwóch czynników, a różnice opisywane są przy pomocy współczynnika odziedziczalności, który odnosi się do całej populacji, a nie jednostki. Jest to miara statystyczna, która informuje o proporcji obserwowanej zmienności fenotypowej, która może być wyjaśniona czynnikami genetycznymi.
Genetyka behawioralna wykorzystuje trzy metody badań:
• Badania nad bliźniętami- to eksperymenty naturalne, w których porównywane są bliźnięta jednojajowe (monozygotyczne) z bliźniętami dwujajowymi (dizygotycznymi). Ich celem jest wskazanie w jakim stopniu różnice wynikają z czynników genetycznych, a w jakim z czynników środowiskowych. O bliźniętach monozygotycznych można mówić, że ich pokrewieństwo genetyczne wynosi 100%, natomiast w przypadku bliźniąt dizygotycznych- 50%. Zatem jeżeli dziedziczność wpływa na cechę behawioralną to podobieństwo tej cechy u bliźniąt monozygotycznych będzie większe niż u bliźniąt dizygotycznych. Dodatkowo jeżeli na cechę zachowania wpływają czynniki środowiskowe to podobieństwo między bliźniętami monozygotycznymi i dizygotycznymi będzie podobne tylko w sytuacji kiedy środowisko bliźniąt również będzie podobne.
• Studia rodzinne- w których porównywani są członkowie rodzin biologicznych (rodzice i dzieci)
• Badania adopcyjne- w których porównywane są osoby niespokrewnione genetycznie, ale mieszkające razem i tworzące rodzinę. Metoda ta jest cennym źródłem informacji o wpływie czynników środowiskowych.
• Badania molekularne- ich celem jest identyfikacja genów mających nawet niewielki udział w kształtowaniu się różnic indywidualnych w zakresie danej cechy/zachowania

16. Czym jest iloraz inteligencji? Omów jego zalety i ograniczenia.
Iloraz inteligencji to pojęcie statystyczne. Jest to wskaźnik liczbowy przyjęty jako miara sprawności umysłowej. Pojęcie ilorazu inteligencji zostało wprowadzone w 1912 roku przez niemieckiego psychologa Williama Sterna, który zaproponował zmianę do skali Bineta-Simona. Była to pierwsza skala do oceny inteligencji. Składała się ze zbioru zadań o różnym stopniu trudności i była przeznaczona do badania wśród dzieci. Twórcy wyznaczyli progi trudności zadań odpowiednie dla konkretnego wieku dziecka, co umożliwiło ocenę czy dane dziecko potrafi rozwiązywać zadania odpowiadające jego wiekowi życia (WŻ). Dodatkowo Binet wprowadził wskaźnik wieku umysłowego (WU), którego miarą była maksymalna liczba prawidłowo rozwiązanych zadań. I tak np. jeżeli 4 letnie dziecko rozwiązywało prawidłowo zadania przeznaczone dla 5 letniego dziecka, przyjmowano, że jego wiek umysłowy wynosi 5 lat. Było to o tyle problematyczne, że ta sama różnica między wiekiem umysłowym, a wiekiem życia ma różne znaczenie kliniczne u dzieci w różnym wieku. Dlatego też Stern zaproponował, żeby zamiast WU zastosować wskaźnik wyrażający się ułamkiem w którym porównujemy wiek umysłowy z wiekiem życia i dodatkowo mnożymy przez 100. To właśnie jest II. Zrewidowaną wersję skali Bineta-Simona z wykorzystaniem wskaźnika IQ przygotował amerykański psycholog Lewis Terman. Jednak i tutaj pojawiły się ograniczenia, ponieważ Stern przy tworzeniu wskaźnika bazował na założeniu, że inteligencja rozwija się równolegle z wiekiem życia. Tymczasem okazało się, że wiek umysłowy stabilizuje się około 16 r.ż., i tym samym po 16 r.ż. poziom inteligencji spada. Dlatego nowa wersja skali Bineta-Simona nadal nadawała się do pomiaru inteligencji jedynie u dzieci. Z tego powodu inny amerykański psycholog Dawid Wechsler skonstruował test inteligencji dla dorosłych, w którym WU z ilorazu inteligencji zastąpił za pomocą wartości standaryzowanej. Polegało to na tym, że średniej arytmetycznej wyników w populacji przypisał wartość liczbową 100, zaś odchylenie standardowe ustalił na 15 punktów. Wskaźnik ten został określony mianem „dewiacyjnego ilorazu inteligencji”.
Jeżeli chodzi o zalety i wady II to wydaje się, że tych drugich jest więcej. Za ograniczenia II uważa się:
• Nie uwzględnia zmian rozwojowych, które zachodzą w inteligencji. Pomimo, że w ontogenezie zachodzą zmiany jakościowe w funkcjonowaniu intelektualnym, pomiaru i charakterystyki poziomu inteligencji dokonuje się przy pomocy wskaźnika ilościowego, jakim jest II.
• Inteligencja to zjawisko złożone, wieloczynnikowe, tymczasem II (pomimo składania się na niego wyników kilku podtestów) jest traktowany jako jednorodny. Dlatego też II nie oddaje specyfiki różnic między ludźmi ze względu na strukturę inteligencji.
• Konstrukcja II oparta była na założeniu, że inteligencja przede wszystkim uwarunkowana jest genetycznie. Tymczasem badania pokazują, że inteligencja w dużej mierze zależy od czynników środowiskowych, a nawet od cech osobowości.

Natomiast zwolennicy stosowania wskaźnika IQ mówią o tym, że istnieją interesujące badania wskazujące na korelację pomiędzy inteligencją wyrażoną przez II , a rozmaitymi danymi statystycznymi, które to korelacje bez użycia II nigdy nie zostałyby odkryte. Dla przykładu badania Charlesa Murraya w USA, które pokazały silną, pozytywną korelację między wysokością rocznych dochodów i poziomem IQ.

17. Wyjaśnij pojęcie inteligencji emocjonalnej. Czy wyodrębnienie inteligencji emocjonalnej ma sens? Podaj argumenty za i przeciw.
Inteligencja emocjonalna to najprościej mówiąc pewne zdolności dzięki którym radzimy sobie sami ze sobą i z innymi ludźmi. Termin inteligencja emocjonalna został wprowadzony przez Johna Mayer’a i Peter’a Salovey’a. Sam termin inteligencja emocjonalna szerzej został poznany za sprawą bestsellerowej książki amerykańskiego psychologa Daniela Golemana. Autor przez wiele lat prowadził badania nad emocjami i zauważył, że sukces nie zależy jedynie od wysokiego Ilorazu Inteligencji, lecz ważne są pewne predyspozycje psychologiczne. Wyróżnił 5 cech, które tworzą IE: samoświadomość (wiedza o własnych stanach wewnętrznych), samokontrola (umiejętność panowania nad swoimi emocjami), motywacja (skłonność do wyznaczania sobie celów i dążenia do ich osiągnięcia), empatia (zdolność do uświadamiania sobie stanów innych osób), społeczne umiejętności (zdolność wzbudzania u innych pożądanych reakcji). Zwolennicy wyodrębnienia IE powołują się na liczne badania, które potwierdzają, że istnieje związek pomiędzy inteligencją emocjonalną, a jakością życia oraz zdolnością do radzenia sobie w trudnych sytuacjach. Dla przykładu przeprowadzono badanie 86 par heteroseksualnych przy użyciu skali Mayer-Salovey-Caruso Emotional Inteliigence. Wyniki pokazały, że w związkach w których przynajmniej jedna z osób uzyskiwała wyższy wynik inteligencji emocjonalnej para określała swój związek jako pozytywny, bezpieczny, satysfakcjonujący w porównaniu do związków, w których inteligencja emocjonalna była niska. Dodatkowo stwierdzono, że wysoka inteligencja emocjonalna jest związana ze sposobem rozwiązywania konfliktów. Pary o niskiej inteligencji emocjonalnej częściej wybierają destrukcyjne formy, np. krzyk. Jeżeli chodzi o zarzuty wobec inteligencji emocjonalnej Mayer twierdzi, że są one wynikiem jej mylnego utożsamiania z cechami osobowości. Eysenck bowiem uważa, że 5 cech które tworzą inteligencję emocjonalną wg teorii Golemana są niczym innym jak tym co w osobowości nazywa się neurotycznością. Kolejny zarzut dotyczy braku jasno określonego sposobu jej mierzenia, który byłby trafny i rzetelny. Część badaczy uważa, że IE można zmierzyć przy pomocy testów, a część że w warunkach eksperymentalnych. Tak więc stanowisko badaczy w tej sprawie zależne jest od przyjętego przez nich modelu teoretycznego. Brak jest także potwierdzonych naukowo faktów nt. rozwoju IE w ciągu życia. Mimo, że zwolennicy tego konstruktu zgadzają się co do tego, że IE to proces, który zachodzi w ciągu całego życia, a więc można rozwijać IE, to nic nie wiadomo o tym, jak ten proces przebiega (np. w jakim stopniu IE zależy od genów, a w jakim od środowiska). Wreszcie przeciwnicy konstruktu mówią o tym, że badania nad IE mają charakter korelacyjny, nie można więc wskazać związku przyczynowo-skutkowego. Pojawia się więc pytanie o to, na jakiej podstawie orzeka się w prowadzonych badaniach, że to właśnie IE jest predyktorem osiągnięć życiowych.
18. Omów wpływ temperamentu na funkcjonowanie człowieka w trudnych sytuacjach.
Znaczenie temperamentu ujawnia się najsilniej w sytuacjach skrajnych lub szczególnie wymagających, np. stresujących. Strelau definiuje stres jako stan charakteryzujący się negatywnymi emocjami o dużym natężeniu, któremu towarzyszą zmiany fizjologiczne i biochemiczne wyraźnie przekraczające poziom charakterystyczny dla spoczynkowego poziomu pobudzenia. Przyczyną stresu u jednostki jest brak równowagi między wymaganiami stawianymi jednostce, a jej możliwościami sprostania tym wymaganiom. Temperament jest moderatorem stresu, z kilku powodów. Po pierwsze poprzedza pojawienie się stresu i odpowiada za intensywność stresorów. Po drugie warunkuje wartość stymulacyjną wymagań. W stanie silnego pobudzenia (np. introwersja) zmniejsza się tolerancja jednostki na działanie silnie stymulujących zdarzeń życiowych (zachodzi proces wzmacniania stymulacji). Z kolei w stanie słabego pobudzenia (np. ekstrawersja) zmniejsza się tolerancja jednostki na zdarzenia życiowe o małej wartości stymulacyjnej (tłumienie stymulacji). W obu sytuacjach stan stresu wzrasta. Po trzecie warunkuje umiejętność radzenia sobie ze stresem. Każda jednostka ma własny sposób oceny sytuacji i indywidualny styl radzenia sobie ze stresem. I właśnie te style radzenia sobie są warunkowane przez temperament. Wyróżniamy:
• Styl radzenia zorientowany na rozwiązanie problemu- charakterystyczny dla osób niskoreaktywnych
• Styl radzenia zorientowany na emocje- unikanie, charakterystyczny dla osób wysokoreaktywnych
Po czwarte temperament warunkuje to ile wysiłku jednostka wkłada w radzenie sobie. Dla przykładu, osoba o wysokim poziomie lęku musi włożyć większy wysiłek, niż osoba o niskim poziomie lęku. I wreszcie temperament warunkuje skutki stresu. Mowa tu o temperamentalnym czynniku ryzyka. TCR to pewne pojedyncze cechy lub zbiory cech (np. wysoka reaktywność, która rodzi lęk, poszukiwanie grozy, wysoka psychotyczność i neurotyczność), które w interakcji z niekorzystnymi czynnikami środowiska prowadzą do zaburzeń zachowania. Jeżeli natomiast jednostka posiada cechy temperamentalne, które są różne od TCR nie ma ryzyka zaburzeń zachowania.
19. Wymiary osobowości/temperamentu. Wielka trójka czy wielka piątka? Wskaż podobieństwa i różnice między trójczynnikową i pięcioczynnikową teorią osobowości/temperamentu.
Zarówno biologiczna teoria PEN autorstwa Hansa Eysencka, jak i pięcioczynnikowy model osobowości, zwany Wielką Piątką, autorstwa Costy i McCrea’a zbudowane są w hierarchiczny sposób. Biologiczna teoria PEN wyróżnia trzy superczynniki, z których każdy zbudowany jest z 9 wymiarów. Są to:
• Psychotyczność- przeciwieństwo przestępczości, psychopatii, schizofrenii. Wymiary to: agresja, chłód, egocentryzm, bezosobowość, twórczość, aspołeczność, brak empatii, impulsywność, gruboskórność
• Ekstrawersja- przeciwieństwo introwersji. Wymiary to: towarzyskość, żywość, aktywność, asertywność, śmiałość, beztroska, dominacja, wybuchowość, poszukiwanie doznań
• Neurotyczność- przeciwieństwo zrównoważenia emocjonalnego. Wymiary to: lęk, depresyjność, poczucie winy, spięcie, płochliwość, niska samoocena, irracjonalność, markotność, emocjonalność

Natomiast w pięcioczynnikowym modelu osobowości wyróżniamy 5 wymiarów, z których każdy tworzy 6 cech. Są to:

• Neurotyczność- lęk, agresywna wrogość, depresja, impulsywność, nadwrażliwość, nieśmiałość
• Ekstrawersja- towarzyskość, serdeczność, asertywność, aktywność, poszukiwanie doznań, emocjonalność pozytywna
• Otwartość na doświadczenie- wyobraźnia, estetyka, uczucia, działania, idee, wartości
• Ugodowość- zaufanie, prostolinijność, altruizm, ustępliwość, skromność, skłonność do rozczulania się
• Sumienność- kompetencje, skłonność do porządku, obowiązkowość, dążenie do osiągnięć, samodyscyplina, rozwaga

Dodatkowo autorzy obu teorii uważają, że wskazywane przez nich wymiary są uwarunkowane genetycznie, i są uniwersalne. Oznacza to, że stwierdza się je niezależnie od płci, rasy, kultury.
Natomiast różnice między tymi dwiema teoriami są wynikiem różnych założeń. Eysenck reprezentuje tzw. tradycję zachodnią, zgodnie z którą temperament i osobowość to synonimy. Tymczasem autorzy Wielkiej Piątki uważają, że ugodowość, sumienność i otwartość na doświadczenia należą do obszaru osobowości zwanego charakterem, zaś neurotyczność i ekstrawersja do temperamentu.

20. Poziom inteligencji a szanse życiowe. Podaj przykłady badań.
Nieżyjący już psycholog Arthur Jensen uważał, że IQ spośród wszystkich mierzalnych czynników najbardziej koreluje z sukcesem życiowym. Również prof. Edward Nęcka mówi o tym, że IQ to najlepszy z dostępnych predyktor tego jak wiele ktoś osiągnie w życiu. Faktycznie istnieją liczne badania, które świadczą o związku pomiędzy inteligencją, a jakością życia, szeroko rozumianym powodzeniem życiowym, tj. poziomem materialnym, sukcesami, ale także ogólnym zadowoleniem z życia. Z brytyjskich badań opublikowanych kilka lat temu na łamach „Psychological Medicine” wynika, że osoby, które uzyskują wyższe wyniki w testach inteligencji są bardziej szczęśliwe. Naukowcy z Uniwersytetu w Londynie przeanalizowali dane z sondażu przeprowadzonego na grupie ok. 7000 dorosłych osób. Wyniki pokazały, że niska inteligencja często wiązała się z niższymi zarobkami i gorszym zdrowiem psychicznym, co sprzyjało byciu nieszczęśliwym. Inteligencja związana jest także z umiejętnościami społecznymi i przystosowaniem emocjonalnym, co wpływa na szanse życiowe. Przemoc rówieśnicza, agresja, uzależnienia warunkują jakość życia. Naukowcy z Chile i Argentyny przeprowadzili badania na 2370 uczniach w wieku 11-14 lat. Dzieciom zbadano inteligencję płynną (umiejętność rozwiązywania problemów, koncentracji uwagi, myślenia abstrakcyjnego i logicznego) przy pomocy Testu Matryc Ravena oraz samoocenę i skłonności do stosowania lub ulegania przemocy przy pomocy różnych kwestionariuszy. Wyniki pokazały, że niskie wyniki w teście inteligencji wiązały się z większymi skłonnościami do stosowania przemocy i do bycia ofiarą przemocy oraz niską samooceną. Dodatkowo długofalowe badania prowadzone na całym świecie ujawniły związek inteligencji ze zdrowiem i śmiertelnością. Dla przykładu w 1932 r. rząd szkocki zdecydował o poddaniu wszystkich 11- letnich dzieci testom na inteligencję w ciągu jednego dnia. Ponad 60 lat później Ian Deary i Lawrence Whalley dotarli do osób, które wtedy brały udział w teście i wciąż żyli. Okazało się, że osoby które uzyskały wyższy wynik w teście inteligencji cieszyły się lepszym zdrowiem, i śmiertelność wśród nich była mniejsza.
21. Scharakteryzuj dwie wybrane koncepcje pamięci długotrwałej.
Pamięć jest procesem odpowiedzialnym za rejestrowanie, przechowywanie i odtwarzanie doświadczenia. Pamięć składa się z trzech etapów: zapamiętywania (zachowywania informacji), przechowywania (magazynowania informacji) i przypominania (odtwarzania informacji). Pamięć długotrwała jest ostatnim (trzecim) etapem zapamiętywania, w wyniku którego tworzy się ślad pamięciowy. Wcześniej informacja zostaje przetworzona przez pamięć sensoryczną i pamięć operacyjną (krótką). Pamięć długotrwała zawiera całą naszą wiedzę na temat nas samych, świata, wszystkie wspomnienia i umiejętności. Pamięć ta ma największą pojemność (uważa się, że nieograniczoną) i najdłuższy czas przechowywania informacji, zatem jest najbardziej rozległa, a w jej ramach mieszczą się pozostałe rodzaje pamięci. Ze względu na rodzaj przechowywanych informacji większość teorii wyróżnia pamięć deklaratywną (świadoma; „wiedza że”; pamięć faktów, reguł, pojęć i zdarzeń) od pamięci niedeklaratywnej (utajona; „wiedza jak”; pamięć umiejętności i nawyków). Z uwagi na ten podział Endel Tulving wyróżnił trzy systemy, które tworzą pamięć długotrwałą. Są to: pamięć procesualna (pamięć wykonywanych czynności i umiejętności), pamięć semantyczna (pamięć wiedzy ogólnej, czyli faktów, reguł, pojęć i sądów) i pamięć epizodyczna (pamięć osobiście przeżytych wrażeń i kontekstów w których nastąpiły). Jeżeli chodzi natomiast o sposób przechowywania informacji przez pamięć długotrwałą istnieją teorie wg których informacje są rejestrowane i klasyfikowane za sprawą przypisania ich do właściwych kategorii semantycznych (np. krzesło należy do kategorii mebli). Wiele teorii mówi o tym, że zawartość pamięci długotrwałej to ogromna sieć powiązanych ze sobą i krzyżujących się pojęć (modele sieciowe). Potwierdzeniem na organizowanie informacji poprzez grupowanie semantyczne jest przypadek pacjenta po ciężkim udarze mózgu, nazywanego M.D. W dwa lata po udarze pacjent odzyskał pamięć poza przypominaniem sobie nazw owoców i warzyw. Dla przykła

Powered by phpBB © 2001, 2005 phpBB Group