Uniwersalizm, a relatywizm

15. Barbara Lewandowska – Tomaszczyk,
„Uniwersalizm a relatywizm na tle nowych teorii kognitywnych”

1. Wstęp:
1 koncentracja na stanowisku semantyki kognitywnej w sporze między uniwersalizmem a relatywizmem,
2 relacje między systemem językowym a zdolnościami poznawczymi człowieka (status uniwersaliów kognitywnych i językowych), pewne cechy procesu poznawczego są uniwersalne, inne zmienne, zależne od kontekstu, kultury, poglądów, ideologii,
3 hipotezy relatywizmu i determinizmu językowego (Sapira 1921) i Whorfa (1956),
4 kategoryzacja pojęć i obiektów podlega wpływowi kategorii gramatycznych obecnych w rodzimym języku użytkownika,
5 Whorf: rzeczywistość otaczająca to subiektywna interpretacja bodźców perceptualnych,
6 Duża rola dyskusji i eksperymentów dotyczących nazw barw w dostarczeniu dowodów przemawiających za relatywizmem:
• 1969 – praca Berlina i Kaya „Basic Color Terms” (po serii eksperymentów z osobami mówiącymi w różnych językach) – nawet użytkownicy języków, w których istnieją tylko dwie nazwy kolorów (np. język szczepu Dani), są w stanie bez trudu zapamiętać i rozpoznawać zestaw barw podstawowych, system językowy nie przesądza więc w żadnym wypadku percepcji zjawisk, obiektów i cech,
• badania: Eleonor Rosch (1975), Rosch i Lloyd (1978) – to świat zewnętrzny i jego percepcja przez człowieka determinują system językowy, a nie odwrotnie => pojęcie determinizmu perceptualnego,
• Witkowski i Brown (1982), Lucy i Shweder – badania z zakresu leksykologii antropologicznej, testowanie mechanizmów zapamiętywania i rozpoznawania obiektów (tylko 1 test związany z kolorami: test na pamięć krótką – przewaga wyrazistości kolorów podstawowych; pamięć długa – kolor, który ma w danym języku nazwę zostaje w pamięci dłużej niż ten bez nazwy), pamięć krótka działa w zgodzie z sekwencją pojęciową, pamięć długa – w zgodzie z wyrazistością formalną, leksykalną,
• 1984 – eksperyment Kaya i Kempton – wykazanie wpływu barw green i blue na kategoryzację próbek o barwie niebieskozielonej (kolory mieszane ku podstawowym – prawie 100% przebadanych Anglików; ale tylko 50% użytkowników języka Tarahumara),
• 1984 Bloom – praca n/t hipotezy Whorfa; przywołanie badań stopnia aktywizacji materiału z logiki przez studentów chińskich i amerykańskich: Chińczycy lepsi, bo w jęz. chińskim istnieją odmienne formy językowe na określenie związków typu prostych implikacji, co zwiększa wyrazistość perceptualną różnic między treścią logiczną tych implikacji => wyrazistość fizyczno-perceptualna znajduje lustrzane odbicie w wyrazistości leksykalnej; wyrazistość leksykalna potęguje wyrazistość fizyczno-perceptualną.

Język – jak to ujmował Whorf – odgrywa aktywną rolę i wpływa na ludzkie myśli i zachowania, proces ów, czego ani Whorf, ani Sapir nie odnotowali, przebiega w zgodzie z uniwersalnymi perceptualnymi i kognitywnymi preferencjami człowieka. Wnioski te nie oddzielają ostro stanowiska uniwersalistycznego od relatywistycznego.
2. Pogląd na świat i ikoniczność:

Poznanie ludzkie nie jest determinowane przez język. Jedne systemy leksykalne i gramatyczne pozwalają na bezpośrednią dostępność do niektórych znaczeń, inne zmuszają do przekazywania podobnych znaczeń pośrednio, przez peryfrazę lub struktury analityczne. Konsekwencją postaci relatywizmu według hipotezy Whorfa było przyjęcie tezy o nieprzetłumaczalności tekstów w różnych językach i tezy o niemożliwości rozumienia innego niż swój kodu językowego. Przyjęcie pewnych założeń lingwistyki kognitywnej pozwala na osłabienie tak radykalnych wniosków i umożliwia przejście na uniwersalistyczne pozycje.

Formy syntetyczne i analityczne a znaczenie:
Główną przyczyną sporów dotyczących związków między formami jednowyrazowymi a ich analitycznymi definicjami jest założenie, że ich reprezentacje semantyczne nie są identyczne (np. Jerry Fodor ‘malować’ (paint) – pokrywać powierzchnię przedmiotu farbą (Nieścisłości!- bo czy pokrywać pędzel farbą to już malować??, etc.))
Nieadekwatność teorii semantycznych opartych wyłącznie na dekompozycji znaczeń przejawia się w następujących kwestiach:
1. Opozycje binarne w semantyce nie zadowalają.
2. Pomijanie kontekstu prowadzi do nieścisłości w analizie.
3. Uniwersalność prymarnych cech semantycznych, takich jak MALE/ HUMAN, ja, ty, chcę, etc. jest dyskursywna.
4. Metoda dekompozycyjna nie respektuje zasady ikoniczości.
Formy zdekomponowane wnoszą dodatkowe cechy semantyczne, których brak jest formom jednowyrazowym. Te dodatkowe właściwości konstrukcji analitycznych to naddatek semantyczny. Istnieje też niedobór semantyczny, czyli ta część znaczenia, która związana jest całościową interpretacją jednostki leksykalnej i gubi się podczas podziału znaczenia tej jednostki na cząstki (w związku z tym ich suma nie może dać interpretacji całkowicie synonimicznej do hasła wyjściowego). Znaczenia jednostek jednowyrazowych mogą być interpretowane podobnie, a pomnożenie znaczeń językowych zostawia wiele miejsca na proces nazywany przemieszczeniem znaczeń. Formą tego procesu jest ekwiwalencja jednowyrazowa, czyli synonimia właściwa.
Zasada ikoniczności (forma i znaczenie są w stosunku do siebie bardziej ikoniczne niż arbitralne) przemawia za relatywizmem językowym. Skoro forma i znaczenie są ikoniczne, różne formy muszą wiązać się z różnymi znaczeniami (dotyczy to też ekwiwalentów międzyjęzykowych). W językach ikonicznych występują różne typy ikoniczności. W wielu językach reduplikowanych wprowadza się cechę wielości lub intensywności: np. Hopi
saaqua – saa-saqua drabina – drabiny
Samoan taaba – mówić taaba taaba – wrzeszczeć
Często sens, zawartość pojęciowa oraz ramy wiedzy o świecie i kontekstu są odmienne w parafrazach: np. ‘Czy mógłby pan mówić ciszej?’, ‘Zamknij się!’.
Z ikonicznym układem predykacji mamy do czynienia również w wypowiedzeniach. Zdanie z dopełnieniem dalszym (np. ‘Napisałem tacie list.’) wyraża bardziej bezpośrednie znaczenie bliskości, niż w wypadku, gdy dopełnienie oddzielimy przyimkiem „do” (‘Napisałem list do taty.’). Przyimki wprowadzają implikację pośredniości. ‘Przeskoczył płot.’ / ‘Przeskoczył przez płot.’ – „przez” może sugerować rozciągłość obiektu wzwyż, stąd sugerowane trudności w pokonaniu przeszkody. Pewne wyrażenia traktowane są często jako symetryczne (symetria pozorna) przy dopełnieniach określonego typu (blisko, daleko, naprzeciw, przy):
‘Muzeum jest blisko parku.’ ‘Park jest blisko muzeum.’
ale: ‘Rower jest blisko parku.’ ‘Park jest blisko roweru.’ Nieakceptowalne!
Komponencjalna analiza znaczeń:

Problem dekompozycji znaczeń wyrósł z założeń praskiej szkoły fonologicznej
i badań amerykańskich antropologów. Podejście komponencjalne i analiza znaczeń, wykorzystujące matryce cech to apogeum w modelu transformacyjno-generatywnym. Ustalono zbiór warunków przynależności jednostek leksykalnych do danego pola (wg Lipki, cyt. za Coseriu):
3. Jednostki muszą wchodzić w opozycje i należeć do tej samej kategorii gramatycznej.
4. Jednostki muszą mieć przynajmniej jedną cechę semantyczną wspólną.
5. przynależność do danego pola musi być stwierdzona metodami obiektywnymi.
Z powyższymi warunkami wiążą się dwa zasadnicze dla teorii strukturalistycznych założenia:
1. Znaczenia leksykalne to wiązki cech, niezależnych od kontekstu i zorganizowanych hierarchicznie przez opozycje binarne.
2. Możliwa jest całkowita dekompozycja znaczeń leksykalnych do zbioru uniwersalnych prymarnych cech semantycznych.
Gdyby analizować to w oparciu o zawartość metaforyczną, pozycję realistyczną reprezentowałby Putnam (teoria stereotypów), inni zaś (Wierzbicka, Chomsky, Lakoff, etc.) podejście konceptualistyczne:

KOMPOZYCYJNOŚĆ
SCHEMATY PREKONCEPTUALNE
KATEGORIE PODSTAWOWE
Każde pojęcie jest albo prymarne, albo zbudowane ostatecznie z cech prymarnych wg w pełni produktywnych zasad kompozycji semantycznej (Wierzbicka).
Pojęcia nie posiadają struktury wewnętrznej i mogą być wrodzone (Katz).
Jedynie pojęcia poziomu podstawowego i wyobrażeniowo-schematyczne są bezpośrednio znaczące. Mają strukturą wewnętrzną, są skorelowane ze schematami prekonceptualnymi. Na ich podst. buduje się, wykorzystując doświadczenie, Idealizowane Modele kognitywne o złożonej strukturze (Lakoff, Fillmore, Langacker).

3. Prototypy i schematy wyobrażeniowe:
Pojęcie prototypu użyte zostało pierwszy raz do określenia pojęć nominalnych rodzaju naturalnego poziomu podstawowego (wróbel, szczygieł, orzeł (ptaki)), później rozszerzono je na kategorie werbalne, przyimki, większe konstrukty.
Niektórzy lingwiści wykorzystują teorię prototypów jako instrument metodologiczny (Lakoff), założenie o nieproporcjonalnej bazie znaczeń lingwistycznych, inni ( Wierzbicka) twierdzą, że konfliktowe byłoby przyjęcie teorii kategoryzacji opartej na rozróżnieniu prototyp – peryferie i równocześnie założeniu istnienia podstawowego, uniwersalnego poziomu lingua mentalizm, składającego się z ograniczonej liczby (2- kilkadziesiąt) uniwersaliów semantycznych, z których buduje się bardziej złożone struktury języka.
Lingwiści kognitywni:
● Wywodzą się z nurtu gramatyki przestrzeni (R. Langacker)
● Opowiadają się za nieużywaniem języka naturalnego do reprezentacji znaczeń,
● Zaproponowali przedstawianie znaczeń językowych w postaci reprezentacji niepropozycjonalnych, wyobrażeniowo-schematycznych, aktywizowanych nie tylko w wypadku struktur językowych, ale także w wypadku innych niż lingwistyczne zdolności kognitywnych człowieka, przede wszystkim takich, jak percepcja wzrokowa i oparte na niej pojęcia. Schematy te prekonceptualne w swojej naturze, oparte na bazie sensomotorycznej, tworzą swoiste ZAKOTWICZENIA KONCEPTUALNE zarówno językowych, jak i poznawczych sprawności człowieka.
● W latach 70-tych – teorie wywodzące się z matematycznej teorii katastrof (R. Thoma, W. Wildgen).
● Teoria katastrof i schematy prekonceptualne Langackera zakładają istnienie prekonceptualnych reprezentacji semantycznych dla znaczeń, które są determinowane kontekstem wiedzy o świecie i kontekstem interakcyjnym.
● Jedyną metaforą, która ma uzasadnienie w kognitywnym modelu semantyki, nie jest metafora języka, lecz „architektury pojęć”.

4. Nieokreśloność przekładu:
Teza o braku synonimii w języku naturalnym wiąże się z przekonaniem o niemożliwości tłumaczenia. Przykładem tego jest teza Quine’a o niemożliwości przekładu. Quine wymyślił słowo „gavagai” (w języku wyimaginowanej, nikomu nieznanej społeczności) na określenie przebiegającego królika (ale to nie musi oznaczać właśnie królika, ale np. części królicze, królikowatość, etc.). Ostateczna poprawność przekładu nie może być jednoznacznie ustalona, jest niesprawdzalna w żadnym kontekście eksperymentalnym. W wypadku nieokreśloności konceptualnej, płynne są same granice miedzy pojęciami, co dodatkowo relatywizuje naszą percepcję świata i komplikuje sprawę przekładu.

5. Podejście kognitywne, przekład i rozumienie:
Nowe teorie kognitywne (Lakoff 1987) wprowadziły potrzebę wyraźnego odróżnienia niemożności przekładu w sensie filozoficznym od niemożności rozumienia wypowiedzi językowej (nawet jeśli przekład jest niemożliwy, to nie znaczy, że rozumienie jest niemożliwe). Rozumienie w wersji kognitywnej to zdolność konceptualizacji na bazie przesłanek werbalnych i niewerbalnych oraz zdolność skorelowania tych konceptualizacji z własnym doświadczeniem użytkownika języka. Przekład zaś wymaga jeszcze skorelowania produktu tych operacji umysłowych z planem wyrażania w języku docelowym.

6. Uniwersalia kognitywne a współmierność:
● kognitywiści próbują znaleźć argumenty przemawiające przede wszystki za uniwersalnością wielu podstawowych ludzkich predyspozycji i doświadczeń, a nie tezę o uniwersalności struktur, etc.,
● uniwersalia propozycjonalne, charakterystyczne dla formalnych pojęć semantycznych, zastępowane są uniwersalnymi schematami wyobrażeniowymi, usytuowanymi w przestrzeniach mentalnych, zbiorami preferencji psychofizjologicznych, percepcjami poziomu podstawowego, które prowadzą do kształtowania pojęć podstawowych, opartych na prekonceptualnych konfiguracjach sensomotorycznych i uwzględniających takie wymiary, jak: poziomy/pionowy, góra/dół, a także opartych na odczuwaniu oraz odrębności obiektów od siebie i podłoża,
● Lakoff (1987) zaproponował wprowadzenie miary podobieństwa systemów pojęciowych, a co za tym idzie językowych w postaci następujących kryteriów:

Kryteria współmierności (commensurability criteria):
1. Klasyczne kryteria warunków prawdziwości – w modelach klasycznej przekładalności formalnej, (np. polski i angielski system przyimków spełnia to kryterium).
2. Kryterium rozumienia – kryterium eksperiencjalne, bazujące na fakcie, że można rozumieć odmienne systemy pojęciowe dzięki prekonceptualnej strukturze doświadczenia i ogólnej zdolności konceptualizacji (system określników w języku Cara i angielskim – spełniają tylko kryterium rozumienia).
3. Kryterium użycia pojęć – wg Whorfa identyczne użycie ma miejsce wtedy, gdy używa się tych samych pojęć w ten sam sposób (przykład braku identyczności użycia: system aspektu w jęz. ang. i Hopi – kryterium rozumienia spełnione, kryterium użycia nie).
4. Kryteria ram wiedzy o świecie – Fillmore (1977), Kuhn (1970), systemy są podobne, jeśli pojęcia w nich występujące odpowiadają sobie w tych samych ramach porządkujących wiedzę o rzeczywistości (np. system przyimkowy w jęz. pol. i jęz. ros.).
5. Kryteria organizacji pojęć – Brugman (1981), podobieństwo systemów językowych określa się biorąc pod uwagę organizację pojęć ekwiwalentnych (przyimki polskie i angielskie mają inną organizację).

Współmierność jest pojęciem dynamicznym. Systemy, które spełniałyby wszystkie kryteria, stanowiłyby idealne przypadki systemów optymalnie współmiernych, wręcz identycznych. Systemy, które w mniejszym stopniu albo wcale nie dają się skalibrować to systemy diametralnie różne.

Wnioski:
9 semantyka kognitywna wykracza poza klasyczne dychotomie: obiektywizm/subiektywizm, racjonalizm/empiryzm, uniwersalizm/relatywizm,
10 z empiryzmu zrodził się eksperiencjalizm (doświadczenia cielesne kształtują system pojęciowy), z racjonalizmu paradygmatyzm (istniejące pojęcia wpływają na nowe doświadczenia),
11 system językowy dostarcza form do konceptualizacji, każdy język używa unikatowych kombinacji,
12 nieobecność lub obecność nazw dla poszczególnych pojęć oraz sposobów wyrażania powoduje różnice i ma implikacje poznawcze,
13 odpowiadające percepcjom schematy poznawcze nie są pełne, zdeterminowane, niezmienne, są częściowo otwarte na zmiany,
14 struktury morfologiczne, składniowe i dyskursywne przez schematy poznawcze wiążą postrzeganą przez nas rzeczywistość,
15 uniwersalia językowe są niezwykle trudne do znalezienia w czystej, absolutnej formie,
16 struktury semantyczne nie są uniwersalne,
17 tym, co jest naprawę uniwersalne i może stanowić punkt odniesienia dla ludzkiego porozumienia jest substrat kognitywny,
18 kognitywiści są uniwersalistami, gdy biorą pod uwagę poziom kognitywny (przyjmują istnienie wspólnej wszystkim ludziom podstawy fizjologicznej oraz podobnych faz rozwoju kognitywnego,
19 z punktu widzenia semantyki i języka, kognitywizm to relatywizm „oświecony”, który zakłada istnienie pojęć specyficznych dla danego języka, co nie prowadzi w sposób konieczny do radykalnej niewspółmierności systemów językowych,
20 liczne dyskusje n/t hipotezy Humboldta – Sapira – Whorfa dotyczące relacji język – myśli,
21 za kognitywistami: Semantyka języka to konceptualizacje, ale nie odwrotnie, bo nie wszystkie konceptualizacje to semantyka językowa.

Gratuluję, jeśli ktoś coś z tego zrozumiał!!! Bo ja nie mam pojęcia o co w tym artykule tak naprawdę chodzi!!!